Carpeta Metodos Completa
Carpeta Metodos Completa
Carpeta Metodos Completa
Como vemos, toma de decisiones es el término que generalmente se asocia con las
primeras 5 etapas del proceso de resolución de problemas. Toma de decisiones es el
proceso de convertir información den acción. Las últimas dos etapas se realizan a modo de
ejecución y control de lo decidido.
En relación al tercer paso (selección de criterio/s) es importante destacar que a aquellos
problemas en los que el fin es obtener la mejor solución con respecto a un solo criterio se
1
los denomina problemas de decisión de criterio único. Por su parte, los que impliquen más
de un criterio de decisión, se los llama problemas de decisión de criterios múltiples.
2
3) Modelización: concepto. Distintos tipos de modelos.
La etapa de la definición del problema, es decir, la tarea inicial de todo proceso de
resolución de problemas, es el componente decisivo para determinar el éxito o no de
cualquier enfoque cuantitativo en la toma de decisiones. Es necesario definir claramente el
problema, mediante objetivos específicos y restricciones de operación, antes de que el
analista realice el análisis cuantitativo.
Una vez que el problema se logra definir adecuadamente, se puede proceder al
desarrollo y construcción de un modelo que pueda representar el problema en términos
matemáticos. Luego de ello, se aplicarán determinados procedimientos de solución para el
modelo con el propósito de elegir la decisión que resuelva el problema de la “mejor
manera” posible.
4
a) Según los datos del problema:
1. Determinístico: toda la información necesaria para obtener la solución al problema se
conoce con certeza. En este caso, todos los insumos incontrolables son conocidos con
exactitud y no pueden variar.
2. Estocástico o probabilístico: parte de la información necesaria no se conoce con
certeza, sino más bien se comporta de una manera probabilística. En este otro caso, al
menos uno de los insumos incontrolables (pueden ser varios o todos) son inciertos y
están sujetos a variación. En este caso no es posible determinar el valor del resultado, ya
que se desconocen los valores específicos de los insumos incontrolables.
d) Según la función objetivo: se basa en las mismas propiedades que en las restricciones.
1. Objetivo lineal: en la que la función objetivo es lineal.
2. Objetivo no lineal: en la que la función objetivo es no lineal.
Los pasos p/ identificar las restricciones son los mismos que se usan p/ la función
objetivo. Algunas de las consideraciones que llevan al uso de restricciones son:
• Tecnología inmutable a corto plazo y las leyes de la naturaleza: en las situaciones de
planeación a corto plazo, las restricciones tecnológicas son inevitables. Esto se debe a que
para modificar la capacidad productiva de una empresa se requiere de un lapso de tiempo
significativamente largo.
• Cuellos de botella: por alguna razón o causa exógena incontrolable los recursos pueden
escasear y provocar lentitud e incluso paralización en un proceso productivo.
• Costos de la investigación: un factor práctico importante en la resolución de problemas
se refiere al costo de encontrar la respuesta. Las restricciones se usan con frecuencia para
ponerle un límite a dichos costos y así tratar de reducirlos. Siempre debe hacer el análisis
de beneficio-costo: el costo de obtener la información debe ser menor al beneficio que la
misma nos brinda.
• Estructura jerárquica y delegación de la autoridad: las restricciones parecer ser parte
inherente de la estructura de la organización. La necesidad de delegar la autoridad y
responsabilidad de ciertas actividades en tanto que se conversa la responsabilidad global
para la totalidad de una operación casi siempre dicta el uso de restricciones y, en
consecuencia, el acercamiento a la optimización restringida.
8
5) Desarrollo de modelos: preparación, métodos de cálculo y resolución
Preparación de datos
Una vez que se consigue desarrollar y construir el modelo, el siguiente paso consiste en
la preparación de todos aquellos datos que el mismo precise. En este sentido, datos se
refiere a los valores de los insumos incontrolables. Se deben especificar todos los datos
antes de que sea posible analizar el modelo y elegir una decisión o solución recomendable
para el problema.
Si el modelo es relativamente pequeño y los insumos incontrolables que se requieren
son poco numerosos, es probable que el analista cuantitativo combine el desarrollo del
modelo y la preparación de los datos en una sola etapa. Es decir que se insertan los valores
de los datos conforme se van desarrollando las ecuaciones del modelo matemático.
No obstante, en ciertos casos los datos no están fácilmente disponibles. En este caso, en
el momento en que se desarrolla el modelo se conocen los datos que van a requerirse,
pero no sus valores, por lo que se adopta una notación general para identificar a los datos
(por ejemplo, en una formula se usan letras) y luego, en una etapa separada (preparación
de datos) se realiza la recolección de los mismos y se “ingresan” al modelo.
10
Si bien se permite que el flujo a lo largo de un arco se produzca en cualquier dirección, se
supone que ese flujo será en una dirección, en la seleccionada, y no se tendrán flujos
simultáneos en direcciones opuestas. Sin embargo, en un proceso de decisiones, se permite
una secuencia de asignaciones de flujos en direcciones opuestas, pero en el entendimiento
que el flujo real será el flujo neto (la diferencia de los flujos asignados en las dos direcciones).
Una red que tiene únicamente arcos dirigidos se llama red dirigida. Análogamente, una
formada exclusivamente por arcos no dirigidos, se denomina red no dirigida. Una red que
combine arcos de ambos tipos (incluso una no dirigida) se puede convertir en una dirigida
sustituyendo cada arco no dirigido por un par de arcos dirigidos en direcciones opuestas.
Cuando dos nodos no están unidos por un arco puede ocurrir que igualmente estén
conectados por una serie de arcos. Una trayectoriaentre dosnodos es una sucesión de arcos
distintos que conectan estos nodos. Cuando algunos o todos los arcos de una red son
dirigidos, se hace la distinción entre trayectorias dirigidas y no dirigidas. Una trayectoria
dirigida del nodo i al nodo j es una sucesión de arcos cuya dirección es hacia el nodo j.
Una trayectoria no dirigida del nodo i al nodo j es una sucesión de arcos cuya dirección
puede ser hacia o desde el nodo j.
Un ciclo es una trayectoria que comienza y termina en el mismo nodo. En una red dirigida
un ciclo puede dirigido o no dirigido, según si la trayectoria en cuestión es dirigida o no.
Se dice que dos nodos están conectados si la red contiene al menos una trayectoria no
dirigida entre ellos. Una red conexa es una red en la que cada par de nodos está conectado.
Supóngase una red conexa de n nodos en la que se han eliminado todos los arcos.
Podemos “hacer crecer” un “árbol” agregando un arco (o “rama”) a la vez. El primer arco
puede ir en cualquier lugar para conectar algún par de nodos. De ahí en adelante, cada
arco nuevo debe agregarse entre un nodo que ya ha sido conectado a otros nodos y a un
nuevo nodo no conectado. Así se evita que se forme un ciclo y además se asegura que el
número de nodos conexos es uno más que el número de arcos. Cada nuevo arco crea un
árbol más grande, que es una red conexa que no contiene ciclos no dirigidos. Una vez
agregado el (n-1) arco finaliza el proceso, y el árbol se expande a los n nodos. Este árbol se
llama árbol de expansión, y es una red conexa para los n nodos que NO contiene ciclos no
dirigidos. Todo árbol de expansión tiene exactamente (n-1) arcos, ya que esta es el mínimo
necesario para tener una red conexa y el máximo para que no haya ciclos dirigidos.
Por último, la cantidad máxima de flujo que puede circular en un arco dirigido se conoce
como capacidad del arco. Entre los nodos, se diferencian aquellos que son generadores de
flujo, absorbedores netos o ninguno de los dos. Un nodo fuente (o nodo origen) tiene la
propiedad de que el flujo que sale del nodo excede el flujo que entra a él. El caso inverso
es un nodo demanda (o nodo destino), en el que el flujo que llega excede al que sale de él.
Un nodo de trasbordo o (nodo intermedio) satisface la conservación del flujo, así el flujo
que entra es igual al que sale.
11
1) Distintos tipos de algoritmos aplicables
Al analizar los distintos tipos de algoritmos, es importante que previamente se defina
ese concepto. Un algoritmo es un conjunto ordenado y finito de operaciones que permite
hallar la solución a un problema. Por lo general se tratan de procedimientos repetitivos o
recurrentes.
12
Resumen del algoritmo
1. Asignar al nodo 1 el rótulo permanente [0;I]; la I indica que el nodo 1 es el inicial; y el 0,
que la distancia del nodo 1 hacia sí mismo es, obviamente, cero.
2. Determinar rótulos tentativos para los nodos a los que puede llegarse en forma directa
desde el nodo 1. El primero número de cada marcación es la distancia directa entre el
nodo 1 y el nodo en cuestión, lo que denominamos valor distancia. El segundo número
señala el nodo que antecede en la ruta desde el nodo 1 hasta el nodo en cuestión.
3. Identificar el nodo con la etiqueta tentativa que tenga el menor valor de distancia, y
considerarlo como rotulado en forma permanente. Si todos los nodos tienen etiquetas
permanentes, ir al paso 5.
4. Considérense todos los nodos que no tienen marcación permanente y a los que se
puede llegar en forma directa desde el nuevo nodo con el rótulo permanente que se
estableció en el paso anterior. Calcular para estos nodos las etiquetas tentativas de la
siguiente forma:
a. Si el nodo que carece de etiqueta permanente y que se considera, tiene una
marcación tentativa, obtener la suma del valor de distancia del nuevo nodo etiquetado
permanentemente, y la distancia directa desde este último nodo al nodo en cuestión. Se
comparan los valores de distancia de ambos rótulos tentativos, y se opta por el que
posea menor valor distancia, descartando el otro. Repetir el paso 3.
b. Si el nodo que no tiene etiqueta permanente y que se está evaluando no posee
rótulo tentativo, se crea uno con valor de distancia igual a la suma del valor de distancia
en el nuevo nodo etiquetado como permanente y la distancia directa desde este último
nodo al nodo en cuestión. Repetir el paso 3
5. Los rótulos permanentes identifican la distancia más corta desde el nodo 1 hasta cada
uno de los demás nodos, y el nodo precedente sobre la ruta más corta. Se puede hallar la
ruta más corta hasta un determinado nodo, partiendo de éste, y yendo “hacia atrás” a sus
nodos precedentes.
Como podemos ver, se requieren N-1 iteraciones del algoritmo para encontrar la ruta
más corta hacia todos los nodos. Es simple modificar el algoritmo para encontrar la
distancia más corta desde cualquier nodo –por ejemplo el nodo k– a todos los demás
nodos de la red. Para ese cambio, simplemente se comienza asignando la etiqueta
permanente [0;S] al nodo k. Después, aplicando los pasos del algoritmo, puede obtenerse
la ruta más corta desde el nodo k hasta cada uno de los otros nodos.
13
información dada incluye alguna medida de longitud positiva (distancia, costo, tiempo)
asociada con cada arco.
Una red con n solo requiere (n-1) arcos para proporcionar una trayectoria entre cada
par de nodos. No deben usarse más ligaduras ya que esto aumentaría, sin necesidad
alguna, la longitud total de los arcos seleccionados. Las (n-1) ligaduras deben elegirse de
forma tal que la red resultante forme un árbol de expansión (ver definición vista
anteriormente; Importante: NO existen ciclos). Por lo tanto, el problema es encontrar el
árbol de expansión con la longitud total mínima de sus arcos.
Los pasos del algoritmo para resolver este problema son:
1. Comenzar en forma arbitraria en cualquier nodo y conectarlo con el nodo más próximo.
A estos dos nodos se los denomina nodos conectados o conexos, mientras que a los nodos
restantes se los llama nodos no conectados o inconexos.
2. Identificar el nodo no conectado que esté más cerca de uno de los conectados.
Deshacer, también arbitrariamente, los empates si son dos o más los nodos que califican
como más cercanos. Agregar este nodo al conjunto de nodos conectados. Repetir este
paso hasta que se hayan conectados todos los nodos.
Es importante destacar que, sin importar con que nodo se comienza a aplicar el
algoritmo, siempre se obtiene el mismo resultado y se forma el mismo árbol de extensión.
14
Para resolver este problema se aplica el siguiente algoritmo:
1. Encontrar cualquier camino que vaya del nodo origen al nodo de depósito y que tenga
capacidades de flujo mayores que cero para todas las ramas del camino en el sentido del
flujo. Si no hay camino disponible, ya se ha llegado a la solución óptima.
2. Encontrar la menor capacidad de la rama, P f , sobre el camino que se eligió en el paso 1.
Aumentar el flujo sobre la red enviando una cantidad de P f sobre el camino elegido en el
paso 1.
3. Para el camino que se seleccionó en el paso 1, reducir todas las capacidades de flujo de
las ramas en el sentido del flujo en P f , y aumentar las capacidades de flujo de las ramas en
el sentido contrario en igual cantidad. Volver al paso 1.
15
se presenta es la interdependencia entre las actividades; por ejemplo, algunas actividades
dependen de la terminación de otras para poder arrancar.
Las técnicas PERT y CPM dan respuesta a las siguientes preguntas:
• ¿Cuál es el tiempo total que se requiere para terminar el proyecto? ¿Cuál es el tiempo
mínimo posible?
• Para cumplir con este tiempo de conclusión ¿Qué tareas son críticas, en el sentido de
que un retraso en cualquiera de esas tareas provoca un retraso en la conclusión de todo el
proyecto?
• ¿Cuánto se pueden demorar las actividades no críticas sin que ocasionen demoras en el
proyecto total?
• ¿Es posible acelerar ciertas tareas para terminar todo el proyecto más pronto? Si es así,
¿Qué tareas serían éstas y cuál sería el costo adicional?
Si bien PERT y CPM tienen el mismo propósito general y utilizan en buena medida la
misma terminología, las técnicas se desarrollaron en forma independiente. CPM se utiliza
para administrar proyectos que implican tiempos de tarea determinados, mientras que
PERT se usa para aquellos que implican tiempos probables de tarea.
El principal objetivo de estas técnicas consiste en facilitar el cumplimiento en término de
los proyectos, respetando en la medida de lo posible los costos presupuestados, mediante
el uso eficiente de los recursos humanos y materiales involucrados, y satisfaciendo
limitaciones internas (calidad y cantidad de recursos disponibles) y externas (inspecciones,
aprobaciones, fechas de entrega, demoras en entrega de MP, etc.). También presenta otros
objetivos específicos:
1. Minimizar el tiempo total de duración del proyecto.
2. Definición de políticas en cuanto a su duración total y a la de sus etapas intermedias.
3. Minimizar el costo total del proyecto.
4. Conocer requerimientos financieros y de todo tipo de recursos. Definir políticas de
utilización de recursos.
5. Seguridad de la efectiva realización del proyecto en tiempo prefijado.
6. Disminuir tiempos muertos en equipo y capacidad ociosa del personal.
7. Coordinar grupos de subcontratistas.
8. Coordinar departamentos.
16
En el proceso de planificación, a partir de los objetivos planteados, se produce
documentación que abastecerá a los demás grupos de procesos, obteniéndose
información como:
• Definición de las actividades a realizar.
• Identificación de la secuencia de las actividades.
• Estimación de la duración de las actividades.
• Planeamiento de recursos necesarios para ejecutar las actividades.
• Costos: estimación y presupuesto, con especificación de montos y momentos en que
serán necesarios.
• Desarrollo del programa tentativo de ejecución de cada actividad y los plazos para la
efectivización del proyecto en su conjunto. El calendario de fechas confeccionado es la
base de la programación, que puede ser: 1) Programación Primaria, en la que se detallan
el momento en que se ejecutará cada tarea y la asignación de recursos para ello, 2)
Programación Definitiva, derivada de la primaria, a partir de ajustes en la ejecución prevista
para las actividades. Lo que se busca es la asignación óptima de recursos en el proyecto.
17
PERT y CPM
La aplicación de las técnicas PERT y CPM presenta las siguientes características:
• Posibilitan actuar por excepción, sobre aquellos elementos que difieren sobre lo
programado cuando se les realiza el control permanente durante la ejecución.
• Facilitan la coordinación entre los responsables de subproyectos.
• Durante la ejecución y control permiten conocer los grados de avance real en relación
con lo planeado, así como comparar la evolución de los costos reales contra los
presupuestados. Esto se vincula con la aplicación de la Gestión del Valor Ganado (EVM), lo
cual veremos en mayor profundidad más adelante.
• Ante retrasos en la ejecución permiten:
a) Identificar claramente qué tareas deberían reprogramarse.
b) Anticiparse a los efectos que los cambios provocarán sobre los costos.
• Si las duraciones de las tareas son estimaciones (como en PERT), permiten relacionar
probabilidades y duración estimada del proyecto, y complementándolo con técnicas de
simulación, se logra expandir la información disponible para la toma de decisiones.
• Proveen información valiosa al encargado de la gestión, como es: fecha estimada de fin
del proyecto y detalle de actividades críticas; primeras y últimas fechas de inicio y fin de
cada actividad; detalle de actividades NO críticas que pueden retrasarse en su inicio o
finalización, y en qué margen de tiempo; carga y asignación de recursos (y costos
relacionados) en cada momento del cronograma planeado del proyecto.
• Con la información del punto anterior, la Dirección puede: enfocarse en las actividades
críticas; facilitar el seguimiento y control por cada sector responsable de las distintas
actividades; verificar permanentemente que se cumpla con la asignación de recursos según
lo programa y, eventualmente, mejorar tal asignación; entre otras.
19
El tamaño de una tarea debe estar en proporción con el control que usted pueda
ejercer.
Debe haber alguna(s) persona(s) responsable(s) de la conclusión de cada tarea
individual.
En base a las mismas, es muy importante elaborar una tabla que incluya todas las tareas
relevantes del proyecto. En la misma se reconocerá a cada tarea con alguna codificación
(por ejemplo, la letra A para la primera actividad, la B para la segunda y así sucesivamente)
y se detallará una breve descripción de cada una de ellas.
Pueden darse dos situaciones: que se conozcan con certeza el tiempo requerido en cada
tarea sin ninguna variabilidad significativa o que, en caso contrario, se trate de un proyecto
cuyas tareas requieren tiempos inciertos o que deben estimarse con cierta variabilidad
(probabilidades). En el primer caso se aplica la técnica CPM y en el segundo, PERT.
Con esta nueva información se le puede agregar una columna nueva a la tabla de
tareas, en la cual se exhibirá el tiempo de cada una de ellas.
20
Con ello se le agrega una nueva columna a la tabla, sobre la cual se consignan las tareas
que deben concluirse previamente a la ejecución de cada actividad.
La lista de tareas predecesoras inmediatas de una tarea específica incluye aquellas
tareas que:
Deben terminarse antes de que la tarea específica pueda comenzar;
No dependen para su inicio de la conclusión de cualquier otra tarea inmediatamente
predecesora de esta lista.
Entonces, de todas las tareas que deben terminarse antes de que pueda iniciarse una
tarea dada, solo es necesario identificar las tareas inmediatamente predecesoras. Para ello
es fundamental conocer el proyecto y la forma en que las tareas se vinculan entre sí en
términos de secuencia.
21
3) Redes PERT y CPM. Camino crítico
Conceptos involucrados, cálculo y aplicación
Como dijimos anteriormente, el objetivo al aplicar el tiempo de todas las actividades, es
hallar el menor tiempo en el que el proyecto puede terminarse, siendo este tiempo total
menor a la sumatoria de los tiempos individuales de las tareas que componen al proyecto,
ya que algunas de ellas pueden llevarse a cabo simultáneamente.
En esta primera parte trabajaremos con aquellos proyectos en las que los tiempos de
duración de cada actividad se conocen con certeza (es decir, modelos matemáticos
determinísticas).
A partir de los siguientes títulos explicaremos los distintos procedimientos para lograr
hallar las respuestas a las siguientes preguntas:
1. ¿Qué tan pronto puede completarse todo el proyecto?
2. Para satisfacer este tiempo de conclusión ¿Qué tareas son críticas, en el sentido de
que un retraso en cualquiera de esas tareas produciría un retraso en la conclusión de
todo proyecto?
3. Respecto de las actividades no críticas ¿En qué cantidad pueden retrasarse sin afectar
la terminación del proyecto?
La forma de calcular las fechas para cada actividad resulta sencilla. Al primer nodo de la
red se le asigna la fecha 0 (cero), y a partir ella se cuentan los demás momentos, que
servirán para ubicar a todas las tareas dentro de ese calendario que es el programa de
realización del proyecto.
22
1. En primer lugar se calculan las fechas más tempranas. Para esto, a partir de un dato
conocido (fecha más temprana de inicio de un nodo ya calculada) se suma la duración de
la tarea representada en él para calcular su fecha más temprana de finalización, que a su
vez será la fecha más temprana de inicio para el nodo conectado que le sigue en la red.
Cuando en un nodo confluyen varios arcos (es decir, posee más de una actividad
inmediatamente antecedente) y por ende varias tareas aportarían su fecha más temprana
de finalización para calcular la del nodo bajo supervisión, de todas esas fechas más
tempranas de terminación se toma el mayor valor para asignarlo como fecha más
temprana de inicio del nodo analizado. Esto es así ya que la actividad requiere para su
inicio que se terminen todas las demás tareas que son antecesoras inmediatas.
El proceso mencionado sigue hasta llegar a calcular la fecha más temprana de
finalización del momento final del proyecto (representada por el nodo final), la cual
determinará, como ya dijimos, la fecha más temprana en que puede finalizar la ejecución
del proyecto, y como tal indicia la menor duración que puede tener éste de manera que se
puedan finalizar todas las tareas que lo componen.
2. Se sigue con el cálculo de las fechas más tardías. Conocido en qué momento terminará
el proyecto, se asignan los mismos valores obtenidos para las fechas más tempranas de
ese nodo final a las fechas más tardías (tanto de inicio como de terminación) de dicho
nodo. Esto es así, porque cualquier retraso ocasionaría la demora en la finalización del
proyecto en su totalidad.
A partir del momento más tardía en que puede terminar el proyecto (fecha más tardía
de terminación del nodo final), se sigue un camino inverso al citado en 1.Para cada
actividad se calcula su fecha más tardía de terminación y, restándole la duración de la
actividad, se calcula su fecha más tardía de inicio, que a su vez permite calcular los
momentos más tardíos de finalización de las actividades que la preceden.
Puede ocurrir que, al evaluar una fecha más tardía de finalización confluyen varios arcos
(la actividad precede a más de una en el proyecto, motivo por el cual se harían los cálculos
con distintos datos y para un mismo nodo). En este caso la fecha más tardía de finalización
de la actividad, es el menor valor entre las fechas más tardías de inicio de todas las
actividades que le siguen. Así se garantiza que todas las tareas que inician en tal momento
(y las que les siguen en la secuencia) se podrán completar sin alterar la fecha de
finalización del proyecto.
Holguras y criticidad
Criticidad se refiere a una característica que tienen algunas tareas del proyecto: la
imposibilidad de demorar su finalización (ya sea por iniciarse más tarde o por extenderse
la duración con respecto a lo programado), ya que dicha demora provocaría que el
proyecto se termine en una fecha más allá a la calculada como más temprana de
terminación de la tarea final.
23
Una vez calculadas las fechas más tempranas y tardías de inicio y de terminación para
todas las actividades, se realiza el siguiente cálculo:
𝐅𝐅𝐭𝐭 ′ − 𝐅𝐅𝐢𝐢 − 𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃ó𝐧𝐧 = 𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇
El resultado de la formula, como vemos, es la “holgura” o flotante, la cual nos indicia en
cuantas unidades de tiempo puede demorar su finalización una actividad.
La inexistencia de holgura (H=0) es un indicio muy importante en la administración de
proyectos mediante redes, y lleva a definirlo como nodo crítico, lo cual constituye la
condición necesaria (pero no única) para que se esté en presencia de una tarea crítica.
24
Ahora, para poder estimar la duración de cada actividad y tomar tales tiempos como
variables aleatorias, es necesario conocer de ellas:
a) La distribución de probabilidades aplicable a cada una de estas variables.
b) Las medidas de tendencia central y de dispersión que pueden caracterizarlas, tales
como la esperanza matemática y la varianza.
𝒕𝒕−𝑨𝑨
Donde, haciendo el cambio de variable 𝒙𝒙 = es:
𝑩𝑩−𝑨𝑨
𝟏𝟏
𝜷𝜷(𝜶𝜶+𝟏𝟏,𝝋𝝋+𝟏𝟏) = � 𝒙𝒙𝒂𝒂 . (𝟏𝟏 − 𝒙𝒙)𝝋𝝋 𝒅𝒅𝒅𝒅
𝟎𝟎
Puede observarse que cuatro parámetros (A,B,α,φ) determinan la forma de la curva.
25
Si bien resulta favorable expresar una ley de distribución probabilística mediante
estadísticos que la representen (por ejemplo, mediante valor medio y desvío estándar en
Gauss y Poisson), en Beta tales valores no conducen a una única distribución.
Entonces, podemos decir que tendrá un valor modal M, y adoptando algunos supuestos
se pueden calcular media (E (t) = 𝒕𝒕̅) y varianza (σ T 2) de la distribución.
𝑨𝑨 + 𝟒𝟒𝟒𝟒 + 𝑩𝑩 𝟐𝟐 𝑩𝑩 − 𝑨𝑨 𝟐𝟐
𝑬𝑬(𝒕𝒕) = 𝝈𝝈(𝒕𝒕) = � �
𝟔𝟔 𝟔𝟔
La curva de una distribución beta es acampanada, pudiendo ser simétrica o no, y la
probabilidad toma sus valores mínimos en A y B, con su valor modal en M. Para valores de
la variable menos que A o mayores que B la probabilidad es cero.
a) Simétrica: se da cuando
• B-M=M-A
• E (t) =M
• α=φ.
Para poder aplicar la Distribución Beta de Euler a las duraciones de las tareas de un
proyecto debemos contar con la estimación de tres duraciones de cada actividad:
1. Duración optimistad o : es el tiempo mínimo en el que puede realizarse la tarea T, si se
dan las mejores condiciones. La probabilidad de esta duración, en la realidad, es del 1%.
2. Duración más probable o normald m : es la duración en condiciones normales, y la que
resultaría más frecuente si repitiera varias veces la tarea.
3. Duración pesimistad p : corresponde al tiempo necesario para ejecutar la actividad
cuando se presentan grandes retrasos en el desarrollo de los trabajos, exceptuando casos
extremos como catástrofes, huelgas generalizadas, etc.
26
Estas tres duraciones estimadas se aplican en PERT con la distribución Beta
asimilándolas a estimadores de los valores mínimo, máximo y modal de la variable d, de la
siguiente forma:
� 𝑻𝑻 es un estimador de A para la tarea T;
𝒅𝒅𝒐𝒐 = 𝑨𝑨
� 𝑻𝑻 es un estimador de B para la tarea T;
𝒅𝒅𝒑𝒑 = 𝑩𝑩
� 𝑻𝑻 es un estimador de C para la tarea T;
𝒅𝒅𝒎𝒎 = 𝑴𝑴
Análogamente, para estimar los valores de la media y varianza de la duración de una
tarea se utilizan las formulas vistas anteriormente:
𝒅𝒅𝒐𝒐 + 𝟒𝟒𝒅𝒅𝒎𝒎 + 𝒅𝒅𝒑𝒑 𝟐𝟐 𝒅𝒅𝒑𝒑 − 𝒅𝒅𝒐𝒐 𝟐𝟐
𝒅𝒅𝒆𝒆 = 𝝈𝝈(𝒕𝒕) = � �
𝟔𝟔 𝟔𝟔
Consecuencias derivadas de las hipótesis admitidas en PERT
La forma de estimar los tiempos de ejecución de cada actividad y la adhesión al ajuste a
una distribución Beta a partir de conclusiones totalmente empíricas, llevaron a varios
estudiosos a criticarlas.
Así, se han determinado ciertos errores de estimación que pueden surgir:
Diferencia entre la distribución probabilística (real, verdadera o más adecuada) aplicable
a la duración de una determinada tarea, y la función Beta adoptada.
Errores en las estimaciones de los tiempos optimista, normal y pesimista.
Errores de aproximación derivados de las fórmulas utilizadas para el cálculo del tiempo
medio esperado y de la varianza.
27
Es de interés determinar la distribución que sigue la variable aleatoria D, y a tal fin se
puede recurrir al Teorema Central del Límite. Dicho teorema expresa: “Si se tiene un
conjunto de variables aleatorias independientes x 1 , x 2 , … , x n , con sus respectivas medias
�y varianzas 𝝈𝝈𝟐𝟐𝒊𝒊 (para i =1, 2, ... ,n), la variable aleatoria X que se obtiene como suma de
𝒙𝒙
dichas variables tenderá a distribuirse en forma Normal, en la medida en que el número de
variables tienda a infinito, siendo la media igual a la suma de las medias y la varianza igual
a la suma de las varianzas de las variables.
En conclusión, para estimar la duración de un proyecto y obtener conclusiones
razonables, deben cumplirse las siguientes condiciones:
1) Independencia entre las distintas variables aleatorias.
2) Independencia en su distribución.
3) El número de variables debe ser muy grande: n → ∞.
28
Análisis de la probabilidad de cumplimiento del proyecto
Al aceptar la Distribución Normalde la variable aleatoria D pueden utilizarse sus
propiedades para encontrar la probabilidad de ejecutar el proyecto en determinados
plazos. Vale recordar que la distribución es simétrica, y por tal motivo la media divide el
área en dos partes iguales, como podemos ver en la siguiente imagen:
29
Estimación del tiempo de ejecución que asegure un nivel de seguridad
También resulta conveniente estimar una duración que permita lograr un objetivo en
función de un determinado nivel de seguridad (y su complemento de riesgo).
Establecido tal nivel de seguridad, se realiza el proceso inverso al del punto anterior: a
partir de la probabilidad correspondiente al nivel de seguridad se calcula la duración
respectiva.
Para aplicar la Distribución Normal Estandarizada N(0,1) se calcula el valor Z que
corresponde a dicho nivel de probabilidad prefijado, y luego la fecha se obtiene:
𝑫𝑫 = 𝑫𝑫𝒆𝒆 + 𝒁𝒁 . 𝝈𝝈
Casos de proyectos con escasa cantidad de tareas
Puede ocurrir que un proyecto esté formado por menos de 30 tareas críticas, por lo que
no es posible aplicar el Teorema Centra del Límite.
En estos casos, puede aplicarse el Teorema de Bienayme-Tchebycheff, del cual puede
deducirse lo siguiente: la probabilidad de que una observación x de una variable aleatoria
X se encuentre dentro del rango de variación de más o menos K veces el desvío estándar
(K.σ) en torno a su valor medio esperado es superior a una constante que vale 1 – 1/k2.
La expresión formal es: P(m – K.σ < x < m + K.σ) > 1 – 1/k2, donde m es la media de
la distribución y equivale a E (X).
Si la anterior expresión es verdadera, también lo será: P(x < m + K.σ) > 1 – 1/k2, la cual
no requiere prueba ya que simplemente se elimina el límite mínimo al intervalo, y por
tanto la probabilidad debe ser mayor que en la expresión anterior. Y permite cuantificar la
probabilidad con los correspondientes márgenes de seguridad y riesgo.
Aplicando esto a la variable D se tiene que:
P(D < D e + K.σ) > 1 – 1/k2
Por ejemplo, si consideramos K=2, la probabilidad de que el tiempo de ejecución del
proyecto sea menor que el valor medio más dos veces el desvío estándar es mayor que el
75%, mientras que el riesgo de no concluir el proyecto antes de D e +2σ es del 25%.
31
Como se ve en la curva, los costos directos aumentan al disminuir la duración de la tarea
desde el punto B (correspondiente a un Costo Normal con una Duración Normal) hasta
el punto A (correspondiente a un Costo Todo Acelerado con una Duración Toda
Acelerada). Podemos observar además que la tasa de incremento es mayor a medida que
la tarea se acelera más.
Esta relación costo-duración es perfectamente entendible en condiciones reales, pero
difícil de manejar en forma práctica dentro del modelo, ya que para cada una de las tareas
del proyectoexisten comportamientos similares, lo que implica una cantidad considerable
decálculos. Por ello, mediante el segmento AB se hace una aproximación lineal al
comportamiento real de los costos directos, de manera de contar con un elemento de
fácilaplicación en los cálculos: la pendiente de la recta es indicativa de la tasa de
incremento del costo directo ante cada unidad de tiempo en que se reduce la duración,
es decir, que la variación en este caso es constante.
El concepto de costo todo acelerado implica realizar la tarea en el menor tiempo posible
en función de los RR asignados. Por debajo de dicho tiempo es imposible ejecutar la tarea,
por ello la gráfica termina en el punto A. Obviamente, la actividad no puede ejecutarse en
un plazo mayor al de su duración normal, hecho por el cual la curva finaliza en el punto B.
En contraposición a los costos directos, se presentan los costos indirectos, que a
diferencia de los anteriores, no pueden identificarse con el desarrollo de una tarea o
actividad en particular, sino que son imputables al proyecto en su totalidad. Es por ello que
si se reduce el tiempo de una actividad y a su vez tiene efecto en la duración total del
proyecto disminuyéndolo, los costos indirectos también bajan. Es decir, que estos costos
varían en forma directamente proporcional al tiempo total del proyecto (pendiente
positiva). Algunos ejemplos son: gastos generales, alquileres, salarios de personal de
vigilancia, electricidad, luz, gas, etc. Estos costos se reflejan mediante funciones lineales
como podemos observar en la siguiente gráfica:
32
Para cada duración de proyecto la suma de todos los costos directos involucrados en
cada una de sus tareas, más los correspondientes costos indirectos, conduce a la suma de
los costostotales del proyecto. Esto puede representar se mediante tres curvas, que se
indican a continuación:
Podemos ver que si la duración del proyecto se reduce de D 2 , con ejecución normal de
todas las tareas, a D 1 , con todas las tareas totalmente aceleradas, los costos indirectos
disminuyen, mientras que los directos aumentan. Esta cuestión provoca que la curva de la
función de CT sea en forma de U, teniendo un mínimo en el tiempo A, el cual representa la
mejor opción de tiempo-costo: el proyecto se finalizará antes de lo normal y se incurrirán
en los menores costos totales a tal fin.
33
Y se incorpora la reducción que operaría en los costos indirectos, en el supuesto de que
el proyecto tenga costos de este tipo, que incidirán en forma inversa al incremento de los
costosdirectos por reducción. El efecto neto se visualiza en la curva Costo Total.
Diagrama calendario
Esta aplicación se basa en una representación gráfica de la red previamente construida,
a la que se agrega una escala de tiempos. En otras palabras, consiste en un diagrama de
barras tradicional (Diagrama de Gantt) al que se le adiciona la posibilidad de graficar las
relaciones entre las tareas. Las características principales son:
Se grafican las actividades en los arcos (enfoque de representación de actividad en
arco). En este caso los nodos representan sucesos: inicio o fin de una actividad.
Los arcos equivalen a las barras del diagrama de Gantt.
Las longitudes de las barras son proporcionales a las duraciones de las tareas.
Se indican las relaciones de precedencia entre las tareas.
Se ubican actividades en el calendario según el momento en que se ha programada
su ejecución conforme lo visto en el capítulo 3.
35
Se puede expresar de dos formas: tabular y gráfico de barras:
Cada celda de la fila total tiene la suma de todos los valores que hay en la columna
correspondiente. Tales sumas sirven para elaborar el gráfico de barras para cada unidad de
tiempo. C/u de ellas (barras) indicará la cantidad de recursos que se requieren en cada una
de las unidades de tiempo, desde que se inicia con el proyecto hasta que éste se finaliza.
Ejemplo de aplicación
Se tiene el proyecto cuyo diagrama calendario en fecha temprana se detalla a
continuación:
36
A partir de los datos de la tabla y el diagrama calendario, podemos expresar la
información mediante un diagrama de carga de recursos tabular: un cuadriculado en el
que se coloca para cada tarea (indicada en su margen izquierdo) la cantidad de recursos
que requiere en cada instante de tiempo en el que se extienda dentro del proyecto. La fila
“Total” muestra el requerimiento del proyecto en cada una de las unidades de tiempo en
que se ejecutará. El diagrama se expone a continuación:
Con estos últimos datos, se puede proceder a la construcción del Diagrama de Carga
de Recursos como gráfico de barras para el proyecto programado en fecha temprana.
Se refleja simultáneamente el tiempo (en abscisas) y la cantidad de recursos requerida por
día (en ordenadas) y se observar en correspondencia con el diagrama calendario en fecha
temprana, coincidiendo las unidades de tiempo del grafo y del cuadro de tabla previa al
párrafo:
En el diagrama podemos ver que el recurso no se utilizará parejo. Existen dos formas
para conseguir un recurso: adquirir dinámicamente las cantidades necesarias en cada
unidad de tiempo, o proveerse al inicio –y permanentemente– del máximo a utilizar (10 en
37
este caso). En el primer caso puede surgir la imposibilidad de obtener los recursos al
momento de necesitarlos, un cambio imprevisto en los precios, etc. En la segunda
modalidad, debería destinarse a otros proyectos la capacidad de recursos no utilizada,
representada en las áreas II y III; el problema es que si no existiesen, se produciría
capacidad ociosa. Una posible tercera alternativa consistiría en mejorar el empleo de la
mano de obra en este mismo proyecto.
39
Se modifica el momento de ejecución de las tareas no críticas aprovechando la holgura
que presentaban las tareas A y D en conjunto; es decir, ninguna de esas actividades
comienza en su fecha más temprana de inicio. Esto descomprime la demanda del recurso
en los días que tenían pico de demanda, los días 7 y 8, siendo ahora la máxima cantidad de
recursos diarios 8.
Los cambios generan un aumento del porcentaje de aprovechamiento:
𝟕𝟕. 𝟐𝟐 + 𝟔𝟔. 𝟏𝟏 + 𝟓𝟓. 𝟑𝟑 + 𝟖𝟖. 𝟐𝟐 + 𝟔𝟔. 𝟒𝟒 𝟕𝟕𝟕𝟕
% 𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂. = × 𝟏𝟏𝟏𝟏𝟏𝟏 = × 𝟏𝟏𝟏𝟏𝟏𝟏 = 𝟕𝟕𝟕𝟕, 𝟏𝟏𝟏𝟏𝟏𝟏%
𝟖𝟖. 𝟏𝟏𝟏𝟏 𝟗𝟗𝟗𝟗
40
4) Repetir los tres primeros pasos las veces necesarias en función del número de muestras
a extraer.
En algunos casos -y para facilitar el cálculo manual-, a diferencia del caso general
descripto anteriormente, las tablas de números aleatorios utilizadas responden a
distribuciones standard. Tal el caso de Normal o Beta, en que el valor aleatorio que
proporciona la tabla es eldesvío con respecto a la media, que deberá multiplicarse por el
desvío standard de la variablea simular y sumarse al valor medio.
Cuando se analiza la duración de un proyecto y se desea aplicar una distribución Beta
utilizando la tabla mencionada, se obtendrá el valor del desvío, designándoselo β. Luego,
se tiene como valor simulado para la duración de la tarea T:
𝒅𝒅′𝒆𝒆 = 𝒅𝒅𝒆𝒆 + 𝝈𝝈𝒅𝒅 . 𝜷𝜷
Como vimos, al aplicar PERT se admitió como válida considerar que las duraciones de
las tareas se ajustaban a una distribución Beta de Euler. Al hacer uso de las técnicas de
simulación también se admite tal razonamiento, aunque se pueden considerar distintas
distribuciones para distintas tareas, según las duraciones obtenidas de la experiencia con
tareas similares (Normal, Beta, Triangular, Uniforme, frecuencias relativas, etc.) y aplicarlas
consecuentemente al simular laduración de la tarea correspondiente.
Para simplificar el ejemplo, se supondrá una distribución Beta de Euler para las
duraciones de todas las tareas.Se simulará la duración de cada tarea utilizando una tabla
que contiene valores aleatorios de los desvíos con respecto a la media de dicha función β
de Euler. Deberá multiplicarse ese valor aleatorio por el desvío estándar de la variable a
simular y sumarse (recordar que los números aleatorios pueden ser negativos o positivos)
al valor medio, para tener la duración simulada de la tarea.
En un proyecto puede existir una ruta que si bien no es crítica s/ los datos aplicados, su
valor es muy cercano a la duración mínima del mismo, denominadaruta semicrítica. Dicho
razonamiento lleva a pensar que tal ruta puede llegar a ser crítica, y como tal, condicionar
la duración del proyecto, al aplicarse distintos valores al azar para la duración esperada
(d e ) de cada tarea.Es conveniente evaluar la probabilidad de que exista otro camino
distinto del crítico que obligue a controlar la ejecución de sus tareas, lo cual se obtendrá
mediante el porcentaje de veces que tal camino es crítico a lo largo de las simulaciones.
La simulación consiste en tomar una gran cantidad de muestras al azar de valores de la
Distribución β, obtener duraciones aleatorias de las tareas y, consecuentemente, una
distribución de los tiempos esperados de finalización del proyecto. Se estimará la duración
delproyecto mediante una serie de ensayos o muestras artificiales.
Como el tiempo más probable (d m ) de ejecución de una tarea no siempre es simétrico
respecto de los tiempos optimista (d o ) y pesimista (d p ), usualmente se aplican tres tablas
de la función β de Euler, según sea d m equidistante de los otros dos o esté más próximo a
alguno de ellos que al otro.
41
Resumen
Aunque se da por supuesto que se aplica la distribución β de Euler, en este caso no es
necesario atarse a esta función. Se pueden considerar distintas distribuciones para distintas
tareas: Normal, Beta, Triangular, Uniforme, frecuencias relativas, etc.
Si bien hoy en día existen programas de computación que permiten realizar
simulaciones de manera sencilla, para el caso en que se opte por un proceso manual de
simulación de la duración de un proyecto el mismo puede sintetizarse en lo siguiente:
1. Indagar qué distribución aleatoria ajusta a la duración de cada tarea T. Obtener
fórmulaque la rige y acumulativa. Para el caso deβy para simplificar cálculos, puede
aplicarse una tabla especial de desvíos.
2. Para la duración de la tarea, extraer los números equiprobables y aplicar las fórmulas
quecorrespondan en cada caso.
3. Repetir el proceso para cada una de las tareas hasta completar la red.
4. Obtener la duración del proyecto que corresponda al ensayo, definiendo un camino
crítico.
5. Repetir el proceso tantas veces como sea necesario. Esta cantidad de experimentos es
un problema de determinación de tamaño de muestra, para lo que se aplican
losconocimientos adquiridos en Estadística. Tal tamaño dependerá del grado de
confianza quese desee.
6. Finalizadas las muestras se puede obtener:
a) Probabilidad de cada que cada camino sea crítico.
b) Distribución que sigue la duración del proyecto y parámetros que la caracterizan.
c) Análisis de la probabilidad de cumplimiento del proyecto antes de determinada fecha
d) Grado de criticidad de cada tarea (% de veces que resulta crítica).
e) Distribución seguida por la fecha de cada nodo (temprana o tardía)
Ejemplo de aplicación
Dado el proyecto cuya red se presenta, con duraciones en días, se procederá a realizar
las simulaciones correspondientes y obtener conclusiones.
42
Esta tabla presenta la información obtenida de la red aplicando PERT y de algunos
procesos de simulación. Es importante hacer ciertas aclaraciones:
1. Las columnas encabezadas con la leyenda “PERT” responden a cálculos con datos reales
trasladados a la red.
En primer lugar corresponde determinar los tiempos medios esperados (d e ) de cada una
de las tareas, utilizando para ello las tres duraciones (d o d m y d p ) que las caracterizan.
También con dichos datos se pueden obtener la varianza (σ2 d ) y desvío estándar (σ d ) de
cada tarea.
Con toda la información, se calculan las fechas más tempranas y tardías, tanto de inicio
como de terminación, y se halla el camino crítico y el tiempo mínimo esperado (D e ) en el
que puede terminarse el proyecto. Vale aclarar que el desvío estándar del proyecto no es
la suma de los desvíos estándares de las tareas críticas, sino que, por el contrario, es igual a
la raíz cuadrada de la suma de las varianzas de aquellas. En el ejercicio, se estima una
duración de 38,8 días según el camino crítico (ruta A-B-F-I-J) con un desvío estándar 1,7
(=�2,88), mientras que el semicrítico A-D-G-I-J dura 38,2 (notar que en este camino las
tareas no críticas tienen una holgura poco significativa, lo que hace que puedan llegar a
ser críticas en la simulación). La probabilidad de terminar el proyecto en 41 días o menos
se estima en 0,903.
2. Los otros tres grupos de columnas contienen los cálculos de las tres simulaciones.
3. Las columnas encabezadas con Crít? y Semi se utilizarán, respectivamente, para marcar
si la tarea ha resultado crítica o semicrítica.
En la tabla las columnas identificadas con F1 C1, F18 C3, y F18 C4 referencian a los
números de fila y columna de las tablas de números aleatorios de la función Beta donde
arranca la selección para las simulaciones efectuadas. Esta selección es arbitraria, y podría
ser,en sí misma, hecha aleatoriamente (por ejemplo, mediante un sorteo).En tales
columnas se registrará el valor aleatorio obtenido, que simbólicamente se representará con
laß (do,dp) . Dicho valor se multiplicará por el desvío estándar obteniendo así el desvío
43
simulado, el cual se sumará a la media (d e ) consiguiéndose así la duración simulada para
cada tarea. Luego de ello se volverán a calcular las fechas (tempranas y tardías) y se volverá
a determinar el camino crítico y semicrítico (que pueden o no coincidir con los obtenidos
con la técnica PERT).
Llevada a cabo una simulación, se repetirán los mismos pasos para construir tantas
simulaciones como sean necesarias en función de la muestra. A continuación se expondrán
ocho procesos de simulaciones más:
Si bien es un número escaso de pruebas, servirá para ilustrar los pasos posteriores que
corresponde ejecutar con la técnica en estudio.A continuación se asume que el número de
simulaciones es adecuado como para obtener conclusiones valederas. Es decir, a los
efectos de los análisis, se supone que setiene cantidad suficientemente grande de
estimaciones simuladas de duración del proyecto.
Con los valores obtenidos y la información recopilada mediante las simulaciones, se
forma una serie de frecuencias. Los valores se agrupan en intervalos de 1 unidad y
obtienen los resultados resumidos en la tabla de la siguiente página:
44
Podemos ver que los tiempos esperados obtenidos por simulación se agrupan en forma
aproximadamente normal.
Con esa tabla de frecuencias es factible obtener los parámetros que caracterizan a la
distribución de probabilidad de la duración total del proyecto: tiempo esperado simulado
(D e =40,14 días) y varianza (σ2 D =0,78). Con estos valores el cálculo de la probabilidad de
terminar el proyecto en 41 días o menos, da un valor p (D<41) =0,84. Si se compara con la
primera estimación hecha con PERT (p (D<41) =0,90), se ve la influencia de la aleatoriedad de
los datos (reflejada en las varianzas de las duraciones de tareas) que ha sido tenida en
cuenta en las duraciones simuladas del mismo proyecto.
Otro análisis: la muestra de tamaño n=11 simulaciones tuvo tres casos en los que la
duración del camino semicrítico según PERT (A-D-G-I-J) supera al camino crítico original
(A-B-F-I-J). Es decir, existe una probabilidad de 3/11 (27%) de que al ejecutarse el
proyecto se vuelvacrítica una ruta que, en principio, no lo es. Esto da una probabilidad
relativamente importantede que se llegue a esta situación, motivo por el cual puede ser
necesario mantener un controlpor excepción sobre las tareas semicríticas al momento de
la ejecución del proyecto.
45
En la mayor parte de las organizaciones, los gastos correspondientes al financiamiento y
conservación de los inventarios son parte importante del costo del negocio, lo que obliga
a controlarlos y administración. Antes de examinar los detalles de la administración de
inventarios, vale destacar ciertas ventajas de tener grandes inventarios:
Para evitar escasez. Cuando se conoce la demanda futura de un artículo y se puede
confiar en las entregas puntuales de un proveedor, siempre puede colocar pedidos de tal
forma que se satisfaga toda la demanda sin necesidad de un inventario. No obstante, la
incertidumbre en la demanda o las entregas atrasadas pueden producir escasez si no se
mantiene un inventario suficiente.
Para aprovechar las economías de escala. Al solicitar grandes cantidades, una empresa
puede obtener sus suministros a un costo menor. Además esto implicaría colocar menos
pedidos, lo que lleva a reducir los costos administrativos.
Mantener un flujo de trabajo continuo en un medio de producción de múltiples etapas.
En empresas productoras de bienes que exigen un proceso productivo de varias etapas,
cuando las tasas de producción varían en las distintas fases del proceso, mantener
inventarios de trabajo en proceso puede mantener operaciones continuas e independizar
así el funcionamiento de cada departamento. Se entiende por inventario de trabajo en
proceso al conjunto de artículos terminados en una etapa de un proceso de fabricación
que se usan como inventario para la siguiente etapa.
Cada una estas razones justifica el hecho de tener grandes inventarios a la mano. Sin
embargo, los artículos ociosos de inventario inmovilizan fondos que de otra forma podrían
usarse o invertirse para obtener ganancias. Incluso algunos artículos son perecederos, es
decir, poseen una vida de estante limitada, lo que puede llevar a perder materiales.
Ante estos factores, para poder definir el tamaño adecuado y el manejo correcto de los
inventarios, es necesario hacer uso de la administración de inventarios, técnica que ayuda a
los gerentes a evaluar estas transacciones para lograr responder las siguientes preguntas:
a) ¿Qué bienes se mantendrán en inventario?
b) ¿Dónde se alojarán tales bienes dentro del sistema logístico?
c) ¿Qué cantidad de bienes de cada tipo será adecuado almacenar?
d) ¿De qué manera se los debería mantener? (MP, PP, PT, etc.)
e) ¿Cada cuánto tiempo se comprará cada elemento y cuánto se comprará en c/ ocasión?
Para atender las anteriores cuestiones, han ido surgiendo distintos modelos y
metodologías de gestión, entre las que se destacan:
CEP (en inglés EOQ, Economic Order Quantity) o Cantidad Económica de Pedido o
Tamaño de Lote Óptimo, y sobre lo cual se volverá más adelante en mayor detalle;
PRM(MRP, Material Requirements Planning) o Planeación de requerimientos de
materiales;
DRP(Distribution Requirements Planning) o Planeación de los requerimientos de
distribución;
46
JAT(JIT, Just-In-Time) o Justo a Tiempo: método que procura minimizar los inventarios
reduciéndolos a lo necesario en el momento apropiado en que son requeridos;
VMI(Vendor Managed Inventory): modalidad de aprovisionamiento basada en el acceso
que los proveedores tienen sobre los datos de inventario de sus clientes, de
maneraque pueden generar orden de provisión por sí mismos.
CPFR(Collaborative Planning, Forecasting and Replenishment) o Planeamiento,
Pronóstico y Reaprovisionamiento Colaborativos: práctica que combina la
inteligencia de múltiplesparticipantes en un negocio para satisfacer la demanda de
un cliente, apuntandoa la reducción de inventarios y costos de logística y
transporte. Constituye la evoluciónde VMI a un grado superior.
SCM(Supply Chain Management) o Cadena de suministros.
Cada uno de estos métodos apuntó a solucionar debilidades que mostraban los pre-
existentes,en un intento por mejorar la gestión de los inventarios.
Dicha gestión adquiere relevancia cuando se observa que los inventarios: pueden
condicionar la situación financiera de una organización; facilitan o dificultan el proceso de
una línea de producción; influyen sobre la opinión que los clientes pueden tener de una
empresa; permiten alos socios (dueños) y terceros tomar decisiones tras analizar índices o
ratios de un estado contable en los que participan stocks, etc.
En general puede decirse que una organización tiene una cierta cantidad de inventario en
forma temporaria, pero a lo largo del tiempo el mismo presenta fluctuaciones por utilización
y reposición que hacen que, en realidad, se cuente con un inventario permanente.
Podemos decir entonces que existe dos factores influyen en el armado de un modelo: la
obtención de los bienes y la atención de la demanda.
La demanda real puede tener variaciones estacionales, o ser estable en el tiempo, o
ajustarse a una distribución probabilística, o bien tener un comportamiento totalmente
aleatorio e impredecible. La mayoría de las veces la decisión de abastecimiento debe
tomarse con anticipación sin conocer cómo actuará la demanda.
Respecto de la obtención de los bienes es importante considerar: tiempo de
reaprovisionamiento una vez solicitados los mismos; modalidad de reaprovisionamiento
(instantánea o constante a lo largo del tiempo); si se trata de producción interna o responde
a un proveedor externo; políticas de ventas y precios de los proveedores; entre otras.
Podemos concluir que la conjunción de ambos factores genera una gran variedad de
formas de gestionar los inventarios, con mucha incertidumbre en varios de los casos.
47
1. Demanda independiente y dependiente
Al considerar la administración del inventario de varios artículos diferentes, se debe
determinar si existe o no relación entre ellos:
o Demanda independiente: dos o más artículos en los que la demanda de un artículo no
afecta la demanda cualquiera de los demás.
o Demanda dependiente: dos o más artículos en los que la demanda de un artículo
determina o afecta la demanda de uno o más de los otros artículos
3. Déficits
Determinar cómo mantener los niveles de inventario es una cuestión crítica si se
permiten los déficits, o también llamados faltantes. Es decir, analizar si es admisible que un
artículo se termine. Entonces, un déficit es aquella circunstancia en la que el inventario
disponible resulta insuficiente para satisfacer la demanda.
En el caso que se permitan, es necesario saber cómo se manejan. Puede constituir una
venta perdida o un pedido no surtido.
4. Tiempos líderes
Cuando se solicita un pedido para reabastecer los inventarios, existe un retraso,
denominado tiempo líder, en la recepción de esos bienes enviados por el proveedor. De
igual forma que la demanda, estos tiempos pueden ser determinísticos (el tiempo de
entrega se conoce con certeza) o probabilístico (el tiempo de entrega es incierto). Es
importante considerar estos tiempos al decidir cuándo ordenar los inventarios, ya que la
demanda de los clientes en dicho período continúa.
5. Descuentos cuantitativos
Cuando los inventarios son reabastecidos mediante proveedores externos, la cantidad
pagada por artículo puede depender del tamaño de ese pedido, es decir, pueden existir
descuentos comerciales por cantidad: mientras más artículos se ordenen, menor es el
costo unitario de cada uno de ellos. Este factor afecta a la política de pedidos, ya que
puede resultar conveniente realizar pedidos grandes con menor frecuencia, siempre y
cuando lo ahorro compense los costos adicionales de almacenar más mercadería.
48
6. Política de pedidos
Existen dos estrategias básicas en la determinación de cuándo y cuánto ordenar:
o Pedido de artículos en intervalos de tiempo fijos: la cantidad a ordenar está
determinada por el nivel de inventario en el momento en que se coloca el pedido, por
lo que la cantidad pedida cada vez varía. Esta política de pedido también se llama
revisión periódica, ya que es necesario controlar el nivel de inventario en puntos fijos
de tiempo para determinar cuánto ordenar.
o Pedido de un número fijo de artículos cuando el inventario llega a un cierto nivel
previamente especificado, denominado punto de nuevos pedidos. En este caso la
cantidad pedida siempre es la misma, siendo el tiempo entre los pedidos el que puede
variar. Esta política también se denomina revisión continua, debido a que requiere una
comprobación constante del inventario para determinar cuándo se alcanza el punto de
nuevos pedidos.
Debido a la gran diversidad de conceptos detallados, vale aclarar cuáles son los criterios
para que un ítem dado sea considerado costo en el modelo a confeccionar y qué tipo de
costo es. También se requiere establecer el origen del valor a considera y/o la base de
cálculo mismo y/o el criterio para valuarlo.
En general puede admitirse que un costo participará del modelo si es un costo
relativamente sustancial (relevante) y si es controlable, en el sentido de que sufra
alteraciones en su importecuando varíe la decisión a tomar.
Algunos de los costos descriptos se comportan de manera similar y otros en forma
opuesta; según las políticas de inventarios seguidas algunos son mucho más importantes
que otros en determinadas circunstancias.
50
MODELO I: Con costos proporcionales, demanda constante y reposición instantánea
Se trata del modelo más sencillo y se basa en un conjunto de simplificaciones que
facilitan el modelado, lo que hace casi imposible su puesta en práctica. A pesar de ello, su
importancia radica en el hecho que es vital para el planteamiento de los demás modelos.
Los supuestos del modelo son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Ilimitados
Descuentos Ninguno (=Costo de adquisición constante)
Demanda excedente Ninguna
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Uno
A medida que avanza el tiempo la demanda hace que las existencias disminuyan
constantemente hasta que se agotan, momento en el cual se repone instantáneamente
51
una cantidad fija igual a la existente al inicio del período elemental.La línea horizontal
representa el inventariopromedio mantenido a lo largo del período de gestión, que surge
de considerar para cada período elemental el promedio simple de los valores extremos de
existencias.
Dado que el modelo opera bajo el supuesto de revisión continua se está observando
permanentemente si se llega al nivel cero de inventarios y siempre se repone la misma
cantidad.Enel gráfico, se superponen dos funciones que responden a distintas políticas de
inventarios diseñadas p/ enfrentar la misma demanda sin alterar los supuestos expuestos:
1. Consiste en reponer mediante lotes pequeños realizando gran cantidad de pedidos
dentro del período bajo análisis (es decir, con mayor frecuencia se reabastece).
2. Consiste en reponer mediante lotes grandes realizando pocos pedidos (con una menor
frecuencia se reponen los inventarios).
Parámetros y notación
D : demanda correspondiente al período sujeto a análisis (unidades/tiempo = kg/año,
kg/mes, m/año, etc.).
T : período de análisis (año, semestre, mes, días, etc.).
c a : costo unitario de adquisición del bien, en unidades monetarias. ($/Kg, $/m, etc.).
c o : costo de obtención. Es una suma fija ($) por cada pedido, independientemente de la
cantidad adquirida.
c m : costo unitario de mantenimiento, expresado en $/u por unidad de tiempo. Si proviene
de un porcentaje de valor promedio del inventario, se lo convierte a las unidades
t : período elemental de análisis. Fracción del período T, medido en igual unidad de tiempo.
n : tamaño del lote a adquirir, que está disponible al comienzo de cada período elemental t, y
que se consumirá en tu totalidad durante éste. Se expresa en las mismas unidades que D.
𝒉𝒉 = 𝑫𝑫�𝒏𝒏 (𝟐𝟐)
Ahora, a partir de la ecuación (1), considerando el Costo Total para todo el período a
planificar,en el que existen h períodos elementales de duración t.
𝟏𝟏
𝑪𝑪𝑪𝑪 = �𝒏𝒏 . 𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒐𝒐 + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝒕𝒕� . 𝒉𝒉
𝟐𝟐
Aplicando propiedad distributiva y reemplazando para T = h . t y h = D / n :
𝑫𝑫 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 . + 𝒄𝒄𝒐𝒐 . + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝒏𝒏 𝟐𝟐
𝑫𝑫 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 . + 𝒄𝒄𝒐𝒐 . + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝒏𝒏 𝟐𝟐
𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 (𝟑𝟑)
𝒏𝒏 𝟐𝟐
Podemos ver que la única incógnita (concepto cuyo valor desconocemos y buscamos
hallar) de la función objetivo es el tamaño del lote (n), el cual se tratará de optimizar (lote
óptimo).Entonces, los costos de mantenimiento y de obtención tienen importancia sobre la
decisión a tomar (en el primer factor del segundo miembro, el que refleja el costo de
adquisición, no interviene el tamaño del lote, por lo que el mismo será constante
independientemente del tamaño del lote a adquirir). La relación entre estos dos costos y el
tamaño del lote es asimétrica: el primero de ellos es una función hiperbólica (disminuye de
valor a medida que aumenta el de la variable independiente), mientras que el segundo es
una recta (aumenta devalor a medida que aumenta el de la variable independiente).
53
En la siguiente gráfica se observan todos los costos y el derivado CT:
De la gráfica trazada se puede inferir que la función de Costo Total tiene un valor
mínimo. Recurriendo a conocimientos de cálculo diferencial se puede determinar con
precisión para quévalor de la variable independiente (n) ocurre dicho mínimo.
El primer paso será reexpresar la función (3) de la siguiente forma:
𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . 𝒏𝒏−𝟏𝟏 + 𝒄𝒄𝒂𝒂 . 𝑫𝑫 (𝟑𝟑′)
𝟐𝟐
Ahora derivando con respecto a la variable n:
𝝏𝝏𝝏𝝏𝝏𝝏 𝟏𝟏
= . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 − 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . 𝒏𝒏−𝟐𝟐 + 𝟎𝟎
𝝏𝝏𝝏𝝏 𝟐𝟐
Expresión que igualaremos a 0 para encontrar el mínimo de la función de CT:
𝟏𝟏 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝟎𝟎 = . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 −
𝟐𝟐 𝒏𝒏𝟐𝟐
𝟏𝟏 𝒄𝒄𝒐𝒐 . 𝑫𝑫
. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 =
𝟐𝟐 𝒏𝒏𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝟐𝟐 =
𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝒐𝒐 = �
𝒄𝒄𝒎𝒎 . 𝑻𝑻
Y el tamaño de lote que se obtenga, por constituir el valor que optimiza el modelo, se
indicará con un subíndice especial (n o ). Al realizar la segunda derivada se obtiene un valor
positivo, lo cual confirma que el lote calculado genera el mínimo CT.
54
Particularidades de los costos para el tamaño de lote óptimo
Una conclusión interesante es la que se obtiene a continuación, a partir del reemplazo
de la variable n por su valor óptimo en la ecuación (3’).
−𝟏𝟏
𝟏𝟏 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝑪𝑪𝑪𝑪𝒐𝒐 = � . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . � + 𝒄𝒄𝒂𝒂 . 𝑫𝑫
𝟐𝟐 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒎𝒎 . 𝑻𝑻
La gráfica de este modelo se expone en la página siguiente. Podemos ver que en cada
inicio de período elemental t se cuenta con un nivel S i de inventario, formado por el stock
de protección s p que está almacenado permanentemente y el lote que se adquiere n i . Este
último se va reduciendo a medida que se demandan unidades hasta que, al igual que en el
modelo I, se agota y vuelve a emitirse una orden de obtención. El stock s p queda de
resguardo ante la eventualidad de demoras en el abastecimiento o para hacer frente a
posibles fluctuaciones en la demanda.
56
Diferencias y similitudes con el modelo anterior
Resulta evidente que para este modelo debe incorporarse un cuarto término a la
función de CT del modelo anterior, que representa el costo derivado de contar con un
stock de protección: s p . c m . T.
La fórmula del CT quedaría:
𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒔𝒔𝒑𝒑 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝟐𝟐
No obstante, si bien varió la expresión del CT, al aplicar los procedimientos para obtener
el lote óptimo (derivar la función con respecto a la variable de decisión n) es evidente que
la derivada del nuevo término es nula, ya que es una constante. Por ende, la fórmula para
calcular n o es la misma que la del modelo anterior:
𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝒐𝒐 = �
𝒄𝒄𝒎𝒎 . 𝑻𝑻
Como la cantidad de pedidos resulta de dividir la Demanda de todo el período por la
cantidadadquirida en cada oportunidad, también el valor de h es el mismo en ambos
modelos.Conclusión similar se tiene para la duración del período elemental t.
Difieren en que ahora el costo total (CT) es mayor que en el modelo I. Esta circunstancia
deriva de mantener permanentemente una cantidad adicional de artículos en el inventario
como medida precautoria. Se paga por la mayor seguridad de gestión.
57
Permitir pequeños faltantes de existencias otorga la ventaja de alargar el período
elemental,disminuyendo en consecuencia el costo de obtención para todo el período. Sin
embargo, se debe ponderar debidamente hasta qué monto dicho ahorro es absorbido por
los nuevos costos de ruptura.
59
Análogamente en los triángulos BDE (idéntico a BEF) y AME:
����� ����
𝑩𝑩𝑩𝑩 𝑫𝑫𝑫𝑫 𝒕𝒕𝟐𝟐 𝒓𝒓
= → =
�����
𝑴𝑴𝑴𝑴 �����
𝑴𝑴𝑴𝑴 𝒕𝒕 𝒏𝒏
Pudiendo también expresar el subperíodo t 2 en función del período elemental t:
𝒕𝒕. 𝒓𝒓
𝒕𝒕𝟐𝟐 =
𝒏𝒏
Sabiendo que r=n-S y teniendo en cuenta todas estas relaciones, la función de CT
puede expresarse de la siguiente forma:
𝟏𝟏 𝒕𝒕. 𝑺𝑺 𝟏𝟏 𝒕𝒕. 𝒓𝒓
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + 𝑺𝑺𝒊𝒊 . 𝒄𝒄𝒎𝒎 . + 𝒓𝒓𝒊𝒊 . 𝒄𝒄𝒓𝒓 .
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
𝟏𝟏 𝑺𝑺𝒊𝒊 𝟐𝟐 𝟏𝟏 (𝒏𝒏 − 𝑺𝑺𝒊𝒊 )𝟐𝟐
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + . 𝒄𝒄𝒎𝒎 . 𝒕𝒕 + . 𝒄𝒄𝒓𝒓 . 𝒕𝒕 (𝟔𝟔)
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
Sabiendo que en el período completo hay h ciclos
𝝏𝝏𝝏𝝏𝝏𝝏
𝝏𝝏𝝏𝝏
= 𝟎𝟎 →𝒏𝒏𝒐𝒐 = �𝟐𝟐.𝒄𝒄𝒎𝒎𝒄𝒄𝒐𝒐. .𝑻𝑻𝑫𝑫 . �𝒄𝒄𝒎𝒎𝒄𝒄+𝒓𝒓 𝒄𝒄𝒓𝒓 (𝟗𝟗)
𝝏𝝏𝝏𝝏𝝏𝝏
𝝏𝝏𝝏𝝏
= 𝟎𝟎 →𝑺𝑺𝒐𝒐 = 𝒏𝒏𝒐𝒐 . 𝒄𝒄𝒎𝒎𝒄𝒄+𝒓𝒓 𝒄𝒄𝒓𝒓
60
𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓 𝒄𝒄𝒓𝒓
𝑺𝑺𝒐𝒐 = � .� .
𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
Siendo n o el lote óptimo a adquirir al final de cada período elemental t, que servirá para
cumplir con los r i pedidos pendientes y a su vez satisfacer la demanda del período
elemental t 1 siguiente. S o refleja el máximo nivel de stocks que se puede tener al inicio de
cada período elemental t (si bien se compran n unidades, de esas se destinan r para
concretar los pedidos pendientes acumulados).
Para saber cada cuánto tiempo se realizará el reaprovisionamiento, sabiendo que t=T/h
y que h=D/n, tenemos que t=T . (n/D)
Con toda la información, y realizando los reemplazos correctos, se puede llegar a una
nueva y más resumida expresión de la función de Costo Total óptima.
𝒄𝒄𝒓𝒓
𝑪𝑪𝑪𝑪𝑶𝑶 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 . � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
61
Comparación de los modelos I, II y III
1. Tamaño del lote óptimon o
El modelo I y II tienen igual tamaño óptimo de lote. En el modelo III, cuando se admiten
𝒄𝒄𝒎𝒎 +𝒄𝒄𝒓𝒓
los costos de ruptura, el tamaño del lote aumenta en la proporción � 𝒄𝒄𝒓𝒓
como
3. Costos TotalesCT o
Como ya vimos, el modelo II presenta un CT mayor que el modelo I ya que incurre el
costo de mantener un stock de protección durante todo el periodo de análisis.
Si comparamos las fórmulas (4) – CT del modelo I – y (11) –CT del modelo III –:
𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 (𝟒𝟒)
𝒄𝒄𝒓𝒓
𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 . � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
Vemos que el CT del modelo III se reduce respecto del I en una proporción igual a:
𝒄𝒄𝒓𝒓
�
𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
Por tal motivo, la magnitud de tal reducción dependerá del valor de dicho cociente, y
por tal, de la relación entre ambos costos (el de mantenimiento y el de ruptura).La
opciónde acumular pedidos no satisfechos será conveniente cuando sea ventajosa con
respecto al mantenimiento de las unidades en stock con la finalidad de satisfacer la
demanda; comparación que se hace en base a los respectivos costos unitarios.
4. Tasa de ruptura o agotamiento
Dicha tasa está vinculada con el cociente visto anteriormente, al cual se le calcula la raíz,
y se simboliza como ρ. Como la opción de acumular demanda insatisfecha se adoptará
𝒄𝒄𝒓𝒓
cuando c r < c m , dicha tasa oscila entre 0 y 1. 𝝆𝝆 = 𝒄𝒄 +𝒄𝒄
𝒎𝒎 𝒓𝒓
Si el costo de ruptura tiende a ∞ la tasa tendería a 1, lo que haría que el modelo I y III
fuesen iguales. (IMPORTANTE: mirar ejemplo práctico)
62
4) Modelo de inventarios con costos no proporcionales
En los modelos vistos hasta aquí el costo unitario de adquisición del artículo (c a ), si bien
integraba la fórmula del CT, no era relevante en la toma de decisiones, debido a que no
dependía de las unidades a incorporar (siempre era el mismo), es decir, no se vinculaba
con la variable independiente de decisión n o .
No obstante, esto no es así en realidad, ya que es posible adquirir a distintos precios en
función de la cantidad a incorporar al stock, debido a la existencia de los descuentos
comerciales o descuentos por cantidad. Todo esto hace que el costo unitario de
adquisición (c a ) dependa del tamaño del lote (n o ).
Con ello surgen dos condiciones contrapuestas: un lote de mayor tamaño, por un lado
reduciría los costos de adquisición y obtención, aunque por el otro aumentaría los costos
de mantenimiento en el inventario. Por tal motivo, la decisión debe optimizar el CT.
MODELO IV: Con costos de producción o compra variables según el tamaño del lote
Pueden darse distintas situaciones:
1. Que los descuentos sean por única vez.
2. Que los descuentos sean incrementales (primera parte de lote a un precio, la que sigue
a otro menor, y así sucesivamente).
3. Que el descuento se aplique a todos los artículos adquiridos.
Parámetros y notación
A los ya conocidos, se incorporan los siguientes:
i : subíndice que indica la categoría de descuento aplicado al precio de adquisición y
permite distinguir los distintos precios posibles.
63
P : porcentaje del precio de adquisición que refleja el costo de mantenimiento.Esta tasa de
interés, expresada enalguna unidad de tiempo utilizada como referencia, indica cuántas
unidades monetarias cuesta mantener en stock una unidad monetaria de inventarios.
c ai : costo unitario de adquisición según la categoría i de descuento, en unidades
monetarias ($/Kg, $/m, etc.).
N i : tamaño del lote a partir del cual deja de aplicarse la categoría i de descuento, para
comenzar a utilizarse el siguiente precio de adquisición. Éste es el primero tamaño de
lote que recibe el nuevo precio, correspondiente a la categoría i+1.
64
Si bien las 3 curvas se trazan como si se aplicará el precio para todos los valores de n,
sabemos que para cada una solo es válida la función en un rango determinado.Esta
circunstancia se tiene en cuenta en esta otra gráfica, donde el rango de validez de la
función de costos totales está dado por la línea llena, mientras que los trazos discontinuos
indican los rangos donde no se aplica el precio de esa categoría de descuento. Por ende, la
función del CT estaría representada por una única curva que presenta dos “saltos”.
65
𝑪𝑪𝑪𝑪𝒐𝒐𝒐𝒐 = 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑷𝑷 . 𝑻𝑻
El problema aquí es que puede ocurrir que un mínimo que se obtenga analíticamente
sea un valor de la variable independiente que no es válida para la categoría de descuento.
Dicho de otra forma, el tamaño de lote que se obtiene con la fórmula no podría adquirirse
a dicho precio.
Para solucionarlo es necesario realizar una serie de comprobaciones sobre los cálculos
realizados, con el fin de descartar aquellas soluciones que no son las mejores (o no son
posibles). El razonamiento es simple, y se basa en que la función presentará varios
mínimos locales correspondientes a c/ n oi o a c/ punto de interrupción de la función (N i ); la
búsqueda entre todos ellos llevará a hallar el mínimo global. Los pasos a seguir son:
1. Para cada categoría i de descuento, se calcula el lote óptimo, independientemente del
rango de validez del costo de adquisición utilizado de referencia. Para cada categoría i
de descuento existen dos alternativas en caso de que el n oi hallado no se encuentre
dentro del rango de validez de la función:
a. Si n oi es inferior a la primera cantidad que pueda tener descuento (N i ) se debe tomar
ésta como referencia.
b. Si n oi es superior a todas las cantidades en que tiene vigencia el descuento (igual o
mayor a N i+1 ), esta cantidad nunca puede ser solución dentro de esa categoría de
descuento; conviene adquirir de una próxima categoría (aumenta i, y disminuye CT).
2. Para cada cantidad tomada como referencia, se calcula su CT y se compararán todos los
resultados para obtener así el menor de ellos, que será el óptimo para el problema.
En el caso de que el procedimiento sea manual, podría reducirse los cálculos mediante
el siguiente diagrama de flujo:
66
IMPORTANTE: ver ejemplo de aplicación
Parámetros y notación
A los ya conocidos en el modelo I, se adicionan los siguientes:
i : tasa de interés de mercado, que representa el costo de oportunidad del dinero
inmovilizado.
67
P : porcentaje sobre el costo de adquisición. Es el costo de oportunidad del dinero
utilizado en conceptos de mantenimiento de los productos almacenados.
j : subíndice que representa a cada artículo integrante de la gestión.
D j : demanda en unidades, para cada producto, por período a planificar.
c oj : costos de obtener un lote de producto j, en unidades monetarias.
c aj : costo unitario de adquisición para el producto j, en unidades monetarias ($/Kg, $/m).
R 0 :cantidad límite del recurso escaso, es decir, refleja la restricción del modelo.
𝟏𝟏 𝑫𝑫𝟏𝟏 𝟏𝟏 𝑫𝑫𝟐𝟐
𝑪𝑪𝑪𝑪 = 𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒎𝒎𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐𝒐𝒐 . + 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫𝟏𝟏 + 𝒏𝒏𝟐𝟐 . 𝒄𝒄𝒎𝒎𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐𝒐𝒐 . + 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫𝟐𝟐
𝟐𝟐 𝒏𝒏𝟏𝟏 𝟐𝟐 𝒏𝒏𝟐𝟐
Como dijimos, se consideran dos variables de decisión n 1 y n 2 , es decir, el tamaño de
lote para los artículos 1 y 2, trazándose sus valores en los respectivos ejes x e y. Si se
formaran distintas combinaciones del par de artículos y se calculará el CT para cada una de
ellas, se podrían construir distintas curvas cerradas tal como se observa en la gráfica:
68
Costos y lotes óptimos
Como ya se expuso más arriba, el modelo busca obtener un óptimo para la gestión de
varios artículos distintos (que compiten por aprovechar un recurso escaso R) de manera
que la asignación de los distintos tamaños de lote conduzca al mejor/menor Costo Total
respetando la restricción impuesta. De las distintas restricciones vistas, se analizará la
financiera, que puede darse en el caso de una empresa que ya teniendo definida su
política de inventarios decide disminuir el capital inmovilizado.
En primera medida se determinará el tamaño óptimo de lote para cada producto, sin
tener en cuenta la restricción. Se valorizará cada uno por su precio de adquisición y se
determinará la inversión necesaria I. Al compararla con la restricción financiera se concluirá
si es necesario corregir las cantidades obtenidas con las fórmulas o no.
La restricción es efectiva cuando I>R 0 , y en tal caso es necesario recalcular los tamaños
de lote para aprovechar en la mayor proporción posible dicha restricción sin superarla (es
decir, el óptimo se daría cuando I=R 0 ).
NOTA: Dado que el Costo Total de Adquisición permanecerá constante cualquiera sea el
tamaño óptimo de los lotes -pues depende de la demanda total del período y de los
respectivos costos de adquisición unitarios- para simplificar las expresiones a deducir se lo
omitirá en la función Costo Total. Se diferenciará de la ecuación completa, mediante un
superíndice (CT’).
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒐𝒐𝒐𝒐 =�
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)
Como existen múltiples ítems, cada uno tendrá su propio tamaño óptimo de forma
individual, pero lo que busca el modelo es hallar la mejor solución para la gestión que en
conjunto ofrezcan todos los artículos. Entonces, el problema podría plantearse como:
calcular los valores óptimos n oj , de forma tal que al valorizarse según su c aj no superen el
importe de la restricción financiera R 0 y, a su vez, alcancen el mínimo CT posible.
En símbolos sería:
69
𝒎𝒎 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 𝟏𝟏
minimizar𝑪𝑪𝑪𝑪′𝒋𝒋 = �
𝒏𝒏𝒋𝒋 + 𝟐𝟐 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)
𝒋𝒋=𝟏𝟏
𝒎𝒎
sujeta a � 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 ≤ 𝑹𝑹𝟎𝟎
𝒋𝒋=𝟏𝟏
Esto constituye un problema de mínimos condicionados, cuya resolución puede lograrse
aplicando los multiplicadores de Lagrange. Con dicho fin se reexpresa la última ecuación
igualándola a 0 e incorporándole una variable artificial (λ : el multiplicador de Lagrange)
que la multiplica. Si agregamos esta expresión a la función objetivo obtendremos una
nueva función: F de Lagrange.
𝒎𝒎
𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 𝟏𝟏
𝑭𝑭(𝒏𝒏𝟏𝟏 ,𝒏𝒏𝟐𝟐,…,𝒏𝒏𝒎𝒎,𝝀𝝀) = � � + 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)� + 𝝀𝝀 (𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒂𝒂𝒂𝒂 + ⋯ + 𝒏𝒏𝒎𝒎 . 𝒄𝒄𝒂𝒂𝒂𝒂 − 𝑹𝑹𝟎𝟎 ) (𝟏𝟏𝟏𝟏)
𝒏𝒏𝒋𝒋 𝟐𝟐
𝒋𝒋=𝟏𝟏
Para identificar los valores de las variables (son m+1, se incluye la artificial) que hacen
que la función adopte puntos extremos, se deben calcular sus correspondientes derivadas
parciales e igualarlas a 0. Así se hallarán los mínimos de la función F de Lagrange.
La ecuación (12) puede desplegarse de la siguiente forma (13):
co1 . D1 1 co2 . D2 1
F= + n1 . ca1 . (P + i) + + n2 . ca2 . (P + i) + λ (n1 . ca1 + ⋯ + nm . cam − R 0 )
n1 2 n2 2
La derivada parcial con respecto a una variable n j sería:
𝝏𝝏𝝏𝝏 𝟏𝟏
= (−𝟏𝟏)𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 . 𝒏𝒏−𝟐𝟐 + 𝒄𝒄 . (𝑷𝑷 + 𝒊𝒊) + 𝝀𝝀 . 𝒄𝒄𝒂𝒂𝒂𝒂
𝝏𝝏𝒏𝒏𝒋𝒋 𝒋𝒋
𝟐𝟐 𝒂𝒂𝒂𝒂
Si la igualamos a 0, multiplicamos ambos miembros por 2 y aplicamos factor común:
𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
(−𝟐𝟐) + 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊) + 𝟐𝟐 𝝀𝝀 . 𝒄𝒄𝒂𝒂𝒂𝒂 = 𝟎𝟎
𝒏𝒏𝒋𝒋𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐) =
𝒏𝒏𝒋𝒋𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒋𝒋𝟐𝟐 =
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐)
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒋𝒋 = � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐)
70
Por otra parte, si derivamos la ecuación (12) con respecto a λ la expresión sería:
𝝏𝝏𝝏𝝏
= 𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒂𝒂𝒂𝒂 + 𝒏𝒏𝟐𝟐 . 𝒄𝒄𝒂𝒂𝒂𝒂 + ⋯ + 𝒏𝒏𝒎𝒎 . 𝒄𝒄𝒂𝒂𝒂𝒂 − 𝑹𝑹𝟎𝟎
𝝏𝝏𝝏𝝏
Que si la igualamos a 0 coincide con la ecuación que representa la restricción del
problema.
A partir de la obtención de los valores de las variables de decisión se puede llegar al
óptimo restringido mediante la aplicación de diversos valores positivos a λ, en una
sucesión de aproximaciones hacia dicho punto.
Debido a que en la fórmula para obtener el tamaño óptimo de lote n oj de cualquier
producto interviene la variable artificial λ, a medida que ésta varíe también variará la
relación entre I y R 0 , lo que permitirá orientar las variaciones para que lleguen a igualarse
ambos conceptos y así obtener la solución óptima.
En un primero momento se le asigna 0 a λ. Si la adopción de los tamaños de lote
calculados no cumple con la restricción será necesario asignar pequeños valores positivos
a la variable artificial, lo que hará reducir los tamaños de los lotes (que deberán
recalcularse) y a su vez disminuir los fondos necesarios para adquirirlos (que deberán
recalcularse). El valor de λ aumentará lentamente hasta lograr que dichos fondos sean
iguales o inferiores al límite de la restricción.
Una manera sistemática, y que garantiza una aproximación a menos de 1/1000 del
punto óptimo en solamente 10 intentos, es la denominada “búsqueda binaria”, que
consiste en arrancar con dos valores extremos de λ (el cero y otro a elección que debe
tener la característica de hacer que la función objetivo cumpla con la restricción R 0 ). Si no
se llegó a solución satisfactoria aplicar un tercer valor que esté a mitad de camino
entreaquellos, y posteriormente otro que también esté en medio de dos de los anteriores y
así sucesivamente hasta que esta mitad adoptada para el cálculo sea tan pequeña que no
aporte mejorassignificativas en la aproximación realizada.
72
artículos, entre el 50% y 80% del total, solo producen entre el 5% y 25% de las ventas.
Estos últimos se categorizan como “Clase C”. En resumen:
Clase % Productos %Ventas Impacto ventas Administración de Inventarios
A 5 a 20 55 a 70 Alto Elevada
B 20 a 30 20 a 40 Moderado Media
C 50 a 80 5 a 25 Bajo Baja
74
En conclusión, para bienes de clase “A” se debe atender cada producto y su gestión en
forma particular, siendo factible aplicar política (s, S) en caso de revisión continua o la
política (p, s, S) se si optara por períodos fijos.
Para los bienes de clase “B”, se recomienda aplicar (n, r) si hay revisión continua y (p, S)
si es periódica.
Por último, para los bienes de clase “C”, no es necesario aplicar método alguno ya que
su impacto sobre las ventas es escaso.
75
En cuanto a los costos, conviene detallar las siguientes características:
a) Costo de adquisición: es importante. Se vuelve quebranto si no se usa el repuesto.
b) Costo de almacenamiento: es nulo o insignificante.
c) Costo de obtención: es nulo o insignificante.
d) Costo unitario de agotamiento (ruptura): es elevado.
El problema consiste en definir la cantidad de piezas (s) a adquirir junto con el equipo,
para evitar interrupciones en su funcionamiento, con el fin de minimizar los costos totales
(CTE (s) ). Dicha cantidad no puede predefinirse, y solo puede contarse con una distribución
de frecuencias que indique la cantidad de veces que se requirieron 1, 2, 3,…, n piezas con
anterioridad y en equipamientos similares.
Resumiendo los elementos para construir un modelo tenemos:
• Criterio de optimización: minimización de costos totales (CTE (s) ).
• Variables de decisión: cantidad de repuestos a adquirir junto con el equipo (s).
• Parámetros: Costos
Costo unitario por no utilización de lo adquirido (c a ).
Costo unitario de agotamiento/ruptura (c r )
Frecuencias (observaciones)
Número de repuestos y cantidad de equipos que los necesitaron (n,
fn)
1. Se utilicen hasta dicha cantidad: n≤s. En este caso no existirá ruptura, por lo que el total
del costo provendrá únicamente de aquellas unidades compradas y no usadas:
76
𝒔𝒔
2. Se necesite una cantidad n mayor a la adquirida: n>s. Esto implica que se incurrirá en
costos de ruptura de stocks, debido al faltante ocurrido (n-s). De forma análoga a la
anterior, puede calcularse la esperanza matemática del déficit, que si lo multiplicamos por
el costo unitario obtenemos el CTE de ruptura por contar solo con s repuestos y existir una
carencia de n-s unidades. La expresión matemática es:
∞
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) = 𝒄𝒄𝒂𝒂 . � (𝒔𝒔 − 𝒏𝒏) . 𝒑𝒑(𝒏𝒏) + 𝒄𝒄𝒓𝒓 . � (𝒏𝒏 − 𝒔𝒔) . 𝒑𝒑(𝒏𝒏) (𝟏𝟏𝟏𝟏)
𝒏𝒏=𝟎𝟎 𝒏𝒏=𝒔𝒔+𝟏𝟏
Obtención de una regla de decisión para CTE mín
El análisis se basará en tres puntos consecutivos de la función de CTE, correspondientes
a tres cantidades de repuestos: s-1, s, s+1.
A partir de la ecuación (17), se puede obtener la correspondiente para una unidad más
de repuestos adquiridos (s+1):
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔+𝟏𝟏) = 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) + (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔) − 𝒄𝒄𝒓𝒓 (𝟏𝟏𝟏𝟏)
De forma similar, también partiendo de la ecuación (17), podemos hallar la
correspondiente para una unidad menos de repuestos adquiridos (s–1):
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔−𝟏𝟏) = 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) − (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓 (𝟏𝟏𝟏𝟏)
Para algún valor s 0 de la variable “cantidad de repuestos a comprar”, la función CTE
tendrá su valor mínimo si:
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎−𝟏𝟏) (𝟐𝟐𝟐𝟐)
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎+𝟏𝟏) (𝟐𝟐𝟐𝟐)
La primera desigualdad puede expresarse como:
77
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) − (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓
De donde −(𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓 > 0
𝒄𝒄
O sea 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) > (𝒄𝒄 𝒓𝒓 ) (𝟐𝟐𝟐𝟐)
𝒂𝒂 +𝒄𝒄𝒓𝒓
La segunda desigualdad por su parte:
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎 ) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) + (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) − 𝒄𝒄𝒓𝒓
De donde (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) − 𝒄𝒄𝒓𝒓 > 0
𝒄𝒄𝒓𝒓
O sea
(𝒄𝒄 )
< 𝑝𝑝(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) (𝟐𝟐𝟐𝟐)
𝒂𝒂 +𝒄𝒄𝒓𝒓
Entonces, la función CTE (s) tendrá su mínimo en el valor de s para el cual P(s)>ρ. Ese
valor es s 0 (recordar que P es la probabilidad acumulada).
En cuanto al cociente, podemos hacer algunos análisis que justificarán lo expuesto. Si el
costo de ruptura tendiera a infinito con relación al costo de adquisición, el resultado del
cociente sería 1 y, en consecuencia, la compra deberá ser por la mayor cantidad de las
previstas. Por el contrario, si fuera el c a el que tendiese a infinito con relación c r , el
cociente tendería a 0 y sería recomendable una compra escasa.
78
Además de estos factores, un indicio para aplicar la distribución Poisson lo darán los
valores de la media (λ) y la varianza (σ2) de la distribución de frecuencias de la variable, ya
que dicha ley se caracteriza porque λ=σ2.
Para este modelo se hacen unas modificaciones a la Regla de decisión, ya que:
𝒙𝒙 ∞
𝝀𝝀 𝒆𝒆−𝝀𝝀
siendo𝒑𝒑(𝒙𝒙) = para 𝒙𝒙 = 𝟎𝟎, 𝟏𝟏, 𝟐𝟐, … , y 𝝀𝝀 = � 𝒙𝒙 . 𝒑𝒑(𝒙𝒙)
𝒙𝒙! 𝒙𝒙=𝟎𝟎
En cuanto al cálculo de la suma de las probabilidades acumuladas para n≤s será:
𝒔𝒔
𝒏𝒏 −𝝀𝝀
𝝀𝝀 𝒆𝒆
𝑷𝑷(𝒏𝒏 ≤ 𝒔𝒔) = �
𝒏𝒏!
𝒏𝒏=𝟎𝟎
Por lo tanto, la regla de decisión ahora será:
𝒔𝒔𝟎𝟎 −𝟏𝟏 𝒔𝒔𝟎𝟎
𝝀𝝀𝒏𝒏 𝒆𝒆−𝝀𝝀 𝒄𝒄𝒓𝒓 𝝀𝝀𝒏𝒏 𝒆𝒆−𝝀𝝀
� < <�
𝒏𝒏! (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) 𝒏𝒏!
𝒏𝒏=𝟎𝟎 𝒏𝒏=𝟎𝟎
79
5. El tiempo promedio que una unidad pasa en el sistema (el tiempo que espera en la cola
más el tiempo de servicio en el que lo atienden hasta que sale del sistema).
6. La probabilidad de que una unidad que llega tenga que esperar para recibir el servicio
(es decir, la probabilidad de que cuando llega haya al menos una unidad en el sistema).
7. La probabilidad de que haya n unidades en el sistema.
Antes de proseguir sería conveniente tratar de idear una definición de sistema de colas:
sistema en el que los productos (o los clientes) llegan a una estación, esperan en una fila (o
cola), obtienen algún tipo de servicio y luego salen del sistema.
¿Normativo o Descriptivo?
Los modelos matemáticos aplicados para los problemas de líneas de espera por lo
general son descriptivos, ya que brindan información acerca de las características (o
medidas de desempeño) de las dichas líneas pero no proponen cursos de acción directos a
seguir para cumplir algún objetivo. No obstante, existe un enfoque normativo que tiene en
cuenta que: a) Si se presta un servicio excesivo con el fin de minimizar el tiempo que los
clientes deben esperar en la cola, pueden incurrirse en costos excesivos; b) Si el servicio es
insuficiente se generarán colas excesivamente largas, lo que llevará a perder clientes
(costos sociales, de oportunidad).
Elementos intervinientes
Un sistema de líneas o colas de espera es aquel en el cual los clientes, provenientes de
una población, llegar a una estación en busca de un servicio, esperan en una fila hasta
que obtienen el servicio y luego se retiran del sistema. Estos son los elementos
constitutivos, y la relación entre ellos podrán verse algunas imágenes más adelante.
Como vemos en la imagen, “sistema” y “cola” no son lo mismo: la segunda forma parte
de la primera, pero ello no se cumple a la inversa. La “cola” es la fila que espera para
obtener el servicio –debido a estar ocupado el servidor–, mientras que el “sistema”
comprende tanto la cola como los elementos que estén recibiendo el servicio –es decir, los
que ocupan el servidor–. Esta distinción es vital a la hora de realizar cálculos.
Resulta obvio que la espera para las personas es una situación no deseada y que genera
malestar. Por tal motivo, se considera como meta final del modelo (si se lo plantea como
uno normativo) obtener un balance económico entre costos por prestar los servicios y
costos por la espera y recepción del servicio, de manera que el CT sea mínimo (este tema
recién se verá en el capítulo 6 de esta unidad).
Los distintos casos más comunes de líneas de espera son:
1. Una fila de espera con un solo servidor.
80
81
2. Una fila de espera con varios servidores en paralelo.
4. Una fila de espera con clientes que serán atendidos por varios servidores en serie.
Vale entender la razón por la cual se forman líneas de espera, y la misma radica en el
hecho de no aprovechar los tiempos ociosos del servidor, ya que cuando llegan clientes le
es imposible atenderlos a una velocidad mayor a la observada como medida de
desempeño del sistema, y por ello no puede recuperar los tiempos perdidos. Esto es así
porque tanto los tiempos de arribos como los de servicio son variables aleatorias.
82
Existen dos clases básicas de tiempos entre llegadas:
Determinístico: el intervalo de tiempo entre dos clientes que llegan consecutivamente es
fijo y conocido.
Probabilístico: el intervalo de tiempo, en este caso, es incierto y variable. Estos tiempos
se describen mediante una distribución probabilística
Como dijimos, es necesario contar con la media de arribos por unidad de tiempo λ para
poder aplicar distribución Poisson. La función de probabilidad de dicha media define la
probabilidad de x llegadas en un período determinado, a través de la siguiente expresión:
𝝀𝝀𝒙𝒙 . 𝒆𝒆−𝝀𝝀 (𝝀𝝀 . 𝑻𝑻)𝒙𝒙 . 𝒆𝒆−𝝀𝝀 .𝑻𝑻
𝑷𝑷(𝒙𝒙) = ó para x=0,1,2,…
𝒙𝒙! 𝒙𝒙!
En este caso, el tiempo entre intervalos (no la cantidad de clientes que llegan) sigue una
distribución exponencial. La función de densidad para esta distribución depende también
del parámetro λ, y está dada por:
𝟏𝟏 −𝝀𝝀 .𝑻𝑻
𝒇𝒇(𝒕𝒕) = 𝒆𝒆
𝝀𝝀
Con una cantidad de tiempo T se puede usar la función de densidad para calcular la
probabilidad de que el siguiente cliente llegue dentro de las siguientes T unidades a partir
de la llegada anterior, de la siguiente forma:
𝑷𝑷(tiempo entre llegadas ≤ 𝑻𝑻) = 𝟏𝟏 − 𝒆𝒆−𝝀𝝀 .𝑻𝑻
En la práctica es necesario recolectar y tabular los datos, calcular la media y desvío
estándar y comprobar si la aleatoriedad de las llegadas se ajusta a una distribución de
Poisson. En general, si la varianza (σ2) se acerca notoriamente a la media (λ) estamos en
presencia de una distribución de Poisson; en caso contrario, a una Distribución Normal.
83
3. Proceso de servicio. Cantidad de servidores
El proceso de servicio define cómo son atendidos los clientes. Está claro que el servicio
que ofrece el sistema se lleva a cabo a través de una o más instalaciones (estaciones) de
servicio o servidores. Si el mismo se presta mediante una única estación, estamos en
presencia de un sistema de colas de canal sencillo, mientras que si existen varias
estaciones, consiste en un sistema de colas de canal múltiple. En el caso de que un
sistema de cola presente varios servidores, en la presente unidad, se considerará que cada
uno tiene la misma capacidad de servicio.
Por lo general, a medida que aumentan los servidores mejor es la calidad con la que se
ofrece el servicio y mejoran las medidas de desempeño, aunque dicho incremento también
llevará al crecimiento de los costos de operación.
84
atendidos, estando en presencia de un sistema de colas de líneas múltiples. Otra
característica del proceso es el número de espacios de espera en cada fila, es decir, el
número de clientes que pueden esperar para ser atendidos en cada línea, el cual puede ser
finito o infinito (como ya dijimos, se considerará infinito para facilitar los cálculos).
Otra característica del proceso de colas es la disciplina de colas, es decir, la forma, el
orden o el criterio bajo el cual los clientes que esperan son seleccionados para ser
atendidos. Las más comunes son:
Primero en entrar, primero en salir (PEPS): los clientes son atendidos en el orden en que
van llegando a la fila.
Último en entrar, primero en salir (UEPS): el cliente que ha llegado más recientemente es
el primero en ser atendido. Ejemplo: proceso de producción en el que los productos
llegan a una estación de trabajo y son apilados uno encima del otro.
Selección de prioridad: a cada cliente que llega se le da una prioridad, según la cual se lo
elegirá para prestarle el servicio. Ejemplo: pacientes en un hospital.
Servicio en orden aleatorio (SEOA).
85
Si bien los distintos cálculos dependerán del tipo de sistema de cola que se trate, pueden
extraerse ciertas relaciones fundamentales entre las medidas de desempeño cuando la
cantidad de clientes es infinita, las cuales se aplican independientemente del tipo de modelo
que se trate y de la distribución a la que se ajustan los tiempos (tanto entre arribos como de
servicios); son las llamadas ecuaciones de flujo de Little. Entre ellas:
T s = T c + 1/µ L s = λ . T sT s =Ls /λL c = λ . T c T c =L c /λ
3) Distintos tipos de modelos
Tipificación de los modelos de colas
D.G. Kendall sugirió una notación abreviada que permite reflejar las características que
forman a un modelo de línea y así diferenciarlos entre sí.
La notación se basa, originalmente en tres códigos, separados por barras inclinadas: A/S/e.
• A: indica el patrón de Arribos: si es determinístico o aleatorio, y en este último caso su
distribución de probabilidades; si es individual o colectiva.
• S: indica el patrón de Servicios: si es determinístico o aleatorio (y su distribución de
probabilidades).
• e: indica el número de estaciones destinadas al servicio (cantidad de servidores).
Entre los valores más comunes que pueden adoptar tanto A como S tenemos:
• M: distribución de Poisson para arribos/servicios o Exponencial para tiempos entre
arribos/de servicio.
• D: arribos o tiempos de servicios constantes o determinístico.
• G: indica arribos o tiempos de servicios con una distribución de probabilidad General
con media y varianza conocida (distribución según Gauss).
• Ek: tiempos de arribo o servicio se distribuyen según una distribución Erlang o Gamma.
Modelo M/M/1
Se desarrollará un modelo para determinar las medidas de desempeño cuando se utiliza
un solo servidor que opera en estado estable y los tiempos entre arribos y de servicios se
ajustan a una distribución Exponencial (o las cantidades a una Poisson); se simbolizará
como M/M/1. Entonces, las características son:
Existe un solo canal de atención para los clientes (un solo servidor).
86
Existe una sola línea de espera.
Las llegadas siguen una distribución de Poisson.
Los tiempos de servicio se ajustan a una distribución Exponencial.
La disciplina de la cola es PEPS.
La población de clientes se considera infinita.
La cantidad de clientes en el sistema puede ser infinitamente grande.
Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:
∞
𝟐𝟐
𝝆𝝆
𝑳𝑳𝑪𝑪 = � (𝒏𝒏 − 𝟏𝟏) . 𝒑𝒑(𝒏𝒏) = = 𝝀𝝀 . 𝑻𝑻𝑪𝑪
𝟏𝟏 − 𝝆𝝆
𝒏𝒏=𝟏𝟏
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 = = 𝝆𝝆 . 𝑻𝑻𝑺𝑺
𝝀𝝀
∞
𝝀𝝀 𝝆𝝆
𝑳𝑳𝑺𝑺 = � 𝒏𝒏 . 𝒑𝒑(𝒏𝒏) = =
𝝁𝝁 − 𝝀𝝀 𝟏𝟏 − 𝝆𝝆
𝒏𝒏=𝟎𝟎
𝟏𝟏 𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
=
𝝁𝝁 𝝁𝝁 − 𝝀𝝀
Probabilidad de no esperar 𝒑𝒑(𝟎𝟎) = 𝟏𝟏 − 𝝆𝝆
Probabilidad de que se forme cola 𝒑𝒑(𝒏𝒏≥𝟏𝟏) = 𝝆𝝆
Probabilidad de que haya n elementos en el sistema en el instante t𝒑𝒑(𝒏𝒏) = 𝝆𝝆𝒏𝒏 . (𝟏𝟏 − 𝝆𝝆)
Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:
−𝟏𝟏
𝝀𝝀
( �𝝁𝝁) 𝒔𝒔 𝒔𝒔−𝟏𝟏 𝝀𝝀
( �𝝁𝝁) 𝒏𝒏
𝒔𝒔
𝒑𝒑(𝟎𝟎) = � × +� �
𝒔𝒔! 𝝀𝝀
𝒔𝒔 − ( �𝝁𝝁) 𝒏𝒏=𝟎𝟎 𝒏𝒏!
𝝀𝝀 . 𝝁𝝁 . (𝝀𝝀�𝝁𝝁)𝒔𝒔
𝑳𝑳𝑪𝑪 = 𝒑𝒑(𝟎𝟎)
(𝒔𝒔 − 𝟏𝟏)! . (𝒔𝒔 . 𝝁𝝁 − 𝝀𝝀)𝟐𝟐
𝝁𝝁 . (𝝀𝝀�𝝁𝝁)𝒔𝒔
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 = = 𝒑𝒑(𝟎𝟎)
𝝀𝝀 (𝒔𝒔 − 𝟏𝟏)! . (𝒔𝒔 . 𝝁𝝁 − 𝝀𝝀)𝟐𝟐
𝑳𝑳𝑺𝑺 = 𝑳𝑳𝑪𝑪 + (𝝀𝝀�𝝁𝝁)
𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
𝝁𝝁
88
(𝝀𝝀�𝝁𝝁)𝒔𝒔
𝒔𝒔
𝒑𝒑(𝒏𝒏≥𝒔𝒔) = 𝒑𝒑(𝟎𝟎) × ×
𝒔𝒔! 𝒔𝒔 − (𝝀𝝀�𝝁𝝁)
(𝝀𝝀�𝝁𝝁)𝒏𝒏
𝒑𝒑(𝒏𝒏) = 𝒑𝒑(𝟎𝟎) . 𝒏𝒏 ≤ 𝒔𝒔
𝒏𝒏!
(𝝀𝝀�𝝁𝝁)𝒏𝒏
𝒑𝒑(𝒏𝒏) = 𝒑𝒑(𝟎𝟎) . 𝒏𝒏 > 𝑠𝑠
𝒔𝒔𝒏𝒏−𝒔𝒔 . 𝒔𝒔!
𝝀𝝀
Número promedio de canales ocupados: 𝑯𝑯 =
𝝁𝝁
𝝀𝝀
Número promedio de canales ociosos: 𝒔𝒔 − 𝑯𝑯 = 𝒔𝒔 −
𝝁𝝁
Es importante aclarar que en este modelo ρ ≠λ/µ, ya que en este caso la cantidad de
servidores es mayor que uno, por lo que µ refleja la tasa promedio de servicio para cada
canal y µ . s refleja la tasa promedio de servicio para todo el sistema de canales múltiples;
razón por la cual ρ=λ/(µ . s).
89
En conclusión, las características del modelo son:
El modelo tiene un solo canal de atención y una sola fila de espera.
La población es finita.
Cada unidad llega al sistema según distribución Poisson, a una velocidad media λ.
Los tiempos de servicio siguen una distribución Exponencial, con una velocidad
media de servicio igual µ.
La disciplina de la cola es PEPS.
Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:
𝑵𝑵 −𝟏𝟏
𝒏𝒏
𝑵𝑵! 𝝀𝝀
𝒑𝒑(𝟎𝟎) = �� ×� � �
(𝑵𝑵 − 𝒏𝒏)! 𝝁𝝁
𝒏𝒏=𝟎𝟎
𝝀𝝀 + 𝝁𝝁
𝑳𝑳𝑪𝑪 = 𝑵𝑵 − (𝟏𝟏 − 𝒑𝒑(𝟎𝟎) )
𝝀𝝀
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 =
(𝑵𝑵 − 𝑳𝑳𝑺𝑺 ) . 𝝀𝝀
𝑳𝑳𝑺𝑺 = 𝑳𝑳𝑪𝑪 + (𝟏𝟏 − 𝒑𝒑(𝟎𝟎) )
𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
𝝁𝝁
𝑵𝑵
𝑵𝑵! 𝝀𝝀 𝒏𝒏
𝒑𝒑(𝒏𝒏) = �� × � � � . 𝒑𝒑(𝟎𝟎) para n=0,1,2,…,N
(𝑵𝑵 − 𝒏𝒏)! 𝝁𝝁
𝒏𝒏=𝟎𝟎
Resulta importante destacar que si el número de clientes (N) varía, no ocurrirá lo mismo
con la tasa media de arribos, debido a que λ no representa la velocidad media de llegadas
de clientes desde la población, sino la cantidad media de llegadas de cada unidad tomada
individualmente, por lo que no depende del número total de elementos que pueden
ingresar al sistema (N-n).
92
Velocidad óptima de atención del modelo M/M/1
Como dijimos, suponemos que la única variable de la ecuación (5) (y por ende variable
de decisión) es la cantidad promedio de servicios prestados por unidad de tiempo µ.
Entonces, si obtenemos su primera derivada y la igualamos a 0 hallaremos el valor que
debe adoptar dicha variable para que el CT sea el mínimo.
𝝏𝝏𝝏𝝏𝝏𝝏 𝝀𝝀
= −𝑪𝑪𝒄𝒄 . + 𝑪𝑪𝑺𝑺
𝝏𝝏𝝏𝝏 (𝝁𝝁 − 𝝀𝝀)𝟐𝟐
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
+ 𝑪𝑪𝑺𝑺 = 𝟎𝟎
(𝝁𝝁 − 𝝀𝝀)𝟐𝟐
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
(𝝁𝝁 − 𝝀𝝀)𝟐𝟐 =
𝑪𝑪𝑺𝑺
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
𝝁𝝁𝒐𝒐 = � + 𝝀𝝀
𝑪𝑪𝑺𝑺
UNIDAD V: Simulación
1) Conceptos básicos. Ventajas y desventajas. Planeamiento y etapas.
En los problemas vistos anteriormente (y que se verán en el resto de las unidades) ha
sido posible obtener soluciones a través de técnicas matemáticas. Sin embargo, al tratar
algunos problemas del mundo real el modelo resultante puede ser demasiado complejo,
no siendo posible o práctico desarrollar una metodología de solución basada en un
análisis matemático.
En tales casos, una alternativa sería usar una técnica de la ciencia administrativa: la
simulación. También resulta conveniente usarla en el caso de modelos estocásticos o
probabilísticos. La simulación de un sistema es la operación del modelo que lo representa,
mediante la experimentación. Se recurre a la configuración, reconfiguración, y
experimentación sobre un medio maleable y más fácil de interpretar, sin alterar al sistema
real en sí mismo, lo cual sería impracticable, peligroso o demasiado costoso. En lugar de
actuar sobre la propia realidad que el modelo representa, lo que se hace es imitar el
desempeño del sistema real usando distribuciones de probabilidades para generar
aleatoriamente los distintos eventos que ocurren en el sistema. Un modelo de simulación,
entonces, sintetiza el sistema mediante la construcción de cada uno de sus componentes y
evento por evento. Después el modelo corre el sistema simulado para obtener
observaciones estadísticas del desempeño del sistema como consecuencia de los
diferentes eventos generados aleatoriamente. Como las corridas de simulación requieren la
93
generación y el proceso de una gran cantidad de datos (muestra grande), resulta útil (y
necesario) llevarlo a cabo en una computadora (simulación por computadora).
Entonces, la simulación es una técnica de muestreo estadístico para estimar el
desempeño de sistemas estocásticos complejos. En lugar de describir el comportamiento
global de un sistema directamente, el modelo de simulación describe la operación del
mismo en función de los eventosindividuales de cada uno de los componentes del
sistema. Por tal motivo, la simulación permite dividir el trabajo de construir un modelo en
componentes más pequeños que se pueden formular con mayor facilidad, y luego los
combina en su orden natural. Construido el modelo, éste se activa usando números
aleatorios para generar los eventos simulados a través del tiempo, según las distribuciones
de probabilidades adecuadas. El resultado es una simulación de la operación del sistema
real de la que puede extraerse su comportamiento agregado. Si se repite el proceso varias
veces y con distintos números aleatorios, se pueden estimar probabilidades respecto del
funcionamiento del modelo.
Así, en conclusión, la simulación no es más que una técnica para realizar experimentos
de muestreo sobre el modelo del sistema.
La simulación permite observar en detalle la operación del sistema e inferir propiedades
inherentes al comportamiento de los elementos de la realidad representada y evaluar su
rendimiento.
La posibilidad de efectuar alteraciones en el modelo (en lugar de afectar al sistema real
existente o ante la imposibilidad de actuar porque el sistema real todavía no se construyó)
reduce el riesgo de: errores en las especificaciones, resultados catastróficos, sobre o sub
utilización de recursos, rendimiento deficiente del sistema, etc.
¿Normativo o Descriptivo?
Los modelos de simulación no recomiendan un curso de acción con el fin de optimizar
alguna variable. Solo es una técnica de evaluación de los resultados logrados por distintos
cursos de acción mediante la experimentación, en base a un modelo matemático que
representa la situación real de decisión.
Por tal motivo, estamos en presencia de un modelo descriptivo, en donde las variables
constituyen entradas con un conjunto particular de valores para evaluar el
comportamiento de los elementos del sistema representado.
En conclusión, en un modelo de simulación se obtiene una descripción de cómo
funciona el sistema representado, cuando se dan las circunstancias señaladas por el
experimentador.
94
La simulación es una herramienta ideal en situaciones como las siguientes:
• Imposibilidad de observar el comportamiento real de determinados procesos, por no
ser técnicamente observables o porque demandan costos excesivos.
• Es posible una formulación matemática del modelo pero con soluciones analíticas
demasiado complejas
• Imposibilidad o alto costo para validar el modelo matemático planteado, por escasez de
datos y complejidad en su obtención.
• Escalas de tiempo discrepantes entre la realidad y el analista. Un simulador electrónico
puede “avanzar en el tiempo” rápidamente y mostrar resultados que llevaría muchos años
obtener en tiempo real.
• Facilidad de manipulación de los valores de parámetros que en la realidad pueden
demandar mucho trabajo o ser imposibles de obtener.
• Eliminación de “ruido” y repercusiones de segundo orden debido a la interacción de
elementos que en la realidad provocan interferencias en los resultados obtenidos, y que en
la simulación se pueden aislar para evaluar específicamente los que se quiere analizar.
95
Entre las ventajas que presenta el proyecto tenemos:
La simulación permite analizar grandes problemas cuyo grado de complejidad impide
aplicar resultados analíticos.
La simulación hace posible la experimentación, sin ser necesario actuar directamente
sobre la realidad que representa el modelo.
La simulación reduce el tiempo de trabajo.
Algunas técnicas analíticas requieren de un conocimiento matemático muy sofisticado
tanto para utilizarlas como para comprenderlas. En cambio, la simulación puede requerir
pocas o ningunas matemáticas compleja, lo que la hace más comprensible.
96
Identificación de los componentes de una simulación (por computadora)
Antes de diseñar los detalles de una simulación, es necesario determinar y comprender
los objetivos del estudio en la forma de salidas numéricas específicas.
Con las salidas identificadas, el siguiente paso es identificar las entradas. Es decir, los
valores numéricos que, una vez determinados, permiten comenzar la simulación y calcular
todas las salidas deseadas. Existen tres categorías:
• Condiciones iniciales: valores iniciales que expresan el estado del sistema al principio
de la simulación (por ejemplo, el línea de espera de un banco, el momento que abre
y todos los servidores están disponibles y no existen clientes en el sistema).
• Datos determinísticos: valores conocidos que son necesarios para realizar los cálculos
que producen salidas (en el ejemplo, la cantidad de servidores y la cantidad de horas
que funcionan).
• Datos probabilístico: cantidades cuyos valores son inciertos pero necesarios para
obtener las salidas de la simulación, y que se ajustan a cierta distribución de
probabilidades (en el ejemplo, las medidas de desempeño, las velocidades y tiempos
entre arribos y de servicios).
Planeamiento y etapas
Para el desarrollo correcto de un modelo de simulación deben realizarse las siguientes
etapas:
1. Formular el problema
Quien debe tomar una decisión, primeramente necesita identificar el problema y luego
tratar temas como: objetivos del estudio, nivel de detalle a observar en el modelo, medidas
de eficiencia a obtener, configuración de escenarios, etc.
Método Montecarlo
El método Montecarlo es una técnica de simulación originada en la década de 1940, en
el ámbito de los trabajos desarrollados por Von Neumann y Ulam en el laboratorio de Los
Álamos, aplicados al desarrollo de la bomba atómica durante la Segunda Guerra Mundial.
Se lo denominó así por asimilación con la característica más popular del Principado de
Mónaco: los juegos de azar del casino.
Según su definición, en el Método Montecarlo los eventos simulados tienen lugar
aleatoriamente y se ajustan a la descripción de las probabilidades teóricas derivadas de
experiencias adquiridas.
𝐥𝐥𝐥𝐥�𝟏𝟏 − 𝑭𝑭(𝒙𝒙𝟎𝟎 )�
𝒙𝒙𝟎𝟎 = −
𝝀𝝀
Considérese este ejemplo, en el cual se debe generar una variable artificial siguiendo a
una Distribución Exponencial Negativa de parámetro λ=2. A tal efecto, el número aleatorio
obtenido es 885.Como el número aleatorio se asimila a la función de acumulación F(x 0 ) se
tiene que hacer el siguiente cálculo:
𝐥𝐥𝐥𝐥(𝟏𝟏 − 𝟎𝟎, 𝟖𝟖𝟖𝟖𝟖𝟖)
𝒙𝒙𝟎𝟎 = − = 𝟏𝟏, 𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
𝟐𝟐
3) Simulación aplicada a Inventarios. Estimación de costos y análisis de resultados
b) Primer cliente.
1. Sorteo tiempo entre llegadas. Asigno hora de llegada = hora de inicio + minutos
aleatorios
2. Tiempo de espera = 0:00. Longitud de la cola = 0
3. Sorteo tiempo servicio. Asigno duración servicio. Asigno comienzo servicio = Hora
de arribo.
4. Calculo hora finalización servicio = hora comienzo servicio + duración del servicio.
c) Demás clientes.
1. Sorteo tiempo entre llegadas.
Asigno hora de llegada = hora de arribo del anterior + minutos aleatorios
2. Calculo: Tiempo de espera = Hora finalización servicio anterior – hora de arribo
¿Es positivo? Calculo:
Longitud cola = Cantidad de veces que Hora finaliz. Servicio > Hora de llegada
101
¿No es positivo? Tiempo de espera = 0:00. Longitud de la cola = 0.
3. Sorteo tiempo servicio. Asigno duración de servicio
Asigno comienzo del servicio = Hora de arribo + tiempo de espera
4. Calculo hora finalización servicio = hora comienzo servicio + duración del servicio.
d) Conclusiones
1. Sumo: tiempo entre llegadas; tiempo de servicio; tiempo de espera; longitud de la
cola.
2. Calculo promedios: sumatoria / número de observaciones.
3. Calculo probabilidades: casos favorables / número de observaciones.
102
Estructura de Información Perfecta(EIP): el estado de naturaleza verdadero queda
unívocamente determinado.
E1 E2 E3
m1 1 0 0
m2 0 1 0
m3 0 0 1
Estructura de Información Refinada(EIR): presenta más mensajes que los necesarios.
E1 E2 E3
m1 0,5 0 0
m2 0,5 0 0
m3 0 1 0
m4 0 0 1
Estructura de Información Imperfecta(EII): si la menos un estado de naturaleza no
queda unívocamente determinado por algún mensaje.
Estructura de Información Burda(EIB): presenta menos mensajes que los necesarios
(una EIB nunca puede ser una EIP).
E1 E2 E3
m1 1 1 0
m2 0 0 1
Lo ideal es lograr una EIP, aunque ciertos factores impiden obtenerla: los errores
propios de la información, las demoras en obtenerla, las deformaciones producidas por
quienes la transmiten, las comprensiones que se hagan de ella, entre otros. En cuanto más
se acerca a la perfección la estructura de información, mayor será la probabilidad de
obtener información perfecta, la que transforma en certidumbre el estado de naturaleza, y
por ende su valor será máximo.
103
3. La alternativa de decisión a elegir depende de los costos y/o de las ganancias
asociadas con cada decisión y del éxito que tenga el producto. El futuro puede
describirse mediante un número finito de estados o resultados posibles.
4. Debe tomarse una secuencia de decisiones que satisfagan un criterio global para la
organización.
El análisis de decisiones es la técnica utilizada para hallar la “mejore” secuencia de
decisiones en este tipo de problemas.
Estructuración del problema de decisión (ir viendo ejemplo ANDERSON página 628)
El primer paso en el método de análisis de decisiones consiste en identificar las
opciones a evaluar con las que dispone el decisor (es decir, las alternativas).
Es obvio que la elección de la cuál es la “mejor” alternativa dependerá de los resultados
posibles que en un futuro se alcancen con las opciones, los cuales son inciertos. Por ende,
el siguiente paso consiste en determinar los posibles eventos futuros o Estados de la
Naturaleza, lo que el decisor no pueden controlar, y son excluyentes entre sí: sólo puede
ocurrir uno de ellos. Las alternativas se denotarán como d i y los estados, N j .
Determinadas las alternativas y los posibles estados de la naturaleza, ¿cuál es la “mejor”
alternativa? Para responder esa preguntan, es necesario obtener la información (ganancias
o costos) respecto de las posibles consecuencias de cada combinación alternativa-Estado.
Entonces, en terminología de análisis de decisiones, lo que se produce al tomar cierta
decisión, combinado con la ocurrencia de un estado de la naturaleza específico, se lo
denomina resultado o consecuencia. Para llevar a cabo la toma de decisiones, se debe
elaborar una tabla de resultados, la cual expone los resultados estimados de las posibles
combinaciones, de la siguiente forma:
N1 N2 N3
d1 Resultado Resultado Resultado
d2 Resultado Resultado Resultado
d3 Resultado Resultado Resultado
En general, los elementos de la tabla pueden plantearse como utilidades, costos, o
cualquier otra medida de las consecuencias, siempre que sea adecuada para el caso
específico que se está estudiando. La notación para los elementos de una tabla de
resultados es V(d i ,N j ), que denota el pago correspondiente a la alternativa de decisión d i
y al estado de la naturaleza N j .
104
Árboles de decisión
Un árbol de decisión ofrece una representación gráfica del proceso de toma de
decisiones, como se ve a continuación:
106
2) Toma de decisiones sin probabilidades
En este caso se analizarán métodos para la toma de decisiones en los que no se necesita
conocer las probabilidades de los estados de la naturaleza.
El método optimista
En este método se evalúa cada alternativa de decisión en términos del mejor resultado
que puede ocurrir. La alternativa de decisión que se recomienda es la que ofrece la mejor
consecuencia posible. Por ejemplo, en un problema en el que se desea maximizar
utilidades, el método optimista conduciría al decisor a elegir la alternativa que
corresponde a las utilidades más altas. En problemas de minimización de costos, en
cambio, el método llevaría a elegir la alternativa que cause el menor resultado.
Criterio de Hurwicz
Con este criterio, la idea es combinar los criterios pesimista y optimista, decidiendo qué
tan optimista o qué tan pesimista se desea ser, de la siguiente forma:
1. Se escoge un coeficiente de optimismo (α) que tiene un valor entre 0 y 1 (cuanto
más cerca de 1, más optimista se es).
2. Se calcula el resultado para cada alternativa:
Resultado =α . resultado máximo + (1 – α) . ganancia mínima
3. Se selecciona la alternativa que tenga el mayor resultado.
Criterio de Laplace
En este caso existe incertidumbre de ocurrencia de cada Estado de la Naturaleza, por lo
que se asume equiprobabilidad (es decir, se supone que existe la misma posibilidad de
que se produzca cada N j ). Entonces se determina el resultado promedio para cada
alternativa de decisión de la siguiente forma:
𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟑𝟑 ) + ⋯ + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝒏𝒏 )
𝑹𝑹𝑹𝑹𝑹𝑹. =
𝒏𝒏
3) Toma de decisiones con probabilidades
La mayoría de las decisiones que enfrentamos cotidianamente, se presentan rodeadas
de un entorno regido por el riesgo. Se podría afirmar, que el ambiente bajoriesgo, es el
que fundamenta el análisis de la Teoría de la Decisión, puesto que hastauna situación de
incertidumbre, a no ser que se trate de "ignorancia completa", puedeen definitiva,
convertirse en una situación de riesgo.
La situación de riesgo implica que conocemos las probabilidades de ocurrencia de cada
uno de los estados de naturaleza. El decisor cuenta con alternativas factibles; cada una de
ellas dará lugar a un resultado, en función de cada uno de los estados de naturaleza
posibles.
Con ambos elementos, el decisor puede calcular la esperanza matemática de cada
combinación posible y aplicar el Criterio del Valor Esperado, el cual toma comoóptima, la
decisión que maximiza (o minimiza) las ganancias (o pérdidas) potenciales.
108
Cuando se dispone de esas probabilidades, es posible utilizar el método del valor
esperado para identificar la mejor alternativa de decisión, mediante el cual se buscará
determinar el valor esperado de cada opción, y se seleccionará la que tenga el mayor.
Las nomenclaturas son:
n = número de posibles estados de la naturaleza.
P(N j )= probabilidad del estado de la naturaleza N j .
Como solo puede ocurrir uno de los n estados de la naturaleza, las probabilidades
deben satisfacer dos condiciones: P(N j )>0 para todos los estados de la naturaleza
𝒏𝒏
4) Análisis de sensibilidad
En esta sección se analiza la forma en la que cambios en las estimaciones de las
probabilidades para los estados de la naturaleza pueden afectar o alterar la decisión que
se recomienda. A este estudio se lo denomina análisis de sensibilidad.
Un enfoque para el análisis de sensibilidad consiste en considerar probabilidades
diferentes y recalcular el valor esperado para cada alternativa y decidir nuevamente.
Repitiendo varias veces el proceso puede inferirse la forma en que las variaciones en las
probabilidades afectan a la decisión que se aconseja.
La única desventaja de este método es que se requieren muchos cálculos para evaluar el
efecto de varios cambios posibles en las probabilidades de los estados de la naturaleza.
En el caso que existan solo dos estados de la naturaleza, se pueden simplificar los
cálculos del análisis de sensibilidad usando un procedimiento gráfico. En este caso la
ecuación para obtener el VME sería:
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑵𝑵𝟐𝟐 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )
109
Como sabemos que P(N 1 )+P(N 2 )=1, podemos expresar la ecuación en función
solamente de una sola probabilidad:
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) + �𝟏𝟏 − 𝑷𝑷(𝑵𝑵𝟏𝟏 )�. 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). [𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) − 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )] + 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )
Por lo que tendremos funciones lineales para cada alternativa de decisión, que reflejará
el VME de la opción ante distintos valores de las probabilidades de los estados de la
naturaleza. Al graficarlas en un mismo par de ejes cartesianos, se pueden hallar los
intervalos para los cuales cada decisión es la mejor.Lo que se debe analizar es la línea que
está por encima de las restantes.
Cuando dos o más rectas se cortan en una gráfica de análisis de sensibilidad pueden
igualarse las ecuaciones de las dos rectas que se cortan para encontrar el valor de 𝑷𝑷(𝑵𝑵𝟏𝟏 ).
Cuando pequeñas variaciones en las probabilidades no alteran la solución óptima según
el criterio de Laplace, diremos que el sistema es insensible.
En definitiva, la magnitud de la variación de probabilidades de ocurrencia que origine
un cambio de estrategia, a lo definido originalmente, nos indicará el grado desensibilidad.
111
Es importante destacar ciertos conceptos:
• Probabilidad de sucesos mutuamente excluyentes: la probabilidad que se produzca uno
de los sucesos, es igual a la suma de las probabilidades de ocurrencia de cada uno.
• Sucesos independientes: cuando la probabilidad de ocurrencia de uno de ellos no es
afectada por la ocurrencia de otro.
• Probabilidad de sucesos compuestos con componentes independientes: es igual al
producto de las probabilidades de los sucesos independientes.
• Probabilidad de sucesos compuestos con componentes dependientes: la probabilidad
de que se cumplan dos sucesos, está dada por el producto de la probabilidad no
condicional de un suceso por la probabilidad condicionada de otro (condicionada por la
ocurrencia del primero).
112
Para poder usar de manera efectiva la información del indicador se debe saber algo
sobre las relaciones de probabilidad entre los indicadores y los estados de la naturaleza. Se
debe conocer la probabilidad condicional del indicador I k , dado el estado de la naturaleza
N j , que se expresa como 𝑷𝑷(𝑰𝑰𝒌𝒌 |𝑵𝑵𝒋𝒋 ). Para llevar a cabo el análisis se requieren
probabilidades condicionales para todos los indicadores, dados todos los estados de la
naturaleza; es decir, en este supuesto 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟐𝟐 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ).
Ahora veremos la forma en que toda esta información adicional puede incorporarse al
proceso de toma de decisiones.
113
naturaleza son incontrolables, la rama que sale de un nodo circular depende de la
probabilidad correspondiente a dicha rama. Es por esto que antes de tomar una decisión y
definir una estrategia, es necesario calcular todas las probabilidades de las ramas
indicadoras y de la naturaleza. Podemos ver que en el árbol de decisión las ramas de estado
de la naturaleza ocurren después que las ramas indicadoras. Por lo tanto, cuando se intentan
calcular las probabilidades para las ramas de estado de la naturaleza, es requisito considerar
cuál fue el indicador observado antes. Entonces, se expresan las probabilidades de los
estados de la naturaleza en la forma 𝑷𝑷(𝑵𝑵𝒋𝒋 |𝑰𝑰𝒌𝒌 ): probabilidad del estado 𝑵𝑵𝒋𝒋 , dado que se
observó el indicador 𝑰𝑰𝒌𝒌 .
114
Una vez conocidas las probabilidades de las ramas indicadoras, el proceso bayesiano
permite calcular las probabilidades posteriores de las ramas de estado de la naturaleza
𝑷𝑷(𝑵𝑵𝒋𝒋 |𝑰𝑰𝒌𝒌 ). Veremos el procedimiento calculando la probabilidad de la rama de la
naturaleza 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ). La relación puede expresarse de la siguiente manera:
𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏 ) 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 )
𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) = =
𝑷𝑷(𝑰𝑰𝟏𝟏 ) 𝑷𝑷(𝑰𝑰𝟏𝟏 )
Generalizando para cualquier estado de la naturaleza 𝑵𝑵𝒋𝒋 y cualquier indicador 𝑰𝑰𝒌𝒌 se
tiene que:
𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �
𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 � =
𝑷𝑷(𝑰𝑰𝒌𝒌 )
Cálculos de las probabilidades de las ramas: procedimiento tabular
Primeramente se arma una tabla para cada indicador 𝑰𝑰𝒌𝒌 que contiene las siguientes
columnas:
1. Estados de la naturaleza 𝑵𝑵𝒋𝒋 .
2. Probabilidades previas 𝑷𝑷�𝑵𝑵𝒋𝒋 �.
3. Probabilidades condicionales 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �.
4. Probabilidades conjuntas 𝑷𝑷�𝑰𝑰𝒌𝒌 ∩ 𝑵𝑵𝒋𝒋 � = 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �.
5. Probabilidades posteriores 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 �.
Después, dado cualquier indicador 𝑰𝑰𝒌𝒌 , se pueden realizar los siguientes pasos para
calcular las probabilidades 𝑷𝑷(𝑰𝑰𝒌𝒌 ) y 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 �:
1) Consignar en la columna 1 todos los estados de la naturaleza posibles.
2) Anotar en la columna 2 la probabilidad previa de cada estado.
3) Anotar en la columna 3 la probabilidad condicional 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 � de cada estado.
4) Calcular los valores de la columna 4 multiplicando la columna 2 y la 3.
5) Para obtener el valor de𝑷𝑷(𝑰𝑰𝒌𝒌 )se calcula la sumatoria de los elementos de la columna 4.
6) Calcular los valores de la columna 5, dividiendo c/ valor de la columna 4 por la sumatoria.
𝑽𝑽𝑽𝑽𝑬𝑬 = � 𝑽𝑽�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 � para 𝒊𝒊 = 𝟏𝟏, 𝟐𝟐, … , 𝒎𝒎 para todo 𝒌𝒌
𝒋𝒋=𝟏𝟏
115
Para el caso en que haya dos alternativas, dos estados y dos indicadores:
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟏𝟏 = 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟏𝟏 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟏𝟏 = 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟏𝟏 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟐𝟐 = 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟐𝟐 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟐𝟐 = 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟐𝟐 )
Como el decisor controla la rama que sale de un nodo de decisión y, ya que se está
buscando maximizar (o minimizar), elige el mayor (o menor) VME de cada indicador, es decir
el mayor entre𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟏𝟏 y 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟏𝟏 , y el mayor entre 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟐𝟐 y 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟐𝟐 .
Continuando hacia atrás por el árbol, solo queda calcular el VME de todo el problema,
el cual será un promedio ponderado de los VME óptimos obtenidos para cada indicador,
ponderándonos en función de la probabilidad de cada uno. La ecuación sería:
𝑽𝑽𝑽𝑽𝑽𝑽 = 𝑽𝑽𝑽𝑽𝑽𝑽∗𝑰𝑰𝟏𝟏 . 𝑷𝑷(𝑰𝑰𝟏𝟏 ) + 𝑽𝑽𝑽𝑽𝑽𝑽∗𝑰𝑰𝟐𝟐 . 𝑷𝑷(𝑰𝑰𝟐𝟐 ) = 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮
Luego de tener los resultados del estudio que brinde la información adicional, se optará
por la decisión que optimiza el indicador correspondiente.
116
Por “decisión más deseable” se entiende la que prefiere seleccionar el decisor no solo
por el valor monetario sino considerando muchos otros factores. Un ejemplo es la decisión
de comprar un seguro: obviamente adquirir un seguro no dependerá de su valor
monetario esperado.
En los casos en que el valor monetario esperado no conduce a la alternativa de decisión
preferible, resulta preferible expresar el valor de un resultado en términos de su utilidad, y
aplicar el método de la utilidad esperada para hallar la decisión más deseable.
Elaboración de las utilidades para los resultados (ver ejemplo Anderson página 653)
El procedimiento que se utilizará para establecer los valores de utilidad de los resultados
implica que, en primer lugar, se asigne un valor utilitario a los posibles resultados mejor y
peor de la situación de decisiones. Los valores a elegir no influyen en el método, pudiendo
seleccionarse arbitrariamente, siempre y cuando se cumpla con el requisito de que la
utilidad adoptada por la mejor opción sea mayor que el consignado a la peor.
Ahora para convertir los valores o resultados intermedios en términos de utilidades se
sigue el siguiente procedimiento. El decisor debe evaluar si prefiere:
a) Una ganancia segura de $X, tratándose de un valor intermedio de la matriz.
b) El resultado de una apuesta en la que puede ganar el máximo de los resultados posibles
con una probabilidad p o el mínimo de los resultados posibles con probabilidad 1-p.
117
Una vez determinados los valores utilitarios para cada uno de los posibles valores
monetarios se puede escribir la tabla original de pagos en términos de valores de utilidad.
La notación que se utiliza para cada elemento ahora será 𝑼𝑼�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �.
Si se grafican los diferentes valores obtenidos y se los compara con la línea recta que
uno las utilidades del resultado máximo y mínimo, se puede observar el criterio aplicado
por el decisor: si la “curva” formada por las utilidades está por encima de la recta, el
decisor siguió un criterio optimista; en caso contrario, uno pesimista o conservador.
Sólo puede llegarse a una solución satisfactoria y suficiente mediante una decisión final,
pero, a diferencia de la optimización de teorías claras, la racionalidad limitada indica que la
búsqueda de una solución se detiene cuando el decisor está satisfecho, a pesar de que
continuando con la búsqueda podría mejorarse la solución “satisfactoria” conseguida.
A la hora de aplicar un enfoque multicriterio en el proceso de toma de decisiones, es
importante tener en cuenta los siguientes aspectos:
• El trabajo con objetivos y criterios múltiples en forma simultánea implica que algunos
pueden ser cuantificables y otros no (o resulta difícil hacerlo).
119
• Llevar a cabo un proceso de toma de decisiones transparente, donde cada uno de los
actores pueda intervenir mediante su opinión y la obtención de nueva información.
• Garantizar el consenso de los intervinientes, con el fin de considerar los intereses de todos.
• La subjetividad del decisor con respecto a sus preferencias personales.
• Conseguir una solución “aceptable” antes que un “óptimo”, principalmente cuando no
existe una función objetivo clara, única y definitiva (MUY IMPORTANTE).
120
Requisitos metodológicos
El trabajo con esta técnica requiere:
1. Dominio de los métodos de AMD.
2. Poseer un solo conocimiento del contexto.
3. Análisis de los datos del problema mediante métodos multicriterio, a partir de una
correcta estructuración del proceso decisorio. Esto implica:
a. Definición del problema: identificar adecuadamente la situación problemática real
que exige la toma de una decisión.
b. Objetivos/Criterios: clasificar lo que se intenta alcanzar con la decisión a tomar y los
factores que se tendrán en cuenta. Si existen al menos dos criterios (cuantitativos y/o
cualitativos) y que sean conflictivos, es posible aplicar esta metodología. Sino, se trata
de un problema clásico de optimización, como los vistos anteriormente.
c. Alternativas: identificar las opciones disponibles para alcanzar el objetivo mediante
selecciones inteligentes.
d. Consecuencias y decisiones vinculadas: describir hasta qué punto cada alternativa
satisface a cada objetivo o criterio, y cómo influye sobre los demás.
e. Tradeoffs (intercambios o permutas): identificar las compensaciones entre
compromisos de difícil consecución cuando no pueden atender todos los objetivos
simultáneamente. Es decir, define las cantidades a sacrificar de un criterio para obtener
una unidad de incremento en otro.
f. Incertidumbre y tolerancia al riesgo: analizar cómo se actuaría cuando existen
incertidumbres que afectan a la decisión. Indagar la tendencia eventual que los
decisores podrían tener ante el riesgo.
4. Síntesis con recomendaciones para la toma de decisiones.
5. Re-evaluación del proceso decisorio, el con fin de retroalimentar futuras decisiones.
121
5. La definición de las restricciones no es clara, y suele confundírselas con los criterios.
6. Algunos criterios son cuantificables, mientras que otros no (o para hacerlos requieren
de la valoración subjetiva del decisor)
7. La naturaleza propia de los datos disponibles y de cada criterio influye sobre la forma
de la escala de valoración a aplicar (cardinal, ordinal o verbal).
Normalización
La normalización permite que sea más práctica la formulación del modelo multicriterio.
Puede ocurrir que las evaluaciones se midan en cualquier tipo de escala conocida, como:
Cardinal ratio, Cardinal intervalo, Ordinal, Nominal, Difusa o Probabilística.
Esto ocurre porque diferentes criterios aplicados en el problema se expresan en distintas
unidades de medida; por ejemplo, medidas de distancia, diferentes unidades monetarias,
etc. También es posible que, incluso cuando los criterios tengan la misma unidad de
medida, sean totalmente diferentes en magnitud, lo que provocará discrepancias.
Por último, el decisor debe proveer alguna forma de ordenar sus preferencias. Esta tarea
se ve favorecida cuando las opciones se presentan de manera normalizada.
Por todo esto, con la normalización se busca hacer comparables las distintas
evaluaciones cardinales r ij de los distintos criterios.
Algunas de las formas de normalizar los valores son:
a) Dividir por el “mejor” valor que alcanza el criterio: el número divisor puede ser máximo
o mínimo. Los valores resultantes quedarán expresados como porcentajes del máximo.
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖
b) Dividir por el recorrido o rango que alcanza el criterio: el número divisor en este caso es
la diferencia entre el máximo y el mínimo alcanzado por el criterio. Los valores resultantes
quedarán expresados como proporción del valor real con respecto a dicho rango.
123
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
c) Restar del “mejor” valor el valor real (o restar el “peor” del valor real) y dividir por el
recorrido o rango que alcanza el criterio: el número divisor es la diferencia entre el máximo
y el mínimo alcanzado por el criterio, mientras que el numerador lleva la diferencia “mejor-
real” (o “real-menor”). Los valores resultantes quedan expresados como porcentaje del
rango, con respecto a algún extremo.
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑉𝑉𝑖𝑖 𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 = ó
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖 𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
d) Dividir por la suma de valores que alcanza el criterio: el número divisor, en este caso, es
la suma de todos los valores consignados para el criterio. Los valores resultantes quedarán
expresados como porcentaje del valor total:
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
∑ 𝑉𝑉𝑖𝑖
Preanálisis de dominación
Este preanálisis busca reducir el conjunto de datos a manejar en el problema. Es un
proceso previo al trabajo de selección de la mejor alternativa. Se basa en el concepto de
alternativa dominante, que identifica a aquella que siempre es preferible con respecto a
otra en todos los criterios. Sus evaluaciones son mejores o, al menos, iguales que las de
otra alternativa, a la cual se llama “dominada”. Es obvio que dicha alternativa (la
dominada) nunca tendrá posibilidad de ser elegida, por lo que puede descartarse a priori.
b) Aplicar una asignación indirecta. Esta es la modalidad adoptada por el Proceso Analítico
de Jerarquías (PAJ) de Saaty. Se aplica una escala numérica (de 1 a 9) en la cual los valores
124
tienen en cuenta la intensidad de la preferencia del decisor. Solamente es necesario cubrir
la mitad de los elementos de la matriz de pesos, ya que el resto se infiere simétricamente.
(si sabe el valor de un r ij , el valor de r ji será el inverso multiplicativo).
Con el fin de evitar inconsistencia a la hora de estimar los valores de la matriz de pesos,
se prevé un procedimiento de análisis de congruencia de los juicios emitido.
Esta forma de asignar las ponderaciones a los criterios se verá en el siguiente capítulo.
Dichas características son típicas de los métodos multicriterio, por lo que permite
resolver situaciones problemáticas en las que la subjetividad del decisor cumple un rol
fundamental a la hora de expresar sus preferencias personales.
En todos los casos prevalece la aplicación del pensamiento de Pareto: la forma de
pensar más acertada consiste en buscar lo “aceptable” antes que lo “óptimo”.
Básicamente el método requiere la aplicación de tres elementos fundamentales:
1. Construir jerarquías;
2. Establecer prioridades;
3. Verificar la consistencia lógica de los resultados obtenidos.
El PAJ está diseñado, entonces, para resolver problemas complejos que tienen criterios
múltiples. El proceso requiere que el decisor proporcione evaluaciones subjetivas respecto
a la importancia relativa de cada uno de los criterios y que, después, especifique su
preferencia con respecto a cada una de las alternativas de decisión y para cada criterio. El
resultado del PAJ es una jerarquización con prioridades que muestra la preferencia global
para cada una de las alternativas de decisión.
El método de PAJ permite organizar la información de una manera eficiente y gráfica, y
posteriormente procede a descomponer y analizar por partes.
Se construye un modelo jerárquico donde se interrelacionan criterios, intereses y
resultados posibles. Según Saaty "facilita la toma de decisión por medio de la
organización de percepciones, sentimientos, opiniones y recuerdos en un marco que
exhibe las fuerzas que influyen en una decisión”.
Proceso de modelización
En general, el proceso a aplicar sigue lo explicado la Unidad I (Análisis cuantitativo,
proceso de toma de decisiones, enfoque sistémico y modelización):
1. Identificar la situación problemática.
125
2. Definir el objetivo, el cual consiste en obtener una solución a la situación descripta
en 1. Pueden incluyen subobjetivos.
3. Identificar criterios. Pueden desagregarse en subcriterios que confluyen en un
criterio de mayor nivel.
4. Identificar alternativas, de entre las cuales se seleccionará alguna que permita
cumplir con el objetivo de manera que se satisfagan de la “mejor manera” los intereses
de todos los participantes, en función de los criterios (y sus ponderaciones.
5. Cuando hay criterios que involucran Costos, Beneficios y Riesgos y las decisiones son
por sí o por no, Saaty propone como últimos pasos: 1) Análisis Costo-Beneficio en
relación con la decisión a tomar; 2) Estudio marginal de las relaciones entre C y B.
El decisor opinará sobre la importancia relativa que cada criterio tiene para el logro del
objetivo global (o a los subobjetivos que lo conforman, si existieran). Asimismo, señalará la
preferencia de cada alternativa de decisión, en términos de la medida en que contribuya a
satisfacer cada criterio.
El proceso analítico
Una vez que el decisor y los cursos de acción se han identificado, los principales pasos
del método son:
1. Representar el modelo mediante un árbol de jerarquías. El esquema básica a seguir es:
126
La experiencia y el juicio favorecen
5 Fuerte
fuertemente a una actividad sobre la otra.
Una actividad es mucho más favorecida que
7 Muy fuerte la otra; su predominancia se demostró en la
práctica.
Las pruebas que favorecen a una actividad
9 Extrema más que a otra son del nivel de aceptación
más alto posible.
A veces es necesario interponer
Para transar entre los valores numéricamente un juicio de transacción
2,4,6,8
anteriores puesto que no hay una palabra apropiada
para describirlo.
Si a la actividad i se le ha asignado
Una comparación que surge de la elección
Recíprocos uno de los números distintos de 0
del elemento más pequeño como unidad,
de lo mencionados cuando se compara con
para estimar el mayor como múltiplo de esa
anterior la actividad j, entonces j tiene el
unidad
recíproco cuando se la compara con i
3. Transformar las comparaciones en pesos(ponderaciones) y controlar la consistencia
de las comparaciones del decisor. Se calculan los pesos relativos de los elementos de
decisión y se hace el control de congruencia entre los juicios. El control analiza si el decisor
es coherente al hacer las asignaciones de las ponderaciones; es decir, que no se
contradiga, ya que ello puede distorsionar los resultados que arroje el modelo. En el caso
que no haya consistencia, es necesario reasignar los pesos.
4. Aplicar los pesos para obtener puntajes a asignar a cada opción y realizar una
selección provisoria. Se concluye con la estimación del orden de preferencias global,
indicando cuál es la alternativa que mejor satisface los objetivos y criterios aplicados.
5. Ejecutar el análisis de sensibilidad. Se examinará la robustez de la decisión provisoria
frente a cambios en los órdenes de preferencia e importancia asignados.
127
3º. Paso: Procedimiento de sintetización. Matriz normalizada (MCPN): sus elementos
se calculan dividiendo cada elemento de la matriz MCP por la suma de los elementos
de la columna en que está ubicado. El vector de prioridad de cada elemento (VP)
indica el grado de ponderación asignado a cada alternativa al analizarla con el criterio
aplicado; surge del promedio simple de los elementos de cada fila de la matriz MCPN.
4º. Paso: Análisis de Consistencia, para reflejar la congruencia de los juicios del decisor.
Se calculan cuatro conceptos:
1. Vector Suma ponderada (VSP): cada elemento (cada fila) surge de multiplicar
cada vector fila que compone la matriz MCP por el vector prioridades VP y dividir el
resultado por la prioridad calculada para esa fila.
2. Se calcula λ máx como promedio simple de los elementos del vector VSP.
3. Se calcula el Índice de Consistencia (IC)para el criterio tratado de la siguiente
forma (donde n es la cantidad de elementos que tiene el vector):
𝝀𝝀𝒎𝒎á𝒙𝒙 − 𝒏𝒏
𝑰𝑰𝑰𝑰 =
𝒏𝒏 − 𝟏𝟏
4. El índice calculado se compara con un índice generado aleatoriamente (LA)
mediante simulaciones por el propio Saaty, para expresar el Ratio de Consistencia
(RC) del criterio. Se calcula RC=IC/LA. Se considera que es consistente en los juicios
cuando es RC<0,10.
Orden 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Índice aleatorio 0 0 0,58 0,9 1,12 1,24 1,32 1,41 1,45 1,49 1,51 1,48 1,56 1,57 1,59
5º. Paso:MCP para todos los criterios. De forma similar a lo realizado con las alternativas,
ahora se comparan los criterios de a dos, hasta llegar a determinar su coherencia
(análisis de consistencia).
6º. Paso:Jerarquización global de prioridades. En primer lugar se reúnen los resultados
obtenidos en los vectores de prioridad (VP) de cada criterio: se colocan las alternativas
por filas y los criterios por columnas. Además se puede agregar una fila con las
ponderaciones de los criterios obtenidas en el paso 5°.
A cada valor de las filas se le aplica el factor de ponderación, luego se suman los
productos para obtener el promedio ponderado y así se va construyendo el vector
de prioridad global (PG), mediante el cual se define el puntaje obtenido por cada
alternativa. La que mayor prioridad global tenga será la alternativa más “aceptable”.
Análisis de sensibilidad
Al igual que en otros modelos normativos, este tipo de análisis permite evaluar la
estabilidad y robustez de la solución hallada ante cambios en algunos de los parámetros
del modelo. En este caso, lo habitual es observar el impacto sobre los valores del PG antes
variaciones en los pesos asignadas a los criterios.
128
UNIDAD VIII: Programación Dinámica
1) Conceptos básicos. Principio de optimalidad
“Divide y vencerás”
Las metodologías de trabajo aplicables a la resolución de situaciones problemáticas que
se desarrollarán en este capítulo presentan aspectos que las distinguen de técnicas
específicas (como Programación Lineal), pero que aun así se utilizan en la Investigación
Operativa. Las técnicas específicas pueden aplicarse de la misma forma a diversos
problemas, mientras que en el caso de la Programación Dinámica se cuenta con un
procedimiento sistemático basado en un enfoque de tipo general para la resolución de
problemas. Tal es así, que en programación dinámica la formulación matemática específica
para cada caso de aplicación individual debe desarrollarse y adecuarse al modelo
elaborado. Es decir, no se cuenta con algoritmos ya definidos que permitan arribar a una
solución, sino que es preciso formular “relaciones recurrentes” apropiadas p/ c/ problema.
Por lo dicho,para poder iniciar con los análisis y desarrollos concretos de cada caso, se
debe primeramente examinar las características del fenómeno con el fin de identificar si
existen ciertos rasgos típicos de aquellas situaciones en las que es posible aplicar
programación dinámica. Con el objetivo de entender y conocer estos rasgos, se expondrán
(más adelante) ciertos ejemplos demostrativos de situaciones que pueden resolverse
mediante programación dinámica.
Uno de los aspectos principales para poder aplicar programación dinámica es que a la
hora de llevar acabo el análisis se necesite tomar decisiones en forma parcial y sucesiva
en base a un orden ya prefijado. Cuando se requiere tomar una serie de decisiones
interrelacionadas y es posible dividir los grandes problemas en secuencias de problemas
relacionados más pequeños y con mayor facilidad para realizar los cálculos que permitan
optimizarlos individualmente, existen enormes chances de poder aplicar PD.
Glosario
Etapa (o fase): fracción del problema con un conjunto de alternativas mutuamente
excluyentes, entre las que se seleccionará la mejor. Cuando un problema complejo se
subdivide en otros de menor tamaño, el método de PD crea una etapa por cada uno de
tales subproblemas, y las etapas se resolverán individualmente en un cierto orden.
Variable de decisión: una variable que representa a las posibles decisiones que
pueden tomarse en una etapa para solucionar el subproblema.
Decisión: opción para completar cada etapa. Resulta de asignarle un valor
concreto a la variable de decisión correspondiente.
Estado actual: situación en la que está el proceso al inicio de una etapa/fase y que
indica las condiciones en la que debe tomarse la decisión correspondiente. Cuando se la
toma se pasa desde el estado asociado con una etapa hacia el asociado con la siguiente.
129
Variable de estado: variable que representa la situación (condiciones o estado) en
que se encuentra el proceso en un determinado momento; básicamente, al inicio de una
etapa o al final de la misma (inicio de la siguiente).
Función de transformación para etapas: es una regla o ecuación que relaciona la
variable de estado de una etapa con la variable de estado de la etapa anterior y con la
decisión adoptada. Es la expresión matemática a aplicar para que la variable de estado de
una etapa se transforme y esté en condiciones de ser aplicada en la siguiente etapa.
Rendimiento inmediato:valor representativo del aporte (o contribución) que una
decisión tomada en una etapa hace, por sí misma, al rendimiento global de todo el proceso.
Función de rendimiento: es un valor (ganancia, pérdida, costo, etc.) vinculado al
valor adoptado por la variable de decisión en una etapa cualquiera en conjunto con otras
etapas para las cuales ya se calculó su rendimiento inmediato. La función de rendimiento
resume el resultado total para todas las etapas evaluadas, incluida la tratada actualmente.
Proceso finito: tiene un número finito de etapas y de estados asociados a c/ etapa.
Política: se forma con el conjunto (secuencia) de las decisiones adoptadas en cada
una de las etapas. Sobre todo en el caso de modelos determinísticos.
Subpolítica: es un subconjunto del conjunto de decisiones que forman una política.
Estrategia: IDEM a política en modelos aleatorios.
Subestrategia: IDEM a subpolítica en modelos aleatorios.
Política (o Estrategia) óptima: es la que lleva al mejor rendimiento global, y
resulta de la combinación de los rendimientos asociados a cada decisión, los cuales se
calculan con la función de rendimiento.
Optimidad
El Teorema de Optimidad (o principio de optimidad) expresa que “dado el estado
actual, la decisión óptima para cada una de las etapas restantes NO debe depender de
estados previamente alcanzados o de decisiones previamente tomadas”. En forma más
sencilla, “una política óptima sólo puede estar formada por subpolíticas óptimas”.
El teorema se basa en los cálculos recurrentes que se aplican en el procedimiento. En
cada etapa se determina, para cada estado posible, la mejor política para abandonar tal
estado y completar el proceso. Tal determinación considera que las etapas precedentes se
han concluido y los resultados obtenidos en ellas se aprovechan en la etapa subsiguiente.
En tales circunstancias, en cada etapa se usa información de resumen de la/s etapa/s
anterior/es. Dicho resumen incluye todos los rendimientos de todas las etapas ya
consideradas, por lo que en la utilización del mismo NO interesan las decisiones
específicas ya tomadas en todas las etapas anteriores.
Las decisiones futuras se adoptan en forma óptima sin la necesidad de obedecer a
decisiones ya tomadas. Entonces, para una política óptima, independientemente de las
decisiones ya tomadas para llegar a un determinado estado en una determinada etapa, las
decisiones restantes deben constituir una política óptima para abandonar ese estado.
131
Nomenclatura y formulación
Ya indicamos anteriormente que en PD no existe un algoritmo de uso general que
pueda aplicarse en cualquier caso en particular, lo que llevaría a pensar que la herramienta
no posee expresiones matemáticas (variables y funciones) estandarizadas. Sin embargo, a
partir de las características típicas con las que cuentan todas las situaciones que son
posibles de solucionar mediante esta metodología, se pueden extraer algunas
formulaciones bastante uniformes.
La formulación básica de un problema de PD, luego de identificar las etapas y los
estados, se apoya en la relación recurrente (como ya vimos) que permite avanzar en el
proceso de solución. Si bien dicha relación es propia de cada problema, es posible utilizar
una notación común aplicable a la mayoría de ellos.
𝑵𝑵:representa el número de etapas que tiene el modelo.
𝒏𝒏:identifica a la etapa que se está analizando en un momento determinado (etapa
actual).
𝒔𝒔𝒏𝒏 :la variable de estado representativa de la situación para la etapa n. Si se consideran
a las etapas y sus circunstancias como un todo, podría decirse que s n representa el estado
del sistema en la etapa n.
𝒙𝒙𝒏𝒏 :la variable de decisión para la etapa n.
𝒙𝒙∗𝒏𝒏 :valor óptimo de la variable de decisión x n cuando el estado de la etapa es s n .
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ):representa la contribución que hacen a la función objetivo las etapas n,
n+1,…, N cuando el estado de la etapa n es s n , la decisión en tal etapa es x n y en etapas
subsiguientes se toman decisiones óptimas. Esta definición es válida cuando se aplica
recurrencia “en retroceso” (desde la última etapa hasta la primera, yendo “hacia atrás”).
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙∗𝒏𝒏 ):valor óptimo total para la función de rendimiento para la
etapa n y todas las etapas posteriores cuando la variable de decisión x n adopta su valor
óptimo ante el estado s n . Esta función de rendimiento podría expresarse de las siguientes
formas:𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )]ó 𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )], la
cual variaría si el objetivo perseguido por el problema sea de maximizar o de minimizar el
valor de una función determinada. Resulta importante aclarar que la expresión
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) al ser valorizada tiene en cuenta la función 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒔𝒔𝒏𝒏+𝟏𝟏 ), por lo que se
asegura que haya relación entre los rendimientos de tanto la actual etapa como de las
siguientes hasta la última.
Otros criterios de clasificación pueden ser según la forma de la función objetivo (ya sea
maximizar o minimizar, y a su vez si para el cálculo de la función de rendimiento global se
aplicará suma o producto de los resultados parciales) y según el tipo de variables aplicadas
(discretas o continuas).
133
2) Caso determinístico. Funciones y variables intervinientes. Políticas óptimas
Particularidades del caso determinístico
Como ya dijimos, la característica principal de estos problemas es que se conoce con
certeza cuál será el estado al que se llegará luego de tomar una decisión en una
determinada etapa y ante un determinado estado actual conocido también con certeza.
Si bien existen otras formulaciones, básicamente se identifican tres tipos distintos de
problemas que permiten obtener su solución mediante PDD: el problema de la diligencia,
el problema de distribución de esfuerzos, y el planeamiento y control de inventarios y
producción. Este tipo de problemas se puede representar mediante redes orientadas: cada
nodo identifica a los estados que pueden existir al inicio o al final de una etapa, mientras
que los arcos indican la forma en que se puede vincular el estado actual de una etapa con
el de la siguiente. Ubicados un único nodo inicial y un único nodo final, el resto de ellos
(intermedios) se alinean verticalmente de forma tal que todos los estados pertenecientes a
una misma etapa queden sobre una misma línea vertical. Vale aclarar que cada arco refleja
la transición de una etapa a otro, por lo que resulta imposible que un arco vaya más allá de
la primera columna de nodos contigua.
Si bien sobre la red pueden registrarse detalladamente y paso a paso las ecuaciones
utilizadas y los cálculos resultantes necesarios para hallar el óptimo, resulta favorable
utilizar una tabla en la cual consignar los cálculos auxiliares e identificar aquellos que son
útiles para avanzar en la construcción de los valores óptimos.
El problema de la diligencia
Una forma de determinar la ruta a seguir, con el fin de que ésta sea la de menor
trayecto, es aplicando el método de la ruta más corta visto anteriormente. No obstante,
134
esto implicaría un análisis exhaustivo de todos los posibles caminos entre A y O, trabajo
muy costoso y extenuante si se cuenta con una red mucho más compleja.
Al observar el croquis podemos notar que resulta posible armar una red para identificar
cada una de las etapas que tendrá el modelo a confeccionar que permitirá aplicar PDD:
Podemos ver que los nodos representan a cada ciudad, mientras que los arcos indican
las posibles rutas que las unen entre sí, es decir, las posibles formas de pasar de un estado
del sistema (estar en una determinada ciudad) a otroestado distinto en la etapasiguiente
(cambiar de ciudad). Los números expuestos sobre cada arco reflejan los kilómetros que
separan una ciudad de otra. Como vemos la red se ha ordenado de una forma más
practica como ya explicamos anteriormente, la cual permite distinguir claramente las
distintas etapas del modelo y las variables intervinientes en cada una: s n es la variable de
estado representativa de las distintas ciudades que pueden alojar a los excursionistas en
cada etapa; y x n es la variable de decisión para la etapa n (n=1,2,…,5). Por su parte, el
estado del nodo terminal ase ha indicado como s T .
Formulación
Se considerará políticaóptima (según la definición vista anteriormente) a aquella que
contenga todas las sucesivas elecciones de tramos de ruta que minimicen la distancia total
a recorrer.
En este caso el único dato con el que contamos es la cantidad de kilómetros que
median entre las distintas ciudades (aunque pudiesen existir otros datos: costos).
A partir de la expresión ya vista 𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )]se puede definir la
función objetivo de este modelo (que claramente es de minimización). La función a
minimizar (2do miembro de la ecuación) expone el cálculo recurrente y se compone de
dos partes:
135
a) Un valor (kilómetros) que es el rendimiento inmediato (que se simbolizará con 𝒗𝒗𝑺𝑺𝑿𝑿𝒏𝒏 )
por elegir la opción x n en la etapa n; y
b) El mínimo valor futuro (a representar con 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒙𝒙𝒏𝒏 )) correspondiente a las etapas
n+1 y posteriores (es decir, los kilómetros a recorrer desde la próxima etapa inclusive
hasta llegar al destino final).
Etapa V
Cuando resta ejecutar la última etapa el camino está claramente determinado por el
“estado actual” (estar en las ciudades L, M o N) y el “destino final” (llegar a la ciudad O).
Como ya dijimos, se trabajará sobre una tabla auxiliar para facilitar así la interpretación de
los resultados obtenidos. En la última etapa los cálculos son sencillos, ya que para cada
estado el rendimiento inmediato por trasladarse hasta el estado O (único estado en la última
etapa) refleja automáticamente el acumulado desde dicho origen hasta el final de la red.
En la siguiente tabla pueden
verse los cálculos realizados:
136
Etapa IV
Las opciones son: si se está en la ciudad I pasar a la ciudad L; si se está en J pasar a M;
o, si se está en K pasar a las ciudades M o N. En esta etapa, a diferencia de la anterior, los
cálculos son un poco más complicados (MIRARLOS EN EL EJEMPLO). En la siguiente tabla
se resumen los resultados:
Etapa III
En esta etapa hay 4 estados iniciales: las ciudades E, F, G y H. Al igual que en cada
etapa, se deben analizar las distintas alternativas de decisión, que en este caso son: pasar
de E a I , de F a I , de G a J o K, y de H a K. El resumen de los cálculos es:
Etapa II
Ahora los estados iniciales son 3: las ciudades B, C y D. Nuevamente de analizan las
distintas alternativas de decisión, y se obtienen los siguientes resultados:
Etapa I
Finalmente, la aplicación de la recurrencia en retroceso lleva a considerar la situación en
el nodo inicial de la red, cuando el único estado lo constituye la ciudad A, por lo que las
variables de decisión son: ir desde A hasta B, C o D. Los resultados se resumen aquí:
137
y estamos en el inicio de la red, dicho valor representa la menor distancia que hay entre el
nodo inicial (A) y el final (O), ya que se ha obtenido que:
𝑵𝑵
Para facilitar el ejemplo se trabajará con variables discretas (los montos a invertir varían
de 1000 en 1000), aunque podría trabajarse con variables continuas.
138
Formulación
Como ya explicamos anteriormente, el primer paso para poder aplicar esta metodología
consiste en identificar las distintas etapas así como los estados que pueden presentarse en
cada una de ellas.
Lo primero que debemos preguntarnos es qué es lo que se pretende conseguir, es
decir, el objetivo del problema. En este caso se busca maximizarelrendimiento global de
la inversión. Por tal motivo, cada decisión debe aportar a dicha maximización, y las
variables que indiquen el nivel de inversión a realizar en cada sucursal serán las
variablesdedecisión. Como cada variable de decisión corresponde a una etapa del
problema de PD, cada una de las distintas sucursales serán las etapas o fases.
Una vez definidas las etapas, se determinan los estados que pueden presentarse en
cada una. Como en cada sucursal se invertirá una parte del total, el montorestante que
aún no se invirtió será el estado o situación que condicionará a la próxima decisión.
El problema podría expresarse de la siguiente forma:
Maximizar:𝒁𝒁 = 𝒓𝒓𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒓𝒓𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒓𝒓𝑵𝑵 (𝒙𝒙𝑵𝑵 )
Sujeto a la condición: x1 + x2 + x3 + … + xN ≤ b
En la que 𝒓𝒓𝒏𝒏 (𝒙𝒙𝒏𝒏 )es una medida del desempeño (rendimiento) que se obtiene al asignar
𝒙𝒙𝒏𝒏 unidades monetarias en la etapa (sucursal) 𝒏𝒏. Al inicio de tal etapa el estado actual es 𝒔𝒔𝒏𝒏
que, como ya vimos, representa el monto disponible para invertir en dicha etapa (sucursal).
De forma similar al ejemplo anterior, la fórmula de recurrencia será:
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )
𝒙𝒙𝒏𝒏 = 𝟎𝟎, 𝟏𝟏, … , 𝒔𝒔𝒏𝒏
A su vez, la función de la que se busca su máximo puede desagregarse en:
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = 𝒓𝒓𝒏𝒏 (𝒙𝒙𝒏𝒏 ) + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒔𝒔𝒏𝒏 − 𝒙𝒙𝒏𝒏 )
En palabras, el rendimiento que tienen los x n pesos invertidos en esta etapa, más el mejor
rendimiento – ya calculado en etapas evaluadas previamente – que tienen en conjunto los
restantes pesos hasta completar el total que había disponible al iniciar la etapa.
Proceso de cálculo
En este caso es indistinto el orden de la selección de una sucursal u otra para asignar los
fondos, pero se continuará con la resolución mediante recurrencia en retroceso como en
el otro ejemplo: primero se seleccionara una etapa (la última) de forma que su resolución
sea sencilla, y luego se avanza en el proceso de cálculo agregando más etapa hasta llegar a
la primera etapa.
De esta forma, no se sabrá en cada paso cuánto invertir en cada sucursal (etapa), sino
que simplemente quedará indicado provisoriamente con la variable que lo identifica.
Luego, al llegar a la primera etapa y finalizar el procedimiento, se hace el mismo recorrido
139
pero en forma inversa y se determinará el nivel óptimo a asignar a cada variable de
decisión de forma tal que se maximice la inversión global.
Si bien pueden utilizarse tablas como las del ejemplo anterior, en este caso se usaran
matrices triangulares para obtener los rendimientos de cada paso.
Etapa IV
Nuevamente al ser la última etapa, la solución es bastante sencilla al analizarse una
única sucursal (la 4) en la cual invertir los fondos disponibles. Los resultados simplemente
se extraen de la tabla presentada anteriormente:
Etapa III
A partir de esta etapa comienza a aplicarse la matriz para combinar el rendimiento
inmediato por invertir en la sucursal de esta etapa (la 3) junto con lo mejor de la etapa
posterior ya estudiada (𝒇𝒇∗𝟒𝟒 (𝒔𝒔𝟒𝟒 )). En la tabla también se expone los rendimientos que se
lograrían invirtiendo en la sucursal 3 sin tener en cuenta las demás sucursales.
El resto de los valores de la tabla forman una matriz triangular en la que cada valor
surge de la suma de los rendimientos de la fila (dinero invertido en esta etapa) y de la
columna (dinero invertido en las etapas posteriores ya examinadas) que intersectan,
siempre y cuando la suma de los montos invertidos no supere el máximo (el todo, los
$6.000, razón por la cual la matriz tiene forma triangular). Como podemos observar, todos
los rendimientos de un determinado estado quedan sobre la misma diagonal.
La tabla de la derecha muestra las subpolíticas óptimas. Indica cuáles son las mejores
opciones (que incluye su asociación con los rendimientos futuros de la sucursal 4 𝒇𝒇∗𝟑𝟑 (𝒔𝒔𝟑𝟑 ))
cuando en esta etapa se enfrentan los estados (dinero disponible) de 0 a 6. Se obtienen de
comparar todos los valores de una diagonal de la matriz y elegir de ellos el mejor. Hallado
140
dicho valor, se busca por la misma fila el valor que indique la cantidad de dinero que se
invertirá en esta etapa (𝒙𝒙𝟑𝟑∗ ), es decir, en la sucursal 3.
Etapa II
En este caso, en la matriz se consideran los rendimientos inmediatos que se obtendrían
por invertir en la sucursal 2 en conjunto con lo mejor de las etapas posteriores ya vistas
(𝒇𝒇∗𝟑𝟑 (𝒔𝒔𝟑𝟑 )), valores que se obtienen de la tabla anterior. Los resultados se exponen en la
siguiente tabla:
Etapa I
En esta etapa se finaliza con la asignación de los fondos disponibles, y por ende, con el
proceso de solución de la PD. En este caso, en la matriz se consideran los rendimientos
inmediatos que se obtendrían por invertir en la sucursal 1 en conjunto con lo mejor de las
etapas posteriores ya vistas (𝒇𝒇∗𝟐𝟐 (𝒔𝒔𝟐𝟐 )).
Es importante destacar que, como se observa en la tabla, se han resuelto todos los
estados posibles de la variable s 1 , y esto es así debido a que la restricción del problema
(ver antes) establece que los fondos invertidos deben ser igual o menor que los
disponibles. Si la condición expresara que deben invertirse la totalidad de los fondos, en
esta etapa el único estado posible sería s 1 =6, y solo deberían completarse los valores
correspondiente a la última diagonal de la matriz.
141
sucursal 1 para que se maximice el valor de la función objetivo. Además, al recorrer el
camino hacia atrás se encuentran los montos a colocar en c/u de las otras sucursales.
La planificación de reemplazos y mantenimientos de equipos
La PD es aplicable para establecer una política de gestión de equipos sujetos a
utilización, desgaste, tareas de mantenimiento, etc., en función de su
comportamientofuturoesperado según su antigüedad, modalidad de uso, entre otros
factores.
Formulación
Tal como hicimos en los ejemplos anteriores, lo primero que se debe hacer consiste en
identificar las etapas y los estados posibles que pueden presentarse en ellas.
El objetivo de este problema procura minimizarel costo total de cada cuatriciclo.
Obviamente, las decisiones a tomar según tal objetivo requieren de variables de decisión
(una por cada etapa del problema de PD) que indiquen qué hacer en cada etapa (al final
de cada año): mantener o renovar el vehículo, ya que dichas opciones implican incurrir en
tales costos. Con todo lo dicho, el problema podría definirse como:
Minimizar:𝒁𝒁 = 𝒄𝒄𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒄𝒄𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒄𝒄𝑵𝑵 (𝒙𝒙𝑵𝑵 )
En donde 𝒄𝒄𝒏𝒏 (𝒙𝒙𝒏𝒏 ) es una medidadeldesempeño (costo total incurrido) al adoptar para
x n el valor “reemplazar” o “conservar” en la etapa n. Al inicio de tal etapa se estará en
presencia del estado s n (cuatriciclo con una cierta antigüedad a principio de año).
En este caso, la expresión de recurrencia sería:
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )
142
𝒙𝒙𝒏𝒏 = 𝟎𝟎, 𝟏𝟏, … , 𝒔𝒔𝒏𝒏
De forma análoga que en los ejemplos anteriores, la segunda expresión puede
reexpresar como:
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = 𝒄𝒄𝒏𝒏 (𝒙𝒙𝒏𝒏 ) + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒙𝒙𝒏𝒏 )
Es decir, el costo (efectoinmediato) de la decisión x n en esta etapa, más el mejor costo
– ya calculado en etapas evaluadas anteriormente – que tienen en conjunto las restantes
decisiones.
Para mostrar la venta obligatoria de los cuatriciclos luego de los 5 años se añade una
etapa adicional a las necesarias para representar cada año del horizonte de planeamiento.
Los valores sobre los arcos representan el costo total por pasar de un estado a otro, y
en los nodos se codifica el estado del cuatriciclo: primer número indica la antigüedad; A,
“años”; P, “períodos”; último número, número de período al final de la etapa.
Proceso de cálculo
A continuación se presentará la resolución del problema mediante el uso de tablas de
forma similar a lo que se hizo en los casos anteriores.
Las tablas muestran en las filas los orígenes (o estados iniciales de la etapa) y en las
columnas los posibles destinos (estados finales) según la decisión tomada.
Como siempre, se inicia con la última etapa, en este caso, el de la venta obligatoria.
Etapa Período 5.
En este caso se presentan 4 posibles estados iniciales para llegar a los 4 estados finales
(iniciales en la etapa previamente estudiada). Algunas conexiones no son válidas, por lo
que se las indica con un costo de valor M.
Etapa Período 4.
Siguiendo el mismo razonamiento tenemos que:
Etapa Período 3.
De forma similar obtenemos que:
Es importante destacar que para el estado inicial 2AP2 ambas decisiones (mantener e ir
a 3AP3 o renovar e ir a 1AP3) arrojan un mismo costo acumulado (lo cual se indica con un
asterisco en la columna “Alt”).
144
145
Etapa Período 2.
Como vemos, a medida que nos acercamos a la etapa inicial, los estados iniciales se van
reduciendo, siendo solamente 2 en esta etapa.
Etapa Período 1.
Como en los ejemplos anteriores, en la primera etapa (última analizada) la cantidad de
estados iniciales posibles se reduce a una, por lo que ya se puede definir la política óptima
de solucione el problema.
Ahora es posible construir toda la ruta de subpolíticas óptimas desde la etapa 1 hasta la
última, de manera de proponer el curso de acción que minimice el costo total. Esto se
resume en la siguiente red:
146
3) Caso probabilístico. Funciones y variables intervinientes. Estrategias óptimas
Situaciones en las que es aplicable la Programación Dinámica Probabilística
Los casos que se pueden tipificar de esta manera reúnen todas las características
anteriormente nombradas al inicia de esta unidad, a las que se le agrega el hecho de que
el rendimiento de al menos una de las decisiones del proceso presenta resultados
inciertos, por diferentes razones:
a) Los estados finales posibles son inciertos y pueden obtenerse mediante la aplicación
de alguna distribución de probabilidades que se supone conocida;
b) Lo incierto es el rendimiento asociado a cada estado posible.
148
Cada una de estas situaciones eventuales requiere un análisis diferente en lo que
respecta a las posibles acciones futuras, cuyas consecuencias tendrían efecto durante el
primer año del plan. De esta manera:
1. Si se diera la situación A la empresa no está dispuesta a renunciar a su liderazgo, por lo
que reinvertirá la totalidad de los fondos disponibles para conservar dicha posición e
iniciará un plan agresivo para mejorar la calidad del servicio.
2. Si se diera la situación B, las alternativas se dividen entre intentar alcanzar el liderazgo
con un plan similar al anterior o tratar de mantenerse en la posición actual mediante un
plan con menor intensidad.
3. Si se diera la situación C, la empresa no contaría con muchos recursos disponibles, por
lo que intentaría conservar la poca porción del mercado ya captado. Una alternativa sería
la financiación externa con el cual desarrollar un plan de expansión y mejora de los
servicios con el fin de conseguir la posición de la situación B.
149
Formulación
Para adecuar el planteo simbólico planteado arriba, debemos tener en cuenta que se
cuenta con dos etapas, por lo que los valores de n serán 1 y 2, mientras que las decisiones
a adoptar se simbolizarán con x 1 y x 2 respectivamente, para pasar del estado s 1 al s 2 y del
s 2 al s 3 . En cada una de las fases o etapas los estados son siempre 3: AB y C. Las
participaciones adicionales de mercado que puede obtenerse como consecuencia de cada
transición tomarán un valor de vi distinto según la decisión. En cuanto a las probabilidades
pi de ocurrencia de tales rendimientos, también se consignan en la red (arcos línea llena).
Resolución
Etapa II.
Ya que el problema se resuelve mediante recurrencia en retroceso, en primer lugar se
trabaja con la última etapa, calculando la esperanza matemática correspondiente a cada
una de las situaciones iniciales (A’, B’ y C’), en función de la decisión a tomar y de las
probabilidades de los respectivos estados finales para dicha etapa terminal.
1. Situación inicial A’. La resolución es bastante sencilla (por ser la última etapa), porque el
valor que se obtiene para la fórmula de recurrencia es el mismo que corresponde en forma
directa como rendimiento inmediato para la decisión que se tome en esta etapa (es decir,
dicho rendimiento ya refleja el acumulado). En este caso el único destino posible es A’’:
s 2 =A’, x 2 =A’’. La particularidad aquí es que, producto de la aleatoriedad, al tomarse una
única decisión pueden llegarse a dos situaciones distintas. Por ello corresponde calcular la
esperanza matemática para tales estados finales, en función de su probabilidad:
𝑺𝑺
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = � 𝒑𝒑𝒊𝒊 [𝒗𝒗𝒊𝒊 + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒊𝒊)] → 𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝑨𝑨′′) = 𝒑𝒑𝑨𝑨′′ ⋅ 𝒗𝒗𝑨𝑨′′ + 𝒑𝒑𝑩𝑩′′ ⋅ 𝒗𝒗𝑩𝑩′′
𝒊𝒊=𝟏𝟏
𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝑨𝑨′′) = 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ 𝟓𝟓 + 𝟎𝟎, 𝟔𝟔𝟔𝟔 ⋅ (−𝟐𝟐) = 𝟎𝟎, 𝟖𝟖𝟖𝟖
150
𝒇𝒇∗𝟐𝟐 (𝑨𝑨′) = ó𝒑𝒑𝒑𝒑𝒙𝒙𝟐𝟐 𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝒙𝒙𝟐𝟐 ) = 𝟎𝟎, 𝟖𝟖𝟖𝟖
2. Situación inicial B’. Se procede de forma similar, con la diferencia de que ahora son
dos las alternativas de elección, por lo que deben considerarse tanto la intención de
ubicarse en A’’ como la mantenerse en B’’. Para el primer caso los resultados son los
mismos del inciso anterior, ya que la situación final sería la misma con idénticas
probabilidades: 𝒇𝒇𝟐𝟐 (𝑩𝑩′, 𝑨𝑨′′) = 𝟎𝟎, 𝟖𝟖𝟖𝟖. Cuando se analiza la segunda opción, sería:
𝒇𝒇𝟐𝟐 (𝑩𝑩′, 𝑩𝑩′′) = 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ 𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟓𝟓𝟓𝟓 ⋅ 𝟐𝟐 = 𝟔𝟔, 𝟏𝟏𝟏𝟏 = 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′)
3. Situación inicial C’. En este caso también existen dos alternativas (llegar a B’’ o
conservar C’’), por lo que el razonamiento es bastante similar. Los cálculos serían:
𝒇𝒇𝟐𝟐 (𝑪𝑪′, 𝑩𝑩′′) = 𝟔𝟔, 𝟏𝟏𝟏𝟏 = 𝒇𝒇∗𝟐𝟐 (𝑪𝑪′)
𝒇𝒇𝟐𝟐 (𝑪𝑪′, 𝑪𝑪′′) = 𝟎𝟎, 𝟕𝟕𝟕𝟕 ⋅ 𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟑𝟑𝟑𝟑 ⋅ (−𝟑𝟑) = 𝟔𝟔, 𝟏𝟏𝟏𝟏
Etapa I.
Una vez calculados los valores para la etapa II, se deben calcular en la etapa I los
rendimientos inmediatos y considerarlos en conjunto con los valores óptimos acumulados.
1. Situación inicial A. La única acción posible es pasar de A a A’ y se rendimiento sería
igual a:
𝑺𝑺
𝒇𝒇𝟏𝟏 (𝑨𝑨, 𝑨𝑨′ ) = 𝒑𝒑𝑨𝑨′ [𝒗𝒗𝑨𝑨´ + 𝒇𝒇∗𝟐𝟐 (𝑨𝑨′ )] + 𝒑𝒑𝑩𝑩′ [𝒗𝒗𝑩𝑩′ + 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′ )]
𝒇𝒇𝟏𝟏 (𝑨𝑨, 𝑨𝑨′ ) = 𝟎𝟎, 𝟔𝟔𝟔𝟔 ⋅ (𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟖𝟖𝟖𝟖) + 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ (𝟏𝟏 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) = 𝟗𝟗, 𝟗𝟗𝟗𝟗 = 𝒇𝒇∗𝟏𝟏 (𝑨𝑨)
Conclusión: si la empresa está en la situación A en el momento actual tiene la
esperanza de captar el 9,94% de los clientes del mercado si toma las decisiones que se
recomendaran en la solución detallada del problema.
2. Situación inicial B. En este caso, en cambio, existen dos opciones: intentar llegar a A’
o mantenerse en B’. Para cada alternativa debe calcularse su valor esperado.
a. Como en la etapa II, se toma el resultado ya obtenido antes 𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑨𝑨′ ) = 𝟗𝟗, 𝟗𝟗𝟗𝟗
b. En este caso, tomada la decisión de conservar la posición de Expectante, pueden
producirse 3 situaciones distintas (3 estados finales), por lo que:
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝒑𝒑𝑨𝑨′ [𝒗𝒗𝑨𝑨´ + 𝒇𝒇∗𝟐𝟐 (𝑨𝑨′ )] + 𝒑𝒑𝑩𝑩′ [𝒗𝒗𝑩𝑩′ + 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′ )] + 𝒑𝒑𝑪𝑪′ [𝒗𝒗𝑪𝑪′ + 𝒇𝒇∗𝟐𝟐 (𝑪𝑪′ )]
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝟎𝟎, 𝟑𝟑𝟑𝟑 ⋅ (𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟖𝟖𝟖𝟖) + 𝟎𝟎, 𝟓𝟓𝟓𝟓 ⋅ (𝟓𝟓 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) + 𝟎𝟎, 𝟏𝟏𝟏𝟏 ⋅ (−𝟖𝟖 ⋅ 𝟔𝟔, 𝟏𝟏𝟏𝟏)
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕
Como este último es el mayor, se tiene que:
𝒇𝒇𝟏𝟏∗ (𝑩𝑩) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕
151
Conclusión: si la empresa está en la situación B en el momento actual, el porcentaje de
clientes adicionales que se espera captar en dos años es 10,77.
Conclusiones
A modo de resumen, en la siguiente tabla se exponen las decisiones óptimas que se
recomiendan tomar ante cada una de las posibles situaciones.
La particularidad aquí es que se cuenta con una estrategia de acciones condicionales (las
cuales varían con cada estado s n que se puede presentar) y en la que cada decisión a
recomendar sólo es aplicable una vez que se haya producido el efecto de un evento aleatorio.
152
UNIDAD IX: Teoría de los Juegos
1) Características del modelo. Clasificación
Una “metáfora científica”
La primera idea que se nos viene a la mente al leer el título de esta UNIDAD se asemeja
a todas aquellas actividades lúdicas que desde hace muchos años ocupan un lugar
preponderante en las distintas sociedades: los juegos. Dichas actividades comúnmente se
clasifican en distintas categorías: juegos de mesa, juegos de cartas, videojuegos, juegos
deportivos, entre otros.
Todos estos juegos comparten una “idea básica” que les permite recibir tal
denominación. Esta cuestión se explica a través de la teoría de las categorías de
Aristóteles, que permite agruparlos en función de ciertas características comunes:
1. Reglas. Todos los juegos tienen reglas que establecen qué (y qué no) puede hacer cada
jugador que participa del juego.
2. Estrategia. En todos los juegos se deben seguir cursos d acción que lleven al mejor
resultado. Se puede ganar por implementar una estrategia mejor que la seleccionada por
el adversario, o perder si se opta por una peor que la del oponente.
3. Resultado. Existe un resultado del juego, que depende tanto de la estrategia seguida
por un jugador como de las aplicadas por los otros participantes.
Racionalidad
En muchos casos resulta necesario que los participantes del juego se comporten de una
forma racional. Ello permite la modelación aplicando esta teoría y, brevemente expuesto,
153
significa que el decisor elige en función de sus preferencias el mejor curso de acción entre
todas las opciones disponibles.
En otras palabras, la teoría de la decisión racional expone que dada una situación, el
decisor seleccionará un elemento del conjunto de opciones posibles de manera que lo
hace por “lo mejor” según sus preferencias.
Esta racionalidad, entendida como una conducta inteligente motivada por un cálculo de
ventajas y desventajas de acuerdo a un sistema de valores, ha servido para expresar el nexo
entre la Economía Neoclásica y la Teoría de los juegos. En la primera las consecuencias se
perciben “a través del mercado”, y en la segunda por la interacción directa.
155
Árboles de resultados sucesivos. Consiste en una representación en forma extensiva.
Se utiliza en juegos en lo que existe secuencia de movimientos, ya que esta forma de
representación permite una mejor descripción de cómo se desarrolla en el tiempo.
En base a un punto de partida se despliegan sucesivas ramas (arcos entre nodos)
representando las distintas opciones que dispone cada jugador y las consecuencias que
provocaría ejecutar cada una de ellas. La red presenta una forma de árbol o red dirigida.
La forma extensiva brinda el mayor detalle y proximidad con la realidad modelada.
Curvas de reacción. Esta forma de representación tiene su correlato en muchas otras
expresiones que se utilizan en Economía. Consiste en representar en un eje de
coordenadas cartesianas ortogonales las combinaciones de decisiones y pagos. El caso
más conocido son las curvas de oferta y demanda de un bien.
Forma función de coalición.Esta forma de representación es adecuada para aquellos
juegos de n personas en los cuales es factible el intercambio de información entre los
jugadores y su agrupamiento en coaliciones (alianzas, equipos, grupos).
156
Propiedades de la reducción por dominación
Se denominarán con J 1 , J 2 , etc., los juegos que se obtienen en sucesivas reducciones de
un juego J. Toda solución óptima en J 1 , J 2 , etc., es solución óptima del juego original J, y
el valor del juego es siempre el mismo (es decir, que se aplique o no reducción por
dominación, la solución del problema no varía; simplemente aplicar dicha propiedad sirve
para simplificar la resolución del mismo).
Entonces, se puede afirmar que, si las reducciones se hicieron por dominación estricta,
para cualquier solución que se encuentre en J 1 , J 2 , etc., las estrategias óptimas y el valor v
serán los mismos. En cambio, si la dominación no fuera estricta, podría haber otras
soluciones en J (soluciones alternativas) que, con estrategias distintas a las obtenidas,
arrojen el mismo valor que v.
Estrategia
Se puede definir la estrategia como un plan de acción completo en un juego
determinado, aplicable en cada momento de decisión de jugador.
También puede relacionarse dicho concepto con cada una de las alternativas con las
que cuenta un jugador, en el caso de juegos representados en forma normal. Si se trata de
juegos en forma extensiva, dicho concepto es representativo de un
completoplandeselecciones, uno por cada punto de decisión del jugador.
Desde este último punto de vista, en los juegos de suma cero cada jugador tiene un
número de elecciones posibles, denominadas estrategias.
157
Caso particular de un juego con punto de equilibrio
Si ninguno de los jugadores encuentra favorable cambiar su estrategia, ya que si lo
hiciera su oponente podría seleccionar otra estrategia con mejor resultado, el juego se
encuentra estable. En este caso, si ocurre que el valor minimax iguala al valor maximin,
las estrategias puras correspondientes se denominan estrategias óptimas, y el juego tiene
un punto de equilibrio. Dicho valor coincidente se denomina valor del juego (el pago
que recibirá A al jugarse ese par de estrategias).
Supongamos que el punto de equilibrio está en el elemento a kl , siendo x i e y j las
variables de decisión que definen si se elige o no una cierta estrategia. La solución será:
𝒙𝒙𝒊𝒊 = 𝟎𝟎 para 𝒊𝒊 ≠ 𝒌𝒌 𝒚𝒚𝒋𝒋 = 𝟎𝟎 para 𝒋𝒋 ≠ 𝒍𝒍
𝒙𝒙𝒊𝒊 = 𝟏𝟏 para 𝒊𝒊 = 𝒌𝒌 𝒚𝒚𝒋𝒋 = 𝟏𝟏 para 𝒋𝒋 = 𝒍𝒍
𝒗𝒗 = 𝒂𝒂𝒌𝒌𝒌𝒌
3) Juegos no cooperativos de dos personas de suma cero: teorema de Von
Neumann, estrategias mixtas, solución gráfica.
159
El jugador Apara asegurarse una ganancia de por lo menos el valor v, aplicará las
probabilidades x 1 al elegir la alternativa 1 y x 2 al elegir la 2, siendo la suma de ambas igual
a 1. Estos valores a su vez están condicionados por cada
estrategia pura de B, por lo que para cada una de ellas
corresponde una desigualdad que asegure la ganancia v, y
además deben cumplirse todas las condiciones simultáneamente
por lo que forman un sistema de desigualdades lineales. El
problema para A se plantearía de la siguiente forma:
Con un similar razonamiento, para el jugador B, pero
considerando las probabilidades y1, y2 y y3, y con el fin de
asegurarse una pérdida no mayor que el valor v, se plantea:
De ambos planteos, el único posible de graficas es el del
jugador A por tener solo dos variables. Si bien son tres (x 1 , x 2 y v) es posible trabajar sólo
con dos, haciendo un pasaje de términos en la única igualdad, quedando x 2 =1–x 1 ,
pudiendo reemplazarse x 2 en cada desigualdad. Por último, puede expresarse el valor de v
en función de la probabilidad de elegir la estrategia 1 (la variable x 1 ):
Luego simplemente deben graficarse, para lo cual solo se necesitan hallar dos puntos,
siendo lo más útil darle los valores máximo y mínimo a la variable independiente (0 y 1, ya
que son probabilidades), para después marcar el semiplano que satisface la condición de
desigualdad. Todo ello se observa en la siguiente gráfica:
160
Las zonas de validez que marcan las desigualdades en el plano indican, para el jugador
A, las combinaciones de valor de juego y probabilidad x 1 que satisfacen a cada inecuación
planteada para cada una de las estrategias puras de B. Como vemos en la gráfica existe
una zona común de las tres inecuaciones. En dicha zona, que representaría “lo peor que le
puede pasar” (criterio maximin), el jugador A elige el mayor valor, que se corresponde con
x1=0,70 y v=2, y que gráficamente surge de la intersección entre las rectas (1) y (2):
La resolución analítica permite obtener con mayor precisión los valores de la solución,
y además, el valor de x 2 =1–x 1 =0,30. Esto significa que para asegurarse una ganancia
esperada de 2, si se ejecutara 100 veces el juego, A debería optar por la estrategia 1 en 70
ocasiones y por la 2 en las 30 restantes.
Resta definir ahora los valores de las probabilidades para el jugador B: y 1 , y 2 e y 3 . Si bien
la resolución gráfica no resulta posible, ya que hay más de dos alternativas, se puede razonar
de la siguiente manera. Como dijimos, cada una de las desigualdades planteadas para A se
correspondía con cada una de las estrategias puras de B. El jugador A ha fijado sus
probabilidades en función de las estrategias 1 y 2 de B. Los valores establecidos para x 1 y
x 2 , aplicados sobre la restante estrategia de B (la 3) significan un mayor valor del juego: hay
dominación en la ganancia para la mezcla de probabilidades que garantiza el valor de juego
v al jugador A, por lo que éste implícitamente la descarta. En
consecuencia, B descarta las demás estrategias en su solución, ya
que la elección de cualquiera de ellas corresponde a valores de v
superiores al fijado por A (=2). El sistema de inecuaciones queda:
Ahora es posible la resolución gráfica de forma similar a lo hecho con el jugador A,
donde se obtendría un semiplano de soluciones factibles, aunque en este caso respecto de
a los valores superiores del gráfico, de los cuales optaría por el menor posible, para
asegurarse pagar a lo sumo el valor de juego (criterio de
minimax). No obstante, dicha solución se simplifica ya que se
cuenta con v=2, valor que puede reemplazarse en las inecuaciones:
Habiendo dos inecuaciones y dos incógnitas, es posible resolver analíticamente el
problema, proceso que arroja los siguientes resultados: y 1 =0,5 y y 2 =0,5. Lo que significa
que el jugador B optará por las estrategias 1 y 2 en la mitad de las veces para cada una,
mientras que descartará las estrategias 3 y 4, de manera que se asegure no perder un valor
mayor que el calculado como valor de juego: v=2.
161
4) Juegos no cooperativos de dos personas y suma no constante: Punto de
equilibrio, estrategias mixtas.
Dominación
De igual forma que en los juegos de suma cero, también es posible reducir la matriz
aplicando el concepto de dominación de vectores.
Un jugador racional nunca jugaría una estrategia pura que esté estrictamente dominada,
ya que existe alguna estrategia que garantiza un resultado mejor cualquiera sea la decisión
162
de su adversario. En este ejemplo podemos ver que para el jugador B la alternativa 4 es
dominada por la alternativa 3, por lo que puede suprimirse la última columna. De igual
forma, el jugador A jamás optaría por la alternativa 1, debido a que ésta se ve dominada
por la opción 2, por lo que puede eliminarse la primera fila.
163
Solución al “Dilema”. Para obtener el equilibrio de Nash en estrategias puras se trazan las
flechas que se observan en la figura, y que reflejan los movimientos que cada jugador haría
cuando deba elegir entre las alternativas presentadas. Por ejemplo, para el jugador A la
flecha de la izquierda va de la alternativa 1 a la 2 ya que si B decide callarse A tendría la
libertad inmediata si culpara a su compañero. El resto de las flechas surgen de similar
razonamiento. Siguiendo el sentido de las flechas se obtiene el punto de equilibrio
estratégico, el cual se marca con un asterisco. Si cada jugador elige la alternativa 2,
ninguno tendría motivos para cambiar de estrategia, ya que correría el riesgo de recibir
una condena mayor.
Entrar al mercado
La situación modelizada en este caso se sitúa en un mercado oligopólico en el cual dos
empresas intentan intervenir con la finalidad de aprovechar la oportunidad de ocupar un
nicho de mercado recientemente descubierto. Se consideran como posibles resultados 8 y
0 (podrían ser utilidades obtenidas)
cuando una de las empresas decide
ingresar al mercado y la otra quedarse
afuera; si ambas se abstienen de
intervenir claramente la ganancia es nula
para ambas; si ambas optan por entrar,
las consecuencias son quebranto de 4
para cada una de ellas. La matriz sería:
Podemos ver que este juego tiene dospuntosdeequilibrio de Nash en estrategias
puras, que son asimétricos, ya que al cambiar de estrategias a los jugadores les
corresponden ganancias diferentes aun cuando se sigan manteniendo en equilibrio.
Nuevamente son dos los equilibrios en estrategias puras, y también son asimétricos. Si
aplicamos idéntico razonamiento al ya visto, obtenemos que para B las proporciones son
y 1 =3/4 y y 2 =1/4. Vemos que el jugador B debe variar su comportamiento para
compensar la asimetría introducida por A al hacer uso de la ventaja en su incorporación al
mercado cuando su oponente no lo hace. Las proporciones para A continúan siendo las
mismas: x 1 =2/3 y x 2 =1/3.
La conclusión es que ahora el juego tiene que jugarse con equilibrio asimétrico también
al aplicarse estrategias mixtas.
165
Supongamos esta nueva matriz, en la cual se tienen dos puntos de equilibrio estratégico:
Cuando los elementos del conjunto N que reúne a todos los jugadores se coaligan de a
dos o más, el valor que adopta tal coalición es igual al máximo que un miembro de la
coalición le transmite a la misma. Entonces, considerando coaliciones de dos jugadores:
v({ A, B })=200.000v({ A, C })=300.000v({ B, C })=0
Resolución. Como todos los pagos están volcados en las matrices y no existe información
acerca de potenciales mejoras en los resultados producto de la agrupación de dos o más
jugadores, todos los cálculos deben apoyarse en los datos que se exponen.
Automáticamente tenemos que: v({ })=0.
También resulta sencillo estimar el valor de la supercoalición N, ya que es la mayor
suma que se reparte considerando los ocho resultados posibles, lo cual corresponde a las
estrategias a, d y e (4,2,3), siendo: v({ A, B, C})=9.
Para encontrar v({ A }) es necesario observar los diversos resultados que A obtendría
cuando el otro jugador es la coalición (B, C), y los resultados que tendría dicha coalición.
Los mismos se observan en las siguientes matrices:
Dicha matriz puede reducirse aún más, ya que para la coalición (B, C) la estrategia (d, e)
domina a la (c, f). Y así se obtienen los valores buscados:
v({ A })=4 v({ B, C })=5
168
Para hallar v({ B }) y v({ C }) se deben hacer construcciones similares para las
respectivas ganancias que obtendrían jugando contra (A, C) y contra (A, B). Con similares
razonamiento (VER PDF PÁG. 23) se obtiene que:
v({ B })=1 v({ A, C })=3 v({ C })=3 v({ A, B })=6
Imputaciones, dominación y núcleo
Es evidente que el comportamiento racional lleve a que los jugadores establezcan
coaliciones en las que encuentren un reparto equitativo y estable (en el sentido de que
ninguno de los jugadores esté interesado o tenga el poder suficiente p/ romper el acuerdo.
Cuando se encuentra dicha forma de repartir se identifican puntos de núcleo, idea que
se desarrollará a continuación.
En primer lugar, es necesario definir lo que es un vector de recompensas (X), el cual
contiene la cantidad x i que recibiría cada uno de los n jugadores:
X = ( x 1 , x 2 ,x 3 , … ,x n )
Un vector de recompensas es un candidato a formar parte de una solución al juego, y se
denomina imputación, cuando satisface dos condiciones:
1. Racionalidad individual: resulta obvio que ningún jugador acordará recibir menos de
lo que obtendría actuando solo: x i ≥ v({ i }) para todo i ∈ N.
2. Racionalidad del grupo (o eficiencia): el monto total recibido por los jugadores
debería ser correspondiente al valor de la supercoalición:
𝒏𝒏
𝒗𝒗(𝑵𝑵) = � 𝒙𝒙𝒊𝒊
𝒊𝒊=𝟏𝟏
El conjunto de Imputaciones podría expresarse como:
𝑰𝑰 = {𝑿𝑿 = (𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , 𝒙𝒙𝟑𝟑 , … , 𝒙𝒙𝒏𝒏 )/ � 𝒙𝒙𝒊𝒊 = 𝒗𝒗(𝑵𝑵), y 𝒙𝒙𝒊𝒊 ≥ 𝒗𝒗({ 𝒊𝒊 }) para toda 𝒊𝒊 ∈ 𝑵𝑵}
𝒊𝒊∈𝑵𝑵
Ahora es necesario definir dominación, la cual se relaciona con los pagos que recibiría
un jugador perteneciente a una coalición cuando se le propusiera participar de una
imputación cualquiera.
Supongamos que tenemos una imputación X propuesta para repartir el valor v(N) y que
los integrantes de aquel conjunto N forman una coalición S.
Si por adoptar la imputación X los integrantes de la coalición S obtuvieran un resultado
que fuera menor que aquel que la coalición por sí misma puede obtener, entonces habría
tendencia a que la coalición se forma y que no se tenga en cuenta la propuesta de la
imputación X. Dicha imputación tiene una inestabilidad inherente y está dominada por la
imputación que surge de considerar los valores que obtienen los integrantes de S por
169
pertenecer a dicha coalición. Toda imputación dominada no se acepta como solución del
juego, por lo que los jugadores solo adoptarán las que sean estables y no dominadas.
Un conjunto C de imputaciones estables (no dominadas) es lo que se denomina
núcleo. El mismo puede consistir en varios puntos, aunque también puede estar vacío si
no resulta factible satisfacer a todas las coaliciones al mismo tiempo.
El conjunto de Imputaciones que compone el núcleo puede escribir como:
𝑪𝑪 = {𝑿𝑿 = (𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , … , 𝒙𝒙𝒏𝒏 )/ � 𝒙𝒙𝒊𝒊 = 𝒗𝒗(𝑵𝑵), y � 𝒙𝒙𝒊𝒊 ≥ 𝒗𝒗(𝑺𝑺)para toda 𝑺𝑺 ⊂ 𝑵𝑵}
𝒊𝒊∈𝑵𝑵 𝒊𝒊∈𝑺𝑺
Ejemplo 3. Conjunto de imputaciones núcleo para el ejemplo 2.
En el caso citado son:v({ A })=4 v({ B, C })=5 v({ B })=1
v({ A, C })=3 v({C })=3 v({ A, B })=6
Y el conjunto de imputaciones es:
𝑰𝑰 = {(𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , 𝒙𝒙𝟑𝟑 )/ 𝒙𝒙𝟏𝟏 + 𝒙𝒙𝟐𝟐 + 𝒙𝒙𝟑𝟑 = 𝟗𝟗, 𝒙𝒙𝟏𝟏 ≥ 𝟒𝟒, 𝒙𝒙𝟐𝟐 ≥ 𝟏𝟏, 𝒙𝒙𝟑𝟑 ≥ 𝟑𝟑}
Por último, el conjunto de imputaciones para definir el núcleo son:
Una forma sencilla de obtener los valores que componen el núcleo consiste en trazar un
triángulo como se ve a continuación:
170
Se ha graficado mediante coordenadas baricéntricas, lo cual evita trabajar con tres
planos, aun cuando debe trabajarse con tres variables. A partir de un triángulo equilátero
(grisado) se trazan las escalas correspondientes a las tres variables; en este caso al ser
v({N})=9, el máximo valor que pueden adoptar las variables es 9, y siempre en todas las
intersecciones de coordenadas la suma de los valores de las variables dará dicha cantidad,
así como en todos los puntos interiores del triángulo. Con línea discontinua se traza la
trama correspondiente a las respectivas escalas de cada variable.
La búsqueda del núcleo requiere que se grafiquen todas las desigualdades con el fin de
identificar la porción del plano que satisface a todas ellas. Por tal motivo se han trazado las
rectas de trazo grueso (representan la igualdad) acompañadas de una flecha que indica la
parte del plano que cumple con la correspondiente desigualdad. Se trazan 6 de las 7
desigualdades, ya que v({N})=9 se representa con el triángulo. Al final del proceso de
graficación, la parte del plano que esta grisada y, además, es alcanzada por todas las
flechas representa al núcleo del juego. En este caso el único punto que satisface dichas
condiciones es el trío (4, 2, 3), que son los valores que, asignados a las variables x 1 , x 2 y
x 3 , dan un repartoestable del valortotaldeljuego.
171
las utilidades. Entonces, sin alianzas son x i =0 (i=1, 2, 3). Las empresas saben que si logran
unirse las utilidades incrementan de la siguiente forma:
v({1,2})=15% v({1,3})=10% v({2,3})=5% v({1,2,3})=15%
Con n miembros en el juego, se deben se deben cumplir 2n–1 desigualdades del tipo:
Valor Shapley
De la misma forma que el núcleo es un concepto que representa estabilidad, podemos
analizar otro aspecto importante que permite llegar a determinar un valor de interés para
cada jugador, y que en general conduce a soluciones más equitativas que las del núcleo: el
valor Shapley. Consiste en una forma de calcular la medida del poder que tiene cada i-
ésimo jugador en el juego, siempre teniendo en cuenta el concepto de ecuanimidad.
Como consecuencia de tales cálculos, se obtiene una función de valor ϕ, que es un
vector de recompensas para un juego de n personas en forma característica, que asigna
una n-upla (n-upla: n valores de una variable) de números realesϕ(v), en la cual cada ϕ i (v)
representa el valor del jugador i en el juego con función característica v.
𝝓𝝓(𝒗𝒗) = 𝝓𝝓𝟏𝟏 (𝒗𝒗), 𝝓𝝓𝟐𝟐 (𝒗𝒗), … , 𝝓𝝓𝒏𝒏 (𝒗𝒗)
Para obtener el resultado mencionado se debe cumplir con los siguientes 4 axiomas:
1. Eficiencia o racionalidad de grupo: ya definida anteriormente.
Podemos ver que cuando el jugador A (el propietario) se incorpora a una coalición con
cualquiera de los otros dos jugadores, el valor Shapley le adjudica todo el incremento a
dicho jugador, si bien posteriormente se lo pondera en función de las probabilidades de
que tal coalición ocurra. Esto se debe a que el propietario tiene todo el poder: sin su tierra,
los demás no pueden hacer negocio.
Si calculamos, de manera similar, el valor shapley para los otros dos jugadores tenemos:
174
Si se suman todos los valores Shapley se llega a los $300.000, que son el total que
puede repartir la supercoalición. El propietario recibe la mayor parte de ellos, aunque no el
total, mientras que el manufacturero un valor que no es cero, aunque es el menor.
175