Carpeta Metodos Completa

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 175

Resumen final de Métodos Cuantitativos

UNIDAD I: Análisis cuantitativo y toma de decisiones


1) Resolución de problemas y toma de decisiones
Introducción
La ciencia de la administración (CA), una manera de abordar la toma de decisiones en la
administración, y que se basas en el método científico, utiliza ampliamente el análisis
cuantitativo.

Resolución de problemas y toma de decisiones


Se puede definir la resolución de problemas como el proceso de identificar una
diferencia entre algún estado de cosas actual y uno deseado, y en promover
y comenzar luego una acción (o conjunto de acciones) para resolver dicha
diferencia. Este proceso implica los siguientes pasos:
1. Identificar y definir el problema: distinguir esa situación mencionada anteriormente que
hace a la diferencia entre un estado de cosas actual y uno deseado.
2. Determinar el conjunto de soluciones en alternativa (opciones posibles): toda situación
del tipo de la que se pretende solucionar es factible de ser enfrentada con uno o más
cursos de acción que sirvan para eliminar la diferencia entre los estados.
3. Determinar el criterio o el conjunto de criterios (multicriterio) que se utilizarán para
evaluar las opciones: las distintas alternativas pueden ser factibles de apreciación desde
diversos puntos de vista. Puede utilizarse un solo criterio o bien varios de ellos.
4. Evaluar tales opciones en función de los criterios.
5. Elegir una de ellas: se selecciona aquella alternativa o curso de acción que se considere
más apropiada o idónea para la solución del problema, en función de los criterios.
6. Implantar la opción o alternativa seleccionada: una vez resuelta cuál es la “mejor”
opción se debe actuar para que dicha alternativa se aplique a la realidad que se
presentaba problemática.
7. Evaluar los resultados y determinar si se ha obtenido la solución satisfactoria: para
finalizar el proceso de resolución de problemas, es importante analizar las consecuencias
de lo resuelto y ejecutado, comparando lo obtenido con los objetivos propuestos, y así
inferir si es necesario o no realizar correcciones o ajustes.

Como vemos, toma de decisiones es el término que generalmente se asocia con las
primeras 5 etapas del proceso de resolución de problemas. Toma de decisiones es el
proceso de convertir información den acción. Las últimas dos etapas se realizan a modo de
ejecución y control de lo decidido.
En relación al tercer paso (selección de criterio/s) es importante destacar que a aquellos
problemas en los que el fin es obtener la mejor solución con respecto a un solo criterio se
1
los denomina problemas de decisión de criterio único. Por su parte, los que impliquen más
de un criterio de decisión, se los llama problemas de decisión de criterios múltiples.

2) Análisis cuantitativo, enfoque sistémico y modelización


Análisis cuantitativo y el proceso de toma de decisiones
Mirando las etapas del proceso de decisión, podemos realizar una división y agrupación
más específica: los primeros tres pasos componen la fase “Estructuración del problema”,
mientras que el paso 4 y 5 pueden subdividirse en ‘análisis’ (cuantitativo y cualitativo),
‘resumen y evaluación’ y ‘toma de la decisión´, las cuales encuadran la fase “Análisis del
problema”. (Ver figura 1.3 página 5 de Anderson).
Podemos observar que la etapa de análisis del proceso de toma de decisiones puede
asumir dos formas básicas: cuantitativa y cualitativa. Este último se basa primordialmente
en el razonamiento, la experiencia del administrador y la subjetividad del mismo; incluye la
“impresión” intuitiva que el administrador tiene del problema.
En el análisis cuantitativo, en cambio, el analista se concentra en los hechos o datos
cuantitativos (numéricos en general) asociados al problema y desarrolla expresiones
matemáticas que describan los objetivos, las restricciones y las relaciones existentes en el
problema. Luego, haciendo uso de uno o varios métodos cuantitativos, el analista propone
una recomendación para la decisión.
Algunas de las razones por las cuales un analista pudiese preferir utilizar el enfoque
cuantitativo son las siguientes:
• El problema es complejo y el administrador no puede llegar a una buena solución sin
la ayuda del análisis cuantitativo.
• El problema es muy importante y el administrador desea un análisis completo antes
de intentar tomar la decisión.
• El problema es nuevo y el administrador no tiene ninguna experiencia en la cual
basarse.
• El problema es repetitivo y el administrador ahorra tiempo y esfuerzo apoyándose en
procedimientos cuantitativos para tomar decisiones rutinarias.

En este tema resulta conveniente distinguir entre un enfoque cuantitativo, el cual


elimina conjeturas improvisadas y razonamientos con justificaciones débiles o escasas, y un
enfoque sistémico que hace énfasis en la búsqueda de soluciones teniendo en cuenta las
interrelaciones dentro de una organización y las responsabilidades sociales.
Si bien son enfoques distintos, tanto el análisis sistemático como el cuantitativo y
cualitativo pueden llevarse a cabo en conjunto, y así complementarse mutuamente con el
fin de lograr una más eficiente decisión, siempre y cuando no “choquen” entre sí.

2
3) Modelización: concepto. Distintos tipos de modelos.
La etapa de la definición del problema, es decir, la tarea inicial de todo proceso de
resolución de problemas, es el componente decisivo para determinar el éxito o no de
cualquier enfoque cuantitativo en la toma de decisiones. Es necesario definir claramente el
problema, mediante objetivos específicos y restricciones de operación, antes de que el
analista realice el análisis cuantitativo.
Una vez que el problema se logra definir adecuadamente, se puede proceder al
desarrollo y construcción de un modelo que pueda representar el problema en términos
matemáticos. Luego de ello, se aplicarán determinados procedimientos de solución para el
modelo con el propósito de elegir la decisión que resuelva el problema de la “mejor
manera” posible.

Desarrollo del modelo


Los modelos son representaciones de objetos o situaciones reales. En otras palabras, un
modelo es una abstracción selectiva de la realidad. Son representaciones simplificadas e
idealizadas de la realidad. La persona que crea un modelo, contempla la realidad, la filtra y
crea una representación selectiva. Estas representaciones pueden presentar diversas
formas. En función de eso, los modelos se clasifican en:
1. Físicos/Icónicos: son réplicas físicas de objetos reales. Por ejemplo: maquetas de
aviones, un camión de juguete, etc.
2. Analógicos: también siendo de forma física, no tienen el mismo aspecto físico del objeto
que representan. Las relaciones entre los objetivos y variables están representadas en un
medio diferente al real, y muestran un comportamiento en forma análoga a tal realidad.
Por ejemplo: el velocímetro de un auto, mapas de carreteras, un termómetro.
3. Matemáticos/Simbólicos: son aquellos que representan un problema mediante un
sistema de símbolos y de relaciones o expresiones matemáticas. Son más adaptables que
los otros dos tipos a distintas situaciones en las que pueden aplicarse. Por ejemplo: una
fórmula que represente la cantidad de ingresos que obtiene una empresa en función de las
unidades de producto que venda.

La ventaja de cualquier modelo es que permite deducir conclusiones acerca de la


situación real estudiando y analizando el modelo, sin ser necesario “alterar” la realidad.
Además, la experimentación con modelos requiere, en general, menos tiempo y es menos
costosa que la experimentación con el objeto o la situación reales, al mismo tiempo que
reduce el riesgo inherente con dicha experimentación real. Se pueden evitar así malos
diseños o malas decisiones. En síntesis, las ventajas de los modelos son:
• Poder observar en una escala reducida un problema que puede presentarse complejo
para su comprensión.
• Detallar y analizar las distintas soluciones alternativas, antes de enfrentar la realidad
para cambiarla.
3
• Observar los distintos escenarios posibles y extraer conclusiones anticipadamente, sin
llegar a alterar la realidad para ver qué ocurre.
• Experimentar en menos tiempo y sin necesidad de efectuar cambios que pueden
provocar situaciones irreversibles.
• Experimentar en un medio que no conlleva concurrir en los costos que supondría
hacerlo con objetos y situaciones reales.

No obstante, dichas ventajas y la precisión de las conclusiones y las decisiones basadas


en un modelo dependerán siempre de la calidad con la que represente al problema o a la
situación real. Cuanto mayor sea esta, mejores serán las conclusiones.

Los modelos matemáticos


A partir de ahora nos concentraremos principalmente en los modelos matemáticos (o
también llamados cuantitativos).
El éxito de todo modelo matemático depende de la precisión con la que puedan
expresarse el objetivo y las restricciones mediante ecuaciones o relaciones matemáticas.
Los modelos cuantitativos se inician con número, operan con números y producen
números. A una expresión matemática que describe el objetivo del problema se la
denomina función objetivo.
Todo modelo matemático está formado por los siguientes tipos de datos, los cuales
componen las “entradas” del mismo:
• Insumos incontrolables del modelo: factores del medio ambiente que no están bajo el
control del decisor, los cuales pueden afectar tanto a la función objetivo como a las
restricciones.
• Insumos controlables del modelo: factores del medio ambiente que el decisor puede
controlar e incluso determinar. En sí son las alternativas de decisión con las que cuenta el
decisor, por lo que también son denominadas variables de decisión del modelo.
Una vez que se especifican todos los insumos, es posible evaluar la función objetivo y
las restricciones y es posible determinar el resultado del modelo. La solución del modelo
produce valores numéricos de las variables de decisión, los cuales implican decisiones
específicas. El resultado del modelo no es más que la proyección de lo que sucedería si
ocurren esos factores ambientales y esas decisiones en una situación real.
Es importante destacar que no siempre los números que producen los modelos son
decisiones, sino que algunos modelos pueden servir como generadores de números que
posteriormente serán utilizados como entradas de un nuevo modelo. Puede ocurrir así que
una serie de modelos formen cadenas y se relacionen entre sí, siendo las salidas de uno,
las entradas del precedente.
Si bien anteriormente clasificamos los modelos, los matemáticos a su vez se subdividen
en otras clasificaciones en función de distintos criterios:

4
a) Según los datos del problema:
1. Determinístico: toda la información necesaria para obtener la solución al problema se
conoce con certeza. En este caso, todos los insumos incontrolables son conocidos con
exactitud y no pueden variar.
2. Estocástico o probabilístico: parte de la información necesaria no se conoce con
certeza, sino más bien se comporta de una manera probabilística. En este otro caso, al
menos uno de los insumos incontrolables (pueden ser varios o todos) son inciertos y
están sujetos a variación. En este caso no es posible determinar el valor del resultado, ya
que se desconocen los valores específicos de los insumos incontrolables.

b) Según sus componentes:


1. Normativos (de decisión o de optimización): es un modelo prescriptivo, es decir, que
señala el curso de acción que el decisor debe seguir para alcanzar un objetivo definido.
Es por ello que está formado por:
• Una o varios funciones objetivo: expresión matemática mediante la cual se
representa el objetivo que se desea alcanzar (optimizar).
• Parámetros (incontrolables): variables que adoptan valores que se mantendrán
fijos durante el análisis.
• Funciones de restricción: representan condiciones o limitantes observados en la
realidad modelada.
• Variables de decisión: son los denominados insumos controlables, son aquellas
variables que el decisor puede controlar y los valores que éstas adopten darán lugar
a la solución del problema.
2. Descriptivos: representa una relación, aunque no indica ningún curso de acción. Es
por ello que, si bien posee variables de restricción y parámetros, no posee una función
objetivo. Estos modelos sirven para pronosticar la conducta de un sistema pero no
pueden identificar el “mejor” curso de acción que debe tomarse. En este caso los
insumos controlables sirven como medida de desempeño.

A partir de aquí las clasificaciones corresponderán exclusivamente al modelo


matemático determinístico:

c) Según las restricciones:


1. Problemas irrestrictos: son aquellos que carecen de restricciones.
2. Problemas restringidos: son aquellos que tienen una o más restricciones. Estos
problemas se subclasifican en función de las propiedades matemáticas que las
restricciones satisfacen:
 Aditividad: la contribución de cada variable a la función de restricción se suma (o
se sustrae) a la de cada una de las otras variables de restricción.
 Proporcionalidad: si el valor de una variable se multiplica por cualquier constante,
la contribución de la variable a la restricción se multiplica por la misma constante.
5
Entonces, sobre la base de estas propiedades los modelos restringidos se dividen en:
• Restricciones lineales: todas las restricciones satisfacen ambas propiedades.
• Restricciones no lineales: una, varias o todas las restricciones no satisfacen una o
ambas propiedades.

d) Según la función objetivo: se basa en las mismas propiedades que en las restricciones.
1. Objetivo lineal: en la que la función objetivo es lineal.
2. Objetivo no lineal: en la que la función objetivo es no lineal.

e) Según las variables: se basa en la propiedad matemática de las variables. Esta es la


divisibilidad, lo cual implica que una variable de decisión puede asumir cualquier valor,
fraccional u otro, dentro de cierto intervalo.
1. Variable continua: todas las variables satisfacen la divisibilidad.
2. Variable entera o discreta: una o más variables deben asumir valores enteros.

4) Construcción de modelos: metodología y etapas. Datos: formas y fuentes


Ya sea simple o complejo, un modelo es una representación que idealiza, simplifica y
abstrae selectivamente la realidad, y esta representación es construida por individuos.
Lamentablemente no existen reglas fáciles o métodos automáticos para la construcción de
modelos.
Como guía, podemos dividir el proceso en tres etapas:
1. Se estudia el ambiente: en esta etapa la experiencia (tanto en construcción de modelos
como en el trabajo en el ambiente que se estudia) puede ser el ingrediente más esencial.
Un mal estudio del ambiente, puede llevar a una errónea definición del problema. Debe
tenerse en cuenta que corresponderá interiorizarse profundamente de la situación real
para su correcta representación en el modelo.
2. Se formula una representación selectiva de la realidad: implica un análisis conceptual
básico en el que se deben hacer conjeturas y simplificaciones. Es necesario que el
constructor del problema seleccione o aísle del ambiente aquellos aspectos de la realidad
que sean relevantes. Es importante determinar los objetivos, las restricciones y las decisiones.
3. Se formula una representación simbólica del método: Una vez que se realizó la
formulación lógica se debe elaborar una forma simbólica del modelo.Es necesario definir el
tipo de modelo (determinístico o probabilístico) y recurrir a datos y fuentes disponibles. La
decisión de cómo recopilar, almacenar e interpretar datos está influenciada por el uso que
se les vaya a dar. Los datos pueden provenir de registros del pasado o ser generadores
bien a través de observaciones directas o mediante estimaciones realizadas en el presente.
Esta última etapa se analizará en los siguientes títulos.

Pasos generales y técnicas de la construcción de modelos matemáticos


El primer paso al usar técnicas de administración es identificar y describir el problema. El
siguiente paso es formular el problema en un marco matemático.
6
En sí, lo que se busca es convertir la descripción cualitativa del problema en una forma
matemática que pueda resolverse. Este proceso es llamado formulación del problema, el
cual implica los siguientes 4 pasos.

1. Identificación de las variables de decisión


El primer paso consiste en identificar las variables de decisión, comúnmente llamadas
variables. Los valores de estas variables, una vez determinados, dan la solución al
problema. Como a priori se desconoce el valor de las mismas, se les debe dar a cada
variable de decisión un nombre simbólico: nombre descriptivo que ayuda a la comprensión
del significado de la variable.
Las descripciones de las variables deben ser precisas, debiendo incluir las unidades
asociadas con las cantidades que las variables representan.
Las pautas generales para identificar estas variables de decisión podrían ser:
• ¿Qué elementos afectan el objetivo global?
• ¿Qué elementos puede elegir y/o controlar libremente?
• ¿Qué decisiones tiene que tomar?
• ¿Qué valores, una vez determinados, constituyen una solución para el problema?

2. Identificación de los datos del problema


Como sabemos, para resolver un problema debemos otorgarle los valores reales a las
variables de decisión identificadas. Y para ello es necesario poseer cierta información que
está relacionada con dichas variables, la cual está formada por los datos del problema.
Estos datos son, como vimos anteriormente, los insumos incontrolables del problema. Y en
un problema determinístico, como también vimos, deben ser todos conocidos con certeza
de antemano en el momento de formular el problema.
No obstante, puede ocurrir que otros datos se hacen necesarios al desarrollar el modelo
matemático y descubrir así que se requiere información adicional p/ ayudar a determinar
los valores de las variables de decisión.

3. Identificación de la función objetivo


El siguiente paso consiste en expresar el objetivo organizacional en forma matemática
usando las variables de decisión y lo datos conocidos del problema. Esta expresión se
denomina función objetivo, y se crea en tres etapas:
1) Establecer el objetivo en forma verbal.
2) Descomponer, si es posible, el objetivo en una suma, diferencia o producto de
cantidades individuales.
3) Expresar las cantidades individuales matemáticamente usando las variables de
decisión y otros datos conocidos en el problema
Para la última parte resulta conveniente elegir algunos valores específicos para las
variables de decisión y luego usar esos valores para determinar la forma en que se calcula
la función objetivo. Esta técnica se conoce como trabajo a través de un ejemplo específico.
7
Sin embargo, el propósito de usar valores específicos para las variables NO es obtener la
solución al modelo, sino que simplemente busca ayudar en la determinación de cómo
calcular el objetivo cuando los valores de las variables no se conocen explícitamente.

4. Identificación de las restricciones


Si la función objetivo fuese maximizar algún valor, y se cumpla la propiedad de que a
medida que mayores valores adopten las variables, mayor es el resultado, podríamos hacer
que las variables asuman valores cada vez más grandes y así no existiría un valor máximo.
No obstante, en el mundo real existen ciertos factores que ponen un límite en los
valores que pueden asignarse a estas variables. Dichas limitaciones, y otras
consideraciones que restrinjan los valores de las variables, son las restricciones. El paso final
en la formulación del problema consiste en identificar esas restricciones.
Las restricciones son condiciones que las variables de decisión deben satisfacer para
constituir la solución “aceptable” (o como veremos más adelante, “factible”). Éstas, por lo
general surgen de:
• Limitaciones físicas.
• Restricciones impuestas por la administración.
• Restricciones externas.
• Relaciones implicadas entre variables.
• Restricciones lógicas sobre variables individuales.

Los pasos p/ identificar las restricciones son los mismos que se usan p/ la función
objetivo. Algunas de las consideraciones que llevan al uso de restricciones son:
• Tecnología inmutable a corto plazo y las leyes de la naturaleza: en las situaciones de
planeación a corto plazo, las restricciones tecnológicas son inevitables. Esto se debe a que
para modificar la capacidad productiva de una empresa se requiere de un lapso de tiempo
significativamente largo.
• Cuellos de botella: por alguna razón o causa exógena incontrolable los recursos pueden
escasear y provocar lentitud e incluso paralización en un proceso productivo.
• Costos de la investigación: un factor práctico importante en la resolución de problemas
se refiere al costo de encontrar la respuesta. Las restricciones se usan con frecuencia para
ponerle un límite a dichos costos y así tratar de reducirlos. Siempre debe hacer el análisis
de beneficio-costo: el costo de obtener la información debe ser menor al beneficio que la
misma nos brinda.
• Estructura jerárquica y delegación de la autoridad: las restricciones parecer ser parte
inherente de la estructura de la organización. La necesidad de delegar la autoridad y
responsabilidad de ciertas actividades en tanto que se conversa la responsabilidad global
para la totalidad de una operación casi siempre dicta el uso de restricciones y, en
consecuencia, el acercamiento a la optimización restringida.

8
5) Desarrollo de modelos: preparación, métodos de cálculo y resolución
Preparación de datos
Una vez que se consigue desarrollar y construir el modelo, el siguiente paso consiste en
la preparación de todos aquellos datos que el mismo precise. En este sentido, datos se
refiere a los valores de los insumos incontrolables. Se deben especificar todos los datos
antes de que sea posible analizar el modelo y elegir una decisión o solución recomendable
para el problema.
Si el modelo es relativamente pequeño y los insumos incontrolables que se requieren
son poco numerosos, es probable que el analista cuantitativo combine el desarrollo del
modelo y la preparación de los datos en una sola etapa. Es decir que se insertan los valores
de los datos conforme se van desarrollando las ecuaciones del modelo matemático.
No obstante, en ciertos casos los datos no están fácilmente disponibles. En este caso, en
el momento en que se desarrolla el modelo se conocen los datos que van a requerirse,
pero no sus valores, por lo que se adopta una notación general para identificar a los datos
(por ejemplo, en una formula se usan letras) y luego, en una etapa separada (preparación
de datos) se realiza la recolección de los mismos y se “ingresan” al modelo.

Resolución del modelo y métodos de cálculo


Una vez que se logra construir el modelo con los datos obtenidos, se puede proceder a
la etapa de resolución del modelo. El analista trata de identificar los valores de las variables
de decisión que ofrecen el “mejor” resultado para el modelo. A esos valores se los
denomina “solución óptima del modelo.
La forma en que se obtengan estos valores depende de la forma o tipo específico del
modelo matemático. Es decir, una vez que se identifique el tipo de modelo, se puede elegir
la técnica de administración más apropiada para resolverlo. Estas técnicas pertenecen a
una de dos categorías:
1. Métodos óptimos: producen los mejores valores para las variables de decisión, es decir,
aquellos valores que satisfacen simultáneamente todas las restricciones y proporcionan el
mejor valor para la función objetivo.
2. Métodos heurísticos: producen valores para las variables que satisfacen todas las
limitaciones. Estos valores proporcionan un valor aceptable para la función objetivo,
aunque no necesariamente sean óptimos.

Un procedimiento que puede analizarse en la etapa de resolución del modelo es una


labor de tanteo o ensayo y error, en la cual se utiliza el modelo para probar y evaluar
diversas alternativas de decisión. Si una alternativa de decisión específica no satisface una
o más de las restricciones del modelo, se le rechaza en calidad de no factible, sin importar
el valor de la función objetivo. Si satisfacen todas las restricciones, a la alternativa de
decisión se le considera factible y es candidata para convertirse en la “mejor” solución o
decisión recomendada.
9
No obstante, este proceso tiene la desventaja de que no necesariamente proporciona la
mejor solución y de que es ineficiente en términos de que requiere numerosos cálculos si
se ensayan muchas alternativas de decisión. Es por esto que los analistas de métodos
cuantitativos han desarrollado procedimientos de solución especiales para muchos
modelos. Los valores se obtienen usando procedimientos sistemáticos paso a paso,
llamados algoritmos (los cuales veremos en lo que resta del resumen).

Validación, instrumentación y control de la solución


Después de que se obtiene la solución de un modelo, es importante validar la solución,
es decir, revisar la solución cuidadosamente para ver que los valores tienen sentido y que
las decisiones resultantes puedan llevarse a cabo.
La calidad y precisión de un modelo no se pueden evaluar sino hasta que se generan
soluciones para el modelo. La validación por lo general se llevan a cabo con problemas de
“prueba” relativamente pequeños que tienen soluciones conocidos o esperadas. Si el
modelo genera las soluciones esperadas, y si parece que la demás información de salida es
correcta, entonces se puede dar el visto bueno para utilizar el modelo en su dimensión real.

Modificación del modelo


Si las pruebas y la validación del modelo identifican problemas o inexactitudes
potenciales en el modelo, es posible que sea necesario emprender acciones correctivas,
tales como modificación del modelo o recolección de datos de entrada más precisos.
Cualquiera sea la acción correctiva, la solución del modelo no se utiliza en la práctica hasta
que el modelo pasa satisfactoriamente las pruebas y la validación.
A veces también puede ocurrir que el problema, los datos o ambos pueden cambiar con
el tiempo, hecho que también lleva a la modificación y/o corrección del modelo.

UNIDAD II: Teoría de Redes – Programación por Camino Crítico


Terminología de redes
Una red consiste en un conjunto de puntos y un conjunto de líneas que unen ciertos
pares de puntos. Los puntos se denominan nodos (o vértices), mientras que las líneas,
arcos (o ligaduras, aristas o ramas). Los arcos se etiquetan dando nombre a los nodos en
sus puntos terminales.
Los arcos de una red pueden tener un flujo de algún tipo que pasa por ellos. Si el flujo a
través de un arco se permite sólo en una dirección, se dice que es un arco dirigido. La
dirección se indica agregando una cabeza de flecha al final de la línea que representa el
arco. Al etiquetar un arco dirigido con el nombre de los nodos que une, siempre se pone
primero el nodo de donde viene y luego el nodo a donde va.
Si el flujo, en cambio, se permite en ambas direcciones, se trata de un arco no dirigido.
Para no confundir, a estos arcos por lo general se los nombra como ligadura.

10
Si bien se permite que el flujo a lo largo de un arco se produzca en cualquier dirección, se
supone que ese flujo será en una dirección, en la seleccionada, y no se tendrán flujos
simultáneos en direcciones opuestas. Sin embargo, en un proceso de decisiones, se permite
una secuencia de asignaciones de flujos en direcciones opuestas, pero en el entendimiento
que el flujo real será el flujo neto (la diferencia de los flujos asignados en las dos direcciones).
Una red que tiene únicamente arcos dirigidos se llama red dirigida. Análogamente, una
formada exclusivamente por arcos no dirigidos, se denomina red no dirigida. Una red que
combine arcos de ambos tipos (incluso una no dirigida) se puede convertir en una dirigida
sustituyendo cada arco no dirigido por un par de arcos dirigidos en direcciones opuestas.
Cuando dos nodos no están unidos por un arco puede ocurrir que igualmente estén
conectados por una serie de arcos. Una trayectoriaentre dosnodos es una sucesión de arcos
distintos que conectan estos nodos. Cuando algunos o todos los arcos de una red son
dirigidos, se hace la distinción entre trayectorias dirigidas y no dirigidas. Una trayectoria
dirigida del nodo i al nodo j es una sucesión de arcos cuya dirección es hacia el nodo j.
Una trayectoria no dirigida del nodo i al nodo j es una sucesión de arcos cuya dirección
puede ser hacia o desde el nodo j.
Un ciclo es una trayectoria que comienza y termina en el mismo nodo. En una red dirigida
un ciclo puede dirigido o no dirigido, según si la trayectoria en cuestión es dirigida o no.
Se dice que dos nodos están conectados si la red contiene al menos una trayectoria no
dirigida entre ellos. Una red conexa es una red en la que cada par de nodos está conectado.
Supóngase una red conexa de n nodos en la que se han eliminado todos los arcos.
Podemos “hacer crecer” un “árbol” agregando un arco (o “rama”) a la vez. El primer arco
puede ir en cualquier lugar para conectar algún par de nodos. De ahí en adelante, cada
arco nuevo debe agregarse entre un nodo que ya ha sido conectado a otros nodos y a un
nuevo nodo no conectado. Así se evita que se forme un ciclo y además se asegura que el
número de nodos conexos es uno más que el número de arcos. Cada nuevo arco crea un
árbol más grande, que es una red conexa que no contiene ciclos no dirigidos. Una vez
agregado el (n-1) arco finaliza el proceso, y el árbol se expande a los n nodos. Este árbol se
llama árbol de expansión, y es una red conexa para los n nodos que NO contiene ciclos no
dirigidos. Todo árbol de expansión tiene exactamente (n-1) arcos, ya que esta es el mínimo
necesario para tener una red conexa y el máximo para que no haya ciclos dirigidos.
Por último, la cantidad máxima de flujo que puede circular en un arco dirigido se conoce
como capacidad del arco. Entre los nodos, se diferencian aquellos que son generadores de
flujo, absorbedores netos o ninguno de los dos. Un nodo fuente (o nodo origen) tiene la
propiedad de que el flujo que sale del nodo excede el flujo que entra a él. El caso inverso
es un nodo demanda (o nodo destino), en el que el flujo que llega excede al que sale de él.
Un nodo de trasbordo o (nodo intermedio) satisface la conservación del flujo, así el flujo
que entra es igual al que sale.

11
1) Distintos tipos de algoritmos aplicables
Al analizar los distintos tipos de algoritmos, es importante que previamente se defina
ese concepto. Un algoritmo es un conjunto ordenado y finito de operaciones que permite
hallar la solución a un problema. Por lo general se tratan de procedimientos repetitivos o
recurrentes.

El problema de la ruta más corta


El objetivo consiste en hallar la ruta más corta o el camino más reducido a través de la
red. Por lo general, los nodos representan distintos lugares y los arcos los diferentes caminos
para llegar a ellos. Encima de cada arco debe indicarse la distancia de cada camino, el cual
no necesariamente corresponde, en forma proporcional, a la longitud de los arcos. Es decir,
un arco puede ser más largo que otro, pero representar una menor distancia.
Para resolver el problema es necesario determinar la vía más corta desde el nodo inicial,
principal o nodo 1, hasta cada uno de los otros nodos de la red. El problema se soluciona
con un algoritmo que utiliza un procedimiento de rotulación. Paso a paso, se elabora un
rótulo para cada nodo, el cual consta de dos números encerrados entre corchetes y
separados por un “;”. El primer número señala la distancia desde el nodo 1 hasta el nodo al
que le corresponde la etiqueta, mientras que el segundo indica el nodo precedente sobre
la ruta, desde el nodo 1 hasta ese nodo.
En cualquier etapa del procedimiento, se analiza si un nodo está o no rotulado. Un nodo
con rótulo es aquel en que ya se ha identificado un camino desde el nodo 1 hasta ese
nodo (sin ser necesariamente el más corto), y un nodo no rotulado es aquel que no tiene
un camino marcado. A su vez, los nodos rotulados pueden estar etiquetados en forma
permanente o en forma tentativa. Cuando el algoritmo consigue determinar la distancia
más corta desde el nodo 1 hasta un nodo específico, dicho nodo está rotulado
permanentemente. Sin embargo, si no se ha determina la vía más corta, se dice que el
nodo está rotulado tentativamente.
El proceso se inicia asociando al nodo 1 la etiqueta permanente [0;I]. Para realizar el
primer paso, deben considerarse los nodos que pueden alcanzarse en forma directa desde
el nodo 1 y se les coloca un rótulo tentativo. Se observan todos los nodos rotulados, y se
identifica el que tiene el menor valor de distancia, al cual se le convierte su rótulo tentativo
en uno permanente. Luego de ello se analizan todos los nodos que no tienen etiqueta
permanente y que pueden alcanzarse en forma directa desde el nodo identificado
anteriormente. Nuevamente se analizan todos los nodos con etiquetas tentativas (los
obtenidos en el primer paso y los identificados luego), se identifica el que en su rótulo
tenga el menor valor de distancia, y se lo transforma en uno permanente. Y así
sucesivamente se repite el procedimiento, hasta que todos los nodos queden marcados
con un rótulo permanente.

12
Resumen del algoritmo
1. Asignar al nodo 1 el rótulo permanente [0;I]; la I indica que el nodo 1 es el inicial; y el 0,
que la distancia del nodo 1 hacia sí mismo es, obviamente, cero.
2. Determinar rótulos tentativos para los nodos a los que puede llegarse en forma directa
desde el nodo 1. El primero número de cada marcación es la distancia directa entre el
nodo 1 y el nodo en cuestión, lo que denominamos valor distancia. El segundo número
señala el nodo que antecede en la ruta desde el nodo 1 hasta el nodo en cuestión.
3. Identificar el nodo con la etiqueta tentativa que tenga el menor valor de distancia, y
considerarlo como rotulado en forma permanente. Si todos los nodos tienen etiquetas
permanentes, ir al paso 5.
4. Considérense todos los nodos que no tienen marcación permanente y a los que se
puede llegar en forma directa desde el nuevo nodo con el rótulo permanente que se
estableció en el paso anterior. Calcular para estos nodos las etiquetas tentativas de la
siguiente forma:
a. Si el nodo que carece de etiqueta permanente y que se considera, tiene una
marcación tentativa, obtener la suma del valor de distancia del nuevo nodo etiquetado
permanentemente, y la distancia directa desde este último nodo al nodo en cuestión. Se
comparan los valores de distancia de ambos rótulos tentativos, y se opta por el que
posea menor valor distancia, descartando el otro. Repetir el paso 3.
b. Si el nodo que no tiene etiqueta permanente y que se está evaluando no posee
rótulo tentativo, se crea uno con valor de distancia igual a la suma del valor de distancia
en el nuevo nodo etiquetado como permanente y la distancia directa desde este último
nodo al nodo en cuestión. Repetir el paso 3
5. Los rótulos permanentes identifican la distancia más corta desde el nodo 1 hasta cada
uno de los demás nodos, y el nodo precedente sobre la ruta más corta. Se puede hallar la
ruta más corta hasta un determinado nodo, partiendo de éste, y yendo “hacia atrás” a sus
nodos precedentes.

Como podemos ver, se requieren N-1 iteraciones del algoritmo para encontrar la ruta
más corta hacia todos los nodos. Es simple modificar el algoritmo para encontrar la
distancia más corta desde cualquier nodo –por ejemplo el nodo k– a todos los demás
nodos de la red. Para ese cambio, simplemente se comienza asignando la etiqueta
permanente [0;S] al nodo k. Después, aplicando los pasos del algoritmo, puede obtenerse
la ruta más corta desde el nodo k hasta cada uno de los otros nodos.

El problema del árbol de extensión mínima


El problema del árbol de extensión mínima se refiere a utilizar las ramas (arcos) de la red
para llegar a todos los nodos de la red, de manera que se minimice la longitud total de
todas las ramas. Este problema se aplica en una red no dirigida y conexa, en la que la

13
información dada incluye alguna medida de longitud positiva (distancia, costo, tiempo)
asociada con cada arco.
Una red con n solo requiere (n-1) arcos para proporcionar una trayectoria entre cada
par de nodos. No deben usarse más ligaduras ya que esto aumentaría, sin necesidad
alguna, la longitud total de los arcos seleccionados. Las (n-1) ligaduras deben elegirse de
forma tal que la red resultante forme un árbol de expansión (ver definición vista
anteriormente; Importante: NO existen ciclos). Por lo tanto, el problema es encontrar el
árbol de expansión con la longitud total mínima de sus arcos.
Los pasos del algoritmo para resolver este problema son:
1. Comenzar en forma arbitraria en cualquier nodo y conectarlo con el nodo más próximo.
A estos dos nodos se los denomina nodos conectados o conexos, mientras que a los nodos
restantes se los llama nodos no conectados o inconexos.
2. Identificar el nodo no conectado que esté más cerca de uno de los conectados.
Deshacer, también arbitrariamente, los empates si son dos o más los nodos que califican
como más cercanos. Agregar este nodo al conjunto de nodos conectados. Repetir este
paso hasta que se hayan conectados todos los nodos.

Es importante destacar que, sin importar con que nodo se comienza a aplicar el
algoritmo, siempre se obtiene el mismo resultado y se forma el mismo árbol de extensión.

El problema del flujo máximo


En este problema se toma una red conexa y dirigida, que cuenta con un único nodo de
entrada, o nodo fuente, y uno solo de salida, o nodo antifuente. El resto de los nodos
(intermedios) son de trasbordo, los cuales NO retienen elementos (no almacenan) y
simplemente despachan lo recibido.
El problema del flujo máximo pregunta ¿Cuál es la cantidad máxima de flujo que puede
entrar y salir del sistema de red en un período de tiempo determinado? Lo que se trata es
de transmitir flujo sobre todos los arcos de la red en la forma más eficiente posible. La
cantidad de flujo está limitada debido a restricciones de capacidad en las diversas ramas
de la red. Esto hace que la cantidad de elementos que pueden fluir entre un nodo y otro
sobre un determinado arco es limitada. Es por ello que para cada ruta que puede conectar
el nodo fuente con el de salida su capacidad máxima está dada por la mínima capacidad
que existe entre todos los arcos que la componen. Esto es así porque la capacidad de cada
nodo de trasbordo limita el flujo entre arcos sucesivos, y de todos los nodos de trasbordo
el de menor capacidad define el número máximo de elementos que circulará por esa ruta.
Al límite máximo o superior sobre el flujo de una rama se le denomina la capacidad de flujo
de la rama.

14
Para resolver este problema se aplica el siguiente algoritmo:
1. Encontrar cualquier camino que vaya del nodo origen al nodo de depósito y que tenga
capacidades de flujo mayores que cero para todas las ramas del camino en el sentido del
flujo. Si no hay camino disponible, ya se ha llegado a la solución óptima.
2. Encontrar la menor capacidad de la rama, P f , sobre el camino que se eligió en el paso 1.
Aumentar el flujo sobre la red enviando una cantidad de P f sobre el camino elegido en el
paso 1.
3. Para el camino que se seleccionó en el paso 1, reducir todas las capacidades de flujo de
las ramas en el sentido del flujo en P f , y aumentar las capacidades de flujo de las ramas en
el sentido contrario en igual cantidad. Volver al paso 1.

Si bien el procedimiento será distinto en función de la ruta que se elija en el primer


paso, siendo que tal selección es arbitraria, el resultado del algoritmo proporciona la
solución más óptima y eficiente, independientemente de qué ruta se tome primero.
También se pueden hallar los flujos sobre las ramas para la solución del flujo máximo
comparando las capacidades finales del flujo sobre las ramas con sus capacidades iniciales. Si
la capacidad final de flujo es inferior a la capacidad inicial de flujo, se presenta un flujo sobre la
rama en una cantidad igual a la diferencia entre las capacidades inicial y final de flujo.

2) Redes PERT y CPM. Concepto básicos


Previo a explicar estas técnicas, es importante consignar una definición de “proyecto”:
emprendimiento temporario con la finalidad de obtener un producto o servicio único. Los
elementos que componen a todo proyecto son: actividades, recursos y limitaciones (triple
limitación: tiempo, costos y calidad).
En muchas organizaciones, los administradores tienen la responsabilidad de planear,
programar y controlar proyectos que constan de numerosas trabajos o tareas separadas
que son llevadas a cabo por diversos departamentos, personas, etc. En estas situaciones,
las técnicas denominadas PERT (Program Evaluation and Review Technique, Técnica de
evaluación y revisión de programa) y CPM (Critical Path Method, Método de la ruta crítica)
son de gran ayuda.
En estos proyectos, los administradores deben programar y coordinar las diversas
actividades con el propósito de terminar a tiempo el proyecto completo. Un problema que

15
se presenta es la interdependencia entre las actividades; por ejemplo, algunas actividades
dependen de la terminación de otras para poder arrancar.
Las técnicas PERT y CPM dan respuesta a las siguientes preguntas:
• ¿Cuál es el tiempo total que se requiere para terminar el proyecto? ¿Cuál es el tiempo
mínimo posible?
• Para cumplir con este tiempo de conclusión ¿Qué tareas son críticas, en el sentido de
que un retraso en cualquiera de esas tareas provoca un retraso en la conclusión de todo el
proyecto?
• ¿Cuánto se pueden demorar las actividades no críticas sin que ocasionen demoras en el
proyecto total?
• ¿Es posible acelerar ciertas tareas para terminar todo el proyecto más pronto? Si es así,
¿Qué tareas serían éstas y cuál sería el costo adicional?

Si bien PERT y CPM tienen el mismo propósito general y utilizan en buena medida la
misma terminología, las técnicas se desarrollaron en forma independiente. CPM se utiliza
para administrar proyectos que implican tiempos de tarea determinados, mientras que
PERT se usa para aquellos que implican tiempos probables de tarea.
El principal objetivo de estas técnicas consiste en facilitar el cumplimiento en término de
los proyectos, respetando en la medida de lo posible los costos presupuestados, mediante
el uso eficiente de los recursos humanos y materiales involucrados, y satisfaciendo
limitaciones internas (calidad y cantidad de recursos disponibles) y externas (inspecciones,
aprobaciones, fechas de entrega, demoras en entrega de MP, etc.). También presenta otros
objetivos específicos:
1. Minimizar el tiempo total de duración del proyecto.
2. Definición de políticas en cuanto a su duración total y a la de sus etapas intermedias.
3. Minimizar el costo total del proyecto.
4. Conocer requerimientos financieros y de todo tipo de recursos. Definir políticas de
utilización de recursos.
5. Seguridad de la efectiva realización del proyecto en tiempo prefijado.
6. Disminuir tiempos muertos en equipo y capacidad ociosa del personal.
7. Coordinar grupos de subcontratistas.
8. Coordinar departamentos.

Planificación, programación y control


En un proyecto se pueden distinguir cinco grupos de procesos que organizan y
describen el trabajo relacionado con éste: Inicio o Estructuración, Planificación, Ejecución,
Monitoreo y Control, y Cierre. Los proyectos se componen de fases y dentro de cada una
es posible reconocer estos cinco grupos de procesos.

16
En el proceso de planificación, a partir de los objetivos planteados, se produce
documentación que abastecerá a los demás grupos de procesos, obteniéndose
información como:
• Definición de las actividades a realizar.
• Identificación de la secuencia de las actividades.
• Estimación de la duración de las actividades.
• Planeamiento de recursos necesarios para ejecutar las actividades.
• Costos: estimación y presupuesto, con especificación de montos y momentos en que
serán necesarios.
• Desarrollo del programa tentativo de ejecución de cada actividad y los plazos para la
efectivización del proyecto en su conjunto. El calendario de fechas confeccionado es la
base de la programación, que puede ser: 1) Programación Primaria, en la que se detallan
el momento en que se ejecutará cada tarea y la asignación de recursos para ello, 2)
Programación Definitiva, derivada de la primaria, a partir de ajustes en la ejecución prevista
para las actividades. Lo que se busca es la asignación óptima de recursos en el proyecto.

Por su parte, el proceso de ejecución consiste en volcar en la realidad lo que se ha


planificado y programado previamente. Luego, en el proceso de control se evalúa si la
realidad se está desarrollando según lo previsto o no, y en función de ello establecer las
medidas correctivas necesarias.
Como consecuencia del control, y siempre que sea necesario, se puede proceder a la
reprogramación, haciendo ajustes sobre los elementos que provocaron los desvíos en la
ejecución del proyecto.

17
PERT y CPM
La aplicación de las técnicas PERT y CPM presenta las siguientes características:
• Posibilitan actuar por excepción, sobre aquellos elementos que difieren sobre lo
programado cuando se les realiza el control permanente durante la ejecución.
• Facilitan la coordinación entre los responsables de subproyectos.
• Durante la ejecución y control permiten conocer los grados de avance real en relación
con lo planeado, así como comparar la evolución de los costos reales contra los
presupuestados. Esto se vincula con la aplicación de la Gestión del Valor Ganado (EVM), lo
cual veremos en mayor profundidad más adelante.
• Ante retrasos en la ejecución permiten:
a) Identificar claramente qué tareas deberían reprogramarse.
b) Anticiparse a los efectos que los cambios provocarán sobre los costos.
• Si las duraciones de las tareas son estimaciones (como en PERT), permiten relacionar
probabilidades y duración estimada del proyecto, y complementándolo con técnicas de
simulación, se logra expandir la información disponible para la toma de decisiones.
• Proveen información valiosa al encargado de la gestión, como es: fecha estimada de fin
del proyecto y detalle de actividades críticas; primeras y últimas fechas de inicio y fin de
cada actividad; detalle de actividades NO críticas que pueden retrasarse en su inicio o
finalización, y en qué margen de tiempo; carga y asignación de recursos (y costos
relacionados) en cada momento del cronograma planeado del proyecto.
• Con la información del punto anterior, la Dirección puede: enfocarse en las actividades
críticas; facilitar el seguimiento y control por cada sector responsable de las distintas
actividades; verificar permanentemente que se cumpla con la asignación de recursos según
lo programa y, eventualmente, mejorar tal asignación; entre otras.

El modelo expresado en red


En principio el objetivo del modelo es obtener el menor tiempo posible de ejecución de
todo el proyecto. Luego de ello se adicionarán los costos para analizar un nuevo modelo
de optimización.
Las técnicas de CPM y PERT también utilizan las características de los modelos de red
que vimos anteriormente. Las características citadas, de los modelos de red, aplican aquí. Si
grafican mediante la metodología denominadaAOA (Actividades en los arcos, según la
nomenclatura en inglés),CPM y PERT se incluyen entre las técnicas que consignan las
actividades en los arcos, y los nodos representan momentos (sucesos o acontecimientos)
dentro del proyecto.Aquí seaplicará la graficación AON (Actividades en los nodos, según la
nomenclatura en inglés), que se inició con el método ROY, por el apellido de su autor, y
que posteriormente tuvoadaptaciones con diversos aportes; como el Método de los
Potenciales de IBM.
La graficación del método Roy representa las actividades en los nodos, y las relaciones
deprecedencia se simbolizan mediante los arcos del grafo.
18
Para facilitar la interpretación, uso y consistencia de la red graficada, resulta útil seguir
las siguientes reglas básicas:
• Identificar y describir cada actividad que constituye un nodo.
• Identificar un único acontecimiento inicial y un único acontecimiento final mediante la
inserción de actividades que no consumen tiempo ni recursos y su duración es nula
(ficticias). De la actividad ficticia inicial salen arcos que llegan a todos los nodos que
representan actividades que no tienen precedentes; y a la final llegan conexiones de los
nodos que representan actividades que no tienen sucesoras. Se omite la inserción de
actividades ficticias cuando el proyecto ya tiene una sola actividad sin subsiguientes (es la
final) y/o una sola sin actividades precedentes (es la actividad real inicial).
• Establecer (y controlar posteriormente) el correcto trazado de las relaciones de
precedencia y simultaneidad, mediante preguntas sobre cuáles son las tareas predecesoras
inmediatas, cuáles las sucesoras inmediatas y cuáles pueden llevarse a cabo
simultáneamente.

Un nodo se grafica mediante un rectángulo. Tendrá en su ángulo superior izquierdo la


denominación de la actividad y debajo la duración de ella; en el ángulo superior derecho
las fechas más tempranas de inicio y terminación, y en el inferior la más tardías de inicio y
terminación.

Desarrollo de la red de proyectos


Los pasos a seguir en el desarrollo de una red para representar un proyecto son los que
se detallan a continuación

1. Identificación de las tareas individuales


La primera fase del proceso de programación de proyectos con PERT/CPM consiste en
determinar las tareas o actividades individuales/específicas que conforman el proyecto. Las
tareas pueden variar tanto en el tiempo requerido para concluirlas como en su
complejidad. Las tareas complejas pueden considerarse como proyectos que en sí mismo
necesitan verificación al ser divididos en subtareas.
Para este trabajo deben seguirse ciertas pautas:
 Cada tarea debe tener un comienzo y un final claros en el contexto del proyecto.
 La terminación de cada tarea debe ser necesaria para la conclusión del proyecto y
debe representar un hito en el proceso del proyecto.

19
 El tamaño de una tarea debe estar en proporción con el control que usted pueda
ejercer.
 Debe haber alguna(s) persona(s) responsable(s) de la conclusión de cada tarea
individual.

En base a las mismas, es muy importante elaborar una tabla que incluya todas las tareas
relevantes del proyecto. En la misma se reconocerá a cada tarea con alguna codificación
(por ejemplo, la letra A para la primera actividad, la B para la segunda y así sucesivamente)
y se detallará una breve descripción de cada una de ellas.

2. Obtención de estimaciones de tiempo para cada tarea


Es importante destacar que el tiempo total que lleva completar todo el proyecto
depende, de alguna forma, en cuánto tiempo lleva realizar cada tarea individual. Por ello es
necesario obtener algunas estimaciones de la cantidad de tiempo requerida para
completar cada tarea, lo que puede hacerse de distintas formas:
 Confiando en experiencias pasadas en proyectos similares.
 Consultando con las personas a cada de cada tarea individual.
 Usando datos anteriores

Pueden darse dos situaciones: que se conozcan con certeza el tiempo requerido en cada
tarea sin ninguna variabilidad significativa o que, en caso contrario, se trate de un proyecto
cuyas tareas requieren tiempos inciertos o que deben estimarse con cierta variabilidad
(probabilidades). En el primer caso se aplica la técnica CPM y en el segundo, PERT.
Con esta nueva información se le puede agregar una columna nueva a la tabla de
tareas, en la cual se exhibirá el tiempo de cada una de ellas.

3. Creación de la tabla de precedencia


Como dijimos anteriormente, el tiempo total de duración del proyecto está
estrechamente relacionado con el tiempo de cada una de las actividades que lo
componen. No obstante, el tiempo de conclusión total NO es igual a la suma de los
tiempos individuales de cada tarea, ya que algunas de ellas pueden realizarse
simultáneamente. Otras tareas, sin embargo, no pueden comenzar hasta que ciertas tareas
anteriores no hayan sido terminadas. Para determinar la cantidad de tiempo mínimo
requerida para concluir el proyecto total, es vital reconocer primeramente la relación que
existe entre las actividades, y reconocer cuáles son las tareas que al concluirse habilitan o
permiten la iniciación de otra/s actividad/es. Así, los antecedentes inmediatos de una
actividad específica son las actividades que, cuando terminan, permiten el inicio de la
actividad en cuestión. Puede ocurrir que algunas actividades no dependan de otra para
llevarse a cabo, siendo estas con las que se comienza el proyecto.
Es necesario conocer la información sobre los antecedentes inmediatos de cada
actividad, con objeto de describir las interdependencias entre las actividades del proyecto.

20
Con ello se le agrega una nueva columna a la tabla, sobre la cual se consignan las tareas
que deben concluirse previamente a la ejecución de cada actividad.
La lista de tareas predecesoras inmediatas de una tarea específica incluye aquellas
tareas que:
 Deben terminarse antes de que la tarea específica pueda comenzar;
 No dependen para su inicio de la conclusión de cualquier otra tarea inmediatamente
predecesora de esta lista.

Entonces, de todas las tareas que deben terminarse antes de que pueda iniciarse una
tarea dada, solo es necesario identificar las tareas inmediatamente predecesoras. Para ello
es fundamental conocer el proyecto y la forma en que las tareas se vinculan entre sí en
términos de secuencia.

4. Trazo de la red de proyectos


Luego de elaborar la tabla de las tareas, la cual contiene de cada actividad su respectiva
codificación, descripción, tiempo estimado y tareas inmediatamente predecesoras, se
procede a convertir toda la información en una red de proyecto. Una red consiste en una
colección finita de nodos y arcos. Un arco es una flecha que conecta un nodo con otro.
En la administración de proyecto, los nodos y arcos de la red de proyecto tienen un
significado especial, dependiendo del enfoque que se utilice:
• Representación de actividad en arco: cada arco corresponde a una de las actividades,
mientras que los nodos que están conectados por ese arco representan el inicio y fin de
esa actividad. La terminación de todas las actividades que conducen a un nodo se
denomina evento.
• Representación de actividad en nodo:cada nodo representa una de las tareas, mientras
que un arco conecta dos nodos si un nodo corresponde a una tarea inmediatamente
predecesora del otro nodo.
A lo largo del capítulo se adopta el enfoque de representación de actividad en nodo
(AON como ya vimos).

21
3) Redes PERT y CPM. Camino crítico
Conceptos involucrados, cálculo y aplicación
Como dijimos anteriormente, el objetivo al aplicar el tiempo de todas las actividades, es
hallar el menor tiempo en el que el proyecto puede terminarse, siendo este tiempo total
menor a la sumatoria de los tiempos individuales de las tareas que componen al proyecto,
ya que algunas de ellas pueden llevarse a cabo simultáneamente.
En esta primera parte trabajaremos con aquellos proyectos en las que los tiempos de
duración de cada actividad se conocen con certeza (es decir, modelos matemáticos
determinísticas).
A partir de los siguientes títulos explicaremos los distintos procedimientos para lograr
hallar las respuestas a las siguientes preguntas:
1. ¿Qué tan pronto puede completarse todo el proyecto?
2. Para satisfacer este tiempo de conclusión ¿Qué tareas son críticas, en el sentido de
que un retraso en cualquiera de esas tareas produciría un retraso en la conclusión de
todo proyecto?
3. Respecto de las actividades no críticas ¿En qué cantidad pueden retrasarse sin afectar
la terminación del proyecto?

Fechas más tempranas y más tardías


Conviene definir dos conceptos esenciales para interpretar qué se entiende por camino
crítico:
a) Fechas más tempranas (o primera fecha) de una actividad:
• De inicio (Fi): es la fecha o momento más cercano al inicio del proyecto en que se
puede comenzar a ejecutar la actividad habiendo finalizado todas las que la preceden.
• De terminación (Ft): es la fecha o momento más cercano al inicio del proyecto en que
se puede completar la ejecución de la actividad. La fecha más temprana de terminación
de la última actividad determinará el tiempo mínimo para culminar con el proyecto.
b) Fechas más tardías (o última fecha) de una actividad:
• De inicio (Fi’): momento más alejado de la fecha de inicio del proyecto que permite
ejecutar dicha tarea (y todas las que le siguen en la secuencia temporal) sin afectar a la
fecha de terminación del proyecto. Es decir, el proyecto no se terminaría en la fecha
prevista si la tarea de referencia comenzara después de su “fecha más tardía de inicio”.
• De terminación (Ft’): momento más alejado de la fecha de inicio del proyecto en que
se puede finalizar la ejecución de una actividad.

La forma de calcular las fechas para cada actividad resulta sencilla. Al primer nodo de la
red se le asigna la fecha 0 (cero), y a partir ella se cuentan los demás momentos, que
servirán para ubicar a todas las tareas dentro de ese calendario que es el programa de
realización del proyecto.

22
1. En primer lugar se calculan las fechas más tempranas. Para esto, a partir de un dato
conocido (fecha más temprana de inicio de un nodo ya calculada) se suma la duración de
la tarea representada en él para calcular su fecha más temprana de finalización, que a su
vez será la fecha más temprana de inicio para el nodo conectado que le sigue en la red.
Cuando en un nodo confluyen varios arcos (es decir, posee más de una actividad
inmediatamente antecedente) y por ende varias tareas aportarían su fecha más temprana
de finalización para calcular la del nodo bajo supervisión, de todas esas fechas más
tempranas de terminación se toma el mayor valor para asignarlo como fecha más
temprana de inicio del nodo analizado. Esto es así ya que la actividad requiere para su
inicio que se terminen todas las demás tareas que son antecesoras inmediatas.
El proceso mencionado sigue hasta llegar a calcular la fecha más temprana de
finalización del momento final del proyecto (representada por el nodo final), la cual
determinará, como ya dijimos, la fecha más temprana en que puede finalizar la ejecución
del proyecto, y como tal indicia la menor duración que puede tener éste de manera que se
puedan finalizar todas las tareas que lo componen.
2. Se sigue con el cálculo de las fechas más tardías. Conocido en qué momento terminará
el proyecto, se asignan los mismos valores obtenidos para las fechas más tempranas de
ese nodo final a las fechas más tardías (tanto de inicio como de terminación) de dicho
nodo. Esto es así, porque cualquier retraso ocasionaría la demora en la finalización del
proyecto en su totalidad.
A partir del momento más tardía en que puede terminar el proyecto (fecha más tardía
de terminación del nodo final), se sigue un camino inverso al citado en 1.Para cada
actividad se calcula su fecha más tardía de terminación y, restándole la duración de la
actividad, se calcula su fecha más tardía de inicio, que a su vez permite calcular los
momentos más tardíos de finalización de las actividades que la preceden.
Puede ocurrir que, al evaluar una fecha más tardía de finalización confluyen varios arcos
(la actividad precede a más de una en el proyecto, motivo por el cual se harían los cálculos
con distintos datos y para un mismo nodo). En este caso la fecha más tardía de finalización
de la actividad, es el menor valor entre las fechas más tardías de inicio de todas las
actividades que le siguen. Así se garantiza que todas las tareas que inician en tal momento
(y las que les siguen en la secuencia) se podrán completar sin alterar la fecha de
finalización del proyecto.

Holguras y criticidad
Criticidad se refiere a una característica que tienen algunas tareas del proyecto: la
imposibilidad de demorar su finalización (ya sea por iniciarse más tarde o por extenderse
la duración con respecto a lo programado), ya que dicha demora provocaría que el
proyecto se termine en una fecha más allá a la calculada como más temprana de
terminación de la tarea final.

23
Una vez calculadas las fechas más tempranas y tardías de inicio y de terminación para
todas las actividades, se realiza el siguiente cálculo:
𝐅𝐅𝐭𝐭 ′ − 𝐅𝐅𝐢𝐢 − 𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃𝐃ó𝐧𝐧 = 𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇𝐇
El resultado de la formula, como vemos, es la “holgura” o flotante, la cual nos indicia en
cuantas unidades de tiempo puede demorar su finalización una actividad.
La inexistencia de holgura (H=0) es un indicio muy importante en la administración de
proyectos mediante redes, y lleva a definirlo como nodo crítico, lo cual constituye la
condición necesaria (pero no única) para que se esté en presencia de una tarea crítica.

El camino crítico y su aplicación


El hecho de que una actividad no tenga holgura implica que no existe la posibilidad de
demorar su inicio (si se ejecutara en el tiempo previsto) ni de alargar su duración (aun
cuando se inicie en su fecha más temprana de inicio Fi), ya que esto provocaría el
corrimiento de la fecha más temprana de finalización de la tarea, valor que, como ya
vimos, condiciona las fechas que se deben calcular a posteriori, motivo por el cual puede
terminar afectando a la fecha más temprana de finalización del proyecto.
El denominado camino crítico (o ruta crítica) está constituido por todas las tareas que,
trazadas desde el momento inicial hasta el momento final del proyecto, carecen de
holgura de actividad. Esta sucesión de tareas críticas es la que más debe atenderse en la
administración de proyectos. Y es así, porque cualquier retraso en el inicio o ejecución de
tales tareas significaría retrasar la finalización del proyecto en su conjunto. Esto no releva
de vigilar también el desempeño de las demás tareas, que participarán del esquema de
control por excepción.
El camino crítico se resume en dos conceptos muy concretos: representa al menor
tiempo posible de terminación del proyecto y, a su vez, el mayor tiempo permisible
(válido) a tal fin.

4) Redes PERT y CPM. Proyectos con tiempos inciertos en las actividades


Hasta ahora trabajamos con proyectos en los que conocíamos con certeza la duración
que demandaba cada una de las actividades que lo componen. En esta sección
analizaremos aquellos proyectos en los que no es posible determinar con precisión la
duración de las distintas tareas que lo integran. En tal caso, al no existir certeza en los
tiempos, es necesario obtenerlos mediante estimaciones, por lo que el modelo resulta
aleatorio o estocástico.
Esta situación se da cuando se trata de proyectos de primera ejecución, ya que por
contener tareas que nunca se han realizado, no se cuenta con la información para
determinar cuál será du duración al momento de ejecutarse. En estos casos se utiliza la
técnica PERT.

24
Ahora, para poder estimar la duración de cada actividad y tomar tales tiempos como
variables aleatorias, es necesario conocer de ellas:
a) La distribución de probabilidades aplicable a cada una de estas variables.
b) Las medidas de tendencia central y de dispersión que pueden caracterizarlas, tales
como la esperanza matemática y la varianza.

Distribuciones de probabilidad aplicables a la variable “duración de tareas”


Pueden presentarse dos situaciones:
1. Se conozcan las distribuciones teóricas aplicables a los tiempos de duración de las
tareas. Esto ocurre cuando las tareas no son tan nuevas o se las puede comparar con otras
similares ya ejecutadas en alguna oportunidad.
Para la tarea T se podrá contar con la media 𝒕𝒕̅ T y la varianza σ T 2, a partir de la
R

información obtenida que permita contrastar la hipótesis de que la duración de la tarea se


distribuye según una ley establecida. Estas hipótesis no pueden ejecutarse arbitrariamente,
sino que para tener validez estadística deben someterse a un Test de Distribución, para
establecer si tal hipótesis es válida o si debe cambiarse. Este proceso debe repetirse para
cada actividad cuya duración resulta incierta.
2. No sea posible conocer las distribuciones teóricas aplicables. En estos casos, los
creadores del método PERT idearon una metodología de trabajo, deducida de estudios
totalmente empíricos, que concluyeron que “las duraciones de tareas ajustan a una
distribución Beta”

La primera situación es un caso de riesgo, ya que es posible ajustar la distribución de los


datos a una expresión teórica. La segunda, en cambio, se trata de un caso de
incertidumbre por no ser posible tal ajuste. A lo largo de este capítulo se tratará la
situación de riesgo.

Aplicación de la Distribución Beta en la estimación de las duraciones de tareas


En la Distribución Beta se tiene una variable t comprendida en el intervalo [A,B], siendo
A>0 y B>0. Se distribuye con la siguiente ley de densidad de probabilidad:
𝒇𝒇(𝒕𝒕) = 𝟎𝟎 para -∞<t<A
(𝒕𝒕−𝑨𝑨)𝜶𝜶 +(𝑩𝑩−𝒕𝒕)𝝋𝝋
𝒇𝒇(𝒕𝒕) = para A≤t≤B
(𝑩𝑩−𝑨𝑨)𝜶𝜶+𝝋𝝋+𝟏𝟏 𝜷𝜷(𝜶𝜶+𝟏𝟏,𝝋𝝋+𝟏𝟏)
𝒇𝒇(𝒕𝒕) = 𝟎𝟎 para B<t<∞

𝒕𝒕−𝑨𝑨
Donde, haciendo el cambio de variable 𝒙𝒙 = es:
𝑩𝑩−𝑨𝑨
𝟏𝟏
𝜷𝜷(𝜶𝜶+𝟏𝟏,𝝋𝝋+𝟏𝟏) = � 𝒙𝒙𝒂𝒂 . (𝟏𝟏 − 𝒙𝒙)𝝋𝝋 𝒅𝒅𝒅𝒅
𝟎𝟎
Puede observarse que cuatro parámetros (A,B,α,φ) determinan la forma de la curva.
25
Si bien resulta favorable expresar una ley de distribución probabilística mediante
estadísticos que la representen (por ejemplo, mediante valor medio y desvío estándar en
Gauss y Poisson), en Beta tales valores no conducen a una única distribución.
Entonces, podemos decir que tendrá un valor modal M, y adoptando algunos supuestos
se pueden calcular media (E (t) = 𝒕𝒕̅) y varianza (σ T 2) de la distribución.

𝑨𝑨 + 𝟒𝟒𝟒𝟒 + 𝑩𝑩 𝟐𝟐 𝑩𝑩 − 𝑨𝑨 𝟐𝟐
𝑬𝑬(𝒕𝒕) = 𝝈𝝈(𝒕𝒕) = � �
𝟔𝟔 𝟔𝟔
La curva de una distribución beta es acampanada, pudiendo ser simétrica o no, y la
probabilidad toma sus valores mínimos en A y B, con su valor modal en M. Para valores de
la variable menos que A o mayores que B la probabilidad es cero.
a) Simétrica: se da cuando
• B-M=M-A
• E (t) =M
• α=φ.

b) Asimetría a la derecha: se da cuando


• B-M<M-A
• E (t) <M
• α>φ.

c) Asimetría a la izquierda: se da cuando:


• B-M>M-A
• E (t) >M
• α<φ.

Para poder aplicar la Distribución Beta de Euler a las duraciones de las tareas de un
proyecto debemos contar con la estimación de tres duraciones de cada actividad:
1. Duración optimistad o : es el tiempo mínimo en el que puede realizarse la tarea T, si se
dan las mejores condiciones. La probabilidad de esta duración, en la realidad, es del 1%.
2. Duración más probable o normald m : es la duración en condiciones normales, y la que
resultaría más frecuente si repitiera varias veces la tarea.
3. Duración pesimistad p : corresponde al tiempo necesario para ejecutar la actividad
cuando se presentan grandes retrasos en el desarrollo de los trabajos, exceptuando casos
extremos como catástrofes, huelgas generalizadas, etc.

26
Estas tres duraciones estimadas se aplican en PERT con la distribución Beta
asimilándolas a estimadores de los valores mínimo, máximo y modal de la variable d, de la
siguiente forma:
� 𝑻𝑻 es un estimador de A para la tarea T;
𝒅𝒅𝒐𝒐 = 𝑨𝑨
� 𝑻𝑻 es un estimador de B para la tarea T;
𝒅𝒅𝒑𝒑 = 𝑩𝑩
� 𝑻𝑻 es un estimador de C para la tarea T;
𝒅𝒅𝒎𝒎 = 𝑴𝑴
Análogamente, para estimar los valores de la media y varianza de la duración de una
tarea se utilizan las formulas vistas anteriormente:
𝒅𝒅𝒐𝒐 + 𝟒𝟒𝒅𝒅𝒎𝒎 + 𝒅𝒅𝒑𝒑 𝟐𝟐 𝒅𝒅𝒑𝒑 − 𝒅𝒅𝒐𝒐 𝟐𝟐
𝒅𝒅𝒆𝒆 = 𝝈𝝈(𝒕𝒕) = � �
𝟔𝟔 𝟔𝟔
Consecuencias derivadas de las hipótesis admitidas en PERT
La forma de estimar los tiempos de ejecución de cada actividad y la adhesión al ajuste a
una distribución Beta a partir de conclusiones totalmente empíricas, llevaron a varios
estudiosos a criticarlas.
Así, se han determinado ciertos errores de estimación que pueden surgir:
 Diferencia entre la distribución probabilística (real, verdadera o más adecuada) aplicable
a la duración de una determinada tarea, y la función Beta adoptada.
 Errores en las estimaciones de los tiempos optimista, normal y pesimista.
 Errores de aproximación derivados de las fórmulas utilizadas para el cálculo del tiempo
medio esperado y de la varianza.

Por ello, es bueno hacerse ciertas preguntas:


1. ¿Cuál es el error cometido al suponer que la duración de una tarea sigue distribución Beta?
2. Suponiendo que realmente siga a la distribución beta y siendo correctos los tres
tiempos de duración, ¿Cuál es el error cometido por utilizar media y varianza calculadas
con las expresiones aproximadas vistas anteriormente?
3. Suponiendo que realmente siga a la BETA y que los valores media y varianza son
correctos, ¿Cuál es el error cometido por aplicar valores de tiempos incorrectos?

El tiempo de ejecución del proyecto como variable aleatoria


Una vez calculada la duración media d e de cada tarea T, se consideran como tiempos
determinísticos de cada actividad dichos valores obtenidos, y se prosigue a calcular las
fechas de inicio y de terminación, y el camino crítico, como vimos previamente.
Teniendo en cuenta que las duraciones consideradas son las medias de variables
aleatorias, el tiempo mínimo de ejecución del proyecto también es una nueva variable
aleatoria D e .
De aquí que el valor D e calculado define la media de la variable aleatoria D, que es
laduración esperada del proyecto; o sea la E (D) .

27
Es de interés determinar la distribución que sigue la variable aleatoria D, y a tal fin se
puede recurrir al Teorema Central del Límite. Dicho teorema expresa: “Si se tiene un
conjunto de variables aleatorias independientes x 1 , x 2 , … , x n , con sus respectivas medias
�y varianzas 𝝈𝝈𝟐𝟐𝒊𝒊 (para i =1, 2, ... ,n), la variable aleatoria X que se obtiene como suma de
𝒙𝒙
dichas variables tenderá a distribuirse en forma Normal, en la medida en que el número de
variables tienda a infinito, siendo la media igual a la suma de las medias y la varianza igual
a la suma de las varianzas de las variables.
En conclusión, para estimar la duración de un proyecto y obtener conclusiones
razonables, deben cumplirse las siguientes condiciones:
1) Independencia entre las distintas variables aleatorias.
2) Independencia en su distribución.
3) El número de variables debe ser muy grande: n → ∞.

Aplicado el teorema a una red de proyecto con duraciones inciertas, se pueden


identificar y asimilar los siguientes conceptos involucrados:
• Variables independientes (d ei ): son las duraciones medias de las distintas tareas.
• Valor medio y dispersión (d e y σ de 2): se tienen estas equivalencias: 𝒙𝒙
�𝒊𝒊 = 𝒅𝒅𝒆𝒆 y 𝝈𝝈𝟐𝟐𝒊𝒊 = 𝝈𝝈𝟐𝟐𝒅𝒅𝒅𝒅
• Suma de las variables (D e ): la duración del proyecto será la suma de las duraciones de
las tareas críticas.
• Varianza: la varianza de la duración del proyecto será la suma de las varianzas de las
duraciones de las tareas críticas (σ D 2).

Se concluye que la variable aleatoria duración del proyecto D se distribuirá en forma


normal con media D e y varianza σ D 2, según las siguientes expresiones:

𝑻𝑻 = 𝑵𝑵�𝑫𝑫𝒆𝒆 , 𝝈𝝈𝟐𝟐𝑫𝑫 �𝑻𝑻𝒆𝒆 = � 𝒕𝒕𝒆𝒆𝒌𝒌 𝝈𝝈𝟐𝟐𝑫𝑫 = � 𝝈𝝈𝟐𝟐𝒕𝒕𝒆𝒆


𝒌𝒌
𝒌𝒌 𝜺𝜺 𝑪𝑪𝒄𝒄 𝒌𝒌 𝜺𝜺 𝑪𝑪𝒄𝒄
Donde 𝒌𝒌 𝜺𝜺 𝑪𝑪𝒄𝒄 indica que se deben considerar las tareas que conforman el camino
crítico.
Los supuestos del Teorema Central del Límite llevan a que se analice en primer lugar si
existe independencia entre las variables. No habría dudas en cuanto a la independencia en
susdistribuciones en el plano estadístico, pero en el plano temporal no existiría tal
independencia, dado que las tareas del camino crítico se siguen unas a otras en función de
lo planificado. Por tal motivo se debe tener presente dicha condición al momento de
aplicar el Teorema.
El restante supuesto es que la cantidad de variables debe ser un número muy grande
(matemáticamente, tendiendo a infinito), lo que requiere en la práctica que el camino
crítico esté integrado por al menos 30 tareas (según algunos autores, 50).

28
Análisis de la probabilidad de cumplimiento del proyecto
Al aceptar la Distribución Normalde la variable aleatoria D pueden utilizarse sus
propiedades para encontrar la probabilidad de ejecutar el proyecto en determinados
plazos. Vale recordar que la distribución es simétrica, y por tal motivo la media divide el
área en dos partes iguales, como podemos ver en la siguiente imagen:

Probabilidad de tener finalizado el proyecto en el tiempo D e


Según lo visto tenemos que P(D≤D e )=0,5, lo que indica un 50% de seguridad de
concretar el proyecto en su tiempo medio de ejecución D e y, a su vez, que el riesgo de no
finalizarlo en esa ficha es también del 50%: P(D>D e )=0,5.

Probabilidad de finalizar el proyecto antes de una determinada fecha


Definida una duración D X , puede estimarse el margen de seguridad de poder finalizar el
proyecto en dicho tiempo. Para esto se calcula la probabilidad aplicando la Distribución
Normal.
Para la Distribución Normal EstandarizadaN(0,1), se parte del valor estandarizado
correspondiente al valor D X de la variable, se calcula mediante la ecuación:
𝑫𝑫𝑿𝑿 − 𝑫𝑫𝒆𝒆
𝒁𝒁𝑿𝑿 =
𝝈𝝈
Al usar la tabla respectiva (valores de N(0,1), se aplica la siguiente equivalencia:
𝑷𝑷(𝑫𝑫 ≤ 𝑫𝑫𝑿𝑿 ) = 𝑷𝑷(𝒁𝒁 ≤ 𝒁𝒁𝑿𝑿 )
El riesgo de no poder terminar el proyecto en la fecha predeterminada (D x o antes) se
mide con la probabilidad complementaria de la analizada:
𝑷𝑷(𝑫𝑫 > 𝑫𝑫𝑿𝑿 ) = 𝟏𝟏 − 𝑷𝑷(𝑫𝑫 ≤ 𝑫𝑫𝑿𝑿 )

29
Estimación del tiempo de ejecución que asegure un nivel de seguridad
También resulta conveniente estimar una duración que permita lograr un objetivo en
función de un determinado nivel de seguridad (y su complemento de riesgo).
Establecido tal nivel de seguridad, se realiza el proceso inverso al del punto anterior: a
partir de la probabilidad correspondiente al nivel de seguridad se calcula la duración
respectiva.
Para aplicar la Distribución Normal Estandarizada N(0,1) se calcula el valor Z que
corresponde a dicho nivel de probabilidad prefijado, y luego la fecha se obtiene:
𝑫𝑫 = 𝑫𝑫𝒆𝒆 + 𝒁𝒁 . 𝝈𝝈
Casos de proyectos con escasa cantidad de tareas
Puede ocurrir que un proyecto esté formado por menos de 30 tareas críticas, por lo que
no es posible aplicar el Teorema Centra del Límite.
En estos casos, puede aplicarse el Teorema de Bienayme-Tchebycheff, del cual puede
deducirse lo siguiente: la probabilidad de que una observación x de una variable aleatoria
X se encuentre dentro del rango de variación de más o menos K veces el desvío estándar
(K.σ) en torno a su valor medio esperado es superior a una constante que vale 1 – 1/k2.
La expresión formal es: P(m – K.σ < x < m + K.σ) > 1 – 1/k2, donde m es la media de
la distribución y equivale a E (X).
Si la anterior expresión es verdadera, también lo será: P(x < m + K.σ) > 1 – 1/k2, la cual
no requiere prueba ya que simplemente se elimina el límite mínimo al intervalo, y por
tanto la probabilidad debe ser mayor que en la expresión anterior. Y permite cuantificar la
probabilidad con los correspondientes márgenes de seguridad y riesgo.
Aplicando esto a la variable D se tiene que:
P(D < D e + K.σ) > 1 – 1/k2
Por ejemplo, si consideramos K=2, la probabilidad de que el tiempo de ejecución del
proyecto sea menor que el valor medio más dos veces el desvío estándar es mayor que el
75%, mientras que el riesgo de no concluir el proyecto antes de D e +2σ es del 25%.

Restricciones y limitaciones del Método PERT


Las características y supuestos del Método PERT pueden generar falencias en su
aplicación como técnica de administración de proyectos con duraciones inciertas, e/ ellas:
• Se supone que la duración de las actividades sigue una distribución Beta, cuando puede
ser que no sea así; además, los cálculos de la media y varianza se reducen a
simplificaciones.
• La aplicación del Teorema Central del Límite presenta ciertas dudas en cuanto a su
justificación y exige un mínimo vasto de tareas en el camino crítico.
• Debe notarse que, en la práctica, se ha tratado a este problema de tipo aleatorio como
sino lo fuera, ya que PERT se ocupa del camino crítico, y la distribución que obtiene es de
estecamino y no del proyecto. Pero debe tenerse en cuenta que caminos no críticos, que
30
vandesde el inicio al fin del proyecto con varianza total muy grande, pueden llegar a tener
–al momento de la ejecución– una duración del proyecto mayor a la que expresa el
caminocrítico.

5) Redes PERT y CPM. Intercambio duración-costo. Programación óptima


Hasta ahora analizamos las duraciones de un proyecto sin vincularlas con sus
respectivos costos. Está claro que cada tarea demanda recursos, lo que involucra tanto al
tiempo, como a los responsables de realizarlas y el costo que debe incurrirse para
ejecutarlas. Estas técnicas analizadas no solo gestión los tiempos, sino que realizan la
misma evaluación con los costos, con el objetivo de minimizarlos.
Es bastante común que, al administrar un proyecto, se deba cumplir estrictamente con
una fecha de entrega de sus resultados. En tal caso, si después de estimar la fecha de
terminaciónen base a la duración del camino crítico se considera que el proyecto debería
terminar antespara cumplir con tal condición, se pueden intentar acortamientos
intercambiando costos yduración, es decir, existe la posibilidad de “acelerar” ciertas tareas
con el incremento de los costos. El objetivo de la gestión debe tender a minimizar esos
costos adicionales.

Los costos asociados al proyecto


Está claro que primeramente deben conocer los costos relacionados al proyecto y a
cada una de las tareas, y como los mismos influyen sobre el proyecto ante cambios en los
plazos del mismo.
Por un lado, existen los costos directos, que se identifican plenamente con el desarrollo
de una actividad. Por tal motivo, si la duración de la tarea se reduce, estos costos se
incrementan; es decir, varían en forma inversamente proporcional con la duración de la
tarea (pendiente negativa), como podemos ver en la siguiente gráfica:

31
Como se ve en la curva, los costos directos aumentan al disminuir la duración de la tarea
desde el punto B (correspondiente a un Costo Normal con una Duración Normal) hasta
el punto A (correspondiente a un Costo Todo Acelerado con una Duración Toda
Acelerada). Podemos observar además que la tasa de incremento es mayor a medida que
la tarea se acelera más.
Esta relación costo-duración es perfectamente entendible en condiciones reales, pero
difícil de manejar en forma práctica dentro del modelo, ya que para cada una de las tareas
del proyectoexisten comportamientos similares, lo que implica una cantidad considerable
decálculos. Por ello, mediante el segmento AB se hace una aproximación lineal al
comportamiento real de los costos directos, de manera de contar con un elemento de
fácilaplicación en los cálculos: la pendiente de la recta es indicativa de la tasa de
incremento del costo directo ante cada unidad de tiempo en que se reduce la duración,
es decir, que la variación en este caso es constante.
El concepto de costo todo acelerado implica realizar la tarea en el menor tiempo posible
en función de los RR asignados. Por debajo de dicho tiempo es imposible ejecutar la tarea,
por ello la gráfica termina en el punto A. Obviamente, la actividad no puede ejecutarse en
un plazo mayor al de su duración normal, hecho por el cual la curva finaliza en el punto B.
En contraposición a los costos directos, se presentan los costos indirectos, que a
diferencia de los anteriores, no pueden identificarse con el desarrollo de una tarea o
actividad en particular, sino que son imputables al proyecto en su totalidad. Es por ello que
si se reduce el tiempo de una actividad y a su vez tiene efecto en la duración total del
proyecto disminuyéndolo, los costos indirectos también bajan. Es decir, que estos costos
varían en forma directamente proporcional al tiempo total del proyecto (pendiente
positiva). Algunos ejemplos son: gastos generales, alquileres, salarios de personal de
vigilancia, electricidad, luz, gas, etc. Estos costos se reflejan mediante funciones lineales
como podemos observar en la siguiente gráfica:

32
Para cada duración de proyecto la suma de todos los costos directos involucrados en
cada una de sus tareas, más los correspondientes costos indirectos, conduce a la suma de
los costostotales del proyecto. Esto puede representar se mediante tres curvas, que se
indican a continuación:

Podemos ver que si la duración del proyecto se reduce de D 2 , con ejecución normal de
todas las tareas, a D 1 , con todas las tareas totalmente aceleradas, los costos indirectos
disminuyen, mientras que los directos aumentan. Esta cuestión provoca que la curva de la
función de CT sea en forma de U, teniendo un mínimo en el tiempo A, el cual representa la
mejor opción de tiempo-costo: el proyecto se finalizará antes de lo normal y se incurrirán
en los menores costos totales a tal fin.

La de duración y su efecto sobre los costos del proyecto.


Como ya vimos, la duración total del proyecto está determinada por la duración de
todas las actividades críticas. Por ende, para reducir el tiempo total del proyecto, es
requisito que la duración de una actividad crítica pueda acortarse (si se redujera el tiempo
de una actividad no crítico, el plazo mínimo para finalizar el proyecto no variaría). Ahora
bien, si se desea minimizar los costos, es necesario reducir el tiempo de aquellas tareas
críticas que impliquen el menor costo incremental (es decir, la que más barata cueste
acelerar); en otras palabras, se disminuye el tiempo de la actividad que menor pendiente
de costo directo tenga (recordar recta AB).
En este punto es posible tomar dos alternativas: reducir de a una unidad la duración
total del proyecto hasta llegar a un costo total que satisfaga, o reducir las actividades que
admitanacortamiento en la totalidad de las unidades de tiempo que lo puedan hacer.
En cualquiera de los casos hay que tener en cuenta que, al acortarse el camino crítico,
puede haber otros caminos que adquieran tal carácter y, en consecuencia, sean
susceptibles de participar también en la rutina de cálculos del acortamiento ya que el
procedimiento mencionado se repite hasta que se llega a la duración que satisface el
objetivo.

33
Y se incorpora la reducción que operaría en los costos indirectos, en el supuesto de que
el proyecto tenga costos de este tipo, que incidirán en forma inversa al incremento de los
costosdirectos por reducción. El efecto neto se visualiza en la curva Costo Total.

Métodos para obtener una programación definitiva


Durante la planificación y la programación primaria, si bien la escasez de recursos
disponibles condiciona el cronograma obtenido, no se avanzó demasiado en la asignación
óptima de ellos.
Obtenida la duración calculada mediante los procedimientos ya descriptos, se revisa si
los recursos están limitados en su disponibilidad, si serán insuficientes en algún momento
de laejecución del proyecto y será necesario reforzar la dotación, o si sobreabundarán, etc.
Analizadas estas características del proyecto, se puede avanzar hacia la programación
definitiva, aplicando alguno de los métodos de asignación y programación de recursos
demodo que:
 Se respete la lógica para la realización de las tareas y los métodos de trabajo
adoptados.
 No se sobreasignen los recursos disponibles.
 No se prolongue la duración del proyecto a menos que sea imposible su verificación
con el nivel de recursos disponibles.

Diagrama calendario
Esta aplicación se basa en una representación gráfica de la red previamente construida,
a la que se agrega una escala de tiempos. En otras palabras, consiste en un diagrama de
barras tradicional (Diagrama de Gantt) al que se le adiciona la posibilidad de graficar las
relaciones entre las tareas. Las características principales son:
 Se grafican las actividades en los arcos (enfoque de representación de actividad en
arco). En este caso los nodos representan sucesos: inicio o fin de una actividad.
 Los arcos equivalen a las barras del diagrama de Gantt.
 Las longitudes de las barras son proporcionales a las duraciones de las tareas.
 Se indican las relaciones de precedencia entre las tareas.
 Se ubican actividades en el calendario según el momento en que se ha programada
su ejecución conforme lo visto en el capítulo 3.

Como es una herramienta a aplicar para llevar a cabo la Programación Definitiva, ya se


conoce cómo se compone el camino crítico, cuyas tareas tienen una única ubicación
posible en eldesarrollo del proyecto conforme a lo calculado al realizar la Programación
Primaria. Las tareasno críticas, al tener holguras pueden desplazarse según convenga,
dando origen a una cantidad muy amplia de diagramas calendario.
Si la unidad de tiempo utilizada en el proyecto es “día”, el diagrama puede expresarse
en días corridos o en días calendario, siendo lo más común dibujarlo en días corridos con
una escala paralela que indicalos días calendario.
34
Un ejemplo de un diagrama calendario en fecha temprana sería:

Los pasos para confeccionar un diagrama calendario son:


• Trazar tantas líneas verticales como unidades de tiempo dure el proyecto.
• Indicar el Camino Crítico por medio de arcos trazados con línea llena gruesa.
• Trazar, con arcos de línea llena fina, las tareas no críticas. Para ello considerar la fecha
más temprana de inicio (Fi).
• Completar con líneas de trazo discontinuo las holguras, concretando con líneas
verticales las conexiones a los nodos, para evitar confusiones.

Una vez confeccionado el diagrama, se pueden observar el momento en el tiempo en


que se deberá efectuar cada tarea, y los márgenes que poseen las actividades nocríticas
para efectivizar su realización sin modificar la duración total del proyecto.
El análisis del diagrama y el conocimiento de la calidad y cantidad de RR requeridos
para las distintas tareas permitirán comenzar a programar definitivamente el proyecto.
Una vez hecha la programación definitiva -y volcada la misma a otro diagrama
calendario- los trazos discontinuos horizontales que se observen indicarán claramente
dóndeexisten holguras, de qué valor son, y cómo se podría alterar el desarrollo de las
tareas subsiguientes en el caso de que se excedan los márgenes disponibles.
Lo mencionado pone de manifiesto la necesidad de utilizar este tipo de diagramas en la
programación, reprogramación y control de proyectos.

Diagrama de carga de recursos


El diagrama calendario indica claramente las tareas a acelerar para concluir el proyecto
en la fecha predeterminada, y es la base para construir los diagramas de carga de RR.
Las distintas tareas requieren simultáneamente varios tipos de recursos y es necesario
conocer el programa de utilización de los mismos a lo largo del proyecto. Los diagramas
de carga permiten visualizar la necesidad de recursos por unidad de tiempo (es decir,
cuantos RR se usarán en cada una), y se construyen teniendo en cuenta el diagrama
calendario y las necesidades de recursos por unidad de tiempo para c/ u de las tareas.

35
Se puede expresar de dos formas: tabular y gráfico de barras:

Cada celda de la fila total tiene la suma de todos los valores que hay en la columna
correspondiente. Tales sumas sirven para elaborar el gráfico de barras para cada unidad de
tiempo. C/u de ellas (barras) indicará la cantidad de recursos que se requieren en cada una
de las unidades de tiempo, desde que se inicia con el proyecto hasta que éste se finaliza.

Ejemplo de aplicación
Se tiene el proyecto cuyo diagrama calendario en fecha temprana se detalla a
continuación:

Con el fin de simplificar el problema,


supongamos que se necesita solo un tipo de
recurso, cuyas necesidades diarias se indican
en la siguiente tabla:

36
A partir de los datos de la tabla y el diagrama calendario, podemos expresar la
información mediante un diagrama de carga de recursos tabular: un cuadriculado en el
que se coloca para cada tarea (indicada en su margen izquierdo) la cantidad de recursos
que requiere en cada instante de tiempo en el que se extienda dentro del proyecto. La fila
“Total” muestra el requerimiento del proyecto en cada una de las unidades de tiempo en
que se ejecutará. El diagrama se expone a continuación:

Con estos últimos datos, se puede proceder a la construcción del Diagrama de Carga
de Recursos como gráfico de barras para el proyecto programado en fecha temprana.
Se refleja simultáneamente el tiempo (en abscisas) y la cantidad de recursos requerida por
día (en ordenadas) y se observar en correspondencia con el diagrama calendario en fecha
temprana, coincidiendo las unidades de tiempo del grafo y del cuadro de tabla previa al
párrafo:

En el diagrama podemos ver que el recurso no se utilizará parejo. Existen dos formas
para conseguir un recurso: adquirir dinámicamente las cantidades necesarias en cada
unidad de tiempo, o proveerse al inicio –y permanentemente– del máximo a utilizar (10 en
37
este caso). En el primer caso puede surgir la imposibilidad de obtener los recursos al
momento de necesitarlos, un cambio imprevisto en los precios, etc. En la segunda
modalidad, debería destinarse a otros proyectos la capacidad de recursos no utilizada,
representada en las áreas II y III; el problema es que si no existiesen, se produciría
capacidad ociosa. Una posible tercera alternativa consistiría en mejorar el empleo de la
mano de obra en este mismo proyecto.

El porcentaje de aprovechamiento de recursos


Consiste en un ratio calculado mediante el cociente entre las unidades de tiempo-
recurso de trabajo efectivo y las unidades de tiempo-recurso necesarias para cubrir el
trabajo de pico. Las unidades de tiempo-recurso necesarias para salvar el pico son los
recursos disponibles que se deben poseer si se supone que ese elemento no se prestará ni
solicitará a otros proyectos o secciones de la organización (en otras palabras, es la
cantidad de RR que se necesitarían si suponemos que contamos para todas las unidades
de tiempo con la cantidad máxima de recursos que se programa utilizar en una unidad de
tiempo dada, en este caso, 10). Está claro que el cociente entre lo necesario y lo disponible
da un índice de eficiencia en la utilización del recurso, que es el denominado porcentaje
de aprovechamiento. Y la diferencia entre la unidad y dicho valor obviamente expresa el
porcentaje de ociosidad, siempre que no haya transferencia a otros proyectos.
Para este caso el cálculo sería:
𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻 𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆
% 𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒗𝒗𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆 𝒅𝒅𝒅𝒅𝒅𝒅 𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓 = × 𝟏𝟏𝟏𝟏𝟏𝟏
𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻𝑻 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑 𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑
𝟗𝟗. 𝟐𝟐 + 𝟔𝟔. 𝟏𝟏 + 𝟓𝟓. 𝟑𝟑 + 𝟏𝟏𝟏𝟏. 𝟐𝟐 + 𝟒𝟒. 𝟒𝟒 𝟕𝟕𝟕𝟕
% 𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂. = × 𝟏𝟏𝟏𝟏𝟏𝟏 = × 𝟏𝟏𝟏𝟏𝟏𝟏 = 𝟔𝟔𝟔𝟔, 𝟓𝟓𝟓𝟓%
𝟏𝟏𝟏𝟏. 𝟏𝟏𝟏𝟏 𝟏𝟏𝟏𝟏𝟏𝟏
También es posible calcular un promedio diario de utilización del recurso, con el
coeficiente entre las unidades de tiempo-recurso de trabajo efectivo y el número de
unidades de tiempo:
𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼 𝒅𝒅𝒅𝒅 𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕 − 𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓 𝒅𝒅𝒅𝒅 𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕 𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆𝒆 𝟕𝟕𝟕𝟕 𝒅𝒅í𝒂𝒂𝒂𝒂 − 𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓
=
𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝒔𝒔 𝒅𝒅𝒅𝒅 𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕𝒕 𝟏𝟏𝟏𝟏
𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷𝑷 𝒅𝒅𝒅𝒅𝒅𝒅𝒅𝒅𝒅𝒅𝒅𝒅 𝒅𝒅𝒅𝒅 𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖𝒖ó𝒏𝒏 𝒅𝒅𝒅𝒅𝒅𝒅 𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓𝒓 = 𝟔𝟔, 𝟐𝟐𝟐𝟐 𝒖𝒖�𝒅𝒅í𝒂𝒂 𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑𝒑
Un % muy bajo de aprovechamiento del recurso obliga a observar si existe una mejor
asignación que incremente tal % y a la vez lleve a una carga más pareja del recurso.
No se desarrollarán en este texto métodos específicos ideados para programar
asignación de recursos -como procedimiento MAP, algoritmos de Burguess y de Brooke,
etc.-. En su lugar,un pequeño análisis intuitivo sobre el diagrama calendario (y utilizando
planillas de cálculoelectrónico o software específico de administración de proyectos)
permitirá realizar desplazamientos de tareas que aumenten la efectividad de utilización del
recurso enconsideración.
38
A continuación se expone un diagrama calendario que ha mejorado el diagrama de
cargas de recursos al disminuir zonas de ociosidad (comparar con los anteriores):

39
Se modifica el momento de ejecución de las tareas no críticas aprovechando la holgura
que presentaban las tareas A y D en conjunto; es decir, ninguna de esas actividades
comienza en su fecha más temprana de inicio. Esto descomprime la demanda del recurso
en los días que tenían pico de demanda, los días 7 y 8, siendo ahora la máxima cantidad de
recursos diarios 8.
Los cambios generan un aumento del porcentaje de aprovechamiento:
𝟕𝟕. 𝟐𝟐 + 𝟔𝟔. 𝟏𝟏 + 𝟓𝟓. 𝟑𝟑 + 𝟖𝟖. 𝟐𝟐 + 𝟔𝟔. 𝟒𝟒 𝟕𝟕𝟕𝟕
% 𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂𝒂. = × 𝟏𝟏𝟏𝟏𝟏𝟏 = × 𝟏𝟏𝟏𝟏𝟏𝟏 = 𝟕𝟕𝟕𝟕, 𝟏𝟏𝟏𝟏𝟏𝟏%
𝟖𝟖. 𝟏𝟏𝟏𝟏 𝟗𝟗𝟗𝟗

6) Aplicación de Simulación al PERT


Las limitaciones o restricciones que presenta la administración de proyectos con
tiempos inciertos mediante PERT vistas anteriormente, podrían ser resueltas mejorando el
modelo teórico, lo que puede solucionarse a través de técnicas de simulación (tema que
veremos más adelante en la UNIDAD V). Son de utilidad cuando se analiza un proceso en
el que no es posible experimentar con la realidad, y en su lugar se simula el
comportamiento real del fenómeno bajo análisis. A tal fin se requerirá información de éste;
como, por ejemplo, conocer estadísticamente sus componentes, ya sea aplicando alguna
distribución teórica o las que surjan de la experienciaanterior y que se reflejarán mediante
frecuencias relativas.
Adoptada una distribución para una determinada variable se tendrá su distribución de
densidad f (x) , la que permite hallar la distribución acumulativa F (x) , con la cual se podrá
trabajar con el método de Montecarlo para obtener muestras artificiales.
Los siguientes gráficos muestran ambas distribuciones para una variable x cualquiera:

En general, el proceso de simulación de una variable aleatoria se sintetiza en la siguiente


secuencia, cuyos 3 primeros pasos están incorporados en la segunda gráfica:
1) Elegir un número aleatorio, por ejemplo de 2 cifras, de una población uniforme.
2) Representarlo en el eje de probabilidad de la función de distribución o acumulativa,
efectuando las transformaciones convenientes. Por ejemplo, si se elige el número 56, se lo
transforma en 0,56, y se lo ubica en el eje de ordenadas.
3) Intersecar la proyección horizontal del valor hallado con la curva de la función graficada,
determinando la abscisa correspondiente, es decir, el valor X simulado para la variable x.

40
4) Repetir los tres primeros pasos las veces necesarias en función del número de muestras
a extraer.

En algunos casos -y para facilitar el cálculo manual-, a diferencia del caso general
descripto anteriormente, las tablas de números aleatorios utilizadas responden a
distribuciones standard. Tal el caso de Normal o Beta, en que el valor aleatorio que
proporciona la tabla es eldesvío con respecto a la media, que deberá multiplicarse por el
desvío standard de la variablea simular y sumarse al valor medio.
Cuando se analiza la duración de un proyecto y se desea aplicar una distribución Beta
utilizando la tabla mencionada, se obtendrá el valor del desvío, designándoselo β. Luego,
se tiene como valor simulado para la duración de la tarea T:
𝒅𝒅′𝒆𝒆 = 𝒅𝒅𝒆𝒆 + 𝝈𝝈𝒅𝒅 . 𝜷𝜷
Como vimos, al aplicar PERT se admitió como válida considerar que las duraciones de
las tareas se ajustaban a una distribución Beta de Euler. Al hacer uso de las técnicas de
simulación también se admite tal razonamiento, aunque se pueden considerar distintas
distribuciones para distintas tareas, según las duraciones obtenidas de la experiencia con
tareas similares (Normal, Beta, Triangular, Uniforme, frecuencias relativas, etc.) y aplicarlas
consecuentemente al simular laduración de la tarea correspondiente.
Para simplificar el ejemplo, se supondrá una distribución Beta de Euler para las
duraciones de todas las tareas.Se simulará la duración de cada tarea utilizando una tabla
que contiene valores aleatorios de los desvíos con respecto a la media de dicha función β
de Euler. Deberá multiplicarse ese valor aleatorio por el desvío estándar de la variable a
simular y sumarse (recordar que los números aleatorios pueden ser negativos o positivos)
al valor medio, para tener la duración simulada de la tarea.
En un proyecto puede existir una ruta que si bien no es crítica s/ los datos aplicados, su
valor es muy cercano a la duración mínima del mismo, denominadaruta semicrítica. Dicho
razonamiento lleva a pensar que tal ruta puede llegar a ser crítica, y como tal, condicionar
la duración del proyecto, al aplicarse distintos valores al azar para la duración esperada
(d e ) de cada tarea.Es conveniente evaluar la probabilidad de que exista otro camino
distinto del crítico que obligue a controlar la ejecución de sus tareas, lo cual se obtendrá
mediante el porcentaje de veces que tal camino es crítico a lo largo de las simulaciones.
La simulación consiste en tomar una gran cantidad de muestras al azar de valores de la
Distribución β, obtener duraciones aleatorias de las tareas y, consecuentemente, una
distribución de los tiempos esperados de finalización del proyecto. Se estimará la duración
delproyecto mediante una serie de ensayos o muestras artificiales.
Como el tiempo más probable (d m ) de ejecución de una tarea no siempre es simétrico
respecto de los tiempos optimista (d o ) y pesimista (d p ), usualmente se aplican tres tablas
de la función β de Euler, según sea d m equidistante de los otros dos o esté más próximo a
alguno de ellos que al otro.
41
Resumen
Aunque se da por supuesto que se aplica la distribución β de Euler, en este caso no es
necesario atarse a esta función. Se pueden considerar distintas distribuciones para distintas
tareas: Normal, Beta, Triangular, Uniforme, frecuencias relativas, etc.
Si bien hoy en día existen programas de computación que permiten realizar
simulaciones de manera sencilla, para el caso en que se opte por un proceso manual de
simulación de la duración de un proyecto el mismo puede sintetizarse en lo siguiente:
1. Indagar qué distribución aleatoria ajusta a la duración de cada tarea T. Obtener
fórmulaque la rige y acumulativa. Para el caso deβy para simplificar cálculos, puede
aplicarse una tabla especial de desvíos.
2. Para la duración de la tarea, extraer los números equiprobables y aplicar las fórmulas
quecorrespondan en cada caso.
3. Repetir el proceso para cada una de las tareas hasta completar la red.
4. Obtener la duración del proyecto que corresponda al ensayo, definiendo un camino
crítico.
5. Repetir el proceso tantas veces como sea necesario. Esta cantidad de experimentos es
un problema de determinación de tamaño de muestra, para lo que se aplican
losconocimientos adquiridos en Estadística. Tal tamaño dependerá del grado de
confianza quese desee.
6. Finalizadas las muestras se puede obtener:
a) Probabilidad de cada que cada camino sea crítico.
b) Distribución que sigue la duración del proyecto y parámetros que la caracterizan.
c) Análisis de la probabilidad de cumplimiento del proyecto antes de determinada fecha
d) Grado de criticidad de cada tarea (% de veces que resulta crítica).
e) Distribución seguida por la fecha de cada nodo (temprana o tardía)

Ejemplo de aplicación
Dado el proyecto cuya red se presenta, con duraciones en días, se procederá a realizar
las simulaciones correspondientes y obtener conclusiones.

42
Esta tabla presenta la información obtenida de la red aplicando PERT y de algunos
procesos de simulación. Es importante hacer ciertas aclaraciones:
1. Las columnas encabezadas con la leyenda “PERT” responden a cálculos con datos reales
trasladados a la red.
En primer lugar corresponde determinar los tiempos medios esperados (d e ) de cada una
de las tareas, utilizando para ello las tres duraciones (d o d m y d p ) que las caracterizan.
También con dichos datos se pueden obtener la varianza (σ2 d ) y desvío estándar (σ d ) de
cada tarea.
Con toda la información, se calculan las fechas más tempranas y tardías, tanto de inicio
como de terminación, y se halla el camino crítico y el tiempo mínimo esperado (D e ) en el
que puede terminarse el proyecto. Vale aclarar que el desvío estándar del proyecto no es
la suma de los desvíos estándares de las tareas críticas, sino que, por el contrario, es igual a
la raíz cuadrada de la suma de las varianzas de aquellas. En el ejercicio, se estima una
duración de 38,8 días según el camino crítico (ruta A-B-F-I-J) con un desvío estándar 1,7
(=�2,88), mientras que el semicrítico A-D-G-I-J dura 38,2 (notar que en este camino las
tareas no críticas tienen una holgura poco significativa, lo que hace que puedan llegar a
ser críticas en la simulación). La probabilidad de terminar el proyecto en 41 días o menos
se estima en 0,903.
2. Los otros tres grupos de columnas contienen los cálculos de las tres simulaciones.
3. Las columnas encabezadas con Crít? y Semi se utilizarán, respectivamente, para marcar
si la tarea ha resultado crítica o semicrítica.

En la tabla las columnas identificadas con F1 C1, F18 C3, y F18 C4 referencian a los
números de fila y columna de las tablas de números aleatorios de la función Beta donde
arranca la selección para las simulaciones efectuadas. Esta selección es arbitraria, y podría
ser,en sí misma, hecha aleatoriamente (por ejemplo, mediante un sorteo).En tales
columnas se registrará el valor aleatorio obtenido, que simbólicamente se representará con
laß (do,dp) . Dicho valor se multiplicará por el desvío estándar obteniendo así el desvío

43
simulado, el cual se sumará a la media (d e ) consiguiéndose así la duración simulada para
cada tarea. Luego de ello se volverán a calcular las fechas (tempranas y tardías) y se volverá
a determinar el camino crítico y semicrítico (que pueden o no coincidir con los obtenidos
con la técnica PERT).
Llevada a cabo una simulación, se repetirán los mismos pasos para construir tantas
simulaciones como sean necesarias en función de la muestra. A continuación se expondrán
ocho procesos de simulaciones más:

Si bien es un número escaso de pruebas, servirá para ilustrar los pasos posteriores que
corresponde ejecutar con la técnica en estudio.A continuación se asume que el número de
simulaciones es adecuado como para obtener conclusiones valederas. Es decir, a los
efectos de los análisis, se supone que setiene cantidad suficientemente grande de
estimaciones simuladas de duración del proyecto.
Con los valores obtenidos y la información recopilada mediante las simulaciones, se
forma una serie de frecuencias. Los valores se agrupan en intervalos de 1 unidad y
obtienen los resultados resumidos en la tabla de la siguiente página:

44
Podemos ver que los tiempos esperados obtenidos por simulación se agrupan en forma
aproximadamente normal.
Con esa tabla de frecuencias es factible obtener los parámetros que caracterizan a la
distribución de probabilidad de la duración total del proyecto: tiempo esperado simulado
(D e =40,14 días) y varianza (σ2 D =0,78). Con estos valores el cálculo de la probabilidad de
terminar el proyecto en 41 días o menos, da un valor p (D<41) =0,84. Si se compara con la
primera estimación hecha con PERT (p (D<41) =0,90), se ve la influencia de la aleatoriedad de
los datos (reflejada en las varianzas de las duraciones de tareas) que ha sido tenida en
cuenta en las duraciones simuladas del mismo proyecto.
Otro análisis: la muestra de tamaño n=11 simulaciones tuvo tres casos en los que la
duración del camino semicrítico según PERT (A-D-G-I-J) supera al camino crítico original
(A-B-F-I-J). Es decir, existe una probabilidad de 3/11 (27%) de que al ejecutarse el
proyecto se vuelvacrítica una ruta que, en principio, no lo es. Esto da una probabilidad
relativamente importantede que se llegue a esta situación, motivo por el cual puede ser
necesario mantener un controlpor excepción sobre las tareas semicríticas al momento de
la ejecución del proyecto.

UNIDAD III: Inventarios


1) Conceptos fundamentales. Modelo con costos proporcionales
La importancia de los inventarios y cuestiones relativas a su gestión
Podríamos definir a “Inventarios” o stocks al conjunto de bienes que están ociosos o
almacenados a la espera de su utilización, la cual puede consistir en uso, consumo,
incorporación a producto terminado, venta o descarte. El concepto puede ampliarse y
abarcar a elementos que de ordinario no se incluiríanen tal tipificación, tales como:
cantidad de dinero a tener disponible en una caja de un banco;cantidad de asientos para
satisfacer la demanda de una empresa de transporte de pasajeros.

45
En la mayor parte de las organizaciones, los gastos correspondientes al financiamiento y
conservación de los inventarios son parte importante del costo del negocio, lo que obliga
a controlarlos y administración. Antes de examinar los detalles de la administración de
inventarios, vale destacar ciertas ventajas de tener grandes inventarios:
 Para evitar escasez. Cuando se conoce la demanda futura de un artículo y se puede
confiar en las entregas puntuales de un proveedor, siempre puede colocar pedidos de tal
forma que se satisfaga toda la demanda sin necesidad de un inventario. No obstante, la
incertidumbre en la demanda o las entregas atrasadas pueden producir escasez si no se
mantiene un inventario suficiente.
 Para aprovechar las economías de escala. Al solicitar grandes cantidades, una empresa
puede obtener sus suministros a un costo menor. Además esto implicaría colocar menos
pedidos, lo que lleva a reducir los costos administrativos.
 Mantener un flujo de trabajo continuo en un medio de producción de múltiples etapas.
En empresas productoras de bienes que exigen un proceso productivo de varias etapas,
cuando las tasas de producción varían en las distintas fases del proceso, mantener
inventarios de trabajo en proceso puede mantener operaciones continuas e independizar
así el funcionamiento de cada departamento. Se entiende por inventario de trabajo en
proceso al conjunto de artículos terminados en una etapa de un proceso de fabricación
que se usan como inventario para la siguiente etapa.

Cada una estas razones justifica el hecho de tener grandes inventarios a la mano. Sin
embargo, los artículos ociosos de inventario inmovilizan fondos que de otra forma podrían
usarse o invertirse para obtener ganancias. Incluso algunos artículos son perecederos, es
decir, poseen una vida de estante limitada, lo que puede llevar a perder materiales.
Ante estos factores, para poder definir el tamaño adecuado y el manejo correcto de los
inventarios, es necesario hacer uso de la administración de inventarios, técnica que ayuda a
los gerentes a evaluar estas transacciones para lograr responder las siguientes preguntas:
a) ¿Qué bienes se mantendrán en inventario?
b) ¿Dónde se alojarán tales bienes dentro del sistema logístico?
c) ¿Qué cantidad de bienes de cada tipo será adecuado almacenar?
d) ¿De qué manera se los debería mantener? (MP, PP, PT, etc.)
e) ¿Cada cuánto tiempo se comprará cada elemento y cuánto se comprará en c/ ocasión?

Para atender las anteriores cuestiones, han ido surgiendo distintos modelos y
metodologías de gestión, entre las que se destacan:
CEP (en inglés EOQ, Economic Order Quantity) o Cantidad Económica de Pedido o
Tamaño de Lote Óptimo, y sobre lo cual se volverá más adelante en mayor detalle;
PRM(MRP, Material Requirements Planning) o Planeación de requerimientos de
materiales;
DRP(Distribution Requirements Planning) o Planeación de los requerimientos de
distribución;
46
JAT(JIT, Just-In-Time) o Justo a Tiempo: método que procura minimizar los inventarios
reduciéndolos a lo necesario en el momento apropiado en que son requeridos;
VMI(Vendor Managed Inventory): modalidad de aprovisionamiento basada en el acceso
que los proveedores tienen sobre los datos de inventario de sus clientes, de
maneraque pueden generar orden de provisión por sí mismos.
CPFR(Collaborative Planning, Forecasting and Replenishment) o Planeamiento,
Pronóstico y Reaprovisionamiento Colaborativos: práctica que combina la
inteligencia de múltiplesparticipantes en un negocio para satisfacer la demanda de
un cliente, apuntandoa la reducción de inventarios y costos de logística y
transporte. Constituye la evoluciónde VMI a un grado superior.
SCM(Supply Chain Management) o Cadena de suministros.

Cada uno de estos métodos apuntó a solucionar debilidades que mostraban los pre-
existentes,en un intento por mejorar la gestión de los inventarios.
Dicha gestión adquiere relevancia cuando se observa que los inventarios: pueden
condicionar la situación financiera de una organización; facilitan o dificultan el proceso de
una línea de producción; influyen sobre la opinión que los clientes pueden tener de una
empresa; permiten alos socios (dueños) y terceros tomar decisiones tras analizar índices o
ratios de un estado contable en los que participan stocks, etc.
En general puede decirse que una organización tiene una cierta cantidad de inventario en
forma temporaria, pero a lo largo del tiempo el mismo presenta fluctuaciones por utilización
y reposición que hacen que, en realidad, se cuente con un inventario permanente.
Podemos decir entonces que existe dos factores influyen en el armado de un modelo: la
obtención de los bienes y la atención de la demanda.
La demanda real puede tener variaciones estacionales, o ser estable en el tiempo, o
ajustarse a una distribución probabilística, o bien tener un comportamiento totalmente
aleatorio e impredecible. La mayoría de las veces la decisión de abastecimiento debe
tomarse con anticipación sin conocer cómo actuará la demanda.
Respecto de la obtención de los bienes es importante considerar: tiempo de
reaprovisionamiento una vez solicitados los mismos; modalidad de reaprovisionamiento
(instantánea o constante a lo largo del tiempo); si se trata de producción interna o responde
a un proveedor externo; políticas de ventas y precios de los proveedores; entre otras.
Podemos concluir que la conjunción de ambos factores genera una gran variedad de
formas de gestionar los inventarios, con mucha incertidumbre en varios de los casos.

Características de los modelos de inventarios


Antes analizar los distintos modelos, resulta conveniente exponer las diferentes
características que los componen, las cuales influyen en el análisis matemático usado al
determinar la mejor forma de administrar los inventarios.
Entre ellas tenemos:

47
1. Demanda independiente y dependiente
Al considerar la administración del inventario de varios artículos diferentes, se debe
determinar si existe o no relación entre ellos:
o Demanda independiente: dos o más artículos en los que la demanda de un artículo no
afecta la demanda cualquiera de los demás.
o Demanda dependiente: dos o más artículos en los que la demanda de un artículo
determina o afecta la demanda de uno o más de los otros artículos

Los modelos que veremos se ajustan a una demanda independiente. La administración


de inventarios que implican demanda dependiente requiere de la técnica MRP.

2. Demanda determinística y probabilística


Una demanda independiente puede, a su vez, clasificarse en:
o Demanda determinística: la demanda del artículo por período se conoce con certeza.
o Demanda probabilística: la demanda del artículo por período está sujeta a una
cantidad de incertidumbre y variabilidad. En sí, se trata de una demanda incierta.

3. Déficits
Determinar cómo mantener los niveles de inventario es una cuestión crítica si se
permiten los déficits, o también llamados faltantes. Es decir, analizar si es admisible que un
artículo se termine. Entonces, un déficit es aquella circunstancia en la que el inventario
disponible resulta insuficiente para satisfacer la demanda.
En el caso que se permitan, es necesario saber cómo se manejan. Puede constituir una
venta perdida o un pedido no surtido.

4. Tiempos líderes
Cuando se solicita un pedido para reabastecer los inventarios, existe un retraso,
denominado tiempo líder, en la recepción de esos bienes enviados por el proveedor. De
igual forma que la demanda, estos tiempos pueden ser determinísticos (el tiempo de
entrega se conoce con certeza) o probabilístico (el tiempo de entrega es incierto). Es
importante considerar estos tiempos al decidir cuándo ordenar los inventarios, ya que la
demanda de los clientes en dicho período continúa.

5. Descuentos cuantitativos
Cuando los inventarios son reabastecidos mediante proveedores externos, la cantidad
pagada por artículo puede depender del tamaño de ese pedido, es decir, pueden existir
descuentos comerciales por cantidad: mientras más artículos se ordenen, menor es el
costo unitario de cada uno de ellos. Este factor afecta a la política de pedidos, ya que
puede resultar conveniente realizar pedidos grandes con menor frecuencia, siempre y
cuando lo ahorro compense los costos adicionales de almacenar más mercadería.

48
6. Política de pedidos
Existen dos estrategias básicas en la determinación de cuándo y cuánto ordenar:
o Pedido de artículos en intervalos de tiempo fijos: la cantidad a ordenar está
determinada por el nivel de inventario en el momento en que se coloca el pedido, por
lo que la cantidad pedida cada vez varía. Esta política de pedido también se llama
revisión periódica, ya que es necesario controlar el nivel de inventario en puntos fijos
de tiempo para determinar cuánto ordenar.
o Pedido de un número fijo de artículos cuando el inventario llega a un cierto nivel
previamente especificado, denominado punto de nuevos pedidos. En este caso la
cantidad pedida siempre es la misma, siendo el tiempo entre los pedidos el que puede
variar. Esta política también se denomina revisión continua, debido a que requiere una
comprobación constante del inventario para determinar cuándo se alcanza el punto de
nuevos pedidos.

Los costos en la gestión de inventarios


Como la gestión de inventarios se trata de un modelo normativo o de optimización,
resulta conveniente definir y analizar aquellos aspectos que afectan a la función a optimar,
es decir, los costos, los que se clasifican en:
1. Costo de adquisición: es el precio unitario que debe pagarse por el artículo o elemento
adquirido, en el caso que sea suministrado por proveedores externos.En un bien
manufacturado por quien administra los inventarios incluirá todos los costos
incorporadosal bien en cuestión, excepto los clasificados como “de obtención”.Vale
recordar que puede tenerse inventarios de MP, PP, PT, etc.
2. Costo de obtención: tiene su origen en ordenar, reordenar o reponer el inventario.
También se puede distinguir entre los casos de adquisición o producción. Para el 1° caso en
este costo se consideran los provenientes de las actividades administrativas necesarias para
conseguir el objetivo propuesto: procesar la orden, pago de la cuenta, auditoría, recepción
de bienes y devolución de defectuosos, registros, etc. Para el 2° caso se consideran los
costos de puesta en marcha, preparación de equipos, interrupción de un proceso para
reconfigurar la línea, etc.; los que pueden considerarse como costos de ordenar.
En general se conviene que estos costos surgen cada vez que se ejecuta una orden, en
importes constantes independientes de la cantidad ordenada.
3. Costo de mantenimiento: consiste en el costo de mantener inmovilizados los bienes en
los depósitos e instalaciones de la organización durante un cierto tiempo. Se caracteriza
por variar en función del monto de los bienes almacenados y de tiempo que permanecen.
Se incluyen los costos por almacenamientoen función de las unidades monetarias que
se asignen por período a cada unidad de almacén -$/m2, $/m3, etc.- y del tipo de almacén
silos, galpones, cámaras de frío, playas, etc.-), costos de servicios (complementarios de los
por almacenamiento, siendo ejemplos los seguros y los impuestos), costos por riesgos
(asociados a sustracciones, pérdidas, deterioros, obsolescencia, etc., de carácter aleatorio) y
49
costos de capital (derivados de las utilizaciones alternativasque podrían tener los fondos
aplicados a bienes que se almacenan, si se trata defondos propios; o bien los cargos por
intereses pagados si los inventarios se adquirieron confinanciación externa).
Una práctica común con este tipo de costos es acumularlos para calcular un promedio
porunidad almacenada, de manera que se los pueda expresar en base a unidades
monetarias por cada unidad monetaria de inventario, o bien como porcentaje de cada
unidad monetaria mantenida.Debe tenerse cuidado cuando la distribución se hace
incluyendo ítems de diversa calidad, requerimientos de manipulación, fragilidad, etc., dado
que puede incurrirse en distorsiones al ponderar todos los factores de la misma forma; en
tales circunstancias es conveniente la agrupación por bienes más o menos homogéneos
para hacer la distribución.
4. Costo de ruptura:a la inversa del costo de mantenimiento, se incurre en este tipo de
costocuando no se tiene inventario o no se tiene suficiente para satisfacer adecuadamente
lademanda.Los conceptos incluidos en este tipo de costo son muy variados: registro y
gestión de pedidos pendientes de entrega, costos extras por entregas no programadas,
penalizaciones implícitas por insatisfacción de los clientes y por ventas perdidas, escasa
retención de clientes con la consiguiente pérdida de ingresos a futuro, costos por
demoras, interrupciones y ociosidad en la cadena productiva, etc. En sí, se reconocen
cuatro situaciones posibles:
a. Acumulación de pedidos: el cliente esperará la entrega hasta que se repongan los
inventarios faltantes, es decir, surgen pedidos pendientes.
b. Ventas perdidas:el cliente desiste y decide cancelar el pedido, lo cual implica la
pérdida de posibles ingresos.
c. Clientes perdidos:si bien requierede análisis más detallados basados en técnicas de
marketing, puede llegar a determinarseen qué proporción los clientes no retenidos lo
son a causa de la falta de inventarios.
d. Interrupciones en cadena de suministros: ocurre cuando una de las fases de un
proceso de productivo se detiene por falta de materias primas o productos en proceso.

Debido a la gran diversidad de conceptos detallados, vale aclarar cuáles son los criterios
para que un ítem dado sea considerado costo en el modelo a confeccionar y qué tipo de
costo es. También se requiere establecer el origen del valor a considera y/o la base de
cálculo mismo y/o el criterio para valuarlo.
En general puede admitirse que un costo participará del modelo si es un costo
relativamente sustancial (relevante) y si es controlable, en el sentido de que sufra
alteraciones en su importecuando varíe la decisión a tomar.
Algunos de los costos descriptos se comportan de manera similar y otros en forma
opuesta; según las políticas de inventarios seguidas algunos son mucho más importantes
que otros en determinadas circunstancias.

50
MODELO I: Con costos proporcionales, demanda constante y reposición instantánea
Se trata del modelo más sencillo y se basa en un conjunto de simplificaciones que
facilitan el modelado, lo que hace casi imposible su puesta en práctica. A pesar de ello, su
importancia radica en el hecho que es vital para el planteamiento de los demás modelos.
Los supuestos del modelo son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Ilimitados
Descuentos Ninguno (=Costo de adquisición constante)
Demanda excedente Ninguna
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Uno

La reposición inmediata implica que no es necesario contar con un inventario de


protección, ya que se repone el total requerido en un solo instante (no hay
aprovisionamientos parciales a lo largo del tiempo).
La demanda conocida convierte al modelo en uno determinístico, y siendo constante y
continua no exige la necesidad de considerar costos por agotamiento.Ya se verá en detalle,
posteriormente, qué valor adopta este costo en este modelo.
En el siguiente gráfico, también conocida como “gráfico de dientes de sierra” básicamente
por su forma, se observa el comportamiento de un inventario bajo este modelo:

Sobre el eje de las abscisas se marca el tiempo:


a) Para toda la extensión, lo que en el modelo será el período de análisis
b) Para subdivisiones del período de análisis, que representan lo que se denominará
“período elemental”, medido en las mismas unidades que el período mayor, y que
coinciden con el momento en que las existencias se hacen nulas.

A medida que avanza el tiempo la demanda hace que las existencias disminuyan
constantemente hasta que se agotan, momento en el cual se repone instantáneamente
51
una cantidad fija igual a la existente al inicio del período elemental.La línea horizontal
representa el inventariopromedio mantenido a lo largo del período de gestión, que surge
de considerar para cada período elemental el promedio simple de los valores extremos de
existencias.
Dado que el modelo opera bajo el supuesto de revisión continua se está observando
permanentemente si se llega al nivel cero de inventarios y siempre se repone la misma
cantidad.Enel gráfico, se superponen dos funciones que responden a distintas políticas de
inventarios diseñadas p/ enfrentar la misma demanda sin alterar los supuestos expuestos:
1. Consiste en reponer mediante lotes pequeños realizando gran cantidad de pedidos
dentro del período bajo análisis (es decir, con mayor frecuencia se reabastece).
2. Consiste en reponer mediante lotes grandes realizando pocos pedidos (con una menor
frecuencia se reponen los inventarios).

De lo anterior podemos inferir que existen un sin número de alternativas de reposición,


lo que obliga a determinar cuál de ellas representa el menor costo total de gestión. Este
costo variará de la siguiente forma: en un caso extremo que tuviera únicamente un pedido
para el período completo se tendría que computar una sola vez el costo de obtención
(recordar que es invariablecon respecto a la cantidad comprada) mientras que, por
mantenerse un inventario promedio importante, se afrontarían costos de mantenimiento
elevados pues se calculan en función de tales existencias; a la inversa, realizar muchos
pedidos durante el período representaría un elevado costo por emisión de órdenes
aunque en tal caso el inventario promedio sería bajo, con lo que se reducirían
notablemente los costos de mantenimiento.

Parámetros y notación
D : demanda correspondiente al período sujeto a análisis (unidades/tiempo = kg/año,
kg/mes, m/año, etc.).
T : período de análisis (año, semestre, mes, días, etc.).
c a : costo unitario de adquisición del bien, en unidades monetarias. ($/Kg, $/m, etc.).
c o : costo de obtención. Es una suma fija ($) por cada pedido, independientemente de la
cantidad adquirida.
c m : costo unitario de mantenimiento, expresado en $/u por unidad de tiempo. Si proviene
de un porcentaje de valor promedio del inventario, se lo convierte a las unidades
t : período elemental de análisis. Fracción del período T, medido en igual unidad de tiempo.
n : tamaño del lote a adquirir, que está disponible al comienzo de cada período elemental t, y
que se consumirá en tu totalidad durante éste. Se expresa en las mismas unidades que D.

Costos intervinientes; determinación del lote óptimo n


Con los supuestos y elementos intervinientes ya definidos, podemos expresar la función
objetivo del modelo, la cual buscará minimizar el Costo Total de gestión para el período
analizado (recordar que se trata de un modelo normativo o de optimización).
52
La función de Costo Total se compone de: Costo de Adquisición, Costo de
Mantenimiento yCosto de Obtención (recordemos que por ser la demanda constante y
conocida, no existen costos de ruptura). En formula sería:
𝑪𝑪𝑪𝑪 = 𝑪𝑪𝒂𝒂 + 𝑪𝑪𝒐𝒐 + 𝑪𝑪𝒎𝒎
Cada uno de los componentes del costo total posee su propia fórmula para cada
período t:
𝟏𝟏
𝑪𝑪𝒂𝒂 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒐𝒐 𝑪𝑪𝒎𝒎 = 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝒕𝒕
𝟐𝟐
Si reemplazamos las tres expresiones en la fórmula anterior, el Costo Total para un
período elemental t sería:
𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒐𝒐 + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝒕𝒕 (𝟏𝟏)
𝟐𝟐
Para satisfacer la demanda de todo el período se necesita un cierto número de
adquisiciones (h) de n unidades cada una. Es decir, D = h . n, por lo que:

𝒉𝒉 = 𝑫𝑫�𝒏𝒏 (𝟐𝟐)
Ahora, a partir de la ecuación (1), considerando el Costo Total para todo el período a
planificar,en el que existen h períodos elementales de duración t.
𝟏𝟏
𝑪𝑪𝑪𝑪 = �𝒏𝒏 . 𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒐𝒐 + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝒕𝒕� . 𝒉𝒉
𝟐𝟐
Aplicando propiedad distributiva y reemplazando para T = h . t y h = D / n :
𝑫𝑫 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 . + 𝒄𝒄𝒐𝒐 . + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝒏𝒏 𝟐𝟐
𝑫𝑫 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒂𝒂 . + 𝒄𝒄𝒐𝒐 . + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝒏𝒏 𝟐𝟐
𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 (𝟑𝟑)
𝒏𝒏 𝟐𝟐
Podemos ver que la única incógnita (concepto cuyo valor desconocemos y buscamos
hallar) de la función objetivo es el tamaño del lote (n), el cual se tratará de optimizar (lote
óptimo).Entonces, los costos de mantenimiento y de obtención tienen importancia sobre la
decisión a tomar (en el primer factor del segundo miembro, el que refleja el costo de
adquisición, no interviene el tamaño del lote, por lo que el mismo será constante
independientemente del tamaño del lote a adquirir). La relación entre estos dos costos y el
tamaño del lote es asimétrica: el primero de ellos es una función hiperbólica (disminuye de
valor a medida que aumenta el de la variable independiente), mientras que el segundo es
una recta (aumenta devalor a medida que aumenta el de la variable independiente).
53
En la siguiente gráfica se observan todos los costos y el derivado CT:

De la gráfica trazada se puede inferir que la función de Costo Total tiene un valor
mínimo. Recurriendo a conocimientos de cálculo diferencial se puede determinar con
precisión para quévalor de la variable independiente (n) ocurre dicho mínimo.
El primer paso será reexpresar la función (3) de la siguiente forma:
𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . 𝒏𝒏−𝟏𝟏 + 𝒄𝒄𝒂𝒂 . 𝑫𝑫 (𝟑𝟑′)
𝟐𝟐
Ahora derivando con respecto a la variable n:
𝝏𝝏𝝏𝝏𝝏𝝏 𝟏𝟏
= . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 − 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . 𝒏𝒏−𝟐𝟐 + 𝟎𝟎
𝝏𝝏𝝏𝝏 𝟐𝟐
Expresión que igualaremos a 0 para encontrar el mínimo de la función de CT:
𝟏𝟏 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝟎𝟎 = . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 −
𝟐𝟐 𝒏𝒏𝟐𝟐
𝟏𝟏 𝒄𝒄𝒐𝒐 . 𝑫𝑫
. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 =
𝟐𝟐 𝒏𝒏𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝟐𝟐 =
𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝒐𝒐 = �
𝒄𝒄𝒎𝒎 . 𝑻𝑻
Y el tamaño de lote que se obtenga, por constituir el valor que optimiza el modelo, se
indicará con un subíndice especial (n o ). Al realizar la segunda derivada se obtiene un valor
positivo, lo cual confirma que el lote calculado genera el mínimo CT.

54
Particularidades de los costos para el tamaño de lote óptimo
Una conclusión interesante es la que se obtiene a continuación, a partir del reemplazo
de la variable n por su valor óptimo en la ecuación (3’).
−𝟏𝟏
𝟏𝟏 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝑪𝑪𝑪𝑪𝒐𝒐 = � . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐 . 𝑫𝑫 . � + 𝒄𝒄𝒂𝒂 . 𝑫𝑫
𝟐𝟐 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒎𝒎 . 𝑻𝑻

𝟏𝟏 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫 �𝒄𝒄𝒐𝒐 𝟐𝟐 . 𝑫𝑫𝟐𝟐 √𝟐𝟐


𝑪𝑪𝑪𝑪𝒐𝒐 = � . �𝒄𝒄𝒎𝒎 . 𝑻𝑻 +
𝟐𝟐 𝟐𝟐 . + 𝒄𝒄𝒂𝒂 . 𝑫𝑫
𝟐𝟐 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝟐𝟐 .𝒄𝒄 .𝑫𝑫 √𝟐𝟐
� 𝒄𝒄 𝒐𝒐.𝑻𝑻
𝒎𝒎

𝟏𝟏 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 𝟐𝟐 . 𝑻𝑻𝟐𝟐 𝟏𝟏 𝟐𝟐. 𝒄𝒄𝒐𝒐 𝟐𝟐 . 𝑫𝑫𝟐𝟐 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻


𝑪𝑪𝑪𝑪𝒐𝒐 = � + .� + 𝒄𝒄𝒂𝒂 . 𝑫𝑫
𝟐𝟐 𝒄𝒄𝒎𝒎 . 𝑻𝑻 √𝟒𝟒 𝒄𝒄 𝒐𝒐 . 𝑫𝑫

𝟏𝟏 𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 𝟐𝟐 . 𝑻𝑻𝟐𝟐 𝟏𝟏 𝟐𝟐. 𝒄𝒄𝒐𝒐 𝟐𝟐 . 𝑫𝑫𝟐𝟐 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻


𝑪𝑪𝑪𝑪𝒐𝒐 = � + .� + 𝒄𝒄𝒂𝒂 . 𝑫𝑫
𝟐𝟐 𝒄𝒄𝒎𝒎 . 𝑻𝑻 √𝟒𝟒 𝒄𝒄 𝒐𝒐 . 𝑫𝑫
𝟏𝟏 𝟏𝟏
𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + . �𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝟐𝟐 𝟐𝟐
Esta última expresión indica que, para el óptimo tamaño de lote, los costos de
mantenimiento (C m ) y de obtención (C o ) se igualan (segundo y tercer términos del lado
derecho), lo cual permite reescribir la fórmula del Costo Total para el lote óptimo como:

𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 (𝟒𝟒)


Otros conceptos de interés para la gestión
1. Período elemental de reaprovisionamiento y cantidad de ocurrencias en el período total.
Obtenido el lote óptimo, se puede calcular cuántos de esos pedidos será necesario
hacer: h o =D/n o . Y luego saber cada cuánto tiempo (o con qué frecuencia) se deben
hacer tales adquisiciones: t o =T/h o =( T.n o )/D.
2. Sensibilidad del modelo a cambios en los parámetros. Dado que se trata de un caso
determinístico cabe preguntarse con cuánta rigurosidad deben ser calculados los
parámetros, ya que se lo hace presuponiendo la inexistencia de cambios al momento de
aplicar el modelo. También podría analizarse qué efecto tiene no adoptar la decisión
recomendada por el modelo resuelto, sino aplicar algún valor de n o cercano al óptimo
pero no exactamente tal valor.
Cabe consignar que el modelo se presentarobusto y con el Costo Total poco sensible
a cambios ocurridos en: tamaño del lote (porejemplo, “redondeo” de cantidades),
55
cantidad demandada en el período (errores de pronóstico) y costos (errores en los
parámetros c o o c m ). Por tal motivo, es ampliamente utilizado a pesar de las importantes
rigideces que implican los supuestos en que se basa. (VER EJEMPLO DEL TEORICO)

2) Modelo con costos proporcionales, inventario de protección

MODELO II: Con costos proporcionales y cobertura de demanda excedente eventual


En este modelo se considera que la demanda tiene las características identificadas en el
modelo I(conocida y constante), aunque puede presentar fluctuaciones alrededor de un
promedio, y que la reposición no
llega a ser tan inmediata como
se estimó, incurriendo así en
demoras, lo que lleva a crear un
inventario de protección. En la
siguiente gráfica se puede ver el
comportamiento de la demanda;
la línea recta es la aproximación
que se utiliza para modelar
asumiendo demanda constante:
Los supuestos del modelo son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Ilimitados
Descuentos Ninguno (=Costo de adquisición constante)
Demanda excedente Eventual
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Uno

La gráfica de este modelo se expone en la página siguiente. Podemos ver que en cada
inicio de período elemental t se cuenta con un nivel S i de inventario, formado por el stock
de protección s p que está almacenado permanentemente y el lote que se adquiere n i . Este
último se va reduciendo a medida que se demandan unidades hasta que, al igual que en el
modelo I, se agota y vuelve a emitirse una orden de obtención. El stock s p queda de
resguardo ante la eventualidad de demoras en el abastecimiento o para hacer frente a
posibles fluctuaciones en la demanda.

56
Diferencias y similitudes con el modelo anterior
Resulta evidente que para este modelo debe incorporarse un cuarto término a la
función de CT del modelo anterior, que representa el costo derivado de contar con un
stock de protección: s p . c m . T.
La fórmula del CT quedaría:
𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + + 𝒏𝒏 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + 𝒔𝒔𝒑𝒑 . 𝒄𝒄𝒎𝒎 . 𝑻𝑻
𝒏𝒏 𝟐𝟐
No obstante, si bien varió la expresión del CT, al aplicar los procedimientos para obtener
el lote óptimo (derivar la función con respecto a la variable de decisión n) es evidente que
la derivada del nuevo término es nula, ya que es una constante. Por ende, la fórmula para
calcular n o es la misma que la del modelo anterior:

𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫
𝒏𝒏𝒐𝒐 = �
𝒄𝒄𝒎𝒎 . 𝑻𝑻
Como la cantidad de pedidos resulta de dividir la Demanda de todo el período por la
cantidadadquirida en cada oportunidad, también el valor de h es el mismo en ambos
modelos.Conclusión similar se tiene para la duración del período elemental t.
Difieren en que ahora el costo total (CT) es mayor que en el modelo I. Esta circunstancia
deriva de mantener permanentemente una cantidad adicional de artículos en el inventario
como medida precautoria. Se paga por la mayor seguridad de gestión.

3) Modelo de inventarios con agotamiento. Características y costos


Suponiendo la situación anterior (demanda con fluctuaciones y posibles retrasos para
reabastecimiento), otra alternativa de enfrentarla (en vez de contar con un nivel de
inventario de protección) consiste en aceptar el agotamiento, es decir, asumir el costo de
ruptura de stocks que surge al no contar con el inventario disponible suficiente para
satisfacer la demanda total.Dicho costo puede ser estimadoen función de los aspectos
comentados más arriba cuando se definió qué clase de conceptos se relacionan con él.

57
Permitir pequeños faltantes de existencias otorga la ventaja de alargar el período
elemental,disminuyendo en consecuencia el costo de obtención para todo el período. Sin
embargo, se debe ponderar debidamente hasta qué monto dicho ahorro es absorbido por
los nuevos costos de ruptura.

MODELO III: Con costos proporcionales y demanda excedente acumulada


En el presente modelo, ante la ocurrencia de demanda insatisfecha al final del período
elemental t, se considera que los pedidos pendientes de entrega se acumulan para ser
satisfechos cuando se reciba un nuevo lote, lo cual ocurrirá inmediatamente al ser
interpuesto el pedido.
Los supuestos entonces son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Ilimitados
Descuentos Ninguno (=Costo de adquisición constante)
Demanda excedente Admitida (= Existo costo de ruptura), Acumulable
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Uno
Como ya dijimos, la incorporación del costo de ruptura al modelo no es sencilla, ya que
no resulta siempre fácil su distinción y cuantificación.

Parámetros y notación (adicionales al modelo I)


S i : nivel de inventario al inicio del período elemental t, después de reaprovisionar n i unidades
t 1 :fracción del período elemental t durante la cual se agotan la S i unidades iniciales.
r i : nivel de stock al final del subperíodo elemental t 1 , indicativo de la cantidad de
unidades por las cuales se admite la falta de inventarios (déficit máximo) y representa a
los pedidos pendientes a acumular.
t 2 : fracción del período elemental t durante la cual se acumulan pedidos pendientes por
estar agotado el stock y a cuya finalización se reciben las r i unidades insatisfechas
(junto con las demás unidades que se consumirán en el próximo período elemental t,
que en conjunto conforman el lote a adquirir n i .
c r : costo unitario de ruptura/agotamiento del producto, por unidad de tiempo.

Determinación del lote óptimo


Para poder explicar el procedimiento a aplicar con el fin de hallar el lote óptimo a
adquirir que generará el mínimo costo total (CT), primeramente es conveniente analizar la
siguiente gráfica que refleja el comportamiento del inventario al que se ajusta este
modelo:
58
Se puede observar que durante el subperíodo elemental t 1 hay S i unidades iniciales, en
el nivel A de ordenadas, y el stock consume en su totalidad al final de dicho plazo, en el
punto B de abscisas. Entonces, la cantidad promedio de unidades se puede representar
con (S+0)/2, por lo que su costo de mantenimiento en el período elemental t 1 es igual a:
C m =((S+0)/2).c m .t 1
El subperíodo elemental t 2 , por su parte, inicia con 0 unidades en el punto B (a partir de
allí empiezan a acumularse pedidos pendientes) y al final acumula un déficit de r i
unidades, reflejadas en la ordenada del punto E. De manera similar, el número promedio
de unidades acumuladas a la espera de ser satisfechas se calcula con (0+r)/2, por lo que el
costo de ruptura que generan en el período elemental t 2 es: C r = ((0+r)/2) . c r . t 2
Con todo esto, podemos expresar la ecuación representativa del Costo Total para la
gestión con admisión de ruptura de stock para un período elemental t:
𝟏𝟏 𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + 𝑺𝑺𝒊𝒊 . 𝒄𝒄𝒎𝒎 . 𝒕𝒕𝟏𝟏 + 𝒓𝒓𝒊𝒊 . 𝒄𝒄𝒓𝒓 . 𝒕𝒕𝟐𝟐 (𝟓𝟓)
𝟐𝟐 𝟐𝟐
El inconveniente que se nos presenta radica en el hecho de que existe más de una
incógnita en la ecuación. Para solucionarlo, trataremos de expresar las variables S i y r i de
forma tal que sea posible unificar la variable de decisión del modelo.
Si observamos la gráfica del inventario de este modelo, podemos observar la siguiente
relación entre lados de triángulos semejantes:
�����
𝑴𝑴𝑴𝑴 �����
𝑴𝑴𝑴𝑴 𝒕𝒕 𝒏𝒏
= → =
�����
𝑶𝑶𝑶𝑶 ����
𝑶𝑶𝑶𝑶 𝒕𝒕𝟏𝟏 𝑺𝑺
El subperíodo elemental t 1 puede expresarse en función del período elemental t de la
siguiente forma:
𝒕𝒕. 𝑺𝑺
𝒕𝒕𝟏𝟏 =
𝒏𝒏

59
Análogamente en los triángulos BDE (idéntico a BEF) y AME:
����� ����
𝑩𝑩𝑩𝑩 𝑫𝑫𝑫𝑫 𝒕𝒕𝟐𝟐 𝒓𝒓
= → =
�����
𝑴𝑴𝑴𝑴 �����
𝑴𝑴𝑴𝑴 𝒕𝒕 𝒏𝒏
Pudiendo también expresar el subperíodo t 2 en función del período elemental t:
𝒕𝒕. 𝒓𝒓
𝒕𝒕𝟐𝟐 =
𝒏𝒏
Sabiendo que r=n-S y teniendo en cuenta todas estas relaciones, la función de CT
puede expresarse de la siguiente forma:
𝟏𝟏 𝒕𝒕. 𝑺𝑺 𝟏𝟏 𝒕𝒕. 𝒓𝒓
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + 𝑺𝑺𝒊𝒊 . 𝒄𝒄𝒎𝒎 . + 𝒓𝒓𝒊𝒊 . 𝒄𝒄𝒓𝒓 .
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
𝟏𝟏 𝑺𝑺𝒊𝒊 𝟐𝟐 𝟏𝟏 (𝒏𝒏 − 𝑺𝑺𝒊𝒊 )𝟐𝟐
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + . 𝒄𝒄𝒎𝒎 . 𝒕𝒕 + . 𝒄𝒄𝒓𝒓 . 𝒕𝒕 (𝟔𝟔)
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
Sabiendo que en el período completo hay h ciclos

𝟏𝟏 𝑺𝑺𝒊𝒊 𝟐𝟐 𝟏𝟏 (𝒏𝒏 − 𝑺𝑺𝒊𝒊 )𝟐𝟐


𝑪𝑪𝑪𝑪 = �𝒄𝒄𝒂𝒂 . 𝒏𝒏 + 𝒄𝒄𝒐𝒐 + . 𝒄𝒄𝒎𝒎 . 𝒕𝒕 + . 𝒄𝒄𝒓𝒓 . 𝒕𝒕� . 𝒉𝒉
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
𝟏𝟏 𝑺𝑺𝒊𝒊 𝟐𝟐 𝟏𝟏 (𝒏𝒏 − 𝑺𝑺𝒊𝒊 )𝟐𝟐
𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝒏𝒏 . 𝒉𝒉 + 𝒄𝒄𝒐𝒐 . 𝒉𝒉 + . 𝒄𝒄𝒎𝒎 . 𝒕𝒕. 𝒉𝒉 + . 𝒄𝒄𝒓𝒓 . 𝒕𝒕. 𝒉𝒉 (𝟕𝟕)
𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
Y si reemplazamos h . n = D, h = D/n, t . h = T :

𝑫𝑫 𝟏𝟏 𝑺𝑺𝒊𝒊 𝟐𝟐 𝟏𝟏 (𝒏𝒏 − 𝑺𝑺𝒊𝒊 )𝟐𝟐


𝑪𝑪𝑪𝑪 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + 𝒄𝒄𝒐𝒐 . + . 𝒄𝒄𝒎𝒎 . 𝑻𝑻 + . 𝒄𝒄𝒓𝒓 . 𝑻𝑻 (𝟖𝟖)
𝒏𝒏 𝟐𝟐 𝒏𝒏 𝟐𝟐 𝒏𝒏
Como vemos las variables independientes son dos (S y n), por lo que es necesario, para
hallar el óptimo de la función, realizar las derivadas parciales con respecto a ambas
variables, igualarlas a cero y posteriormente verificar el valor de la segunda variable
derivada (que si es positivo significa que lo obtenido es un mínimo).

𝝏𝝏𝝏𝝏𝝏𝝏
𝝏𝝏𝝏𝝏
= 𝟎𝟎 →𝒏𝒏𝒐𝒐 = �𝟐𝟐.𝒄𝒄𝒎𝒎𝒄𝒄𝒐𝒐. .𝑻𝑻𝑫𝑫 . �𝒄𝒄𝒎𝒎𝒄𝒄+𝒓𝒓 𝒄𝒄𝒓𝒓 (𝟗𝟗)

𝝏𝝏𝝏𝝏𝝏𝝏
𝝏𝝏𝝏𝝏
= 𝟎𝟎 →𝑺𝑺𝒐𝒐 = 𝒏𝒏𝒐𝒐 . 𝒄𝒄𝒎𝒎𝒄𝒄+𝒓𝒓 𝒄𝒄𝒓𝒓
60
𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓 𝒄𝒄𝒓𝒓
𝑺𝑺𝒐𝒐 = � .� .
𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓

𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓 𝒄𝒄𝒓𝒓 𝟐𝟐


𝑺𝑺𝒐𝒐 = � .� .
𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓 (𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓 )𝟐𝟐

𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒓𝒓


𝑺𝑺𝒐𝒐 = � .� (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓

Siendo n o el lote óptimo a adquirir al final de cada período elemental t, que servirá para
cumplir con los r i pedidos pendientes y a su vez satisfacer la demanda del período
elemental t 1 siguiente. S o refleja el máximo nivel de stocks que se puede tener al inicio de
cada período elemental t (si bien se compran n unidades, de esas se destinan r para
concretar los pedidos pendientes acumulados).
Para saber cada cuánto tiempo se realizará el reaprovisionamiento, sabiendo que t=T/h
y que h=D/n, tenemos que t=T . (n/D)

𝑻𝑻 𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓


𝒕𝒕𝒐𝒐 = � .�
𝑫𝑫 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓

𝑻𝑻𝟐𝟐 𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓


𝒕𝒕𝒐𝒐 = � 𝟐𝟐 . .�
𝑫𝑫 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓

𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑻𝑻 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓


𝒕𝒕𝒐𝒐 = � .�
𝒄𝒄𝒎𝒎 . 𝑫𝑫 𝒄𝒄𝒓𝒓

Con toda la información, y realizando los reemplazos correctos, se puede llegar a una
nueva y más resumida expresión de la función de Costo Total óptima.

𝒄𝒄𝒓𝒓
𝑪𝑪𝑪𝑪𝑶𝑶 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 . � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓

61
Comparación de los modelos I, II y III
1. Tamaño del lote óptimon o
El modelo I y II tienen igual tamaño óptimo de lote. En el modelo III, cuando se admiten
𝒄𝒄𝒎𝒎 +𝒄𝒄𝒓𝒓
los costos de ruptura, el tamaño del lote aumenta en la proporción � 𝒄𝒄𝒓𝒓
como

podemos ver al comparar sus respectivas fórmulas de lote óptimo:

𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓


𝒏𝒏𝒐𝒐 = � ; 𝒏𝒏𝒐𝒐 = � .�
𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒎𝒎 . 𝑻𝑻 𝒄𝒄𝒓𝒓

La variación (aumento) dependerá de la relación existente entre c m y c r .

2. Duración del período elementalt o


En los modelosI y modelo IIes igual duración. A su vez, el modelo III tiene plazos de
reaprovisionamiento más largos que aquellos, uno de los motivos por el cual se admite la
escasez (ya que significa un costo de obtención menor).

3. Costos TotalesCT o
Como ya vimos, el modelo II presenta un CT mayor que el modelo I ya que incurre el
costo de mantener un stock de protección durante todo el periodo de análisis.
Si comparamos las fórmulas (4) – CT del modelo I – y (11) –CT del modelo III –:
𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 (𝟒𝟒)
𝒄𝒄𝒓𝒓
𝑪𝑪𝑪𝑪𝒐𝒐 = 𝒄𝒄𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐. 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒎𝒎 . 𝑻𝑻 . � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
Vemos que el CT del modelo III se reduce respecto del I en una proporción igual a:

𝒄𝒄𝒓𝒓

𝒄𝒄𝒎𝒎 + 𝒄𝒄𝒓𝒓
Por tal motivo, la magnitud de tal reducción dependerá del valor de dicho cociente, y
por tal, de la relación entre ambos costos (el de mantenimiento y el de ruptura).La
opciónde acumular pedidos no satisfechos será conveniente cuando sea ventajosa con
respecto al mantenimiento de las unidades en stock con la finalidad de satisfacer la
demanda; comparación que se hace en base a los respectivos costos unitarios.
4. Tasa de ruptura o agotamiento
Dicha tasa está vinculada con el cociente visto anteriormente, al cual se le calcula la raíz,
y se simboliza como ρ. Como la opción de acumular demanda insatisfecha se adoptará
𝒄𝒄𝒓𝒓
cuando c r < c m , dicha tasa oscila entre 0 y 1. 𝝆𝝆 = 𝒄𝒄 +𝒄𝒄
𝒎𝒎 𝒓𝒓
Si el costo de ruptura tiende a ∞ la tasa tendería a 1, lo que haría que el modelo I y III
fuesen iguales. (IMPORTANTE: mirar ejemplo práctico)
62
4) Modelo de inventarios con costos no proporcionales
En los modelos vistos hasta aquí el costo unitario de adquisición del artículo (c a ), si bien
integraba la fórmula del CT, no era relevante en la toma de decisiones, debido a que no
dependía de las unidades a incorporar (siempre era el mismo), es decir, no se vinculaba
con la variable independiente de decisión n o .
No obstante, esto no es así en realidad, ya que es posible adquirir a distintos precios en
función de la cantidad a incorporar al stock, debido a la existencia de los descuentos
comerciales o descuentos por cantidad. Todo esto hace que el costo unitario de
adquisición (c a ) dependa del tamaño del lote (n o ).
Con ello surgen dos condiciones contrapuestas: un lote de mayor tamaño, por un lado
reduciría los costos de adquisición y obtención, aunque por el otro aumentaría los costos
de mantenimiento en el inventario. Por tal motivo, la decisión debe optimizar el CT.

MODELO IV: Con costos de producción o compra variables según el tamaño del lote
Pueden darse distintas situaciones:
1. Que los descuentos sean por única vez.
2. Que los descuentos sean incrementales (primera parte de lote a un precio, la que sigue
a otro menor, y así sucesivamente).
3. Que el descuento se aplique a todos los artículos adquiridos.

De ellas, se analizará la 3. con respecto al modelo I.


Otra consideración está referida al costo de mantenimiento. Hasta ahora el mismo se
expresaba en forma unitaria, es decir, por cada unidad almacenada, y por cierta unidad de
tiempo. En este caso, se lo representará mediante un porcentaje del costo de adquisición.
Entonces, los supuestos del modelo son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Ilimitados
Descuentos A todas las unidades
Demanda excedente Ninguna
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Uno

Parámetros y notación
A los ya conocidos, se incorporan los siguientes:
i : subíndice que indica la categoría de descuento aplicado al precio de adquisición y
permite distinguir los distintos precios posibles.

63
P : porcentaje del precio de adquisición que refleja el costo de mantenimiento.Esta tasa de
interés, expresada enalguna unidad de tiempo utilizada como referencia, indica cuántas
unidades monetarias cuesta mantener en stock una unidad monetaria de inventarios.
c ai : costo unitario de adquisición según la categoría i de descuento, en unidades
monetarias ($/Kg, $/m, etc.).
N i : tamaño del lote a partir del cual deja de aplicarse la categoría i de descuento, para
comenzar a utilizarse el siguiente precio de adquisición. Éste es el primero tamaño de
lote que recibe el nuevo precio, correspondiente a la categoría i+1.

Determinación del lote óptimo


Se tiene en este modelo una nueva función de Costo Total, donde todas las variables
calificadas con el subíndice i están indiciando que la validez de dicha función está acotada
al valor adoptado por el precio del artículo en función de las categorías de descuento:
𝒄𝒄𝒐𝒐 . 𝑫𝑫 𝟏𝟏
𝑪𝑪𝑪𝑪𝒊𝒊 = 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫 + + 𝒏𝒏𝒊𝒊 . 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑷𝑷 . 𝑻𝑻 𝒊𝒊 = 𝟏𝟏, 𝟐𝟐, 𝟑𝟑, …
𝒏𝒏𝒊𝒊 𝟐𝟐
Debido a los descuentos comerciales, y como estos van aumentando a medida que la
cantidad a comprar es mayor, el precio de disminuye a medida que aumenta i, lo cual
puede verse en la siguiente gráfica:

Podemos ver el comportamiento del precio de adquisición frente a cambios en el


tamaño del lote. No se trata de una línea continua y constante (como en los anteriores
modelos) sino que tiene una forma escalonada: cuando se llega a cierto nivel de lote (N 1 o
N 2 ) el precio disminuye y el trazo comienza en un valor de ordenada más bajo.
Utilizando el mismo eje de abscisas, se pueden trazar las curvas de CT correspondientes a
los tres niveles de precios: una categoría 1 sin descuentos, la 2 con algún descuento sobre el
costo de adquisición, y la 3 con un descuento mayor. Se pude apreciar en la gráfica
(siguiente página) que a medida que i aumenta el CT es menor para iguales valores de n.

64
Si bien las 3 curvas se trazan como si se aplicará el precio para todos los valores de n,
sabemos que para cada una solo es válida la función en un rango determinado.Esta
circunstancia se tiene en cuenta en esta otra gráfica, donde el rango de validez de la
función de costos totales está dado por la línea llena, mientras que los trazos discontinuos
indican los rangos donde no se aplica el precio de esa categoría de descuento. Por ende, la
función del CT estaría representada por una única curva que presenta dos “saltos”.

Cada función de CT oi presente su óptimo para un valor n oi , que puede calcularse


mediante la siguiente fórmula (la 4 modificada):

65
𝑪𝑪𝑪𝑪𝒐𝒐𝒐𝒐 = 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫 + �𝟐𝟐 . 𝒄𝒄𝒐𝒐 . 𝑫𝑫. 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑷𝑷 . 𝑻𝑻
El problema aquí es que puede ocurrir que un mínimo que se obtenga analíticamente
sea un valor de la variable independiente que no es válida para la categoría de descuento.
Dicho de otra forma, el tamaño de lote que se obtiene con la fórmula no podría adquirirse
a dicho precio.
Para solucionarlo es necesario realizar una serie de comprobaciones sobre los cálculos
realizados, con el fin de descartar aquellas soluciones que no son las mejores (o no son
posibles). El razonamiento es simple, y se basa en que la función presentará varios
mínimos locales correspondientes a c/ n oi o a c/ punto de interrupción de la función (N i ); la
búsqueda entre todos ellos llevará a hallar el mínimo global. Los pasos a seguir son:
1. Para cada categoría i de descuento, se calcula el lote óptimo, independientemente del
rango de validez del costo de adquisición utilizado de referencia. Para cada categoría i
de descuento existen dos alternativas en caso de que el n oi hallado no se encuentre
dentro del rango de validez de la función:
a. Si n oi es inferior a la primera cantidad que pueda tener descuento (N i ) se debe tomar
ésta como referencia.
b. Si n oi es superior a todas las cantidades en que tiene vigencia el descuento (igual o
mayor a N i+1 ), esta cantidad nunca puede ser solución dentro de esa categoría de
descuento; conviene adquirir de una próxima categoría (aumenta i, y disminuye CT).
2. Para cada cantidad tomada como referencia, se calcula su CT y se compararán todos los
resultados para obtener así el menor de ellos, que será el óptimo para el problema.

En el caso de que el procedimiento sea manual, podría reducirse los cálculos mediante
el siguiente diagrama de flujo:

66
IMPORTANTE: ver ejemplo de aplicación

5) Modelo de inventarios con restricciones


Este nuevo modelo, también determinístico, plantea la necesidad no solo de hallar el
costo total óptimo, sino también ajustar la política de gestión de inventarios a ciertas
restricciones o limitaciones. Entre ellas, las más comunes son: máximo de dinero
inmovilizado en stocks (restricción financiera), máximo de espacio disponible en almacenes
(restricción de superficie o volumen), máximo de tiempo disponible para preparación de
equipos al iniciar la manufactura de un lote.
Los supuestos son:
Demanda Constante, conocida, continua
Reposición Inmediata, instantánea
Dependencia entre ítems Independencia
Revisión Continua
Capacidad/recursos Limitados
Descuentos Ninguno
Demanda excedente Ninguna
Perecibilidad del artículo No
Horizonte de planeamiento Infinito
Número de ítems Muchos

Parámetros y notación
A los ya conocidos en el modelo I, se adicionan los siguientes:
i : tasa de interés de mercado, que representa el costo de oportunidad del dinero
inmovilizado.

67
P : porcentaje sobre el costo de adquisición. Es el costo de oportunidad del dinero
utilizado en conceptos de mantenimiento de los productos almacenados.
j : subíndice que representa a cada artículo integrante de la gestión.
D j : demanda en unidades, para cada producto, por período a planificar.
c oj : costos de obtener un lote de producto j, en unidades monetarias.
c aj : costo unitario de adquisición para el producto j, en unidades monetarias ($/Kg, $/m).
R 0 :cantidad límite del recurso escaso, es decir, refleja la restricción del modelo.

Representación gráfica del problema y su solución


A la hora de analizar gráficos lo más sencillo es trabajar con dos dimensiones (es decir,
con dos ejes de coordenadas), por lo que se plantearán los correspondientes a dos
productos (dos variables de decisión con su n oj ) que busquen optimizar una función sujeta
a una restricción por escasez de un recurso.
La función de costo total para dos productos, según lo visto en el Modelo I, sería:

𝟏𝟏 𝑫𝑫𝟏𝟏 𝟏𝟏 𝑫𝑫𝟐𝟐
𝑪𝑪𝑪𝑪 = 𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒎𝒎𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐𝒐𝒐 . + 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫𝟏𝟏 + 𝒏𝒏𝟐𝟐 . 𝒄𝒄𝒎𝒎𝒎𝒎 . 𝑻𝑻 + 𝒄𝒄𝒐𝒐𝒐𝒐 . + 𝒄𝒄𝒂𝒂𝒂𝒂 . 𝑫𝑫𝟐𝟐
𝟐𝟐 𝒏𝒏𝟏𝟏 𝟐𝟐 𝒏𝒏𝟐𝟐
Como dijimos, se consideran dos variables de decisión n 1 y n 2 , es decir, el tamaño de
lote para los artículos 1 y 2, trazándose sus valores en los respectivos ejes x e y. Si se
formaran distintas combinaciones del par de artículos y se calculará el CT para cada una de
ellas, se podrían construir distintas curvas cerradas tal como se observa en la gráfica:

Las curvas expuestas se denominan “isocostos”, y mientras más cerca al origen de


coordenadas se encuentra un punto de una curva, mayor es el CT de dicha combinación.
Para hallar la solución óptima, se traza una recta con pendiente negativa que represente la
restricción del modelo, la cual está constituida por el conjunto de puntos que reflejan las
diferentes combinaciones que cumplen con los límites. De tal modo, solo serán válidos los
puntos que se encuentren por debajo o sobre dicha línea. Así, si n o1 y n o2 fuesen las
asignaciones óptimas, la solución debe trasladarse hasta la recta. En este caso, la solución
óptima se hallará en el punto de la isocosto que sea tangente a R 0 .

68
Costos y lotes óptimos
Como ya se expuso más arriba, el modelo busca obtener un óptimo para la gestión de
varios artículos distintos (que compiten por aprovechar un recurso escaso R) de manera
que la asignación de los distintos tamaños de lote conduzca al mejor/menor Costo Total
respetando la restricción impuesta. De las distintas restricciones vistas, se analizará la
financiera, que puede darse en el caso de una empresa que ya teniendo definida su
política de inventarios decide disminuir el capital inmovilizado.
En primera medida se determinará el tamaño óptimo de lote para cada producto, sin
tener en cuenta la restricción. Se valorizará cada uno por su precio de adquisición y se
determinará la inversión necesaria I. Al compararla con la restricción financiera se concluirá
si es necesario corregir las cantidades obtenidas con las fórmulas o no.
La restricción es efectiva cuando I>R 0 , y en tal caso es necesario recalcular los tamaños
de lote para aprovechar en la mayor proporción posible dicha restricción sin superarla (es
decir, el óptimo se daría cuando I=R 0 ).

NOTA: Dado que el Costo Total de Adquisición permanecerá constante cualquiera sea el
tamaño óptimo de los lotes -pues depende de la demanda total del período y de los
respectivos costos de adquisición unitarios- para simplificar las expresiones a deducir se lo
omitirá en la función Costo Total. Se diferenciará de la ecuación completa, mediante un
superíndice (CT’).

La función de CT para cada producto se compone de dos partes: costo de obtención y


costo de mantenimiento, expresándose el último como un porcentaje del costo de
adquisición y separando los componentes netamente financieros (i tasa de mercado) de
las erogaciones por mantener el producto en almacén (P):
𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 𝟏𝟏
𝑪𝑪𝑪𝑪′𝒋𝒋 = + 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)
𝒏𝒏𝒋𝒋 𝟐𝟐
Aplicando análogos cálculos a los hechos en el Modelo I, la ecuación representativa del
tamaño óptimo de lote para el producto j es:

𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒐𝒐𝒐𝒐 =�
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)

Como existen múltiples ítems, cada uno tendrá su propio tamaño óptimo de forma
individual, pero lo que busca el modelo es hallar la mejor solución para la gestión que en
conjunto ofrezcan todos los artículos. Entonces, el problema podría plantearse como:
calcular los valores óptimos n oj , de forma tal que al valorizarse según su c aj no superen el
importe de la restricción financiera R 0 y, a su vez, alcancen el mínimo CT posible.
En símbolos sería:
69
𝒎𝒎 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 𝟏𝟏
minimizar𝑪𝑪𝑪𝑪′𝒋𝒋 = �
𝒏𝒏𝒋𝒋 + 𝟐𝟐 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)
𝒋𝒋=𝟏𝟏
𝒎𝒎
sujeta a � 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 ≤ 𝑹𝑹𝟎𝟎
𝒋𝒋=𝟏𝟏
Esto constituye un problema de mínimos condicionados, cuya resolución puede lograrse
aplicando los multiplicadores de Lagrange. Con dicho fin se reexpresa la última ecuación
igualándola a 0 e incorporándole una variable artificial (λ : el multiplicador de Lagrange)
que la multiplica. Si agregamos esta expresión a la función objetivo obtendremos una
nueva función: F de Lagrange.
𝒎𝒎
𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 𝟏𝟏
𝑭𝑭(𝒏𝒏𝟏𝟏 ,𝒏𝒏𝟐𝟐,…,𝒏𝒏𝒎𝒎,𝝀𝝀) = � � + 𝒏𝒏𝒋𝒋 . 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊)� + 𝝀𝝀 (𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒂𝒂𝒂𝒂 + ⋯ + 𝒏𝒏𝒎𝒎 . 𝒄𝒄𝒂𝒂𝒂𝒂 − 𝑹𝑹𝟎𝟎 ) (𝟏𝟏𝟏𝟏)
𝒏𝒏𝒋𝒋 𝟐𝟐
𝒋𝒋=𝟏𝟏

Para identificar los valores de las variables (son m+1, se incluye la artificial) que hacen
que la función adopte puntos extremos, se deben calcular sus correspondientes derivadas
parciales e igualarlas a 0. Así se hallarán los mínimos de la función F de Lagrange.
La ecuación (12) puede desplegarse de la siguiente forma (13):
co1 . D1 1 co2 . D2 1
F= + n1 . ca1 . (P + i) + + n2 . ca2 . (P + i) + λ (n1 . ca1 + ⋯ + nm . cam − R 0 )
n1 2 n2 2
La derivada parcial con respecto a una variable n j sería:
𝝏𝝏𝝏𝝏 𝟏𝟏
= (−𝟏𝟏)𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋 . 𝒏𝒏−𝟐𝟐 + 𝒄𝒄 . (𝑷𝑷 + 𝒊𝒊) + 𝝀𝝀 . 𝒄𝒄𝒂𝒂𝒂𝒂
𝝏𝝏𝒏𝒏𝒋𝒋 𝒋𝒋
𝟐𝟐 𝒂𝒂𝒂𝒂
Si la igualamos a 0, multiplicamos ambos miembros por 2 y aplicamos factor común:
𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
(−𝟐𝟐) + 𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊) + 𝟐𝟐 𝝀𝝀 . 𝒄𝒄𝒂𝒂𝒂𝒂 = 𝟎𝟎
𝒏𝒏𝒋𝒋𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐) =
𝒏𝒏𝒋𝒋𝟐𝟐
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒋𝒋𝟐𝟐 =
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐)
𝟐𝟐 . 𝒄𝒄𝒐𝒐𝒐𝒐 . 𝑫𝑫𝒋𝒋
𝒏𝒏𝒋𝒋 = � (𝟏𝟏𝟏𝟏)
𝒄𝒄𝒂𝒂𝒂𝒂 . (𝑷𝑷 + 𝒊𝒊 + 𝟐𝟐𝟐𝟐)

70
Por otra parte, si derivamos la ecuación (12) con respecto a λ la expresión sería:
𝝏𝝏𝝏𝝏
= 𝒏𝒏𝟏𝟏 . 𝒄𝒄𝒂𝒂𝒂𝒂 + 𝒏𝒏𝟐𝟐 . 𝒄𝒄𝒂𝒂𝒂𝒂 + ⋯ + 𝒏𝒏𝒎𝒎 . 𝒄𝒄𝒂𝒂𝒂𝒂 − 𝑹𝑹𝟎𝟎
𝝏𝝏𝝏𝝏
Que si la igualamos a 0 coincide con la ecuación que representa la restricción del
problema.
A partir de la obtención de los valores de las variables de decisión se puede llegar al
óptimo restringido mediante la aplicación de diversos valores positivos a λ, en una
sucesión de aproximaciones hacia dicho punto.
Debido a que en la fórmula para obtener el tamaño óptimo de lote n oj de cualquier
producto interviene la variable artificial λ, a medida que ésta varíe también variará la
relación entre I y R 0 , lo que permitirá orientar las variaciones para que lleguen a igualarse
ambos conceptos y así obtener la solución óptima.
En un primero momento se le asigna 0 a λ. Si la adopción de los tamaños de lote
calculados no cumple con la restricción será necesario asignar pequeños valores positivos
a la variable artificial, lo que hará reducir los tamaños de los lotes (que deberán
recalcularse) y a su vez disminuir los fondos necesarios para adquirirlos (que deberán
recalcularse). El valor de λ aumentará lentamente hasta lograr que dichos fondos sean
iguales o inferiores al límite de la restricción.
Una manera sistemática, y que garantiza una aproximación a menos de 1/1000 del
punto óptimo en solamente 10 intentos, es la denominada “búsqueda binaria”, que
consiste en arrancar con dos valores extremos de λ (el cero y otro a elección que debe
tener la característica de hacer que la función objetivo cumpla con la restricción R 0 ). Si no
se llegó a solución satisfactoria aplicar un tercer valor que esté a mitad de camino
entreaquellos, y posteriormente otro que también esté en medio de dos de los anteriores y
así sucesivamente hasta que esta mitad adoptada para el cálculo sea tan pequeña que no
aporte mejorassignificativas en la aproximación realizada.

Modelo con restricción financiera. Interpretación del multiplicador de Lagrange


Como vimos, la variable λ permitió resolver el problema de mínimos condicionados.
Ahora bien, del valor que la misma adopte se puede inferir una interpretación económica,
que está dada por “el costo adicional provocado por no disponer de unidades monetarias
suficientes para adquirir los lotes óptimos”. (IMPORTANTE: VER EJEMPLO PRÁCTICO)
Como se explicó, cuando λ=0se está en el problema inicial sin restricción alguna, en el
cual no existe costo adicional por no conseguir más financiación. A medida que se
aumenta el valor de la variable artificial, también lo hace la suma a invertir (I).
Interpretando estos valores marginalmente se puede afirmar que se tratadel costo
marginal del dinero para el problema expuesto; por ello, un valor aceptable como límite
superior para λ, al comenzar la aproximación sucesiva, es la tasa de interés de mercado.
71
6) Gestión de múltiples artículos: sistemas de gestión
Decisión sobre el tipo de gestión a aplicar
A la hora de decidir en una organización sobre la manera de gestionar los inventarios
existen ciertas cuestiones claves para orientar dicha toma de decisión: importancia que
tiene el artículo analizado, conveniencia de revisar periódicamente o en forma continua las
existencias, política de inventario a aplicar, planteamiento sobre el objetivo que se
propone la organización: optimizar/minimizar costos o garantizar nivel de servicio a los
clientes. A continuación se analizarán algunas.

Definición de la importancia de un producto


En organizaciones que administran muchos artículos es común que, por un lado ocurran
faltantes en ciertos productos que exijan reponerlos permanentemente, y por el otro se
acumulen demasiadas existencias de otros bienes que se demandan en menor medida. Es
decir, se debe aplicar un mayor control y una mayor intensidad a la hora de planificar la
política de inventario de ciertos productos que resultan más importantes que otros.
Los diferentes artículos se obtienen de distintas forma, tienen variaciones en cuanto a
rentabilidady sistemas de venta, sus demandas pueden diferir sustancialmente en cuanto a
modalidades y cantidades, etc.
El margen de importancia que se le otorgue a cada ítem del inventario puede basarse
en varias razones: misión que guía su trayectoria, objetivos establecidos, expectativas de
sus niveles gerenciales, políticas de atención a clientes, ramo en que se desempeña, etc.
Puede ser que se atienda a la criticidad de las operaciones que realiza la empresa, o a
los rendimientos de cada artículo (impacto en las utilidades), o a la utilización del producto
en relación con el uso de instalaciones y almacenes, a la cantidad de clientes que lo
requieren y sucorrespondiente valor monetario, etc.

La técnica de clasificación ABC


El denominado Análisis ABC asigna la importancia de un artículo en función de su
contribución al monto total de ventas de la empresa. Esta metodología de trabajo aplica
una afirmación de uso común denominada “80-20”. Esto significa que el 80% de las
ocurrencias de una variable generalmente se corresponden con el 20% de los casos de
otra variable, lo cual permite aplicar una intervención por excepción.
Si bien, en función de cada empresa y sus características, existen ciertas diferencias, es
bastante común que entre un 5% y un 20% de los artículos involucren entre el 55% y 70%
de los importes totales de las ventas. A esta clase de artículos se los denomina “Clase A”, y
son sobre los que se debe efectuar una administración más ajustada, ya que siendo pocos
generan un impacto significativo sobre el giro comercial de la organización.Siguiendo con
la agrupación, entre el 20% y 30% de los artículos generan entre el 20% y 40% de los
ingresos por ventas, y son los denominados “Clase B”. Por último, unagran cantidad de

72
artículos, entre el 50% y 80% del total, solo producen entre el 5% y 25% de las ventas.
Estos últimos se categorizan como “Clase C”. En resumen:
Clase % Productos %Ventas Impacto ventas Administración de Inventarios
A 5 a 20 55 a 70 Alto Elevada
B 20 a 30 20 a 40 Moderado Media
C 50 a 80 5 a 25 Bajo Baja

La forma práctica de identificar los agrupamientos de interés consiste en:


1. Reunir información sobre los montos de ventas de c/ artículo p/ un período determinado.
2. Tabular la información recabada y ordenarlos de mayor a menor.
3. Asignarle a cada artículo un número de orden en función del lugar que ocupa.
4. Para cada artículo calcular dos porcentajes: monto de ventas con respecto al monto total
de ventas, y número de orden con respecto a la cantidad total de artículos. (por lo general
0-25 es categoría A, 25-75 es B y 75-100 es C).

(IMPORTANTE: VER EJEMPLO PRÁCTICO)

Gestión mediante revisión período o revisión continua


Como ya dijimos, existen dos formas de controlar la evolución de los inventarios:
• Revisión periódica: consiste en definir una duración específica para cada ciclo de
pedidos y en tales fechas se revisará la cantidad de existencias y se adquirirán las
necesarias. Es decir, conocer cuál es el nivel de stock sólo en determinados momentos, que
coinciden con el intervalo de revisión (p) previamente definido.
• Revisión continua: implica llevar un registro constante y permanente de cada
transacción que afecte al nivel de inventario (e), lo que permite tomar la decisión de
reabastecerse en el momento en que dicho nivel alcance una cantidad predefinida.

Método de revisión periódica. Política (p, S)


Como ya dijimos, primero se establece una fecha fija para realizar la revisión de los
inventarios. La duración del período de revisión (p) se calcula dividiendo el tamaño del lote
óptimo de pedido (n o ) por la cantidad consumida por unidad de tiempo (c=D/T).
Suponiendo que los consumos por unidad de tiempo (c) son constantes, pueden
determinarse cuántas unidades se sacarán del stock hasta el momento en que llegue el lote
de reposición, lo cual depende del tiempo de demora (d). Al ser constantes los intervalos
de revisión (p), lo que variaría es la cantidad a pedir (n) hasta cubrir el nivel máximo de
inventario (S). Al ser recibida, n más la cantidad existente al momento de la revisión (e)
deberán ser suficientes para abastecer a las demandas agregadas de: a) el tiempo de
espera (d d ) hasta la recepción del pedido y, b) el próximo intervalo de revisión. Si mientras
se espera la entrega, la demanda no es la estimada según la media de todo el período, tal
cantidad ajustará al próximo pedido.
Lo dicho puede expresarse en la siguiente ecuación: 𝒏𝒏 + 𝒆𝒆 = 𝑺𝑺 + 𝒅𝒅𝒅𝒅 (𝟏𝟏𝟏𝟏)
73
También podemos afirmar que se requerirá una cantidad suficiente para reponer lo
consumido en el intervalo actual (S-e), más lo necesario para satisfacer la demanda del
tiempo de espera hasta la recepción del pedido (d d ). Según la fórmula anterior:
𝒏𝒏 = 𝑺𝑺 − 𝒆𝒆 + 𝒅𝒅𝒅𝒅
Y, como ya vimos en uno de los modelos, el nivel máximo de inventario (S) es igual al
tamaño de lote óptimo de pedido (n o ) más el stock de seguridad (s p ):
𝒏𝒏 = 𝒏𝒏𝒐𝒐 + 𝒔𝒔𝒑𝒑 − 𝒆𝒆 + 𝒅𝒅𝒅𝒅
𝒏𝒏 = 𝒄𝒄 . 𝒑𝒑 + 𝒔𝒔𝒑𝒑 − 𝒆𝒆 + 𝒄𝒄 . 𝒅𝒅
(IMPORTANTE: VER EJEMPLO PRÁCTICO)

Método de revisión periódica con pedido condicionado. Política (p, s, S)


Existe una variante del método anterior, la cual consiste en definir, además de la
periodicidad de relevamiento, una cantidad s que actúa como control a la hora de realizar
adquisición, de forma tal que solo se comprará si el nivel de inventario es menor o igual a
dicha cantidad. Como vemos combina la revisión periódica con la continua.

Método de revisión continua con cantidad de lote óptimo. Política (n, r)


Cuando se aplica esta forma de administración, a diferencia de la anterior, lo que varía
es el tiempo entre reaprovisionamientos.
Se calculan los niveles de inventario de protección (s p ) y el tamaño de lote óptimo (n o ),
y se fija el nivel de pedido (r). Llegado el stock al nivel r se adquiere n o .
La variable de ajuste en este caso será el tiempo, por lo que las anticipaciones o
demoras en la entrega del reaprovisionamiento o variaciones en el consumo por unidad de
tiempo llevarían a que la fecha del próximo período sea antes o más tarde.

Método de revisión continua con cantidad variable. Política (s, S)


Al igual que en los métodos de revisión periódica, aquí también se determina una
cantidad de control s que servirá para definir el tamaño del lote a pedir hasta alcanzar el
máximo nivel (S) del modelo.

La decisión de cuál método aplicar


No existe unanimidad sobre el método a utilizar para la gestión de stocks, pero en
general resulta factible usar tanto revisión continua como periódica luego de realizar el
análisis ABC.Para los artículos de clase A es recomendable y necesario aplicar los métodos
de administración científica de inventarios, debido a su elevado impacto sobre las ventas.
Por un lado, es aconsejable implementar una revisión periódica con lotes pequeños (y
períodos también cortos) sobre esos artículos; por el otro, ello implicaría posibles costos
de ruptura o un incremento de los costos de protección, debido a que no se están
controlando permanentemente las existencias.

74
En conclusión, para bienes de clase “A” se debe atender cada producto y su gestión en
forma particular, siendo factible aplicar política (s, S) en caso de revisión continua o la
política (p, s, S) se si optara por períodos fijos.
Para los bienes de clase “B”, se recomienda aplicar (n, r) si hay revisión continua y (p, S)
si es periódica.
Por último, para los bienes de clase “C”, no es necesario aplicar método alguno ya que
su impacto sobre las ventas es escaso.

7) Modelo de inventarios con demanda aleatoria


Los modelos vistos hasta ahora tenían la particularidad de que la demanda siempre era
la misma: constante, continua y conocida. En este nuevo modelo, esto cambia, ya que se
considera que la demanda tiene un comportamiento aleatorio.
Estamos hablando de los modelos de demanda variable aleatoria, en los que existe una
determinada ley de probabilidades a la que puede ajustarse dicha demanda. Frente a esto,
es importante hacer una distinción: si se mantiene sin cambios en los distintos períodos
bajo análisis se trata de un modelo estático de demanda aleatoria (el que se estudiará),
mientras que si no es constante, es un modelo dinámico de demanda aleatoria.

El modelo estático de demanda variable


Se desarrollará un modelo que permite calcular la cantidad de repuestos costosos que
es necesario adquirir junto con un determinado equipamiento, que si los necesitara en
caso de rotura y no estuvieran disponibles se reduciría su capacidad de operación,
generándose costos derivados de dicha inactividad.
De lo dicho se deriva que se debe incurrir en un costo para adquirir los artículos (C a ),
poder disponer de ellos cuando se requieran y así no dejar demanda insatisfecha, aunque
al mismo tiempo se corre el riesgo de desembolsar dinero que nunca se recuperará y/o de
cargar demasiado los almacenes y llegar al final de la gestión con un excedente que
genere costos de mantenimiento y que ya no será demandado.
En concreto, para el caso de repuestos los supuestos del modelo son:

Demanda Aleatoria, discreta


Reposición No hay
Dependencia entre ítems Independencia
Revisión No necesita
Capacidad/recursos Ilimitados
Descuentos Ninguno
Demanda excedente Eventual
Perecibilidad del artículo No
Horizonte de planeamiento Aprovisionamiento por única vez
Número de ítems Uno

75
En cuanto a los costos, conviene detallar las siguientes características:
a) Costo de adquisición: es importante. Se vuelve quebranto si no se usa el repuesto.
b) Costo de almacenamiento: es nulo o insignificante.
c) Costo de obtención: es nulo o insignificante.
d) Costo unitario de agotamiento (ruptura): es elevado.

El problema consiste en definir la cantidad de piezas (s) a adquirir junto con el equipo,
para evitar interrupciones en su funcionamiento, con el fin de minimizar los costos totales
(CTE (s) ). Dicha cantidad no puede predefinirse, y solo puede contarse con una distribución
de frecuencias que indique la cantidad de veces que se requirieron 1, 2, 3,…, n piezas con
anterioridad y en equipamientos similares.
Resumiendo los elementos para construir un modelo tenemos:
• Criterio de optimización: minimización de costos totales (CTE (s) ).
• Variables de decisión: cantidad de repuestos a adquirir junto con el equipo (s).
• Parámetros: Costos
Costo unitario por no utilización de lo adquirido (c a ).
Costo unitario de agotamiento/ruptura (c r )
Frecuencias (observaciones)
Número de repuestos y cantidad de equipos que los necesitaron (n,
fn)

Expresión matemática de la función objetivo


A diferencia de lo visto en otros modelos no se trata de definir una cantidad de
elementos a adquirir periódicamente, sino de una sola vez junto con el equipo para el cual
son críticos.
Por otra parte, al igual que lo ocurrido en los otros modelos, los dos costos de
importancia en la toma de decisiones presentan comportamientos asimétricos a medida
que adopta valores la variable de decisión: a mayor cantidad de repuestos adquiridos,
mayor es el Costo de Adquisición (CTE a ), aunque menor el riesgo de caer en agotamiento,
lo que reduce el Costo de Ruptura (CTE r ). La función de Costo Total Esperado (CTE), que
se denominará así puesto que se utilizan valores probables y por lo tanto dicho costo se
calculará como una esperanza matemática, puede expresarse así:
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) = 𝑪𝑪𝑪𝑪𝑪𝑪(𝒂𝒂) + 𝑪𝑪𝑪𝑪𝑪𝑪(𝒓𝒓)
Como la situación modelada se caracteriza por la aleatoriedad en su demanda, a la hora
de comprar un nivel s de unidades, puede darse que:

1. Se utilicen hasta dicha cantidad: n≤s. En este caso no existirá ruptura, por lo que el total
del costo provendrá únicamente de aquellas unidades compradas y no usadas:

76
𝒔𝒔

𝑪𝑪𝑪𝑪𝑪𝑪𝒂𝒂(𝒔𝒔) = 𝒄𝒄𝒂𝒂 . � (𝒔𝒔 − 𝒏𝒏) . 𝒑𝒑(𝒏𝒏)


𝒏𝒏=𝟎𝟎
Como para cada cantidad utilizada se conocen sus frecuencias históricas de ocurrencia y
su probabilidad, aunque no se puede saber exactamente cuántos repuestos serán
necesarios, puede calcularse la esperanza matemática de los excedentes (con la fórmula de
sumatoria). Al multiplicarla por el costo unitario de adquisición se obtiene el CTE de
adquisición por tener s repuestos y utilizar n (siendo n≤s).

2. Se necesite una cantidad n mayor a la adquirida: n>s. Esto implica que se incurrirá en
costos de ruptura de stocks, debido al faltante ocurrido (n-s). De forma análoga a la
anterior, puede calcularse la esperanza matemática del déficit, que si lo multiplicamos por
el costo unitario obtenemos el CTE de ruptura por contar solo con s repuestos y existir una
carencia de n-s unidades. La expresión matemática es:

𝑪𝑪𝑪𝑪𝑪𝑪𝒓𝒓(𝒔𝒔) = 𝒄𝒄𝒓𝒓 . � (𝒏𝒏 − 𝒔𝒔) . 𝒑𝒑(𝒏𝒏)


𝒏𝒏=𝒔𝒔+𝟏𝟏
Como el objetivo del modelo conecta los efectos de ambos costos, la expresión
matemática de la función de CTE para un nivel s de unidades es:
𝒔𝒔 ∞

𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) = 𝒄𝒄𝒂𝒂 . � (𝒔𝒔 − 𝒏𝒏) . 𝒑𝒑(𝒏𝒏) + 𝒄𝒄𝒓𝒓 . � (𝒏𝒏 − 𝒔𝒔) . 𝒑𝒑(𝒏𝒏) (𝟏𝟏𝟏𝟏)
𝒏𝒏=𝟎𝟎 𝒏𝒏=𝒔𝒔+𝟏𝟏
Obtención de una regla de decisión para CTE mín
El análisis se basará en tres puntos consecutivos de la función de CTE, correspondientes
a tres cantidades de repuestos: s-1, s, s+1.
A partir de la ecuación (17), se puede obtener la correspondiente para una unidad más
de repuestos adquiridos (s+1):
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔+𝟏𝟏) = 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) + (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔) − 𝒄𝒄𝒓𝒓 (𝟏𝟏𝟏𝟏)
De forma similar, también partiendo de la ecuación (17), podemos hallar la
correspondiente para una unidad menos de repuestos adquiridos (s–1):
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔−𝟏𝟏) = 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔) − (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓 (𝟏𝟏𝟏𝟏)
Para algún valor s 0 de la variable “cantidad de repuestos a comprar”, la función CTE
tendrá su valor mínimo si:
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎−𝟏𝟏) (𝟐𝟐𝟐𝟐)
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎+𝟏𝟏) (𝟐𝟐𝟐𝟐)
La primera desigualdad puede expresarse como:

77
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) − (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓
De donde −(𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) + 𝒄𝒄𝒓𝒓 > 0
𝒄𝒄
O sea 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) > (𝒄𝒄 𝒓𝒓 ) (𝟐𝟐𝟐𝟐)
𝒂𝒂 +𝒄𝒄𝒓𝒓
La segunda desigualdad por su parte:
𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎 ) < 𝑪𝑪𝑪𝑪𝑪𝑪(𝒔𝒔𝟎𝟎) + (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) − 𝒄𝒄𝒓𝒓
De donde (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) . 𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) − 𝒄𝒄𝒓𝒓 > 0
𝒄𝒄𝒓𝒓
O sea
(𝒄𝒄 )
< 𝑝𝑝(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 ) (𝟐𝟐𝟐𝟐)
𝒂𝒂 +𝒄𝒄𝒓𝒓

Si reagrupamos las expresiones (22) y (23) tenemos que:


𝒄𝒄𝒓𝒓
𝒑𝒑(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 − 𝟏𝟏) < < 𝑝𝑝(𝒏𝒏 ≤ 𝒔𝒔𝟎𝟎 )
(𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 )
Si analizamos las desigualdades (22) y (23) vemos que:
a) El cociente (vista en un modelo anterior como ρ, aunque con una leve alteración)
representa la “tasa de ruptura, escasez o deficiencia”.
b) La probabilidad p(n≤s 0 ) equivale a p(0) + p(1) + p(2) + … + p(s 0 ).

Entonces, la función CTE (s) tendrá su mínimo en el valor de s para el cual P(s)>ρ. Ese
valor es s 0 (recordar que P es la probabilidad acumulada).
En cuanto al cociente, podemos hacer algunos análisis que justificarán lo expuesto. Si el
costo de ruptura tendiera a infinito con relación al costo de adquisición, el resultado del
cociente sería 1 y, en consecuencia, la compra deberá ser por la mayor cantidad de las
previstas. Por el contrario, si fuera el c a el que tendiese a infinito con relación c r , el
cociente tendería a 0 y sería recomendable una compra escasa.

(IMPORTANTE: VER EJEMPLO PRÁCTICO)

Modelo cuando es aplicable una distribución teórica de probabilidades


Vimos anteriormente que al análisis es factible teniendo en cuenta las frecuencias
observadas, según el comportamiento histórico de la variable aleatoria. Existe la
posibilidad de utilizar una distribución teórica de probabilidades (concretamente, Poisson)
cuando el proceso de utilización de los repuestos reúne las características de ser
acontecimientos “raros” en los que:
• Se representan con una variable discreta;
• Los hechos ocurren exclusivamente por azar y en forma totalmente independiente e/ sí.
Es decir, su probabilidad de ocurrencia es no condicional.
• La probabilidad de que ocurra más de un suceso en un intervalo de observación ∆t es
un infinitésimo de orden superior.

78
Además de estos factores, un indicio para aplicar la distribución Poisson lo darán los
valores de la media (λ) y la varianza (σ2) de la distribución de frecuencias de la variable, ya
que dicha ley se caracteriza porque λ=σ2.
Para este modelo se hacen unas modificaciones a la Regla de decisión, ya que:
𝒙𝒙 ∞
𝝀𝝀 𝒆𝒆−𝝀𝝀
siendo𝒑𝒑(𝒙𝒙) = para 𝒙𝒙 = 𝟎𝟎, 𝟏𝟏, 𝟐𝟐, … , y 𝝀𝝀 = � 𝒙𝒙 . 𝒑𝒑(𝒙𝒙)
𝒙𝒙! 𝒙𝒙=𝟎𝟎
En cuanto al cálculo de la suma de las probabilidades acumuladas para n≤s será:
𝒔𝒔
𝒏𝒏 −𝝀𝝀
𝝀𝝀 𝒆𝒆
𝑷𝑷(𝒏𝒏 ≤ 𝒔𝒔) = �
𝒏𝒏!
𝒏𝒏=𝟎𝟎
Por lo tanto, la regla de decisión ahora será:
𝒔𝒔𝟎𝟎 −𝟏𝟏 𝒔𝒔𝟎𝟎
𝝀𝝀𝒏𝒏 𝒆𝒆−𝝀𝝀 𝒄𝒄𝒓𝒓 𝝀𝝀𝒏𝒏 𝒆𝒆−𝝀𝝀
� < <�
𝒏𝒏! (𝒄𝒄𝒂𝒂 + 𝒄𝒄𝒓𝒓 ) 𝒏𝒏!
𝒏𝒏=𝟎𝟎 𝒏𝒏=𝟎𝟎

(IMPORTANTE: VER EJEMPLO PRÁCTICO)

UNIDAD IV: Líneas de espera


1) Características de los fenómenos de espera. Ley de llegadas al azar;
distribución de tiempos de servicio, elementos intervinientes.

La situación que puede representarse con este modelo


El fenómeno de la formación de líneas de espera (también llamado colas de espera)
ocurre en numerosas situaciones de la vida diaria. Su principal característica es que la
demanda de un servicio excede a la capacidad de proporcionarlo o proveerlo. Observar
situaciones con esa particularidad permite construir modelos matemáticos para:
• Tomar decisiones sobre la capacidad necesaria para prestar adecuadamente el servicio.
• Estimar cuántas unidades llegarán en busca del servicio en un determinado momento, y
si la capacidad que habrá será suficiente para atenderlas.
• Calcular las fracciones de tiempo que el servidor dedica a dar el servicio y al ocio.

Los modelos de líneas de espera constan de fórmulas y relaciones matemáticas que


pueden utilizarse para determinar las características de operación (medidas de desempeño)
de una fila, entre las que se destacan:
1. La probabilidad de que no haya unidades en el sistema.
2. El número promedio de unidades en la línea de espera.
3. El número promedio de unidades en el sistema (el número de unidades que se
encuentran en la línea de espera más el número de unidades a las que se está atendiendo).
4. El tiempo promedio que una unidad pasa en la línea de espera.

79
5. El tiempo promedio que una unidad pasa en el sistema (el tiempo que espera en la cola
más el tiempo de servicio en el que lo atienden hasta que sale del sistema).
6. La probabilidad de que una unidad que llega tenga que esperar para recibir el servicio
(es decir, la probabilidad de que cuando llega haya al menos una unidad en el sistema).
7. La probabilidad de que haya n unidades en el sistema.

Antes de proseguir sería conveniente tratar de idear una definición de sistema de colas:
sistema en el que los productos (o los clientes) llegan a una estación, esperan en una fila (o
cola), obtienen algún tipo de servicio y luego salen del sistema.

¿Normativo o Descriptivo?
Los modelos matemáticos aplicados para los problemas de líneas de espera por lo
general son descriptivos, ya que brindan información acerca de las características (o
medidas de desempeño) de las dichas líneas pero no proponen cursos de acción directos a
seguir para cumplir algún objetivo. No obstante, existe un enfoque normativo que tiene en
cuenta que: a) Si se presta un servicio excesivo con el fin de minimizar el tiempo que los
clientes deben esperar en la cola, pueden incurrirse en costos excesivos; b) Si el servicio es
insuficiente se generarán colas excesivamente largas, lo que llevará a perder clientes
(costos sociales, de oportunidad).

Elementos intervinientes
Un sistema de líneas o colas de espera es aquel en el cual los clientes, provenientes de
una población, llegar a una estación en busca de un servicio, esperan en una fila hasta
que obtienen el servicio y luego se retiran del sistema. Estos son los elementos
constitutivos, y la relación entre ellos podrán verse algunas imágenes más adelante.
Como vemos en la imagen, “sistema” y “cola” no son lo mismo: la segunda forma parte
de la primera, pero ello no se cumple a la inversa. La “cola” es la fila que espera para
obtener el servicio –debido a estar ocupado el servidor–, mientras que el “sistema”
comprende tanto la cola como los elementos que estén recibiendo el servicio –es decir, los
que ocupan el servidor–. Esta distinción es vital a la hora de realizar cálculos.
Resulta obvio que la espera para las personas es una situación no deseada y que genera
malestar. Por tal motivo, se considera como meta final del modelo (si se lo plantea como
uno normativo) obtener un balance económico entre costos por prestar los servicios y
costos por la espera y recepción del servicio, de manera que el CT sea mínimo (este tema
recién se verá en el capítulo 6 de esta unidad).
Los distintos casos más comunes de líneas de espera son:
1. Una fila de espera con un solo servidor.

80
81
2. Una fila de espera con varios servidores en paralelo.

3. Varios servidores en paralelo pero cada uno con su línea de espera.

4. Una fila de espera con clientes que serán atendidos por varios servidores en serie.

Vale entender la razón por la cual se forman líneas de espera, y la misma radica en el
hecho de no aprovechar los tiempos ociosos del servidor, ya que cuando llegan clientes le
es imposible atenderlos a una velocidad mayor a la observada como medida de
desempeño del sistema, y por ello no puede recuperar los tiempos perdidos. Esto es así
porque tanto los tiempos de arribos como los de servicio son variables aleatorias.

Características de un sistema de colas


A la hora de formular un modelo es fundamental considerar ciertas características que
puede presentar un sistema de línea de esperar, entre las que se destacan:
1. Población de clientes
La población es el conjunto de todos los clientes posibles. También denominada
“Fuente”, puede ser finita o infinita. Debido a que los cálculos son más sencillos si la misma
es infinita, por lo general se trabajará con este tipo de población; independientemente de
ello, en el capítulo 5 de esta unidad se analizará una población demandante finita.

2. Proceso de llegada. Distribución de arribos de clientes


El proceso de llegada es la forma en que los clientes llegan a solicitar un servicio. La
característica más importante de este proceso es el tiempo entre llegadas, que es la
cantidad de tiempo entre dos llegadas consecutivas.

82
Existen dos clases básicas de tiempos entre llegadas:
 Determinístico: el intervalo de tiempo entre dos clientes que llegan consecutivamente es
fijo y conocido.
 Probabilístico: el intervalo de tiempo, en este caso, es incierto y variable. Estos tiempos
se describen mediante una distribución probabilística

En el caso de tiempos probabilísticos, para construir el modelo debe conocerse el


patrón estadístico bajo el cual los clientes arriban (llegan) al sistema en busca de servicio.
Aunque el patrón puede responder a cualquier distribución que demuestre su
aleatoriedad, generalmente se supone que la llegada de los mismos responde a un
proceso aleatorio de tipo Poissoniano. Entonces, la variable que representa el número de
clientes que llegan por unidad de tiempo se ajusta a una Distribución Poisson. Esto
significa que las llegadas se producen aleatoriamente, con una media fija y conocida.
Es importante destacar las características de un proceso de este tipo:
• Los tiempos entre llegadas son independientes entre sí y del estado del sistema. Es
decir, la llegada de un cliente no influye en la probabilidad de llegada de otro cliente.
• La probabilidad de llegada en el intervalo h no depende de punto inicial del intervalo ni
de la historia de llegadas que lo preceden, solamente depende de la duración del intervalo.

Como dijimos, es necesario contar con la media de arribos por unidad de tiempo λ para
poder aplicar distribución Poisson. La función de probabilidad de dicha media define la
probabilidad de x llegadas en un período determinado, a través de la siguiente expresión:
𝝀𝝀𝒙𝒙 . 𝒆𝒆−𝝀𝝀 (𝝀𝝀 . 𝑻𝑻)𝒙𝒙 . 𝒆𝒆−𝝀𝝀 .𝑻𝑻
𝑷𝑷(𝒙𝒙) = ó para x=0,1,2,…
𝒙𝒙! 𝒙𝒙!
En este caso, el tiempo entre intervalos (no la cantidad de clientes que llegan) sigue una
distribución exponencial. La función de densidad para esta distribución depende también
del parámetro λ, y está dada por:
𝟏𝟏 −𝝀𝝀 .𝑻𝑻
𝒇𝒇(𝒕𝒕) = 𝒆𝒆
𝝀𝝀
Con una cantidad de tiempo T se puede usar la función de densidad para calcular la
probabilidad de que el siguiente cliente llegue dentro de las siguientes T unidades a partir
de la llegada anterior, de la siguiente forma:
𝑷𝑷(tiempo entre llegadas ≤ 𝑻𝑻) = 𝟏𝟏 − 𝒆𝒆−𝝀𝝀 .𝑻𝑻
En la práctica es necesario recolectar y tabular los datos, calcular la media y desvío
estándar y comprobar si la aleatoriedad de las llegadas se ajusta a una distribución de
Poisson. En general, si la varianza (σ2) se acerca notoriamente a la media (λ) estamos en
presencia de una distribución de Poisson; en caso contrario, a una Distribución Normal.

83
3. Proceso de servicio. Cantidad de servidores
El proceso de servicio define cómo son atendidos los clientes. Está claro que el servicio
que ofrece el sistema se lleva a cabo a través de una o más instalaciones (estaciones) de
servicio o servidores. Si el mismo se presta mediante una única estación, estamos en
presencia de un sistema de colas de canal sencillo, mientras que si existen varias
estaciones, consiste en un sistema de colas de canal múltiple. En el caso de que un
sistema de cola presente varios servidores, en la presente unidad, se considerará que cada
uno tiene la misma capacidad de servicio.
Por lo general, a medida que aumentan los servidores mejor es la calidad con la que se
ofrece el servicio y mejoran las medidas de desempeño, aunque dicho incremento también
llevará al crecimiento de los costos de operación.

4. Distribución de los tiempos de servicio


El tiempo de servicio es el que el cliente o unidad deja transcurrir en la instalación una
vez que se inicia el servicio.
Así como se requiere la distribución de arribos, también es necesario conocer la
distribución de probabilidades de los tiempos de atención o duración del servicio (aunque
pueden ser determinísticos). Al igual que para las llegadas, la distribución de los tiempos
de servicios más utilizada es la Exponencial, la cual supone que los mismos son variables y
aleatorios.El parámetro de esta distribución se conoce como µ, e indica el tiempo
promedio de servicio cuando se calcula 1/µ (media de la distribución). De forma análoga a
lo visto en los procesos de llegadas, en este caso también la cantidad de servicios
prestados en una unidad de tiempo específica se ajusta a una distribución de Poisson,
siendo la media µ (cantidad promedio de unidades que pueden atenderse por período).
𝑷𝑷(tiempo de servicio ≤ 𝒕𝒕) = 𝟏𝟏 − 𝒆𝒆−𝝁𝝁 . 𝒕𝒕
5. Vinculación entre distribuciones Poisson y exponencial
Como fuimos explicando, existe una relación entre la distribución de Poisson y la
Exponencial: el uso de una define automáticamente la otra. Entonces, decir que las
llegadas se distribuyen según Poisson con velocidad media λ por unidad de tiempo,
equivale a decir que los tiempos entre arribos se ajustan a una distribución Exponencial
Negativa con media 1/λ. Similar razonamiento surge con los servicios: afirmar que los
tiempos de servicios se distribuyen según la Distribución Exponencial, es igual a afirmar
que la cantidad de servicios por unidad de tiempo se distribuye según Poisson.

2) Características de operación. Sistemas en estado estable; medidas de eficiencia


Proceso de colas. Disciplina de cola
Parte del proceso de colas tiene que ver con la forma en que los clientes esperan para ser
atendidos. Los clientes pueden esperar en una sola fila, tratándose de un sistema de colas
de una sola línea, o bien pueden elegir una de varias filas en la que deben esperar a ser

84
atendidos, estando en presencia de un sistema de colas de líneas múltiples. Otra
característica del proceso es el número de espacios de espera en cada fila, es decir, el
número de clientes que pueden esperar para ser atendidos en cada línea, el cual puede ser
finito o infinito (como ya dijimos, se considerará infinito para facilitar los cálculos).
Otra característica del proceso de colas es la disciplina de colas, es decir, la forma, el
orden o el criterio bajo el cual los clientes que esperan son seleccionados para ser
atendidos. Las más comunes son:
 Primero en entrar, primero en salir (PEPS): los clientes son atendidos en el orden en que
van llegando a la fila.
 Último en entrar, primero en salir (UEPS): el cliente que ha llegado más recientemente es
el primero en ser atendido. Ejemplo: proceso de producción en el que los productos
llegan a una estación de trabajo y son apilados uno encima del otro.
 Selección de prioridad: a cada cliente que llega se le da una prioridad, según la cual se lo
elegirá para prestarle el servicio. Ejemplo: pacientes en un hospital.
 Servicio en orden aleatorio (SEOA).

Sistema en estado estable


Los fenómenos de espera tienen dos etapas: un período transitorio (de preparación y
ajuste de operaciones) y un período de estado estable. El primero de ellos presenta
distorsiones en las características típicas del fenómeno observado, por lo que suele excluirse
del análisis (ejemplo: un servidor que al iniciar descubre que ya hay cola formada). Esta etapa
finaliza cuando el sistema llega a operación normal, es decir a unestado estable, en el cual
los flujos de arribos y servicios interactúan de la forma más representativa de la realidad que
se observa, sin variaciones bruscas.
Los modelos de línea de espera describen las características de operación de estado
estable de la línea de espera.

Medidas de eficiencia o desempeño


Como ya dijimos, se trata primordialmente de un modelo descriptivo, es decir, que sirve
para calcular ciertas medidas de desempeño que exponen cómo funciona el mismo, pero no
proponen un curso de acción para mejorarlo. Para tal fin, a partir de los datos del problema
pueden calcularse las siguientes medidas de eficiencia de un modelo de colas:
• Cantidad promedio de clientes en la cola (L c ).
• Cantidad promedio de clientes en el sistema (L s ).
• Tiempo promedio de espera en la cola (T c ).
• Tiempo promedio de permanencia en el sistema (T s ).
• Probabilidad de que se forme cola (su expresión depende del tipo de modelo).
• Probabilidad de que no haya elementos en el sistema (P (0) ).
• Probabilidad de que haya n elementos en el sistema en el instante t (P (n) ).

85
Si bien los distintos cálculos dependerán del tipo de sistema de cola que se trate, pueden
extraerse ciertas relaciones fundamentales entre las medidas de desempeño cuando la
cantidad de clientes es infinita, las cuales se aplican independientemente del tipo de modelo
que se trate y de la distribución a la que se ajustan los tiempos (tanto entre arribos como de
servicios); son las llamadas ecuaciones de flujo de Little. Entre ellas:
T s = T c + 1/µ L s = λ . T sT s =Ls /λL c = λ . T c T c =L c /λ
3) Distintos tipos de modelos
Tipificación de los modelos de colas
D.G. Kendall sugirió una notación abreviada que permite reflejar las características que
forman a un modelo de línea y así diferenciarlos entre sí.
La notación se basa, originalmente en tres códigos, separados por barras inclinadas: A/S/e.
• A: indica el patrón de Arribos: si es determinístico o aleatorio, y en este último caso su
distribución de probabilidades; si es individual o colectiva.
• S: indica el patrón de Servicios: si es determinístico o aleatorio (y su distribución de
probabilidades).
• e: indica el número de estaciones destinadas al servicio (cantidad de servidores).

Entre los valores más comunes que pueden adoptar tanto A como S tenemos:
• M: distribución de Poisson para arribos/servicios o Exponencial para tiempos entre
arribos/de servicio.
• D: arribos o tiempos de servicios constantes o determinístico.
• G: indica arribos o tiempos de servicios con una distribución de probabilidad General
con media y varianza conocida (distribución según Gauss).
• Ek: tiempos de arribo o servicio se distribuyen según una distribución Erlang o Gamma.

A. M. Lee extendió la notación hasta 5 símbolos y H. A. Taha incorporó un sexto


símbolo: /n/d/p.
• n: indica la capacidad del sistema a través del número máximo de clientes que admite.
Si se omite, se supone que es infinita.
• d: indica la disciplina de la línea de espera (como vimos PEPS, UEPS, entre otros; si se
omite, se supone que es PEPS).
• p: indica la cantidad de elementos en la población de donde provienen los clientes. Si se
omite, se supone que es infinitamente grande.

Modelo M/M/1
Se desarrollará un modelo para determinar las medidas de desempeño cuando se utiliza
un solo servidor que opera en estado estable y los tiempos entre arribos y de servicios se
ajustan a una distribución Exponencial (o las cantidades a una Poisson); se simbolizará
como M/M/1. Entonces, las características son:
 Existe un solo canal de atención para los clientes (un solo servidor).
86
 Existe una sola línea de espera.
 Las llegadas siguen una distribución de Poisson.
 Los tiempos de servicio se ajustan a una distribución Exponencial.
 La disciplina de la cola es PEPS.
 La población de clientes se considera infinita.
 La cantidad de clientes en el sistema puede ser infinitamente grande.

Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:

𝟐𝟐
𝝆𝝆
𝑳𝑳𝑪𝑪 = � (𝒏𝒏 − 𝟏𝟏) . 𝒑𝒑(𝒏𝒏) = = 𝝀𝝀 . 𝑻𝑻𝑪𝑪
𝟏𝟏 − 𝝆𝝆
𝒏𝒏=𝟏𝟏
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 = = 𝝆𝝆 . 𝑻𝑻𝑺𝑺
𝝀𝝀

𝝀𝝀 𝝆𝝆
𝑳𝑳𝑺𝑺 = � 𝒏𝒏 . 𝒑𝒑(𝒏𝒏) = =
𝝁𝝁 − 𝝀𝝀 𝟏𝟏 − 𝝆𝝆
𝒏𝒏=𝟎𝟎
𝟏𝟏 𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
=
𝝁𝝁 𝝁𝝁 − 𝝀𝝀
Probabilidad de no esperar 𝒑𝒑(𝟎𝟎) = 𝟏𝟏 − 𝝆𝝆
Probabilidad de que se forme cola 𝒑𝒑(𝒏𝒏≥𝟏𝟏) = 𝝆𝝆
Probabilidad de que haya n elementos en el sistema en el instante t𝒑𝒑(𝒏𝒏) = 𝝆𝝆𝒏𝒏 . (𝟏𝟏 − 𝝆𝝆)

Como podemos observar en algunas fórmulas interviene el elemento ρ (rho), el cual es


el resultado del siguiente cociente:
𝝀𝝀
𝝆𝝆 =
𝝁𝝁 . 𝒔𝒔
Se denominada factor de tráfico o factor de utilización de la instalación de servicio, y
representa la cantidad de clientes que están entrando al sistema por cada uno que se
atiende en una determinada unidad de tiempo, o dicho de otra forma, la facción esperada
de tiempo que los servidores individuales están ocupados. Su valor es un indicar
fundamental para determinar si existe realmente un problema de formación de colar y, en
consecuencia, decidir si es razonable o no continuar con el análisis. Por lo general si ρ>0,5
se justifica calcular el resto de las medidas de desempeño.
En la fórmula el valor de s indica la cantidad de servidores, por lo que en este modelo la
fórmula podría reducirse a ρ=λ/µ. Es necesario que el factor de tráfico no sea superior a 1,
ya que en dicho caso las unidades llegarían más rápido que lo que abandonan el sistema,
por lo que la cola crecería indefinidamente.
Si bien aclaramos que no se trata de un modelo normativo, a partir de la descripción
que los resultados obtenidos de las medidas de desempeño hacen de la situación
87
modelada se pueden establecer estrategias de mejora (en el caso que sean necesarias). Por
lo general sobre λ no se puede actuar, ya que no se puede manipular la demanda.
Por lo tanto las alternativas para mejorar el proceso de servicio serían:
 Disminuir los tiempos promedios de atención mediante mejoras en la eficiencia de quien
presta el servicio; lo que equivalente a aumentar la velocidad promedio de servicio µ. Esto
podría lograrse con innovaciones tecnológicas, por ejemplo.
 Aumentar la cantidad de servidores, lo que hará variar el modelo (y aumentar los costos).

4) Modelo con cola simple, múltiples canales y capacidad infinita


Características del modelo
Se típica como M/M/s (donde s refleja la cantidad de servidores). Las particularidades
del modelo son:
 Los clientes que llegan esperan en una sola cola y ocupan el primer servidor que se
libera.
 La línea de espera tiene dos o más canales de servicio que operan el paralelo y
prestan el mismo servicio (y con idéntica capacidad o velocidad).
 La cantidad de clientes que llegan responde a una distribución de Poisson.
 Los tiempos de servicio de cada canal se ajustan a una distribución Exponencial.
 Cada canal atiende µ cliente por unidades de tiempo, y dicho valor surge de calcular
el promedio para todos los canales (velocidad media de servicio).
 La población de clientes es infinitamente grande.
 La disciplina de cola es PEPS.
 La cantidad de clientes en el sistema puede ser infinitamente grande.

Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:
−𝟏𝟏
𝝀𝝀
( �𝝁𝝁) 𝒔𝒔 𝒔𝒔−𝟏𝟏 𝝀𝝀
( �𝝁𝝁) 𝒏𝒏
𝒔𝒔
𝒑𝒑(𝟎𝟎) = � × +� �
𝒔𝒔! 𝝀𝝀
𝒔𝒔 − ( �𝝁𝝁) 𝒏𝒏=𝟎𝟎 𝒏𝒏!

𝝀𝝀 . 𝝁𝝁 . (𝝀𝝀�𝝁𝝁)𝒔𝒔
𝑳𝑳𝑪𝑪 = 𝒑𝒑(𝟎𝟎)
(𝒔𝒔 − 𝟏𝟏)! . (𝒔𝒔 . 𝝁𝝁 − 𝝀𝝀)𝟐𝟐
𝝁𝝁 . (𝝀𝝀�𝝁𝝁)𝒔𝒔
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 = = 𝒑𝒑(𝟎𝟎)
𝝀𝝀 (𝒔𝒔 − 𝟏𝟏)! . (𝒔𝒔 . 𝝁𝝁 − 𝝀𝝀)𝟐𝟐
𝑳𝑳𝑺𝑺 = 𝑳𝑳𝑪𝑪 + (𝝀𝝀�𝝁𝝁)
𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
𝝁𝝁
88
(𝝀𝝀�𝝁𝝁)𝒔𝒔
𝒔𝒔
𝒑𝒑(𝒏𝒏≥𝒔𝒔) = 𝒑𝒑(𝟎𝟎) × ×
𝒔𝒔! 𝒔𝒔 − (𝝀𝝀�𝝁𝝁)

(𝝀𝝀�𝝁𝝁)𝒏𝒏
𝒑𝒑(𝒏𝒏) = 𝒑𝒑(𝟎𝟎) . 𝒏𝒏 ≤ 𝒔𝒔
𝒏𝒏!
(𝝀𝝀�𝝁𝝁)𝒏𝒏
𝒑𝒑(𝒏𝒏) = 𝒑𝒑(𝟎𝟎) . 𝒏𝒏 > 𝑠𝑠
𝒔𝒔𝒏𝒏−𝒔𝒔 . 𝒔𝒔!
𝝀𝝀
Número promedio de canales ocupados: 𝑯𝑯 =
𝝁𝝁
𝝀𝝀
Número promedio de canales ociosos: 𝒔𝒔 − 𝑯𝑯 = 𝒔𝒔 −
𝝁𝝁
Es importante aclarar que en este modelo ρ ≠λ/µ, ya que en este caso la cantidad de
servidores es mayor que uno, por lo que µ refleja la tasa promedio de servicio para cada
canal y µ . s refleja la tasa promedio de servicio para todo el sistema de canales múltiples;
razón por la cual ρ=λ/(µ . s).

5) Modelos de espera con población demandante finita


Características del modelo
La notación ampliada para este modelo es M/M/1/∞/PEPS/N. Donde N refleja la
cantidad de unidades que conforman la población, la cual es finita. Del total de N
elementos que hay en la población, cuando es utilizado el sistema hay 1 cliente en servicio
y n-1 que esperan (si se considera que hay n clientes en el sistema).
En los modelos vistos anteriormente la población se consideraba infinitamente grande,
lo que llevaba a que la velocidad media de llegadas (λ) fuese una constante (es decir, la
llegada de un cliente no influiría en la probabilidad de que otro llegue). En cambio, cuando
la población es finita, dicha velocidad no es constante, sino que el promedio de llegadas
(λ) cambia a medida que varía el número de clientes en el sistema (n). Esto llevaría a que
los cálculos se dificulten, por lo que en este modelo el concepto “velocidad media de
llegadas” se identificará con la frecuencia con que “cada unidad” llega en busca de servicio.
Entonces, λ -para este modelo- indica el promedio de veces por unidad de tiempo que
cada componente de la población requiere el servicio. En este caso, también es fija, ya que
se considera que todos los clientes se comportan de forma similar.
Con lo dicho, podemos definir a λ como el inverso multiplicativo del tiempo transcurrido
entre cada momento en que cada unidad (cliente) requiere el servicio: λ = 1/T a .

89
En conclusión, las características del modelo son:
 El modelo tiene un solo canal de atención y una sola fila de espera.
 La población es finita.
 Cada unidad llega al sistema según distribución Poisson, a una velocidad media λ.
 Los tiempos de servicio siguen una distribución Exponencial, con una velocidad
media de servicio igual µ.
 La disciplina de la cola es PEPS.

Las fórmulas para obtener las distintas medidas de desempeño para este modelo son:
𝑵𝑵 −𝟏𝟏
𝒏𝒏
𝑵𝑵! 𝝀𝝀
𝒑𝒑(𝟎𝟎) = �� ×� � �
(𝑵𝑵 − 𝒏𝒏)! 𝝁𝝁
𝒏𝒏=𝟎𝟎
𝝀𝝀 + 𝝁𝝁
𝑳𝑳𝑪𝑪 = 𝑵𝑵 − (𝟏𝟏 − 𝒑𝒑(𝟎𝟎) )
𝝀𝝀
𝑳𝑳𝑪𝑪
𝑻𝑻𝑪𝑪 =
(𝑵𝑵 − 𝑳𝑳𝑺𝑺 ) . 𝝀𝝀
𝑳𝑳𝑺𝑺 = 𝑳𝑳𝑪𝑪 + (𝟏𝟏 − 𝒑𝒑(𝟎𝟎) )
𝟏𝟏
𝑻𝑻𝑺𝑺 = 𝑻𝑻𝑪𝑪 +
𝝁𝝁
𝑵𝑵
𝑵𝑵! 𝝀𝝀 𝒏𝒏
𝒑𝒑(𝒏𝒏) = �� × � � � . 𝒑𝒑(𝟎𝟎) para n=0,1,2,…,N
(𝑵𝑵 − 𝒏𝒏)! 𝝁𝝁
𝒏𝒏=𝟎𝟎
Resulta importante destacar que si el número de clientes (N) varía, no ocurrirá lo mismo
con la tasa media de arribos, debido a que λ no representa la velocidad media de llegadas
de clientes desde la población, sino la cantidad media de llegadas de cada unidad tomada
individualmente, por lo que no depende del número total de elementos que pueden
ingresar al sistema (N-n).

6) Análisis económico de las líneas de espera


Dos modos de analizar una misma situación problemática
Hasta hora vimos que los modelos de líneas de espera generalmente son descriptivos y
brindan información para diseñar un sistema de colas. Sin embargo, también puede
abordarse el problema mediante un modelo normativo que incluye los costos (incurridos o
implícitos) y permite realizar otro tipo de evaluación.
Por ejemplo, si se desean mejorar las medidas de desempeño de un sistema, se puede
optar por la alternativa de incorporar más servidores. No obstante, ello implicará incurrir
en más costos de operación. Un análisis económico permitiría determinar el equilibrio
económico entre estas dos cuestiones.
90
La incorporación de costos al modelo
Lo que se busca con el modelo normativo es diseñar el sistema de atención más
adecuado económicamente. Para ello, es importante distinguir que existen dos tipos de
costos: 1. Por estar en el sistema (costo que sufre el cliente por esperar en la cola y
después por ser atendido), debido al hecho de requerir la prestación del servicio; 2. Por
prestar el servicio con más y/o mejores servidores, con la intención de minimizar el tiempo
que los clientes duran en el sistema.

Costo del Cliente (por esperar y por recibir el servicio)


Si bien incorporando más servidores y mejorando la capacidad de ellos para prestar el
servicio se reduciría la probabilidad de que se forme cola, nada garantizaría que ello no
ocurra. Y esto es así por la aleatoriedad que define a los arribos. Además, en los cálculos
de LC y LS participa, como numerador, ρ=λ/µ, por lo que la única forma para que no se
forme cola sería que λ =0.
Cuando se trata de clientes externos a la organización que presta el servicio, el
problema puede separarse en dos casos distintos según si la organización busca obtener
un fin de lucro o no. No obstante, en ambos casos resulta difícil poder calcular o estimar el
costo implícito en las actitudes de los clientes.
En cambio, cuando los clientes son internos, resulta más fácil costear el tiempo no
aprovechado por causa de la cola y de la prestación del servicio. En ese caso, se puede
asignar un costo al tiempo de los clientes internos que en lugar de avocarse a sus tareas
específicas están demorados buscando un servicio.

Costo del Servicio (costos por prestar el servicio)


Proveer más y mejores servidores para evitar la formación de cola implica costos de
instalación, operación y mantenimiento. Resulta más accesible, en comparación con el
costo del cliente, contar con la información necesaria para identificar el costo por unidad
de tiempo que el servidor opera o, en otras palabras, saber cuánto cuesta, en promedio,
atender a un cliente.

Costos intervinientes y variables de decisión


Como vemos, los costos que intervienen resultan opuestos, por lo que el modelo
normativo buscará hallar el equilibrio económico entre ellos y diseñar el sistema de colas
más idóneo. Los costos son: Costos del Cliente (CC) y Costo del Servicio (CS). Ambos
deberían considerarse como “costo esperado” puesto que la cantidad de arribos como los
tiempos de servicio son de tipo aleatorio. Entonces, el objetivo es obtener un sistema de
colas que minimice el Costo Total Esperado (CT):
CT = CC + CS (1)
Como en todo modelo normativo, es necesario identificar las variables de decisión y
además reconocer los elementos del sistema de colas sobre los que se podrá trabajar para
conseguir dicho costo mínimo. En general, se puede actuar sobre tres variables: número de
91
servidores (s), velocidad media de atención de los servidores (µ) y -en menor medida-
cantidad media de arribos (λ).
Solamente consideraremos un modelo M/M/1 en el cual solo tomará la velocidad
media de servicio de la estación (µ) como variable de decisión

Costo Esperado del Servicio


Con el fin de determinar el valor óptimo de la variable de decisión, se considera que
existe una relación lineal entre los costos por atender a un cliente y la velocidad media de
atención del servidor, por lo que tenemos que:
𝑪𝑪𝑪𝑪 = 𝑪𝑪𝑺𝑺 . 𝝁𝝁 (𝟐𝟐)
Donde C S refleja el costo de atender cada cliente. Si se conoce el costo por prestar el
servicio en la unidad de tiempo bajo análisis, ese sería CS, por lo que no sería necesario
descubrir el valor de C S .

Costo Esperado del Cliente


Dicho costos estará en función de la cantidad promedio de clientes que haya dentro del
sistema (L S ) y del costo por estar en dicha situación cada uno de los clientes (C C ). La
ecuación que lo representa sería:
𝑪𝑪𝑪𝑪 = 𝑪𝑪𝒄𝒄 . 𝑳𝑳𝑺𝑺 (𝟑𝟑)
Si recordamos las ecuaciones de flujo de Littlevistas anteriormente, la longitud del
sistema también puede expresarse como el producto de la cantidad promedio de arribos
(λ) que haya en la unidad de tiempo bajo estudio y de la cantidad de tiempo que cada uno
de los clientes debe permanecer en el sistema (T S ).
𝟏𝟏
𝑪𝑪𝑪𝑪 = 𝑪𝑪𝒄𝒄 . 𝝀𝝀 . 𝑻𝑻𝑺𝑺 = 𝑪𝑪𝒄𝒄 . 𝝀𝝀 . (𝟒𝟒)
𝝁𝝁 − 𝝀𝝀
Costo Esperado Total
Si unimos las ecuaciones (2) y (4) tenemos que:
𝝀𝝀
𝑪𝑪𝑪𝑪 = 𝑪𝑪𝒄𝒄 . + 𝑪𝑪𝑺𝑺 . 𝝁𝝁 (𝟓𝟓)
𝝁𝝁 − 𝝀𝝀
Se puede reflejar el
comportamiento de ambos costos y
el consiguiente costo total en la
siguiente gráfica:

92
Velocidad óptima de atención del modelo M/M/1
Como dijimos, suponemos que la única variable de la ecuación (5) (y por ende variable
de decisión) es la cantidad promedio de servicios prestados por unidad de tiempo µ.
Entonces, si obtenemos su primera derivada y la igualamos a 0 hallaremos el valor que
debe adoptar dicha variable para que el CT sea el mínimo.
𝝏𝝏𝝏𝝏𝝏𝝏 𝝀𝝀
= −𝑪𝑪𝒄𝒄 . + 𝑪𝑪𝑺𝑺
𝝏𝝏𝝏𝝏 (𝝁𝝁 − 𝝀𝝀)𝟐𝟐
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
+ 𝑪𝑪𝑺𝑺 = 𝟎𝟎
(𝝁𝝁 − 𝝀𝝀)𝟐𝟐
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
(𝝁𝝁 − 𝝀𝝀)𝟐𝟐 =
𝑪𝑪𝑺𝑺
−𝑪𝑪𝒄𝒄 . 𝝀𝝀
𝝁𝝁𝒐𝒐 = � + 𝝀𝝀
𝑪𝑪𝑺𝑺

Con la última ecuación se obtiene el valor óptimo de la velocidad de atención en un


sistema M/M/1 cuando se conocen el costo del cliente y el costo del servicio.

UNIDAD V: Simulación
1) Conceptos básicos. Ventajas y desventajas. Planeamiento y etapas.
En los problemas vistos anteriormente (y que se verán en el resto de las unidades) ha
sido posible obtener soluciones a través de técnicas matemáticas. Sin embargo, al tratar
algunos problemas del mundo real el modelo resultante puede ser demasiado complejo,
no siendo posible o práctico desarrollar una metodología de solución basada en un
análisis matemático.
En tales casos, una alternativa sería usar una técnica de la ciencia administrativa: la
simulación. También resulta conveniente usarla en el caso de modelos estocásticos o
probabilísticos. La simulación de un sistema es la operación del modelo que lo representa,
mediante la experimentación. Se recurre a la configuración, reconfiguración, y
experimentación sobre un medio maleable y más fácil de interpretar, sin alterar al sistema
real en sí mismo, lo cual sería impracticable, peligroso o demasiado costoso. En lugar de
actuar sobre la propia realidad que el modelo representa, lo que se hace es imitar el
desempeño del sistema real usando distribuciones de probabilidades para generar
aleatoriamente los distintos eventos que ocurren en el sistema. Un modelo de simulación,
entonces, sintetiza el sistema mediante la construcción de cada uno de sus componentes y
evento por evento. Después el modelo corre el sistema simulado para obtener
observaciones estadísticas del desempeño del sistema como consecuencia de los
diferentes eventos generados aleatoriamente. Como las corridas de simulación requieren la
93
generación y el proceso de una gran cantidad de datos (muestra grande), resulta útil (y
necesario) llevarlo a cabo en una computadora (simulación por computadora).
Entonces, la simulación es una técnica de muestreo estadístico para estimar el
desempeño de sistemas estocásticos complejos. En lugar de describir el comportamiento
global de un sistema directamente, el modelo de simulación describe la operación del
mismo en función de los eventosindividuales de cada uno de los componentes del
sistema. Por tal motivo, la simulación permite dividir el trabajo de construir un modelo en
componentes más pequeños que se pueden formular con mayor facilidad, y luego los
combina en su orden natural. Construido el modelo, éste se activa usando números
aleatorios para generar los eventos simulados a través del tiempo, según las distribuciones
de probabilidades adecuadas. El resultado es una simulación de la operación del sistema
real de la que puede extraerse su comportamiento agregado. Si se repite el proceso varias
veces y con distintos números aleatorios, se pueden estimar probabilidades respecto del
funcionamiento del modelo.
Así, en conclusión, la simulación no es más que una técnica para realizar experimentos
de muestreo sobre el modelo del sistema.
La simulación permite observar en detalle la operación del sistema e inferir propiedades
inherentes al comportamiento de los elementos de la realidad representada y evaluar su
rendimiento.
La posibilidad de efectuar alteraciones en el modelo (en lugar de afectar al sistema real
existente o ante la imposibilidad de actuar porque el sistema real todavía no se construyó)
reduce el riesgo de: errores en las especificaciones, resultados catastróficos, sobre o sub
utilización de recursos, rendimiento deficiente del sistema, etc.

¿Normativo o Descriptivo?
Los modelos de simulación no recomiendan un curso de acción con el fin de optimizar
alguna variable. Solo es una técnica de evaluación de los resultados logrados por distintos
cursos de acción mediante la experimentación, en base a un modelo matemático que
representa la situación real de decisión.
Por tal motivo, estamos en presencia de un modelo descriptivo, en donde las variables
constituyen entradas con un conjunto particular de valores para evaluar el
comportamiento de los elementos del sistema representado.
En conclusión, en un modelo de simulación se obtiene una descripción de cómo
funciona el sistema representado, cuando se dan las circunstancias señaladas por el
experimentador.

Situaciones en las que es aplicable la simulación. Las ventajas de simular


Una característica de esta técnica radica en el hecho que puede aplicar en varias
situaciones en las que la aleatoriedad de un sistema influye sobre los análisis que pueden
hacerse de él.

94
La simulación es una herramienta ideal en situaciones como las siguientes:
• Imposibilidad de observar el comportamiento real de determinados procesos, por no
ser técnicamente observables o porque demandan costos excesivos.
• Es posible una formulación matemática del modelo pero con soluciones analíticas
demasiado complejas
• Imposibilidad o alto costo para validar el modelo matemático planteado, por escasez de
datos y complejidad en su obtención.
• Escalas de tiempo discrepantes entre la realidad y el analista. Un simulador electrónico
puede “avanzar en el tiempo” rápidamente y mostrar resultados que llevaría muchos años
obtener en tiempo real.
• Facilidad de manipulación de los valores de parámetros que en la realidad pueden
demandar mucho trabajo o ser imposibles de obtener.
• Eliminación de “ruido” y repercusiones de segundo orden debido a la interacción de
elementos que en la realidad provocan interferencias en los resultados obtenidos, y que en
la simulación se pueden aislar para evaluar específicamente los que se quiere analizar.

En el siguiente cuadro pueden verse 3 ejemplos de situaciones en las que es aplicable la


técnica de simulación:

Simulación para observar


Situación real Elementos aleatorios Estructura No Aleatoria
efectos de cambios en:
• Demanda de • Normas de • Niveles reaprovisionamiento
Administración artículos reaprovisionamiento, con demanda estable
de inventarios • Plazos de reaprovi- • Tamaño de los • Demanda con niveles de
sionamiento depósitos reaprovisionamiento fijos
• Número de
paquetes a • Tamaño flota
distribuir • Normas de recepción • Tamaño de la flota
Repartos a
• Capacidad de de paquetes (tamaño, • Horarios de trabajo
domicilio
vehículos horarios, etc.) • Relocalización centros de
(cadetería)
• Distancias /tiempo • Cantidad de Centros atención y duración de
• Cantidad de atención ydistribución recorridos.
vehículos fuera de geográfica
servicio
Planificación • Llegada de • Onda verde • Tiempo de onda verde
urbana (flujo vehículos a una • Sentido de circulación • Cantidad promedio de
vehicular) zona (cantidad del tránsito vehículos que arriban al
por unidad de • Normativa de lugar
tiempo) estacionamiento en • Ensanche de calzadas
calzadas (remoción de vehículos
estacionados, obstáculos,
etc.)

95
Entre las ventajas que presenta el proyecto tenemos:
 La simulación permite analizar grandes problemas cuyo grado de complejidad impide
aplicar resultados analíticos.
 La simulación hace posible la experimentación, sin ser necesario actuar directamente
sobre la realidad que representa el modelo.
 La simulación reduce el tiempo de trabajo.
 Algunas técnicas analíticas requieren de un conocimiento matemático muy sofisticado
tanto para utilizarlas como para comprenderlas. En cambio, la simulación puede requerir
pocas o ningunas matemáticas compleja, lo que la hace más comprensible.

Desventajas y peligros de la simulación


Su más seria desventaja es justamente su facilidad de uso; es común olvidar las
limitaciones y condiciones bajo las cuales es válida la simulación y, consecuentemente,
extraer conclusiones incorrectas.
Al mismo tiempo, errores en el modelado pueden derivar en conclusiones incorrectas,
puesto que se fuerzan características para que se pueda construir el modelo.
Entre otras desventajas tenemos:
 Los resultados numéricos obtenidos se basan en el conjunto específico de números
aleatorios, por lo que sus valores corresponde a sólo uno de los resultados posibles. Por tal
motivo, los valores finales consignados en una simulación son sólo estimaciones de los
valores reales que está buscando.
 Para obtener estimaciones más exactas y para minimizar la probabilidad de error, es
necesario: a) hacer un gran número de ensayos en cada simulación y/o b) repetir toda la
simulación un gran número de veces.
 Cada simulación requiere su propio diseño especial para imitar la realidad a investigar y
su propio programa de computadora asociado.

Clasificación del sistema


El diseño y la implantación de una simulación dependen del tipo de sistema modelado:
1. Sistema de eventos discretos, en el que el estado del sistema cambia sólo en ciertos
puntos del tiempo (por ejemplo, el líneas de espera, el sistema cambia sólo cuando llega
un cliente nuevo o cuando uno termina de ser atendido). Este tipo de sistemas es el que
veremos en la materia, el cual a su vez se clasifica en:
a. Sistema de terminación: existen puntos de inicio y terminación precisos y conocidos
(como en el caso de redes de proyectos PERT). El período de tiempo que separa al inicio
de la terminación se denomina longitud de la simulación.
b. Sistema de no terminación: está en curso y carece de puntos de inicio y terminación
claros (como en el caso de un proceso de producción).
2. Sistema continuo, en el que el estado del sistema cambia continua y permanentemente
en el tiempo, es decir, a cada instante (por ejemplo, simulación de un vuelo espacial).

96
Identificación de los componentes de una simulación (por computadora)
Antes de diseñar los detalles de una simulación, es necesario determinar y comprender
los objetivos del estudio en la forma de salidas numéricas específicas.
Con las salidas identificadas, el siguiente paso es identificar las entradas. Es decir, los
valores numéricos que, una vez determinados, permiten comenzar la simulación y calcular
todas las salidas deseadas. Existen tres categorías:
• Condiciones iniciales: valores iniciales que expresan el estado del sistema al principio
de la simulación (por ejemplo, el línea de espera de un banco, el momento que abre
y todos los servidores están disponibles y no existen clientes en el sistema).
• Datos determinísticos: valores conocidos que son necesarios para realizar los cálculos
que producen salidas (en el ejemplo, la cantidad de servidores y la cantidad de horas
que funcionan).
• Datos probabilístico: cantidades cuyos valores son inciertos pero necesarios para
obtener las salidas de la simulación, y que se ajustan a cierta distribución de
probabilidades (en el ejemplo, las medidas de desempeño, las velocidades y tiempos
entre arribos y de servicios).

Planeamiento y etapas
Para el desarrollo correcto de un modelo de simulación deben realizarse las siguientes
etapas:
1. Formular el problema
Quien debe tomar una decisión, primeramente necesita identificar el problema y luego
tratar temas como: objetivos del estudio, nivel de detalle a observar en el modelo, medidas
de eficiencia a obtener, configuración de escenarios, etc.

2. Construcción del modelo conceptual a partir de datos e información disponible


Se recopila toda la información sobre la estructura y el funcionamiento del sistema
presentado, datos útiles para definir parámetros y variables y su distribución de
probabilidad, relaciones funcionales, entre otros. A partir de todo eso, se construye el
modelo, y además se recaban datos de campos que servirán para validar los resultados
generados por éste.

3. Validación del modelo conceptual


Esta fase tiene por meta determinar el grado de semejanza entre el modelo de
simulación y la realidad que busca representar, teniendo en cuenta la finalidad para la que
se implementa.Esta revisión estará a cargo de un analista o experto conocedor del tema, y
si se observan errores, omisiones o inconsistencias se las deberá corregir antes de avanzar
con las etapas siguientes.

4. Programación del modelo


Se programa el modelo conceptual en una aplicación de simulación o por medio de un
lenguaje de programación de propósito general. Finaliza con el código depurado.
97
5. Validar el programa de simulación
Si existen datos del sistema real, pueden compararse con los resultados producidos por
el modelo de simulación. Lo que se busca es validar los resultados, verificando su
coherencia y consistencia de acuerdo con el funcionamiento esperado del sistema. Es
recomendable hacer análisis de sensibilidad para identificar los factores que tienen un
mayor efecto sobre los resultados del modelo (es decir, modificar los valores adoptados
por las variables y parámetros, y ver como varía el resultado).

6. Diseño, realización y análisis de experimentos de simulación


Para cada caso se ha de decidir el tiempo de simulación y el número de muestras a
obtener, mediante la selección de un grado de confianza adecuado. Los resultados deben
verificarse por si fuera necesario realizar experimentos adicionales.

7. Documentar y resumir los resultados de simulación


La documentación debe incluir: modelo conceptual, código documentado del programa
del modelo y resultados del estudio. También un resumen que comente el desarrollo y
validación del modelo, así como las conclusiones obtenidas del análisis de los resultados.

2) Muestras artificiales. Números aleatorios. Método Montecarlo.


Si a las variables aleatorias introducidas en el modelo se les asignan valores se obtiene
un cierto resultado. Éste representa el rendimiento de los elementos componentes del
sistema modelado para el caso concreto de esos valores asignados a las variables. Se ha
realizado un solo experimento (una muestra), que por sí solo no permite formular
conclusión alguna.
Para que las conclusiones obtenidas del modelo se apoyen en un trabajo más sólido, la
técnica de simulación se basa en la experimentación repetitiva, generando lo que se
denomina muestras artificiales. El número de muestras a obtener está ligado a la fijación
de un cierto grado de confianza (un valor α, entre 0 y 1) que, aplicado según lo aprendido
en Estadística, permite definir el tamaño de la muestra. Para un valor fijo de α la precisión
de la estimación puede mejorarse aumentando solamente el tamaño de la muestra, lo cual
-en términos de la simulación- significa aumentar el número de corridas.

Números aleatorios y pseudoaleatorios


Para poder llevar a cabo un proceso de simulación es requisito esencial contar con un
generador de números aleatorios. Existen programas de computación con capacidad para
generarlos (como en Excel existe una función para tirar números aleatorios).
Se denomina números aleatorios a las muestras procedentes de una distribución
uniforme en el intervalo [0,1]. Existen diferentes formas para obtenerlos, los cuales pueden
clasificarse de la siguiente manera:
a) Métodos manuales: loterías o ruletas. Suelen ser lentos y no reproducibles. Durante
mucho tiempo se creyó que era el único método verdadero.
98
b) Métodos analógicos: los números se obtienen de algún experimento físico que pueda
recibirse dentro de la computadora. Se pueden generar rápidamente, pero no son
reproducibles (es difícil volver a lograr la misma secuencia de números aleatorios).
c) Tablas de números aleatorios:Es un procedimiento lento y presenta el inconveniente de
que la tabla puede ser insuficiente para una simulación larga.
d) Números Pseudoaleatorios: métodos basados en la generación de números usando un
programa de computación. Dado que el algoritmo utilizado es determinístico,
estrictamente hablando los números generados no serían aleatorios, pero se comportan
como si lo fueran ya que cumplen con condiciones de independencia y de aleatoriedad

Método Montecarlo
El método Montecarlo es una técnica de simulación originada en la década de 1940, en
el ámbito de los trabajos desarrollados por Von Neumann y Ulam en el laboratorio de Los
Álamos, aplicados al desarrollo de la bomba atómica durante la Segunda Guerra Mundial.
Se lo denominó así por asimilación con la característica más popular del Principado de
Mónaco: los juegos de azar del casino.
Según su definición, en el Método Montecarlo los eventos simulados tienen lugar
aleatoriamente y se ajustan a la descripción de las probabilidades teóricas derivadas de
experiencias adquiridas.

Muestras artificiales de variables aleatorias discretas


En el caso de una variable aleatoria discreta (x), se indica con p(x i ) al valor de la
probabilidad de la variable x cuando adopta el valor x i . También se verifica que:
𝒏𝒏

𝟎𝟎 ≤ 𝒑𝒑(𝒙𝒙𝒊𝒊 ) ≤ 𝟏𝟏 para i=1,2,3,…,n y � 𝒑𝒑(𝒙𝒙𝒊𝒊 ) = 𝟏𝟏


𝒊𝒊=𝟏𝟏
Y la función de acumulación de la variable discreta entre 1 y el valor particular x 0 es igual a:
𝒙𝒙𝟎𝟎

𝑭𝑭(𝒙𝒙𝟎𝟎 ) = 𝑷𝑷(𝒙𝒙 ≤ 𝒙𝒙𝟎𝟎 ) = � 𝒑𝒑(𝒙𝒙𝒊𝒊 )


𝒊𝒊=𝟏𝟏
Transformación inversa
El algoritmo de Simulación Montecarlo utiliza lo que se ha denominado procedimiento
de la transformación inversa.
La muestra artificial se genera a partir de la tabla de probabilidad acumulada
correspondiente a los valores de la variable del evento a simular. Para esto se genera la
tabla de probabilidades acumuladas y luego, a partir de estos valores, se establecen los
intervalos de números que se asocian a cada valor de la variable en estudio.
Si las probabilidades acumuladas están expresadas con 2 decimales, bastará extraer números
aleatorios de 2 dígitos para utilizarlos en la simulación. Conociendo cuál es el número aleatorio,
se determina en cuál de los intervalos definidos se encuentra ese número aleatorio, y a partir de
99
tal intervalo se obtiene el valor simulado para la variable: es el valor de la variable que se
corresponde con el intervalo en el cual está incluido el número aleatorio obtenido.
Considérese el ejemplo basado en la siguiente tabla, que contiene la distribución de la
demanda diaria de un cierto artículo. Puede adoptar valores entre 3 y 8, y en la segunda
columna se indica la cantidad de veces que se ha observado la demanda de cada una de
esas cantidades. Las columnas restantes tienen cálculos que permitirán desarrollar el
ejemplo: transformación de frecuencias relativas en probabilidades; sumatoria de
probabilidades acumuladas hasta un cierto valor; y definición de intervalos de validez para
los números aleatorios a obtener.

Demanda Frecuencias p(x i ) F(x) Intervalo


3 12 0,12 0,12 01 - 12
4 23 0,23 0,35 13- 35
5 38 0,38 0,73 36 - 73
6 11 0,11 0,84 74 - 84
7 9 0,09 0,93 85 - 93
8 7 0,07 1,00 94 - 00
Suponiendo que se quiere obtener una muestra de tamaño n = 3, a partir de los números
35, 77 y 06 obtenidos en forma aleatoria, las cantidades demandadas simuladas serán:
4, ya que 35 está comprendido en el intervalo correspondiente a F(x)=0,35.
6, ya que 77 está comprendido en el intervalo correspondiente a F(x)=0,84, y
3, ya que 06 está comprendido en el intervalo correspondiente a F(x)=0,12.

Muestras artificiales de variables aleatorias continuas


Cuando la variable a simular tiene un comportamiento continuo, la función de acumulación
es la siguiente: 𝑭𝑭(𝒙𝒙) = ∫ 𝒇𝒇(𝒙𝒙) . 𝒅𝒅𝒅𝒅, integrada en el dominio de la variable.
De forma similar a lo visto para una variable aleatoria discreta, a partir de un número
aleatorio comprendido entre 0 y 1 se genera un elemento de la muestra artificial x 0 que
corresponde al valor de la función de acumulación F(x 0 ). La diferencia radica en que acá
no se establecen intervalos, ya que el valor obtenido (por ser variable continua) va
exactamente al valor de la variable.

Caso de una variable que se ajusta a una Distribución Exponencial Negativa


La función de densidad de la distribución responde a:

𝒇𝒇(𝒙𝒙) = 𝝀𝝀 . 𝒆𝒆−𝝀𝝀 𝒙𝒙 para 0≤x≤∞


En donde λ es el parámetro de la distribución. La distribución de probabilidades
acumuladas respondería a la siguiente ecuación:
𝒙𝒙𝟎𝟎

𝑭𝑭(𝒙𝒙) = � 𝝀𝝀 . 𝒆𝒆−𝝀𝝀 𝒙𝒙 . 𝒅𝒅𝒅𝒅 para 𝒙𝒙𝟎𝟎 ε(0,∞)


𝟎𝟎
100
En este caso, para generar el valor artificial de la variable x 0 para el cual las
probabilidades acumuladas asumen un valor F(x 0 ) que coincide con el número aleatorio
aplicado, se recurre a:

𝐥𝐥𝐥𝐥�𝟏𝟏 − 𝑭𝑭(𝒙𝒙𝟎𝟎 )�
𝒙𝒙𝟎𝟎 = −
𝝀𝝀
Considérese este ejemplo, en el cual se debe generar una variable artificial siguiendo a
una Distribución Exponencial Negativa de parámetro λ=2. A tal efecto, el número aleatorio
obtenido es 885.Como el número aleatorio se asimila a la función de acumulación F(x 0 ) se
tiene que hacer el siguiente cálculo:
𝐥𝐥𝐥𝐥(𝟏𝟏 − 𝟎𝟎, 𝟖𝟖𝟖𝟖𝟖𝟖)
𝒙𝒙𝟎𝟎 = − = 𝟏𝟏, 𝟎𝟎𝟎𝟎𝟎𝟎𝟎𝟎
𝟐𝟐
3) Simulación aplicada a Inventarios. Estimación de costos y análisis de resultados

4) Simulación aplicada a problemas de gestión

5) Simulación aplicada a Sistemas de Colas. Estimación de medidas de


desempeño y análisis de resultados.

Los pasos a seguir son:


A. PARA UNA CORRIDA INDIVIDUAL
a) Hora de inicio:la establecida como dato de la simulación.

b) Primer cliente.
1. Sorteo tiempo entre llegadas. Asigno hora de llegada = hora de inicio + minutos
aleatorios
2. Tiempo de espera = 0:00. Longitud de la cola = 0
3. Sorteo tiempo servicio. Asigno duración servicio. Asigno comienzo servicio = Hora
de arribo.
4. Calculo hora finalización servicio = hora comienzo servicio + duración del servicio.

c) Demás clientes.
1. Sorteo tiempo entre llegadas.
Asigno hora de llegada = hora de arribo del anterior + minutos aleatorios
2. Calculo: Tiempo de espera = Hora finalización servicio anterior – hora de arribo
¿Es positivo? Calculo:
Longitud cola = Cantidad de veces que Hora finaliz. Servicio > Hora de llegada

101
¿No es positivo?  Tiempo de espera = 0:00. Longitud de la cola = 0.
3. Sorteo tiempo servicio. Asigno duración de servicio
Asigno comienzo del servicio = Hora de arribo + tiempo de espera
4. Calculo hora finalización servicio = hora comienzo servicio + duración del servicio.

d) Conclusiones
1. Sumo: tiempo entre llegadas; tiempo de servicio; tiempo de espera; longitud de la
cola.
2. Calculo promedios: sumatoria / número de observaciones.
3. Calculo probabilidades: casos favorables / número de observaciones.

B. PARA SACAR CONCLUSIONES DE TODAS LAS CORRIDAS JUNTAS


a) Conclusiones
1. Sumo: tiempo entre llegadas; tiempo de servicio, tiempo de espera; longitud de la
cola (de todas las simulaciones).
2. Cálculo promedios: sumatoria / cantidad de simulaciones.
3. Con los datos de todas las simulaciones se pueden hacer histogramas (gráficos de
barras), cálculo de varianzas y desvíos, calcular probabilidad de tener que esperar
más de x minutos o de que la cola tenga más de x elementos, etc.

6) Simulación aplicada a PERT. Estimación de tiempos y análisis de resultados


Este tema ya fue visto en el capítulo 6 de la Unidad II.

UNIDAD VI: Teoría de las decisiones


Información: Concepto – Valor – Estructura
Si aceptamos que existe información cuando se dispone de un mensaje o conjunto de
mensajes sobre un hecho o estado de naturaleza, podemos definir la TEORÍA DE LA
INFORMACIÓN como la ciencia de los mensajes.
La información es un recurso con el que cuenta el decisor y como tal tiene un costo
para obtenerla (que el receptor generalmente no puede manipular) y un valor, que
dependerá de la calidad de la misma, de la magnitud del problema a resolver y de la
utilización e importancia asignada por el decisor a la resolución del mismo.
Por lo general, la información tiende a reducir la incertidumbre, ya que mejora el grado
de conocimiento de la realidad; está claro que eso permite tomar mejores decisiones.
El valor de la realidad puede no depender de su volumen, sólo lo hará en el caso que
dicho volumen sea relevante y aprovechable para el destinatario.
El mecanismo que permite recibir mensaje m i sobre el verdadero estado de naturaleza
E j constituye una ESTRUCTURA DE INFORMACIÓN. Existen diversos tipos:

102
 Estructura de Información Perfecta(EIP): el estado de naturaleza verdadero queda
unívocamente determinado.
E1 E2 E3
m1 1 0 0
m2 0 1 0
m3 0 0 1
 Estructura de Información Refinada(EIR): presenta más mensajes que los necesarios.
E1 E2 E3
m1 0,5 0 0
m2 0,5 0 0
m3 0 1 0
m4 0 0 1
 Estructura de Información Imperfecta(EII): si la menos un estado de naturaleza no
queda unívocamente determinado por algún mensaje.
 Estructura de Información Burda(EIB): presenta menos mensajes que los necesarios
(una EIB nunca puede ser una EIP).
E1 E2 E3
m1 1 1 0
m2 0 0 1
Lo ideal es lograr una EIP, aunque ciertos factores impiden obtenerla: los errores
propios de la información, las demoras en obtenerla, las deformaciones producidas por
quienes la transmiten, las comprensiones que se hagan de ella, entre otros. En cuanto más
se acerca a la perfección la estructura de información, mayor será la probabilidad de
obtener información perfecta, la que transforma en certidumbre el estado de naturaleza, y
por ende su valor será máximo.

1) Estructuración y formulación de problemas de decisión


Se puede utilizar el análisis de decisiones para determinar estrategias óptimas cuando
un decisor enfrenta diversas alternativas de decisión, y un patrón de eventos futuros
incierto o muy riesgoso. Entonces, LA TEORÍA DE DECISIONES es una técnica que permite
tomar decisiones sobre problemas probabilísticos, en los cuales algo (o toda) de la
información relevante no se conoce con certeza en el momento en que la decisión debe
tomarse. Estos problemas presentan las siguientes características:
1. Existen uno o más puntos en el momento en que se debe tomar una decisión.
2. En cada punto existe un número finito de alternativas de decisión. El número y el
tipo de ellas pueden dependen de las anteriores decisiones tomadas y de lo que ocurrió
luego de ser implantadas.

103
3. La alternativa de decisión a elegir depende de los costos y/o de las ganancias
asociadas con cada decisión y del éxito que tenga el producto. El futuro puede
describirse mediante un número finito de estados o resultados posibles.
4. Debe tomarse una secuencia de decisiones que satisfagan un criterio global para la
organización.
El análisis de decisiones es la técnica utilizada para hallar la “mejore” secuencia de
decisiones en este tipo de problemas.

Estructuración del problema de decisión (ir viendo ejemplo ANDERSON página 628)
El primer paso en el método de análisis de decisiones consiste en identificar las
opciones a evaluar con las que dispone el decisor (es decir, las alternativas).
Es obvio que la elección de la cuál es la “mejor” alternativa dependerá de los resultados
posibles que en un futuro se alcancen con las opciones, los cuales son inciertos. Por ende,
el siguiente paso consiste en determinar los posibles eventos futuros o Estados de la
Naturaleza, lo que el decisor no pueden controlar, y son excluyentes entre sí: sólo puede
ocurrir uno de ellos. Las alternativas se denotarán como d i y los estados, N j .
Determinadas las alternativas y los posibles estados de la naturaleza, ¿cuál es la “mejor”
alternativa? Para responder esa preguntan, es necesario obtener la información (ganancias
o costos) respecto de las posibles consecuencias de cada combinación alternativa-Estado.
Entonces, en terminología de análisis de decisiones, lo que se produce al tomar cierta
decisión, combinado con la ocurrencia de un estado de la naturaleza específico, se lo
denomina resultado o consecuencia. Para llevar a cabo la toma de decisiones, se debe
elaborar una tabla de resultados, la cual expone los resultados estimados de las posibles
combinaciones, de la siguiente forma:
N1 N2 N3
d1 Resultado Resultado Resultado
d2 Resultado Resultado Resultado
d3 Resultado Resultado Resultado
En general, los elementos de la tabla pueden plantearse como utilidades, costos, o
cualquier otra medida de las consecuencias, siempre que sea adecuada para el caso
específico que se está estudiando. La notación para los elementos de una tabla de
resultados es V(d i ,N j ), que denota el pago correspondiente a la alternativa de decisión d i
y al estado de la naturaleza N j .

104
Árboles de decisión
Un árbol de decisión ofrece una representación gráfica del proceso de toma de
decisiones, como se ve a continuación:

El siguiente paso obviamente consiste en armar o construir el correspondiente árbol de


decisión para representar la situación estudiada.
Utilizando la terminología general para los árboles de decisión, a las intersecciones o
cruces del árbol se la llamas nodos, y a los arcos o enlaces entre los nodos se los denomina
ramas. Cuando las ramas que salen de un nodo determinado son ramas de decisión, al
cruce correspondiente se lo denomina nodo de decisión. Los nodos de decisión se
identifican mediante cuadros. De manera similar, cuando las ramas que salen de un nodo
corresponden a estados de la naturaleza, al nodo se le denomina nodo de estado de la
naturaleza. A estos nodos se les simboliza mediante círculos.
En resumen, los cuatro primeros pasos de un proceso de análisis de decisiones son:
1. Identificación de las alternativas de decisión.
2. Identificación de los estados de la naturaleza.
3. Determinación del resultado correspondiente a cada combinación de alternativa de
decisión y estado de la naturaleza, y su exposición en la tabla de resultados.
4. Construcción del árbol de decisión.

Lo siguiente será determinar cómo el decisor puede utilizar toda la información


disponible (en la tabla o en el árbol) de la mejor manera para tomar la decisión.
En conclusión, los elementos esenciales de un problema de decisión son:
- Naturaleza o ambiente, entendiéndose por tal a un conjunto de variables no
controlables por el decisor, que definen la realidad o el mundo exterior. Este
elementopresentadiferentesestadosposiblesdenominadosEstados de Naturaleza.
- Decisor, individual o colectivo.
105
- Acciones factibles de ser tomadas por el decisor.
- Consecuencias, que se corresponden con un estado de naturaleza y la alternativa o
acción adoptada. Al conjunto de consecuencias se lo suele denominar como
tabladepérdidasotabladegananciasomatrizdecompensaciones.
- Preferencias de acuerdo a los objetivos planteados por el decisor.

Clasificación de situación de decisiones


• Según el número de personas responsables de tomar la decisión: decisiones colectivas o
decisiones individuales.
• Según el conocimiento que se tenga de la probabilidad de ocurrencia de un Estado de
Naturaleza.
o Decisión con Certeza: son conocidos los estados de naturaleza y tiene carácter
determinístico.
o Decisión con Riesgo: los estados de naturaleza son aleatorios y se ajustan a una
determinada distribución de probabilidad.
o Decisión con Incertidumbre: se desconoce cuál de los estados puede presentarse, así
como sus probabilidades asociados.
• Según el número de acciones posibles: decisiones con acciones finitas, infinitas,
continuas, discretas.
• IDEM anterior pero con los estados de la naturaleza.
• Según las consecuencias: cualitativas o cuantitativas.

Normativo vs. Descriptivo


La TEORIA NORMATIVA es prescriptiva; trata de decir cómo debería actuar eldecisor si
adhiere a ciertos axiomas o principios previamente definidos. Se podría decir que
"predica", convence o trata de convencer por medio de la razón.Si su objetivo no es
logrado, y el decisor toma la decisión equivocada, la T.Normativa aceptará el hecho, y sólo
se contentará con saber que ofreció todos loselementos a su alcance para decidir
mediante el deber ser; de ahí en más, depende delpropio decisor.
Sin embargo, existe una teoría que sí se ocupa de estudiar y analizar la "desobediencia"
deldecisoralaT.Normativa,esla llamada TEORIA DESCRIPTIVA.Estos estudios son muchas
veces experimentos que tratan de decir cómo la
genteactúay,además,de"predecir"esecomportamiento.
Si tuviéramos que ubicar a la TEORIA DE LA DECISION dentro de estas dos
posiciones,diríamosquedichateoríaesesencialmentenormativa;sóloaconsejamétodosaplicabl
esa preferencias preexistentes. Trata de ordenar y de sistematizar, pero noinfluye, no
impone reglas rígidas.

106
2) Toma de decisiones sin probabilidades
En este caso se analizarán métodos para la toma de decisiones en los que no se necesita
conocer las probabilidades de los estados de la naturaleza.

El método optimista
En este método se evalúa cada alternativa de decisión en términos del mejor resultado
que puede ocurrir. La alternativa de decisión que se recomienda es la que ofrece la mejor
consecuencia posible. Por ejemplo, en un problema en el que se desea maximizar
utilidades, el método optimista conduciría al decisor a elegir la alternativa que
corresponde a las utilidades más altas. En problemas de minimización de costos, en
cambio, el método llevaría a elegir la alternativa que cause el menor resultado.

El método conservador o pesimista


Este método evalúa cada alternativa de decisión en términos del peor resultado que
puede ocurrir. La alternativa de decisión que se recomienda es la que la mejor de las
peores consecuencias posibles. Por ejemplo, en un problema en el que se desea
maximizar utilidades, el método optimista conduciría al decisor a elegir la alternativa que
maximiza el valor mínimo posible de utilidades que pudieran obtenerse. En problemas de
minimización de costos, en cambio, el método llevaría a elegir la alternativa que minimiza
el resultado máximo.

El método de la deploración minimax o método de Savage


El método quien analiza el sentimiento experimentado por el decisor luego de haber
tomado la
decisión,dehabérselepresentadoelestadodenaturalezaydehaberrecibidolacompensacióncor
respondiente.
Seguramente al conocer el resultado, el decisorpuede sentir aflicción, puesto que al
conocer el estado de naturaleza que se produjo, hubiese deseado haber tomadoalguna
otra decisión, y no la que realmente tomó; entonces según Savage, el decisor deberá
intentar reducir al mínimo esa aflicción, cuya medida puede estar indicada porla diferencia
entre la compensación verdaderamente recibida y la que se hubiese
recibidoenelcasodehaberconocidoelestadodenaturalezaquesobrevendría.Enotraspalabrasla
diferenciaentreelvalormásfavorableycadaunodelosquecorrespondan a los estados de
naturaleza para laalternativa de decisión respectiva.
Este criterio puede aplicarse a matrices tanto de costos como de ganancias. Cuando la
matriz se encuentra expresada en valores monetarios, al calcular las afliccionesse
convertirá en una matriz de "costos de oportunidad".
En problemas de maximización, la expresión para calcular la pérdida de oportunidad
está dada por:

𝑹𝑹�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 � = 𝑽𝑽∗ �𝑵𝑵𝒋𝒋 � − 𝑽𝑽�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �


107
Donde 𝑹𝑹�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �representa la deploración correspondiente a la alternativa d i y al
estado de la naturaleza N j ; 𝑽𝑽∗ �𝑵𝑵𝒋𝒋 �representa el mejor valor de los resultados bajo el
estado de la naturaleza N j (en el caso de minimización, se toma el menor); y 𝑽𝑽�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �
representa el resultado correspondiente a la alternativa de decisión d i y al estado de la
naturaleza N j .
El siguiente paso al aplicar el método de la deploración minimax exige que el decisor
identifique la pérdida máxima para cada alternativa de decisión, debiendo elegir luego la
“mejor” opción seleccionado la alternativa que tiene el mínimo de los valores de la
deploración máxima

Criterio de Hurwicz
Con este criterio, la idea es combinar los criterios pesimista y optimista, decidiendo qué
tan optimista o qué tan pesimista se desea ser, de la siguiente forma:
1. Se escoge un coeficiente de optimismo (α) que tiene un valor entre 0 y 1 (cuanto
más cerca de 1, más optimista se es).
2. Se calcula el resultado para cada alternativa:
Resultado =α . resultado máximo + (1 – α) . ganancia mínima
3. Se selecciona la alternativa que tenga el mayor resultado.

Criterio de Laplace
En este caso existe incertidumbre de ocurrencia de cada Estado de la Naturaleza, por lo
que se asume equiprobabilidad (es decir, se supone que existe la misma posibilidad de
que se produzca cada N j ). Entonces se determina el resultado promedio para cada
alternativa de decisión de la siguiente forma:
𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟑𝟑 ) + ⋯ + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝒏𝒏 )
𝑹𝑹𝑹𝑹𝑹𝑹. =
𝒏𝒏
3) Toma de decisiones con probabilidades
La mayoría de las decisiones que enfrentamos cotidianamente, se presentan rodeadas
de un entorno regido por el riesgo. Se podría afirmar, que el ambiente bajoriesgo, es el
que fundamenta el análisis de la Teoría de la Decisión, puesto que hastauna situación de
incertidumbre, a no ser que se trate de "ignorancia completa", puedeen definitiva,
convertirse en una situación de riesgo.
La situación de riesgo implica que conocemos las probabilidades de ocurrencia de cada
uno de los estados de naturaleza. El decisor cuenta con alternativas factibles; cada una de
ellas dará lugar a un resultado, en función de cada uno de los estados de naturaleza
posibles.
Con ambos elementos, el decisor puede calcular la esperanza matemática de cada
combinación posible y aplicar el Criterio del Valor Esperado, el cual toma comoóptima, la
decisión que maximiza (o minimiza) las ganancias (o pérdidas) potenciales.

108
Cuando se dispone de esas probabilidades, es posible utilizar el método del valor
esperado para identificar la mejor alternativa de decisión, mediante el cual se buscará
determinar el valor esperado de cada opción, y se seleccionará la que tenga el mayor.
Las nomenclaturas son:
n = número de posibles estados de la naturaleza.
P(N j )= probabilidad del estado de la naturaleza N j .
Como solo puede ocurrir uno de los n estados de la naturaleza, las probabilidades
deben satisfacer dos condiciones: P(N j )>0 para todos los estados de la naturaleza
𝒏𝒏

� 𝑷𝑷�𝑵𝑵𝒋𝒋 � = 𝑷𝑷(𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑵𝑵𝟐𝟐 ) + 𝑷𝑷(𝑵𝑵𝟑𝟑 ) + ⋯ + 𝑷𝑷(𝑵𝑵𝒏𝒏 ) = 𝟏𝟏


𝒋𝒋=𝟏𝟏
El valor esperado de la alternativa de decisión d i se define de la siguiente forma:
𝒏𝒏

𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = � 𝑷𝑷�𝑵𝑵𝒋𝒋 �. 𝑽𝑽�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �


𝒋𝒋=𝟏𝟏
En palabras, el valor esperado de una alternativa de decisión es la suma de los
resultados ponderados para esa alternativa. La ponderación para un resultado es la
probabilidad del correspondiente estado de la naturaleza y, por tanto, la probabilidad de
que ocurra esa consecuencia.
Resulta más conveniente realizar los cálculos requeridos para identificar la alternativa de
decisión que tiene el mejor valor esperado sobre un árbol de decisiones. Las
probabilidades se incorporan en las ramas del árbol y el valor esperado de consigna en el
nodo de estado de la naturaleza, y luego se selecciona el mayor de estos (GECIP).

4) Análisis de sensibilidad
En esta sección se analiza la forma en la que cambios en las estimaciones de las
probabilidades para los estados de la naturaleza pueden afectar o alterar la decisión que
se recomienda. A este estudio se lo denomina análisis de sensibilidad.
Un enfoque para el análisis de sensibilidad consiste en considerar probabilidades
diferentes y recalcular el valor esperado para cada alternativa y decidir nuevamente.
Repitiendo varias veces el proceso puede inferirse la forma en que las variaciones en las
probabilidades afectan a la decisión que se aconseja.
La única desventaja de este método es que se requieren muchos cálculos para evaluar el
efecto de varios cambios posibles en las probabilidades de los estados de la naturaleza.
En el caso que existan solo dos estados de la naturaleza, se pueden simplificar los
cálculos del análisis de sensibilidad usando un procedimiento gráfico. En este caso la
ecuación para obtener el VME sería:
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑵𝑵𝟐𝟐 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )

109
Como sabemos que P(N 1 )+P(N 2 )=1, podemos expresar la ecuación en función
solamente de una sola probabilidad:
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) + �𝟏𝟏 − 𝑷𝑷(𝑵𝑵𝟏𝟏 )�. 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )
𝑽𝑽𝑽𝑽𝑽𝑽(𝒅𝒅𝒊𝒊 ) = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). [𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) − 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )] + 𝑽𝑽(𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 )
Por lo que tendremos funciones lineales para cada alternativa de decisión, que reflejará
el VME de la opción ante distintos valores de las probabilidades de los estados de la
naturaleza. Al graficarlas en un mismo par de ejes cartesianos, se pueden hallar los
intervalos para los cuales cada decisión es la mejor.Lo que se debe analizar es la línea que
está por encima de las restantes.

Cuando dos o más rectas se cortan en una gráfica de análisis de sensibilidad pueden
igualarse las ecuaciones de las dos rectas que se cortan para encontrar el valor de 𝑷𝑷(𝑵𝑵𝟏𝟏 ).
Cuando pequeñas variaciones en las probabilidades no alteran la solución óptima según
el criterio de Laplace, diremos que el sistema es insensible.
En definitiva, la magnitud de la variación de probabilidades de ocurrencia que origine
un cambio de estrategia, a lo definido originalmente, nos indicará el grado desensibilidad.

5) Valor esperado de la información perfecta (ver ejemplo Anderson página 639)


Supongamos ahora que el decisor cuenta con la posibilidad de reunir la información
suficiente que le permitiría ayudar a mejorar las evaluaciones actuales que se tienen para las
probabilidades de los estados de la naturaleza. Vale recordar (como vimos en un principio
de la unidad) que la información además de tener un valor, también tiene un costo
asociado a la obtención de la misma. Por tal motivo, si el costo en el que se incurre para
adquirir la información es mayor que el valor de tenerla disponible y usarla en el proceso de
110
análisis de decisión, no resulta conveniente realizar los esfuerzos necesarios para conseguir
dicha información. Es decir, se hace un análisis beneficio-costo de la información.
Con el fin de determinar el máximo valor posible que debería pagar el decisor para
obtener información adicional, debemos suponer que éste tiene la posibilidad de obtener
información perfecta acerca de los estados de la naturaleza (por ejemplo, mediante un
costo y detallado estudio de mercado). La pregunta que nos hacemos es ¿Cuánto pagar
por confirmar que la información sobre las probabilidades (de los estados de la naturaleza)
es cierta?
Para emplear la información perfecta es necesario implementar una estrategia de
decisión, es decir, una política o una regla de decisión, que el decisor debe respetar. Al
calcular el valor esperado de la información perfecta (VEIP) la estrategia de decisión es
una regla que específica qué alternativa de decisión elegir dado cada estado de la
naturaleza. ElVEIP no es más que la diferencia entre el resultado esperado (o ganancia
esperada) obtenido utilizando información perfecta (GECIP) y el resultado esperado (o
ganancia esperada) logrado sin contar la misma (GESIP).
𝑽𝑽𝑽𝑽𝑽𝑽𝑽𝑽 = 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮 − 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮
Ahora bien, como sabemos perfectamente que probabilidad hay de que ocurra un
estado u otro, la GECIP es una media ponderada según las probabilidades, o dicho de otra
forma, es una media entre los valores óptimos a obtener ante cada estado de la naturaleza,
ponderados por las probabilidades de que tales estados se produzcan:
𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮 = 𝑷𝑷(𝑵𝑵𝟏𝟏 ). 𝑽𝑽∗ (𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑵𝑵𝟐𝟐 ). 𝑽𝑽∗ (𝒅𝒅𝒊𝒊 , 𝑵𝑵𝟐𝟐 ) + ⋯ + 𝑷𝑷(𝑵𝑵𝒏𝒏 ). 𝑽𝑽∗ (𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒏𝒏 )
A diferencia de trabajar sin información perfecta, donde se calculaba el valor esperado
de cada alternativa y se seleccionaba la mejor, cuando se cuenta con tal información
solamente se determina un único valor esperado, ya que se conoce con certeza la
posibilidad de ocurrencia de cada estado de la naturaleza.
Luego de calculado la GECIP, estamos en condiciones de obtener el VEIP, concepto que
nos reflejará el valor adicional que puede obtenerse por tener disponible información
perfecta. Por tal motivo, el VEIP implica además el mayor monto que el decisor estaría
dispuesto a pagar por obtener la información perfecta (el máximo costo de la misma).

6) Valor esperado de la información muestral(ver ejemplo Anderson página 641)


Probabilidad
Antes de estudiar la información muestral, es importante recordar algunos conceptos
básicos de probabilidad. La TEORÍA DE LA PROBABILIDAD se refiere a aquellos
acontecimientos o sucesos aleatorios, cuyos resultados se ven afectados por el azar
(eventos inciertos). Entonces, el concepto fundamental es el de Probabilidad del Resultado,
lo que puede explicarse como el porcentaje de veces que se producirá un resultado, ante
un importante número de repeticiones delacontecimiento.

111
Es importante destacar ciertos conceptos:
• Probabilidad de sucesos mutuamente excluyentes: la probabilidad que se produzca uno
de los sucesos, es igual a la suma de las probabilidades de ocurrencia de cada uno.
• Sucesos independientes: cuando la probabilidad de ocurrencia de uno de ellos no es
afectada por la ocurrencia de otro.
• Probabilidad de sucesos compuestos con componentes independientes: es igual al
producto de las probabilidades de los sucesos independientes.
• Probabilidad de sucesos compuestos con componentes dependientes: la probabilidad
de que se cumplan dos sucesos, está dada por el producto de la probabilidad no
condicional de un suceso por la probabilidad condicionada de otro (condicionada por la
ocurrencia del primero).

Análisis de decisión con información muestral


Al aplicar el método del valor esperado, se notó la forma en que la información acerca
de las probabilidades de los estados de la naturaleza afecta los cálculos del valor esperado
y, por consiguiente, la decisión a recomendar. En general, los decisores cuentan con
estimaciones previas de las probabilidades de los estados de la naturaleza que son,
inicialmente, las mejores estimaciones de probabilidad disponibles. Sin embargo, con el
objetivo de mejorar la decisión, el decisor puede buscar información adicional sobre los
estados de la naturaleza, y así modificar o actualizar las probabilidades previas, de forma
tal que la decisión final se base en estimaciones de probabilidad más precisas o seguras
para los estados de la naturaleza. Esto se denomina proceso de modificación bayesiano.
La mayoría de las veces se busca la información adicional mediante experimentos
diseñados para obtener información muestral o datos más actuales respecto a los
estados de la naturaleza (por ejemplo, investigación de mercado).
Entonces, el decisor comienza teniendo probabilidades previas (estimaciones en un
inicio), las cuales modificará y mejorará con la información muestral obtenida, para
conseguir probabilidades posteriores (más precisas).
A la nueva información que se obtiene mediante investigación o experimentación se la
denomina indicador. Como generalmente el experimento para obtener información
adicional consiste en conseguir una muestra estadística, también se denomina
información muestral. Los resultados del estudio podrían identificarse como I k (en este
caso se supone que hay dos, I 1 es reporte favorable y I 2 es desfavorable.
Dado uno de estos posibles indicadores, el objetivo consiste en ofrecer estimaciones
mejoradas de las probabilidades de los estados de la naturaleza (en este caso también se
supone que hay dos N 1 y N 2 ). El resultado final del proceso de modificación bayesiana
arroja un conjunto de probabilidades posteriores 𝑷𝑷(𝑵𝑵𝒋𝒋 /𝑰𝑰𝒌𝒌 ), es decir, la probabilidad
condicional de que ocurra el estado N j , si el resultado de la investigación es el indicador I k .

112
Para poder usar de manera efectiva la información del indicador se debe saber algo
sobre las relaciones de probabilidad entre los indicadores y los estados de la naturaleza. Se
debe conocer la probabilidad condicional del indicador I k , dado el estado de la naturaleza
N j , que se expresa como 𝑷𝑷(𝑰𝑰𝒌𝒌 |𝑵𝑵𝒋𝒋 ). Para llevar a cabo el análisis se requieren
probabilidades condicionales para todos los indicadores, dados todos los estados de la
naturaleza; es decir, en este supuesto 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟐𝟐 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ).
Ahora veremos la forma en que toda esta información adicional puede incorporarse al
proceso de toma de decisiones.

Desarrollo de una estrategia de decisión


Como ya vimos, una estrategia
de decisión consiste en una
política o regla de decisión que un
decisor debe seguir. Resulta
conveniente utilizar un análisis de
árbol de decisión para determina
la estrategia decisoria más óptima.
Como vemos, se agrega un
nodo indicador (el 2) y las ramas
indicadoras I 1 y I 2 . Como las ramas
que salen de los nodos
indicadores no están bajo control
de quien toma las decisiones, sino
que están afectadas por el azar, se
indica este nodo mediante un
círculo. Los nodos 3 y 4, por su
parte, son de decisión y por ello se
simbolizan con cuadrados. En
cambio, los nodos de 6 a 11 son
de estado natural. El resto de los
nodos representan el análisis de
decisión sin información adicional.
Para los nodos de decisión, el
decisor debe elegir entre las
alternativas de decisión.Elegir la
mejor rama de decisión equivale a
tomar la mejor decisión. No
obstante, como las ramas
indicadoras y de estado de la

113
naturaleza son incontrolables, la rama que sale de un nodo circular depende de la
probabilidad correspondiente a dicha rama. Es por esto que antes de tomar una decisión y
definir una estrategia, es necesario calcular todas las probabilidades de las ramas
indicadoras y de la naturaleza. Podemos ver que en el árbol de decisión las ramas de estado
de la naturaleza ocurren después que las ramas indicadoras. Por lo tanto, cuando se intentan
calcular las probabilidades para las ramas de estado de la naturaleza, es requisito considerar
cuál fue el indicador observado antes. Entonces, se expresan las probabilidades de los
estados de la naturaleza en la forma 𝑷𝑷(𝑵𝑵𝒋𝒋 |𝑰𝑰𝒌𝒌 ): probabilidad del estado 𝑵𝑵𝒋𝒋 , dado que se
observó el indicador 𝑰𝑰𝒌𝒌 .

Cálculo de las probabilidades de las ramas


Como sabemos, las probabilidades previas son𝑷𝑷(𝑵𝑵𝟏𝟏 ) y 𝑷𝑷(𝑵𝑵𝟐𝟐 ), y las relaciones entre
los indicadores y los estados son𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟐𝟐 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ); 𝑷𝑷(𝑰𝑰𝟐𝟐 |𝑵𝑵𝟏𝟏 ); las
que serán utilizadas para obtener las probabilidades de las ramas indicadoras 𝑷𝑷(𝑰𝑰𝒌𝒌 ) y las
probabilidades de las ramas de estado de la naturaleza 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 �, mediante el proceso
de modificación bayesiano.
Para ver el procedimiento calcularemos la probabilidad de la rama indicadora 𝑷𝑷(𝑰𝑰𝟏𝟏 ).
Sabemos que sólo hay dos formas en que se puede presentar el resultado 𝑰𝑰𝟏𝟏 :
1. Que se dé el indicador 𝑰𝑰𝟏𝟏 y el estado de naturaleza 𝑵𝑵𝟏𝟏 , lo que se expresa como:
𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏
2. Que se dé el indicador 𝑰𝑰𝟏𝟏 y el estado de naturaleza 𝑵𝑵𝟐𝟐 , lo que se expresa como:
𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟐𝟐
Cuyas probabilidades son 𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏 ) y 𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟐𝟐 ). Como se trata de sucesos
mutuamente excluyentes (si ocurre uno, el otro no) la probabilidad de la rama sería:
𝑷𝑷(𝑰𝑰𝟏𝟏 ) = 𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟐𝟐 )
Como ambas son probabilidades de sucesos compuestos con componentes
dependientes, podrían expresarse de la siguiente forma:
𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏 ) = 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 )
𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟐𝟐 ) = 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 )
𝑷𝑷(𝑰𝑰𝟏𝟏 ) = 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 ) + 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 )
Generalizando la expresión anterior para cualquier rama indicadora 𝑷𝑷(𝑰𝑰𝒌𝒌 ) y n estados
de la naturaleza (𝑵𝑵𝟏𝟏, 𝑵𝑵𝟐𝟐, …, 𝑵𝑵𝒏𝒏 ) se tiene que:
𝒏𝒏

𝑷𝑷(𝑰𝑰𝒌𝒌 ) = � 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �


𝒋𝒋=𝟏𝟏

114
Una vez conocidas las probabilidades de las ramas indicadoras, el proceso bayesiano
permite calcular las probabilidades posteriores de las ramas de estado de la naturaleza
𝑷𝑷(𝑵𝑵𝒋𝒋 |𝑰𝑰𝒌𝒌 ). Veremos el procedimiento calculando la probabilidad de la rama de la
naturaleza 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ). La relación puede expresarse de la siguiente manera:
𝑷𝑷(𝑰𝑰𝟏𝟏 ∩ 𝑵𝑵𝟏𝟏 ) 𝑷𝑷(𝑰𝑰𝟏𝟏 |𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 )
𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) = =
𝑷𝑷(𝑰𝑰𝟏𝟏 ) 𝑷𝑷(𝑰𝑰𝟏𝟏 )
Generalizando para cualquier estado de la naturaleza 𝑵𝑵𝒋𝒋 y cualquier indicador 𝑰𝑰𝒌𝒌 se
tiene que:
𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �
𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 � =
𝑷𝑷(𝑰𝑰𝒌𝒌 )
Cálculos de las probabilidades de las ramas: procedimiento tabular
Primeramente se arma una tabla para cada indicador 𝑰𝑰𝒌𝒌 que contiene las siguientes
columnas:
1. Estados de la naturaleza 𝑵𝑵𝒋𝒋 .
2. Probabilidades previas 𝑷𝑷�𝑵𝑵𝒋𝒋 �.
3. Probabilidades condicionales 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �.
4. Probabilidades conjuntas 𝑷𝑷�𝑰𝑰𝒌𝒌 ∩ 𝑵𝑵𝒋𝒋 � = 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �.
5. Probabilidades posteriores 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 �.

Después, dado cualquier indicador 𝑰𝑰𝒌𝒌 , se pueden realizar los siguientes pasos para
calcular las probabilidades 𝑷𝑷(𝑰𝑰𝒌𝒌 ) y 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 �:
1) Consignar en la columna 1 todos los estados de la naturaleza posibles.
2) Anotar en la columna 2 la probabilidad previa de cada estado.
3) Anotar en la columna 3 la probabilidad condicional 𝑷𝑷�𝑰𝑰𝒌𝒌 �𝑵𝑵𝒋𝒋 � de cada estado.
4) Calcular los valores de la columna 4 multiplicando la columna 2 y la 3.
5) Para obtener el valor de𝑷𝑷(𝑰𝑰𝒌𝒌 )se calcula la sumatoria de los elementos de la columna 4.
6) Calcular los valores de la columna 5, dividiendo c/ valor de la columna 4 por la sumatoria.

Estrategia para la decisión óptima


Obtenidas las probabilidades de las ramas, pueden utilizarse en el método del valor
esperado para hallar la decisión óptima. Recorriendo hacia atrás el árbol, primero se
calcula el valor esperado para cada uno de los nodos de estado de la naturaleza.
𝒏𝒏

𝑽𝑽𝑽𝑽𝑬𝑬 = � 𝑽𝑽�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �. 𝑷𝑷�𝑵𝑵𝒋𝒋 �𝑰𝑰𝒌𝒌 � para 𝒊𝒊 = 𝟏𝟏, 𝟐𝟐, … , 𝒎𝒎 para todo 𝒌𝒌
𝒋𝒋=𝟏𝟏
115
Para el caso en que haya dos alternativas, dos estados y dos indicadores:
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟏𝟏 = 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟏𝟏 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟏𝟏 = 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟏𝟏 ) + 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟏𝟏 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟐𝟐 = 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟏𝟏 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟐𝟐 )
𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟐𝟐 = 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟏𝟏 ). 𝑷𝑷(𝑵𝑵𝟏𝟏 |𝑰𝑰𝟐𝟐 ) + 𝑽𝑽(𝒅𝒅𝟐𝟐 , 𝑵𝑵𝟐𝟐 ). 𝑷𝑷(𝑵𝑵𝟐𝟐 |𝑰𝑰𝟐𝟐 )
Como el decisor controla la rama que sale de un nodo de decisión y, ya que se está
buscando maximizar (o minimizar), elige el mayor (o menor) VME de cada indicador, es decir
el mayor entre𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟏𝟏 y 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟏𝟏 , y el mayor entre 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟏𝟏 ;𝑰𝑰𝟐𝟐 y 𝑽𝑽𝑽𝑽𝑽𝑽𝒅𝒅𝟐𝟐 ;𝑰𝑰𝟐𝟐 .
Continuando hacia atrás por el árbol, solo queda calcular el VME de todo el problema,
el cual será un promedio ponderado de los VME óptimos obtenidos para cada indicador,
ponderándonos en función de la probabilidad de cada uno. La ecuación sería:
𝑽𝑽𝑽𝑽𝑽𝑽 = 𝑽𝑽𝑽𝑽𝑽𝑽∗𝑰𝑰𝟏𝟏 . 𝑷𝑷(𝑰𝑰𝟏𝟏 ) + 𝑽𝑽𝑽𝑽𝑽𝑽∗𝑰𝑰𝟐𝟐 . 𝑷𝑷(𝑰𝑰𝟐𝟐 ) = 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮
Luego de tener los resultados del estudio que brinde la información adicional, se optará
por la decisión que optimiza el indicador correspondiente.

Valor esperado de la información muestral


Como ya explicamos, obtener información siempre genera no solo un valor sino
también un costo asociado, y la información muestral no es la excepción. De igual forma
que se hizo con la información perfecta, resulta conveniente hacer un análisis beneficio-
costo de la información muestral, ya que el decisor no estará dispone a abonar lo
necesario para reunirla si el valor que produce es menor a lo pagado.
El valor de la investigación muestral se mide calculando lo que se llama valor
esperado de la información muestral:
𝑽𝑽𝑽𝑽𝑽𝑽𝑽𝑽 = 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮 − 𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮𝑮
Dicho valor refleja lo máximo que el decisor estará dispuesto a pagar para adquirir esa
información adicional. En problemas de minimización el cálculo sería: VEIM=GESIP-GECIM

Eficiencia de la información muestral


Como el reporte de la investigación muestral no puede proveer información impecable
(o perfecta), se puede calcular una medida de eficiencia de la información muestral:
𝑽𝑽𝑽𝑽𝑽𝑽𝑽𝑽
𝑬𝑬 = × 𝟏𝟏𝟏𝟏𝟏𝟏
𝑽𝑽𝑽𝑽𝑽𝑽𝑽𝑽
7) Teoría de la utilidad. Funciones de utilidad, propensión y aversión al riesgo
Hasta ahora se expresaron los resultados en términos de valores monetarios. No
obstante, existen situaciones en las que la alternativa de decisión con el mejor valor
monetario esperado NO es la decisión más deseable.

116
Por “decisión más deseable” se entiende la que prefiere seleccionar el decisor no solo
por el valor monetario sino considerando muchos otros factores. Un ejemplo es la decisión
de comprar un seguro: obviamente adquirir un seguro no dependerá de su valor
monetario esperado.
En los casos en que el valor monetario esperado no conduce a la alternativa de decisión
preferible, resulta preferible expresar el valor de un resultado en términos de su utilidad, y
aplicar el método de la utilidad esperada para hallar la decisión más deseable.

Acepción de utilidad, el concepto utilitario


La utilidad, utilizado en ciertos casos como una medida del valor total de un resultado
determinado, representa la actitud que el decisor tiene con respecto a un conjunto de
factores, tales como ganancia, pérdida y riesgo.
Entonces, luego de obtener la alternativa con la que se consigue el mejor VME o GECIP,
la pregunta que se debe hacer es ¿Resulta ser la mejor alternativa que se adecúa a las
preferencias y factores del decisor? La forma en que se puede resolver el problema
consiste en determinar primero la utilidad (o utilitariedad) del decisor según diversos
resultados monetarios. La utilidad como dijimos refleja el valor total que se obtiene
considerando los riesgos y consecuencias correspondientes. Si se determinan en forma
correcta las utilidades de los diversos resultados, entonces la alternativa de decisión que
tenga la mayor utilidad esperada es la alternativa preferible.

Elaboración de las utilidades para los resultados (ver ejemplo Anderson página 653)
El procedimiento que se utilizará para establecer los valores de utilidad de los resultados
implica que, en primer lugar, se asigne un valor utilitario a los posibles resultados mejor y
peor de la situación de decisiones. Los valores a elegir no influyen en el método, pudiendo
seleccionarse arbitrariamente, siempre y cuando se cumpla con el requisito de que la
utilidad adoptada por la mejor opción sea mayor que el consignado a la peor.
Ahora para convertir los valores o resultados intermedios en términos de utilidades se
sigue el siguiente procedimiento. El decisor debe evaluar si prefiere:
a) Una ganancia segura de $X, tratándose de un valor intermedio de la matriz.
b) El resultado de una apuesta en la que puede ganar el máximo de los resultados posibles
con una probabilidad p o el mínimo de los resultados posibles con probabilidad 1-p.

De la evaluación debe surgir el valor de p que le da una situación de indiferencia. Es


decir, el decisor debe determinar el valor de p que lo lleve a seleccionar cualquiera de las
opciones a) o b) (sin ser necesario que Valor intermedio=Máx. p + Mín. (1-p). Una vez
establecido el valor, se calcula de la siguiente forma:
𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼 𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗 𝒎𝒎á𝒙𝒙 . 𝒑𝒑 + 𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼 𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗 𝒎𝒎í𝒏𝒏 . (𝟏𝟏 − 𝒑𝒑) = 𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼𝑼 𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗𝒗 𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊
Es obvio que cuanto más se acerque el resultado intermedio al máximo resultado,
mayor será el valor de p que consideraría el decisor, y viceversa.

117
Una vez determinados los valores utilitarios para cada uno de los posibles valores
monetarios se puede escribir la tabla original de pagos en términos de valores de utilidad.
La notación que se utiliza para cada elemento ahora será 𝑼𝑼�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �.
Si se grafican los diferentes valores obtenidos y se los compara con la línea recta que
uno las utilidades del resultado máximo y mínimo, se puede observar el criterio aplicado
por el decisor: si la “curva” formada por las utilidades está por encima de la recta, el
decisor siguió un criterio optimista; en caso contrario, uno pesimista o conservador.

Método de la utilidad esperada


Se pueden aplicar ahora los cálculos del valor esperado en función de las
probabilidades, pero considerando las utilidades, por lo que se denominará utilidad
esperada. Si existen n posibles estados de la naturaleza, la utilidad esperada de una
alternativa de decisión d i está dado por:
𝒏𝒏

𝑼𝑼𝑼𝑼(𝒅𝒅𝒊𝒊 ) = � 𝑷𝑷�𝑵𝑵𝒋𝒋 �. 𝑼𝑼�𝒅𝒅𝒊𝒊 , 𝑵𝑵𝒋𝒋 �


𝒋𝒋=𝟏𝟏
Luego se selecciona la alternativa que presente la mayor utilidad esperada.
Lamentablemente no es una tara fácil determinar las utilidades apropiadas. Como se ha
visto, medir la utilidad requiere de cierta subjetividad de parte del decisor, por lo que
diferentes decisores tienen funciones de utilidad distintas.

UNIDAD VII: Decisión Multicriterio


1) Conceptos y nociones básicos del apoyo multicriterio a la decisión
La selección en presencia de criterios múltiples
En las unidades anteriores se vio la forma en que la ciencia de la administración puede
ayudar a los administradores a tomar mejores decisiones. Cuando lo que se deseaba era
encontrar una solución óptima, se utilizó un solo criterio (por ejemplo, maximizar utilidades,
minimizar costos, entre otros). En esta unidad se presentan métodos de la ciencia de la
118
administración apropiados para casos en los que el decisor desea considerar criterios
múltiples para llegar a la mejor decisión global. Un ejemplo de ello sería una simple compra
en la que se consideran: menor precio, mejor presentación, facilidad de mantenimiento del
bien a adquirir y prestigio del fabricante. Lo que suele ocurrir es que los distintos criterios o
factores entran en conflicto con respecto a las distintas alternativas: quizá un producto es el
de menor precio, pero otro exhibe una mejor presentación, mientras que un tercero es más
fácil de mantener. Es por ello que deben “ponderarse” las determinadas cuestiones a
considerar y luego establecer la alternativa que cumple de la mejor forma con todas ellas.
En fin, en situaciones de tal tipo las complicaciones que se presentan a la hora de tomar
decisiones implican considerar: criterios múltiples y conflictivos, cuantificables y no
cuantificables (cuantitativos y cualitativos); la existencia de intereses distintos, etc.

El papel del análisis multicriterio


Históricamente la forma en que se obtienen conceptos y conocimiento ha separado dos
corrientes filosóficas y epistemológicas:
• Para el racionalismo el papel de la razón es fundamental en la adquisición del
conocimiento, ya que el mismo es obtenido a priori, independientemente de la experiencia.
• Para el empirismo, en cambio, el papel de la experiencia es primordial. La corriente
afirma que la única fuente de conocimiento es el conocimiento a posteriori, ya que la razón
por sí sola no provee conocimientos.

Podemos inferir que, además de tener importancia la experiencia o la razón en la toma


de decisiones para llegar a soluciones óptimas precisas, existe un abanico con una gran
variedad de factores a considerar.
De esta forma, los problemas de decisión sobre sistemas complejos se ubican en la línea
de la racionalidad limitada, que critica a los modelos de maximización de utilidad esperada
(basados en una racionalidad perfecta) debido a que en la práctica es común aplicar criterios
distintos en diferentes momentos. Las formas limitadas de racionalidad derivan de:
a) Incertidumbre sobre acontecimientos exógenos relevantes;
b) Desconocimiento e imposibilidad de exploración del total de alternativas disponibles;
c) Incapacidad de calcular valores exactos a los resultados y consecuencias.

Sólo puede llegarse a una solución satisfactoria y suficiente mediante una decisión final,
pero, a diferencia de la optimización de teorías claras, la racionalidad limitada indica que la
búsqueda de una solución se detiene cuando el decisor está satisfecho, a pesar de que
continuando con la búsqueda podría mejorarse la solución “satisfactoria” conseguida.
A la hora de aplicar un enfoque multicriterio en el proceso de toma de decisiones, es
importante tener en cuenta los siguientes aspectos:
• El trabajo con objetivos y criterios múltiples en forma simultánea implica que algunos
pueden ser cuantificables y otros no (o resulta difícil hacerlo).

119
• Llevar a cabo un proceso de toma de decisiones transparente, donde cada uno de los
actores pueda intervenir mediante su opinión y la obtención de nueva información.
• Garantizar el consenso de los intervinientes, con el fin de considerar los intereses de todos.
• La subjetividad del decisor con respecto a sus preferencias personales.
• Conseguir una solución “aceptable” antes que un “óptimo”, principalmente cuando no
existe una función objetivo clara, única y definitiva (MUY IMPORTANTE).

El Apoyo Multicriterio a la Decisión


Para el Apoyo Multicriterio a la Decisión (AMD) el “óptimo” depende de cada punto de
vista o criterio adoptado. Por lo general en la práctica no existe una solución ideal que genere
simultáneamente la máxima satisfacción a todos los intereses involucrados en el problema.
Esa definición de “óptimo” se relación con un concepto económico que es el óptimo de
Pareto: cuando se reparten los recursos escasos con los que cuenta una economía se llega
a punto donde lo que gane un individuo implicará la pérdida de satisfacción de otro. En el
caso de la problemática multicriterio también coexisten un conjunto de decisores que
tienen distintos intereses y preferencias, en ambientes con RR escasos, por lo que se puede
aplicar el óptimo de Pareto. Entonces, lo que se busca es una solución de compromiso,
denominada Solución Óptima de Pareto (o Solución No Dominada, o Solución Eficiente).
En toda decisión, incluso una individual, existe un compromiso entre todas las
aspiraciones (que no pueden satisfacerse en su totalidad en forma simultánea), las cuales
subsisten y coexisten como criterios de decisión.

Conceptos básicos del AMD


Glosario
Existe terminología apropiada a aplicar en esta disciplina:
1. Atributos: valores con los cuales el decisor se enfrenta a un determinado problema, los
cuales son susceptibles de ser medidos y expresados en función de las variables de
decisión que el modelo presente. Se constituyen en puntos de vista, a través de los cuales
se analiza si se satisfacen las necesidades o intereses del decisor.
2. Objetivo: indica una dirección de mejora de los atributos considerados, y constituye
una guía para que el modelo proponga una solución. Conviene distinguir un objetivo de
una meta, identificándose esta última con un nivel aceptable de logro, de acuerdo con un
nivel de aspiración dado (alcanzable en un corto plazo). La obtención de las sucesivas
metas conduce al objetivo en un plazo mayor.
3. Criterio: son aquellos atributos relevantes para un problema de decisión, y mediante los
cuales serán analizadas las alternativas para identificar en qué medida contribuyen a
alcanzar el objetivo propuesto.
4. Alternativas: diversas opciones que el decisor tiene a disposición para alcanzar el
objetivo. El nivel de cumplimiento de cada una se expresa mediante las variables de decisión.

120
Requisitos metodológicos
El trabajo con esta técnica requiere:
1. Dominio de los métodos de AMD.
2. Poseer un solo conocimiento del contexto.
3. Análisis de los datos del problema mediante métodos multicriterio, a partir de una
correcta estructuración del proceso decisorio. Esto implica:
a. Definición del problema: identificar adecuadamente la situación problemática real
que exige la toma de una decisión.
b. Objetivos/Criterios: clasificar lo que se intenta alcanzar con la decisión a tomar y los
factores que se tendrán en cuenta. Si existen al menos dos criterios (cuantitativos y/o
cualitativos) y que sean conflictivos, es posible aplicar esta metodología. Sino, se trata
de un problema clásico de optimización, como los vistos anteriormente.
c. Alternativas: identificar las opciones disponibles para alcanzar el objetivo mediante
selecciones inteligentes.
d. Consecuencias y decisiones vinculadas: describir hasta qué punto cada alternativa
satisface a cada objetivo o criterio, y cómo influye sobre los demás.
e. Tradeoffs (intercambios o permutas): identificar las compensaciones entre
compromisos de difícil consecución cuando no pueden atender todos los objetivos
simultáneamente. Es decir, define las cantidades a sacrificar de un criterio para obtener
una unidad de incremento en otro.
f. Incertidumbre y tolerancia al riesgo: analizar cómo se actuaría cuando existen
incertidumbres que afectan a la decisión. Indagar la tendencia eventual que los
decisores podrían tener ante el riesgo.
4. Síntesis con recomendaciones para la toma de decisiones.
5. Re-evaluación del proceso decisorio, el con fin de retroalimentar futuras decisiones.

2) Apoyo multicriterio a la decisión: distintos tipos de análisis


¿Cómo modelar las situaciones que presentan criterios múltiples?
Una de los motivos por el que existe el AMD es la existencia de problemas mal
estructurados: situaciones en las que las técnicas analíticas clásicas (vistas en las unidades
anteriores) no brindan una buena solución. Esas situaciones tienen, al menos, alguna de las
siguientes características:
1. Existen dos o más criterios de resolución del problema, y presentan conflictos e/ sí.
2. No hay claridad en cuanto a las alternativas de solución ni en cuanto a los criterios a aplicar,
y no se comprenden las consecuencias de elegir una alternativa bajo un determinado criterio.
3. Tanto los criterios como las alternativas se vinculan entre sí, de forma tal que la
aplicación de un criterio y/o la selección de una opción afectará al resto.
4. La resolución del problema depende de la interacción de varios actores, que tendrán
intereses diferentes y opuestos entre sí.

121
5. La definición de las restricciones no es clara, y suele confundírselas con los criterios.
6. Algunos criterios son cuantificables, mientras que otros no (o para hacerlos requieren
de la valoración subjetiva del decisor)
7. La naturaleza propia de los datos disponibles y de cada criterio influye sobre la forma
de la escala de valoración a aplicar (cardinal, ordinal o verbal).

Estas características hicieron surgir ciertos modelos que permitieran representar


correctamente las preferencias del decisor. Entre ellos, el modelo denominado “decisión
multicriterio”. Sin embargo, tal denominación no es la adecuada, ya que una decisión en
sí misma no es monocriterio ni multicriterio, sino simplemente una elección, seguida de
una acción. Lo que se expone como multicriterio es el modelo elaborado para colaborar
en la toma de decisión; por eso es más apropiado denominarlo AMD.
Existen dos ramas de este método multicriterio: Métodos discretos y Métodos continuos.

Métodos Multicriterio Continuos


Se identifican con la Decisión MultiObjetivo. Entre ellos están la Programación por
Metas y el Simplex Multicriterio (derivados de la técnica de Programación Lineal).
Su estructura general comprende funciones reales y continuas (“funciones objetivo” y
“funciones criterio”) sujetas a un conjunto de restricciones bajo la forma de ecuaciones y/o
inecuaciones que conforman una región factible en el espacio continuo de solución del
modelo. La exploración sobre este conjunto de soluciones factibles, utilizando ciertas
técnicas, genera el conjunto de soluciones eficientes o Pareto óptimas.

Métodos Multicriterio Discretos


Se concentran en problemas con espacios de decisión discretos, en los cuales las
alternativas han sido predeterminadas previamente.
Comprenden a dos grupos (en función de la técnica aplicada para obtener un criterio
único de síntesis): Métodos de agregación y Métodos enfocados en el ordenamiento.
En esta clasificación se incluye el Proceso Analítico de Jerarquías (PAJ), que veremos
con mayor detalle más adelante.

Métodos Multicriterio en contextos de negociación y decisión en grupos


Los métodos multicriterio no buscan, como ya dijimos, obtener una solución óptima.
Por el contrario, ante cada situación particular de un integrante de una negociación,
permiten: 1) evaluar las soluciones cuantitativas y cualitativamente; 2) posibilitar la
gestación de nuevas soluciones.
En contextos de negociaciones y decisiones en grupos, el objetivo más importante es la
convergencia entre las partes al aceptar las propuestas que consideran más aceptables
para llegar a un acuerdo. Lo que se busca es que las situaciones sean percibidas como
justas por todas las partes, y logren satisfacer el propósito global, mediante la
combinación de distintas preferencias individuales como producto del intercambio de
compromisos y compensaciones entre los miembros del grupo.
122
3) Métodos de decisión multicriterio discreta:normalización; ponderación.
Esquema de trabajo
En función de los criterios y las alternativas puede esquematizarse el trabajo con los
métodos multicriterio de la siguiente forma:
Criterios
C1 … Cj … Cn
A1 r 11 r 1j r 1n
… Matriz de decisión
Alternativas Ai r i1 r ij r in

Am r m1 r mn
w1 wj wn

Corresponde definir 2 conceptos:


 Evaluaciones de alternativas: describir a cada una en función de cada criterio, y
reunirlas para conformar la matriz de decisión. Se simbolizan como r ij (siendo i la
alternativa de decisión y j el criterio aplicado).
 Pesos de los criterios: provienen de la importancia que el decisor asigna a cada uno
(depende de la subjetividad) y se simbolizan como w j .

Normalización
La normalización permite que sea más práctica la formulación del modelo multicriterio.
Puede ocurrir que las evaluaciones se midan en cualquier tipo de escala conocida, como:
Cardinal ratio, Cardinal intervalo, Ordinal, Nominal, Difusa o Probabilística.
Esto ocurre porque diferentes criterios aplicados en el problema se expresan en distintas
unidades de medida; por ejemplo, medidas de distancia, diferentes unidades monetarias,
etc. También es posible que, incluso cuando los criterios tengan la misma unidad de
medida, sean totalmente diferentes en magnitud, lo que provocará discrepancias.
Por último, el decisor debe proveer alguna forma de ordenar sus preferencias. Esta tarea
se ve favorecida cuando las opciones se presentan de manera normalizada.
Por todo esto, con la normalización se busca hacer comparables las distintas
evaluaciones cardinales r ij de los distintos criterios.
Algunas de las formas de normalizar los valores son:
a) Dividir por el “mejor” valor que alcanza el criterio: el número divisor puede ser máximo
o mínimo. Los valores resultantes quedarán expresados como porcentajes del máximo.
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖
b) Dividir por el recorrido o rango que alcanza el criterio: el número divisor en este caso es
la diferencia entre el máximo y el mínimo alcanzado por el criterio. Los valores resultantes
quedarán expresados como proporción del valor real con respecto a dicho rango.
123
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
c) Restar del “mejor” valor el valor real (o restar el “peor” del valor real) y dividir por el
recorrido o rango que alcanza el criterio: el número divisor es la diferencia entre el máximo
y el mínimo alcanzado por el criterio, mientras que el numerador lleva la diferencia “mejor-
real” (o “real-menor”). Los valores resultantes quedan expresados como porcentaje del
rango, con respecto a algún extremo.
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑉𝑉𝑖𝑖 𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 = ó
𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖 𝑚𝑚á𝑥𝑥𝑉𝑉𝑖𝑖 − 𝑚𝑚í𝑛𝑛𝑉𝑉𝑖𝑖
d) Dividir por la suma de valores que alcanza el criterio: el número divisor, en este caso, es
la suma de todos los valores consignados para el criterio. Los valores resultantes quedarán
expresados como porcentaje del valor total:
𝑉𝑉𝑖𝑖
𝑣𝑣𝑖𝑖 =
∑ 𝑉𝑉𝑖𝑖
Preanálisis de dominación
Este preanálisis busca reducir el conjunto de datos a manejar en el problema. Es un
proceso previo al trabajo de selección de la mejor alternativa. Se basa en el concepto de
alternativa dominante, que identifica a aquella que siempre es preferible con respecto a
otra en todos los criterios. Sus evaluaciones son mejores o, al menos, iguales que las de
otra alternativa, a la cual se llama “dominada”. Es obvio que dicha alternativa (la
dominada) nunca tendrá posibilidad de ser elegida, por lo que puede descartarse a priori.

Ponderación preferencial de los criterios


La consideración de los juicios personales e intereses de cada uno de los decisores es
propia del modelo, y por lo general ocurre que diferentes criterios a aplicar tienen distinta
relevancia para los decisores.
Tales diferencias de importancia relativa deben reflejarse en el modelo, por lo que se le
asignan pesos o ponderaciones a los criterios. Existen dos formas básicas para ello:
a) Ordenar los n criterios según importancia y subjetividad del decisor. Se aplica cualquiera
de las siguientes fórmulas:
𝑛𝑛 𝑛𝑛
1
𝑊𝑊𝑗𝑗 = : ��(1�𝑟𝑟𝑗𝑗 )� 𝑊𝑊𝑗𝑗 = �𝑛𝑛 − 𝑟𝑟𝑗𝑗 + 1�: ��(𝑛𝑛 − 𝑟𝑟𝑗𝑗 + 1)�
𝑟𝑟𝑗𝑗
𝑖𝑖=1 𝑖𝑖=1
r j es el lugar que ocupa el criterio j-ésimo en el ordenamiento realizado. Estas formas
de cálculo no tienen en cuenta la intensidad de la preferencia del decisor, por lo que son
de sencilla aplicación. La suma de los pesos asignados debe ser igual a 1.

b) Aplicar una asignación indirecta. Esta es la modalidad adoptada por el Proceso Analítico
de Jerarquías (PAJ) de Saaty. Se aplica una escala numérica (de 1 a 9) en la cual los valores
124
tienen en cuenta la intensidad de la preferencia del decisor. Solamente es necesario cubrir
la mitad de los elementos de la matriz de pesos, ya que el resto se infiere simétricamente.
(si sabe el valor de un r ij , el valor de r ji será el inverso multiplicativo).
Con el fin de evitar inconsistencia a la hora de estimar los valores de la matriz de pesos,
se prevé un procedimiento de análisis de congruencia de los juicios emitido.
Esta forma de asignar las ponderaciones a los criterios se verá en el siguiente capítulo.

4) Proceso Analítico de Jerarquías. Elementos fundamentales y proceso analítico


El PAJ es una metodología de trabajo para ayudar la toma de decisiones en situaciones
complejas y no estructuradas, en las que es necesario:
 Establecer la interrelación entre muchos factores (o criterios);
 Identificar, entre tales factores, aquellos que son realmente importantes;
 Determinar el grado en que cada uno de ellos afecta a los demás.

Dichas características son típicas de los métodos multicriterio, por lo que permite
resolver situaciones problemáticas en las que la subjetividad del decisor cumple un rol
fundamental a la hora de expresar sus preferencias personales.
En todos los casos prevalece la aplicación del pensamiento de Pareto: la forma de
pensar más acertada consiste en buscar lo “aceptable” antes que lo “óptimo”.
Básicamente el método requiere la aplicación de tres elementos fundamentales:
1. Construir jerarquías;
2. Establecer prioridades;
3. Verificar la consistencia lógica de los resultados obtenidos.

El PAJ está diseñado, entonces, para resolver problemas complejos que tienen criterios
múltiples. El proceso requiere que el decisor proporcione evaluaciones subjetivas respecto
a la importancia relativa de cada uno de los criterios y que, después, especifique su
preferencia con respecto a cada una de las alternativas de decisión y para cada criterio. El
resultado del PAJ es una jerarquización con prioridades que muestra la preferencia global
para cada una de las alternativas de decisión.
El método de PAJ permite organizar la información de una manera eficiente y gráfica, y
posteriormente procede a descomponer y analizar por partes.
Se construye un modelo jerárquico donde se interrelacionan criterios, intereses y
resultados posibles. Según Saaty "facilita la toma de decisión por medio de la
organización de percepciones, sentimientos, opiniones y recuerdos en un marco que
exhibe las fuerzas que influyen en una decisión”.

Proceso de modelización
En general, el proceso a aplicar sigue lo explicado la Unidad I (Análisis cuantitativo,
proceso de toma de decisiones, enfoque sistémico y modelización):
1. Identificar la situación problemática.
125
2. Definir el objetivo, el cual consiste en obtener una solución a la situación descripta
en 1. Pueden incluyen subobjetivos.
3. Identificar criterios. Pueden desagregarse en subcriterios que confluyen en un
criterio de mayor nivel.
4. Identificar alternativas, de entre las cuales se seleccionará alguna que permita
cumplir con el objetivo de manera que se satisfagan de la “mejor manera” los intereses
de todos los participantes, en función de los criterios (y sus ponderaciones.
5. Cuando hay criterios que involucran Costos, Beneficios y Riesgos y las decisiones son
por sí o por no, Saaty propone como últimos pasos: 1) Análisis Costo-Beneficio en
relación con la decisión a tomar; 2) Estudio marginal de las relaciones entre C y B.

El decisor opinará sobre la importancia relativa que cada criterio tiene para el logro del
objetivo global (o a los subobjetivos que lo conforman, si existieran). Asimismo, señalará la
preferencia de cada alternativa de decisión, en términos de la medida en que contribuya a
satisfacer cada criterio.

El proceso analítico
Una vez que el decisor y los cursos de acción se han identificado, los principales pasos
del método son:
1. Representar el modelo mediante un árbol de jerarquías. El esquema básica a seguir es:

2. Comparar de a pares atributos y alternativas. Este paso se aplica para determinar la


importancia relativa de los criterios y también para comparar cómo satisfacen a los
criterios las distintas alternativas. La comparación se hace entre elementos que forman
parte de un mismo nivel del árbol de jerarquías; las alternativas se comparan de acuerdo a
cada uno de los criterios del nivel precedente. Se utiliza una escala número con niveles de
intensidad entre 1 y 9, de la siguiente forma:
Intensidad
de Definición Explicación
importancia
Dos actividades contribuyen de igual modo
1 Igual
al objetivo.
La experiencia y el juicio favorecen
3 Moderada
levemente a una actividad sobre la otra.

126
La experiencia y el juicio favorecen
5 Fuerte
fuertemente a una actividad sobre la otra.
Una actividad es mucho más favorecida que
7 Muy fuerte la otra; su predominancia se demostró en la
práctica.
Las pruebas que favorecen a una actividad
9 Extrema más que a otra son del nivel de aceptación
más alto posible.
A veces es necesario interponer
Para transar entre los valores numéricamente un juicio de transacción
2,4,6,8
anteriores puesto que no hay una palabra apropiada
para describirlo.
Si a la actividad i se le ha asignado
Una comparación que surge de la elección
Recíprocos uno de los números distintos de 0
del elemento más pequeño como unidad,
de lo mencionados cuando se compara con
para estimar el mayor como múltiplo de esa
anterior la actividad j, entonces j tiene el
unidad
recíproco cuando se la compara con i
3. Transformar las comparaciones en pesos(ponderaciones) y controlar la consistencia
de las comparaciones del decisor. Se calculan los pesos relativos de los elementos de
decisión y se hace el control de congruencia entre los juicios. El control analiza si el decisor
es coherente al hacer las asignaciones de las ponderaciones; es decir, que no se
contradiga, ya que ello puede distorsionar los resultados que arroje el modelo. En el caso
que no haya consistencia, es necesario reasignar los pesos.
4. Aplicar los pesos para obtener puntajes a asignar a cada opción y realizar una
selección provisoria. Se concluye con la estimación del orden de preferencias global,
indicando cuál es la alternativa que mejor satisface los objetivos y criterios aplicados.
5. Ejecutar el análisis de sensibilidad. Se examinará la robustez de la decisión provisoria
frente a cambios en los órdenes de preferencia e importancia asignados.

5) Aplicación del PAJ. Análisis de sensibilidad.


El proceso de cálculo (ver ejemplo libro Fredes páginas 146-151)

1º. Paso: construir el Árbol Jerárquico.


Los pasos 2 a 4 consisten en el procedimiento iterativo para cada uno de los criterios.
2º. Paso:Matriz de Comparación pareadas (MCP) de las alternativas. En ellas se
comparan las variables entre sí en función de cada criterio, por lo que habrá tantas
MCP como criterios se apliquen en la resolución del problema. Es importante destacar
que las relaciones recíprocas se representan con el inverso multiplicativo (si entre A y B
la relación es 3, la relación entre B y A es 1/3) y que la diagonal principal de la matriz
solo tiene unos, ya que al expresar la relación de cada alternativa consigo misma no
hay otra posibilidad que consignar el juicio como “igual preferencia”.

127
3º. Paso: Procedimiento de sintetización. Matriz normalizada (MCPN): sus elementos
se calculan dividiendo cada elemento de la matriz MCP por la suma de los elementos
de la columna en que está ubicado. El vector de prioridad de cada elemento (VP)
indica el grado de ponderación asignado a cada alternativa al analizarla con el criterio
aplicado; surge del promedio simple de los elementos de cada fila de la matriz MCPN.
4º. Paso: Análisis de Consistencia, para reflejar la congruencia de los juicios del decisor.
Se calculan cuatro conceptos:
1. Vector Suma ponderada (VSP): cada elemento (cada fila) surge de multiplicar
cada vector fila que compone la matriz MCP por el vector prioridades VP y dividir el
resultado por la prioridad calculada para esa fila.
2. Se calcula λ máx como promedio simple de los elementos del vector VSP.
3. Se calcula el Índice de Consistencia (IC)para el criterio tratado de la siguiente
forma (donde n es la cantidad de elementos que tiene el vector):
𝝀𝝀𝒎𝒎á𝒙𝒙 − 𝒏𝒏
𝑰𝑰𝑰𝑰 =
𝒏𝒏 − 𝟏𝟏
4. El índice calculado se compara con un índice generado aleatoriamente (LA)
mediante simulaciones por el propio Saaty, para expresar el Ratio de Consistencia
(RC) del criterio. Se calcula RC=IC/LA. Se considera que es consistente en los juicios
cuando es RC<0,10.
Orden 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Índice aleatorio 0 0 0,58 0,9 1,12 1,24 1,32 1,41 1,45 1,49 1,51 1,48 1,56 1,57 1,59

5º. Paso:MCP para todos los criterios. De forma similar a lo realizado con las alternativas,
ahora se comparan los criterios de a dos, hasta llegar a determinar su coherencia
(análisis de consistencia).
6º. Paso:Jerarquización global de prioridades. En primer lugar se reúnen los resultados
obtenidos en los vectores de prioridad (VP) de cada criterio: se colocan las alternativas
por filas y los criterios por columnas. Además se puede agregar una fila con las
ponderaciones de los criterios obtenidas en el paso 5°.
A cada valor de las filas se le aplica el factor de ponderación, luego se suman los
productos para obtener el promedio ponderado y así se va construyendo el vector
de prioridad global (PG), mediante el cual se define el puntaje obtenido por cada
alternativa. La que mayor prioridad global tenga será la alternativa más “aceptable”.

Análisis de sensibilidad
Al igual que en otros modelos normativos, este tipo de análisis permite evaluar la
estabilidad y robustez de la solución hallada ante cambios en algunos de los parámetros
del modelo. En este caso, lo habitual es observar el impacto sobre los valores del PG antes
variaciones en los pesos asignadas a los criterios.

128
UNIDAD VIII: Programación Dinámica
1) Conceptos básicos. Principio de optimalidad
“Divide y vencerás”
Las metodologías de trabajo aplicables a la resolución de situaciones problemáticas que
se desarrollarán en este capítulo presentan aspectos que las distinguen de técnicas
específicas (como Programación Lineal), pero que aun así se utilizan en la Investigación
Operativa. Las técnicas específicas pueden aplicarse de la misma forma a diversos
problemas, mientras que en el caso de la Programación Dinámica se cuenta con un
procedimiento sistemático basado en un enfoque de tipo general para la resolución de
problemas. Tal es así, que en programación dinámica la formulación matemática específica
para cada caso de aplicación individual debe desarrollarse y adecuarse al modelo
elaborado. Es decir, no se cuenta con algoritmos ya definidos que permitan arribar a una
solución, sino que es preciso formular “relaciones recurrentes” apropiadas p/ c/ problema.
Por lo dicho,para poder iniciar con los análisis y desarrollos concretos de cada caso, se
debe primeramente examinar las características del fenómeno con el fin de identificar si
existen ciertos rasgos típicos de aquellas situaciones en las que es posible aplicar
programación dinámica. Con el objetivo de entender y conocer estos rasgos, se expondrán
(más adelante) ciertos ejemplos demostrativos de situaciones que pueden resolverse
mediante programación dinámica.
Uno de los aspectos principales para poder aplicar programación dinámica es que a la
hora de llevar acabo el análisis se necesite tomar decisiones en forma parcial y sucesiva
en base a un orden ya prefijado. Cuando se requiere tomar una serie de decisiones
interrelacionadas y es posible dividir los grandes problemas en secuencias de problemas
relacionados más pequeños y con mayor facilidad para realizar los cálculos que permitan
optimizarlos individualmente, existen enormes chances de poder aplicar PD.

Glosario
 Etapa (o fase): fracción del problema con un conjunto de alternativas mutuamente
excluyentes, entre las que se seleccionará la mejor. Cuando un problema complejo se
subdivide en otros de menor tamaño, el método de PD crea una etapa por cada uno de
tales subproblemas, y las etapas se resolverán individualmente en un cierto orden.
 Variable de decisión: una variable que representa a las posibles decisiones que
pueden tomarse en una etapa para solucionar el subproblema.
 Decisión: opción para completar cada etapa. Resulta de asignarle un valor
concreto a la variable de decisión correspondiente.
 Estado actual: situación en la que está el proceso al inicio de una etapa/fase y que
indica las condiciones en la que debe tomarse la decisión correspondiente. Cuando se la
toma se pasa desde el estado asociado con una etapa hacia el asociado con la siguiente.

129
 Variable de estado: variable que representa la situación (condiciones o estado) en
que se encuentra el proceso en un determinado momento; básicamente, al inicio de una
etapa o al final de la misma (inicio de la siguiente).
 Función de transformación para etapas: es una regla o ecuación que relaciona la
variable de estado de una etapa con la variable de estado de la etapa anterior y con la
decisión adoptada. Es la expresión matemática a aplicar para que la variable de estado de
una etapa se transforme y esté en condiciones de ser aplicada en la siguiente etapa.
 Rendimiento inmediato:valor representativo del aporte (o contribución) que una
decisión tomada en una etapa hace, por sí misma, al rendimiento global de todo el proceso.
 Función de rendimiento: es un valor (ganancia, pérdida, costo, etc.) vinculado al
valor adoptado por la variable de decisión en una etapa cualquiera en conjunto con otras
etapas para las cuales ya se calculó su rendimiento inmediato. La función de rendimiento
resume el resultado total para todas las etapas evaluadas, incluida la tratada actualmente.
 Proceso finito: tiene un número finito de etapas y de estados asociados a c/ etapa.
 Política: se forma con el conjunto (secuencia) de las decisiones adoptadas en cada
una de las etapas. Sobre todo en el caso de modelos determinísticos.
 Subpolítica: es un subconjunto del conjunto de decisiones que forman una política.
 Estrategia: IDEM a política en modelos aleatorios.
 Subestrategia: IDEM a subpolítica en modelos aleatorios.
 Política (o Estrategia) óptima: es la que lleva al mejor rendimiento global, y
resulta de la combinación de los rendimientos asociados a cada decisión, los cuales se
calculan con la función de rendimiento.

Características de las aplicaciones de programación dinámica


Como ya dijimos, los casos en los que pueden aplicarse PD para solucionarlos presentan
ciertas características comunes, las que ahora detallaremos específicamente:
1. El problema puede dividirse en etapas; cada etapa requiere una decisión. Esto
ocurre cuando existe la posibilidad de fraccionar un problema complejo en un conjunto de
problemas cuya resolución puede facilitarse al abordarlos individualmente.
2. Cada etapa tiene un número de estados asociados con ella. Como explicamos en el
glosario, cada etapa cuenta con información sobre las condiciones (situación o estados)
en que se tomará la decisión para avanzar a la siguiente.
3. La decisión tomada en cualquier etapa indica de qué manera se transforma el
estado de la etapa actual en el estado correspondiente a la etapa siguiente. Esta
relación de transición permite representar el modelo mediante redes (ya vistas
anteriormente), facilitando así la interpretación de los procesos involucrados, las relaciones
entre ellos y sus consecuencias.
4. Dado el estado actual, la decisión óptima para cada una de las etapas restantes
NO debe depender de estados previamente alcanzados o de decisiones previamente
tomadas. Esto es así porque la eficiencia de una subpolítica cualquiera depende del estado
130
en que encuentra el proceso y de las etapas restantes, independientemente de las
decisiones y estados previos. Esto es lo que se conoce como “principio de optimidad”, y
se explicará con mayor profundidad en el siguiente título.
5. El procedimiento de resolución se basa en que hallando las decisiones óptimas
correspondientes a cada etapa para cada uno de los estados posibles, permite obtener
una solución óptima para el problema en forma global. En otras palabras, en cada etapa y
ante cada estado posible se cuenta con la mejor decisión, que da información sobre qué
hacer ante cada circunstancia que pudiera surgir (es útil para análisis de sensibilidad).
6. El proceso de resolución se inicia encontrando la súbpolítica óptima de la última
etapa. Es decir, para iniciar el procedimiento se debe determinar la decisión óptima para
cada estado posible en la última etapa, generalmente mediante una solución trivial.
7. Si los estados del problema se han clasificado en una secuencia de Netapas, una
fórmula recurrente debe relacionar los rendimientos obtenidos en las etapas N a n con
los obtenidos en las correspondientes etapas subsiguientes (n-1 hasta 1). Esto se logra
utilizando una fórmula única aplicable en cada una de las etapas. Las variaciones en la
fórmula y en los resultados obtenidos para cada etapa se producen debido a que se tienen
en cuenta los valores de la variable de decisión y de la variable de estado respectivas. En
otras palabras, se cuenta con una relación recurrente que identifica la subpolítica
óptima para la etapa n dada la subpolítica óptima para la fase n+1.

Optimidad
El Teorema de Optimidad (o principio de optimidad) expresa que “dado el estado
actual, la decisión óptima para cada una de las etapas restantes NO debe depender de
estados previamente alcanzados o de decisiones previamente tomadas”. En forma más
sencilla, “una política óptima sólo puede estar formada por subpolíticas óptimas”.
El teorema se basa en los cálculos recurrentes que se aplican en el procedimiento. En
cada etapa se determina, para cada estado posible, la mejor política para abandonar tal
estado y completar el proceso. Tal determinación considera que las etapas precedentes se
han concluido y los resultados obtenidos en ellas se aprovechan en la etapa subsiguiente.
En tales circunstancias, en cada etapa se usa información de resumen de la/s etapa/s
anterior/es. Dicho resumen incluye todos los rendimientos de todas las etapas ya
consideradas, por lo que en la utilización del mismo NO interesan las decisiones
específicas ya tomadas en todas las etapas anteriores.
Las decisiones futuras se adoptan en forma óptima sin la necesidad de obedecer a
decisiones ya tomadas. Entonces, para una política óptima, independientemente de las
decisiones ya tomadas para llegar a un determinado estado en una determinada etapa, las
decisiones restantes deben constituir una política óptima para abandonar ese estado.

131
Nomenclatura y formulación
Ya indicamos anteriormente que en PD no existe un algoritmo de uso general que
pueda aplicarse en cualquier caso en particular, lo que llevaría a pensar que la herramienta
no posee expresiones matemáticas (variables y funciones) estandarizadas. Sin embargo, a
partir de las características típicas con las que cuentan todas las situaciones que son
posibles de solucionar mediante esta metodología, se pueden extraer algunas
formulaciones bastante uniformes.
La formulación básica de un problema de PD, luego de identificar las etapas y los
estados, se apoya en la relación recurrente (como ya vimos) que permite avanzar en el
proceso de solución. Si bien dicha relación es propia de cada problema, es posible utilizar
una notación común aplicable a la mayoría de ellos.
𝑵𝑵:representa el número de etapas que tiene el modelo.
𝒏𝒏:identifica a la etapa que se está analizando en un momento determinado (etapa
actual).
𝒔𝒔𝒏𝒏 :la variable de estado representativa de la situación para la etapa n. Si se consideran
a las etapas y sus circunstancias como un todo, podría decirse que s n representa el estado
del sistema en la etapa n.
𝒙𝒙𝒏𝒏 :la variable de decisión para la etapa n.
𝒙𝒙∗𝒏𝒏 :valor óptimo de la variable de decisión x n cuando el estado de la etapa es s n .
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ):representa la contribución que hacen a la función objetivo las etapas n,
n+1,…, N cuando el estado de la etapa n es s n , la decisión en tal etapa es x n y en etapas
subsiguientes se toman decisiones óptimas. Esta definición es válida cuando se aplica
recurrencia “en retroceso” (desde la última etapa hasta la primera, yendo “hacia atrás”).
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙∗𝒏𝒏 ):valor óptimo total para la función de rendimiento para la
etapa n y todas las etapas posteriores cuando la variable de decisión x n adopta su valor
óptimo ante el estado s n . Esta función de rendimiento podría expresarse de las siguientes
formas:𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )]ó 𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )], la
cual variaría si el objetivo perseguido por el problema sea de maximizar o de minimizar el
valor de una función determinada. Resulta importante aclarar que la expresión
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) al ser valorizada tiene en cuenta la función 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒔𝒔𝒏𝒏+𝟏𝟏 ), por lo que se
asegura que haya relación entre los rendimientos de tanto la actual etapa como de las
siguientes hasta la última.

Ventajas de la resolución mediante Programación Dinámica


Esta metodología presenta ciertas ventajas con respecto a otras técnicas que solucionan
problemas similares en cuanto a la cantidad de cálculos necesarios para alcanzar el
óptimo.
132
Los problemas en que es aplicable la PD se caracterizan por necesitar muchos cálculos,
principalmente porque la cantidad de alternativas a evaluar debe determinarse mediante
un análisis combinatorio. Debido a eso, a medida que aumenta el número de etapas o de
estados es probable que incremente excesivamente la cantidad de cálculos a realizar si se
llevase a cabo una “simple inspección”.
Cuando se utiliza una metodología que se basa en la enumeración total, las
combinaciones NO factibles no pueden descubrirse de forma anticipada, lo que lleva al
riesgo de realizar más cálculos de los necesarios. Respecto de las combinaciones factibles,
no se utiliza la información disponible para eliminar toda referencia futura a aquellas que
nunca pueden llegar a formar parte de la solución óptima.
En contraste con lo dicho, la metodología de enumeración parcial que aplica la PD
reduce notablemente la cantidad de tales combinaciones, y por ende disminuye también el
número de cálculos requeridos para conseguir el óptimo.
Por otra parte, al tratarse de especificaciones generales sobre el procedimiento a
observar en la resolución, es posible adaptar los cálculos a la situación analizada, haciendo
uso de la creatividad y de la versatilidad de los procedimientos ideados.
En resumen, las ventajas de aplicar PD son:
1. La cantidad de cálculos necesarios para llegar al óptimo son menores (enumeración
parcial).
2. Las combinaciones NO factibles pueden descubrirse con anticipación (elimina el riesgo
de cálculos de más).
3. Las combinaciones factibles utilización información disponible para eliminar referencia
futura a las que son desechables.
4. Metodología aplicable en situaciones muy diversas, con la debida creatividad sobre las
especificaciones generales.

Distintos tipos de Programación Dinámica


Una separación en dos grandes grupos puede hacerse cuando se tiene en cuenta el
efecto del fenómeno aleatorio o no:
• Si ante un estado del sistema en una etapa n cualquiera se adopta una decisión de forma
tal que el estado para la siguiente etapa queda completa y unívocamente determinado,
estamos en presencia de un modelo de Programación Dinámica Determinística.
• En cambio, en un modelo de Programación Dinámica Aleatoria cuando se toma una
decisión dado un estado de una etapa n cualquiera, para determinar cuál será el siguiente
estado del sistema es necesario aplicar una distribución de probabilidad. Esto ocurre
cuando el rendimiento de al menos una de las decisiones es aleatorio.

Otros criterios de clasificación pueden ser según la forma de la función objetivo (ya sea
maximizar o minimizar, y a su vez si para el cálculo de la función de rendimiento global se
aplicará suma o producto de los resultados parciales) y según el tipo de variables aplicadas
(discretas o continuas).
133
2) Caso determinístico. Funciones y variables intervinientes. Políticas óptimas
Particularidades del caso determinístico
Como ya dijimos, la característica principal de estos problemas es que se conoce con
certeza cuál será el estado al que se llegará luego de tomar una decisión en una
determinada etapa y ante un determinado estado actual conocido también con certeza.
Si bien existen otras formulaciones, básicamente se identifican tres tipos distintos de
problemas que permiten obtener su solución mediante PDD: el problema de la diligencia,
el problema de distribución de esfuerzos, y el planeamiento y control de inventarios y
producción. Este tipo de problemas se puede representar mediante redes orientadas: cada
nodo identifica a los estados que pueden existir al inicio o al final de una etapa, mientras
que los arcos indican la forma en que se puede vincular el estado actual de una etapa con
el de la siguiente. Ubicados un único nodo inicial y un único nodo final, el resto de ellos
(intermedios) se alinean verticalmente de forma tal que todos los estados pertenecientes a
una misma etapa queden sobre una misma línea vertical. Vale aclarar que cada arco refleja
la transición de una etapa a otro, por lo que resulta imposible que un arco vaya más allá de
la primera columna de nodos contigua.
Si bien sobre la red pueden registrarse detalladamente y paso a paso las ecuaciones
utilizadas y los cálculos resultantes necesarios para hallar el óptimo, resulta favorable
utilizar una tabla en la cual consignar los cálculos auxiliares e identificar aquellos que son
útiles para avanzar en la construcción de los valores óptimos.

El problema de la diligencia

Ejemplo. La ruta más corta (VER LIBRO DE FREDES)


En este caso supondremos que el “Club de Raidistas Esfuerzo Máximo” promueve entre
sus integrantes la realización de excursiones en bicicleta por las rutas del país. En estos
momentos organizan un raid que unirá Santa Rosa con Tandil en cinco jornadas de
pedaleo. El emprendimiento se basa totalmente en el esfuerzo propio de los asociados, y
para abaratar costos los recorridos intermedios obligan a pasar por ciudades donde
existan clubes similares que les provean comida y alojamiento.
En la siguiente imagen se puede ver
un croquis que refleja
aproximadamente la distribución
geográfica de las distintas ciudades y
las diferentes rutas que las unen y
permiten llegar de un extremo (SR) a
otro (T).

Una forma de determinar la ruta a seguir, con el fin de que ésta sea la de menor
trayecto, es aplicando el método de la ruta más corta visto anteriormente. No obstante,
134
esto implicaría un análisis exhaustivo de todos los posibles caminos entre A y O, trabajo
muy costoso y extenuante si se cuenta con una red mucho más compleja.
Al observar el croquis podemos notar que resulta posible armar una red para identificar
cada una de las etapas que tendrá el modelo a confeccionar que permitirá aplicar PDD:

Podemos ver que los nodos representan a cada ciudad, mientras que los arcos indican
las posibles rutas que las unen entre sí, es decir, las posibles formas de pasar de un estado
del sistema (estar en una determinada ciudad) a otroestado distinto en la etapasiguiente
(cambiar de ciudad). Los números expuestos sobre cada arco reflejan los kilómetros que
separan una ciudad de otra. Como vemos la red se ha ordenado de una forma más
practica como ya explicamos anteriormente, la cual permite distinguir claramente las
distintas etapas del modelo y las variables intervinientes en cada una: s n es la variable de
estado representativa de las distintas ciudades que pueden alojar a los excursionistas en
cada etapa; y x n es la variable de decisión para la etapa n (n=1,2,…,5). Por su parte, el
estado del nodo terminal ase ha indicado como s T .

Formulación
Se considerará políticaóptima (según la definición vista anteriormente) a aquella que
contenga todas las sucesivas elecciones de tramos de ruta que minimicen la distancia total
a recorrer.
En este caso el único dato con el que contamos es la cantidad de kilómetros que
median entre las distintas ciudades (aunque pudiesen existir otros datos: costos).
A partir de la expresión ya vista 𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎𝒙𝒙𝒏𝒏 [𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )]se puede definir la
función objetivo de este modelo (que claramente es de minimización). La función a
minimizar (2do miembro de la ecuación) expone el cálculo recurrente y se compone de
dos partes:

135
a) Un valor (kilómetros) que es el rendimiento inmediato (que se simbolizará con 𝒗𝒗𝑺𝑺𝑿𝑿𝒏𝒏 )
por elegir la opción x n en la etapa n; y
b) El mínimo valor futuro (a representar con 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒙𝒙𝒏𝒏 )) correspondiente a las etapas
n+1 y posteriores (es decir, los kilómetros a recorrer desde la próxima etapa inclusive
hasta llegar al destino final).

En símbolos 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = 𝒗𝒗𝑺𝑺𝑿𝑿𝒏𝒏 + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒙𝒙𝒏𝒏 )es la ecuaciónderecurrencia. La



ecuación 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 )representa el mínimo valor que corresponde a la mejor política global para
las etapas restantes cuando se elige la opción x n y se está en el estado s n en la etapa n.
La última expresión, que se aplica en la Etapa I, es la que expresa el objetivo del
problema. En dicha etapa, solo existe un estado posible, y por ende una única opción que
será la óptima para todo el problema tomada en la etapa n=1. Por ello se buscará hallar la
ruta desde A hasta O que minimice el valor de la expresión𝒇𝒇∗𝟏𝟏 (𝑨𝑨), la cual se resume en:
𝑵𝑵

𝒇𝒇∗𝟏𝟏 (𝑨𝑨) = � 𝒗𝒗𝒔𝒔𝒔𝒔 . 𝒙𝒙𝒊𝒊


𝒊𝒊=𝟏𝟏
Lo básico de la PD es la separación del problema en otros subproblemas de menor
tamaño que pueden ser optimados individualmente, y que conserven entre sí la
interrelación de las decisiones a tomar. A continuación se resolverá el problema etapa por
etapa, comenzando por la última de ellas (momento en que los ciclistas llegan a la
anteúltima ciudad y deben comenzar el recorrido hacia la última) y yendo en retroceso
hasta llegar a la primera etapa, punto en el cual, como dijimos, se halla el óptimo al
objetivo del problema global.

Etapa V
Cuando resta ejecutar la última etapa el camino está claramente determinado por el
“estado actual” (estar en las ciudades L, M o N) y el “destino final” (llegar a la ciudad O).
Como ya dijimos, se trabajará sobre una tabla auxiliar para facilitar así la interpretación de
los resultados obtenidos. En la última etapa los cálculos son sencillos, ya que para cada
estado el rendimiento inmediato por trasladarse hasta el estado O (único estado en la última
etapa) refleja automáticamente el acumulado desde dicho origen hasta el final de la red.
En la siguiente tabla pueden
verse los cálculos realizados:

136
Etapa IV
Las opciones son: si se está en la ciudad I pasar a la ciudad L; si se está en J pasar a M;
o, si se está en K pasar a las ciudades M o N. En esta etapa, a diferencia de la anterior, los
cálculos son un poco más complicados (MIRARLOS EN EL EJEMPLO). En la siguiente tabla
se resumen los resultados:

Etapa III
En esta etapa hay 4 estados iniciales: las ciudades E, F, G y H. Al igual que en cada
etapa, se deben analizar las distintas alternativas de decisión, que en este caso son: pasar
de E a I , de F a I , de G a J o K, y de H a K. El resumen de los cálculos es:

Etapa II
Ahora los estados iniciales son 3: las ciudades B, C y D. Nuevamente de analizan las
distintas alternativas de decisión, y se obtienen los siguientes resultados:

Etapa I
Finalmente, la aplicación de la recurrencia en retroceso lleva a considerar la situación en
el nodo inicial de la red, cuando el único estado lo constituye la ciudad A, por lo que las
variables de decisión son: ir desde A hasta B, C o D. Los resultados se resumen aquí:

Conclusión del ejemplo


Como de los tres valores calculados para el estado A se debe tomar el menor (recordar
que la función objetivo es de minimización, es decir, se buscar realizar el menor recorrido)

137
y estamos en el inicio de la red, dicho valor representa la menor distancia que hay entre el
nodo inicial (A) y el final (O), ya que se ha obtenido que:
𝑵𝑵

𝒇𝒇∗𝟏𝟏 (𝑨𝑨) = � 𝒗𝒗𝒔𝒔𝒔𝒔 . 𝒙𝒙𝒊𝒊 = 𝟓𝟓𝟓𝟓𝟓𝟓


𝒊𝒊=𝟏𝟏
Al tratarse de un modelo normativo, al resolver el problema se halla un valor óptimo y el
valor de las variables de decisión que permiten obtenerlo. En este caso, tal trabajo se logra
revisando las tablas en el sentido inverso a su presentación, lo que se resume en la tabla:

La distribución de esfuerzos (o problema de la mochila)


En este caso, el modelo intenta representar que a partir de “un todo” disponible se
procura distribuir el mismo entre diversos destinos alternativos que requieren fracciones
de tamaño variado de aquel “todo” y, a su vez, realizan aportes de diversa importancia a
un objetivo planteado que se busca optimizar.
Un problema así puede plantearse con la siguiente expresión matemática:
𝒁𝒁 = 𝒇𝒇𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒇𝒇𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒇𝒇𝒏𝒏 (𝒙𝒙𝒏𝒏 )
Sujeta a la condición: x 1 + x 2 + x 3 + … + x n ≤ b; con todas las variables enteras y no
negativas, y donde 𝒇𝒇𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒇𝒇𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒇𝒇𝒏𝒏 (𝒙𝒙𝒏𝒏 )son funciones no lineales conocidas de
una sola variable, y b es un número entero no negativo conocido.

Ejemplo. Inversiones alternativas (VER LIBRO DE FREDES)


Supongamos que se cuenta con una suma máxima de $6.000 para invertir entre cuatro
sucursales de una empresa que busca obtener el mayor rendimiento total de la inversión
efectuada. Son diversos los rendimientos que se obtienen en cada sucursal y ante cada
monto invertido. Dicha información se consigna en la siguiente tabla:

Para facilitar el ejemplo se trabajará con variables discretas (los montos a invertir varían
de 1000 en 1000), aunque podría trabajarse con variables continuas.

138
Formulación
Como ya explicamos anteriormente, el primer paso para poder aplicar esta metodología
consiste en identificar las distintas etapas así como los estados que pueden presentarse en
cada una de ellas.
Lo primero que debemos preguntarnos es qué es lo que se pretende conseguir, es
decir, el objetivo del problema. En este caso se busca maximizarelrendimiento global de
la inversión. Por tal motivo, cada decisión debe aportar a dicha maximización, y las
variables que indiquen el nivel de inversión a realizar en cada sucursal serán las
variablesdedecisión. Como cada variable de decisión corresponde a una etapa del
problema de PD, cada una de las distintas sucursales serán las etapas o fases.
Una vez definidas las etapas, se determinan los estados que pueden presentarse en
cada una. Como en cada sucursal se invertirá una parte del total, el montorestante que
aún no se invirtió será el estado o situación que condicionará a la próxima decisión.
El problema podría expresarse de la siguiente forma:
Maximizar:𝒁𝒁 = 𝒓𝒓𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒓𝒓𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒓𝒓𝑵𝑵 (𝒙𝒙𝑵𝑵 )
Sujeto a la condición: x1 + x2 + x3 + … + xN ≤ b

En la que 𝒓𝒓𝒏𝒏 (𝒙𝒙𝒏𝒏 )es una medida del desempeño (rendimiento) que se obtiene al asignar
𝒙𝒙𝒏𝒏 unidades monetarias en la etapa (sucursal) 𝒏𝒏. Al inicio de tal etapa el estado actual es 𝒔𝒔𝒏𝒏
que, como ya vimos, representa el monto disponible para invertir en dicha etapa (sucursal).
De forma similar al ejemplo anterior, la fórmula de recurrencia será:
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )
𝒙𝒙𝒏𝒏 = 𝟎𝟎, 𝟏𝟏, … , 𝒔𝒔𝒏𝒏
A su vez, la función de la que se busca su máximo puede desagregarse en:
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = 𝒓𝒓𝒏𝒏 (𝒙𝒙𝒏𝒏 ) + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒔𝒔𝒏𝒏 − 𝒙𝒙𝒏𝒏 )
En palabras, el rendimiento que tienen los x n pesos invertidos en esta etapa, más el mejor
rendimiento – ya calculado en etapas evaluadas previamente – que tienen en conjunto los
restantes pesos hasta completar el total que había disponible al iniciar la etapa.

Proceso de cálculo
En este caso es indistinto el orden de la selección de una sucursal u otra para asignar los
fondos, pero se continuará con la resolución mediante recurrencia en retroceso como en
el otro ejemplo: primero se seleccionara una etapa (la última) de forma que su resolución
sea sencilla, y luego se avanza en el proceso de cálculo agregando más etapa hasta llegar a
la primera etapa.
De esta forma, no se sabrá en cada paso cuánto invertir en cada sucursal (etapa), sino
que simplemente quedará indicado provisoriamente con la variable que lo identifica.
Luego, al llegar a la primera etapa y finalizar el procedimiento, se hace el mismo recorrido

139
pero en forma inversa y se determinará el nivel óptimo a asignar a cada variable de
decisión de forma tal que se maximice la inversión global.
Si bien pueden utilizarse tablas como las del ejemplo anterior, en este caso se usaran
matrices triangulares para obtener los rendimientos de cada paso.

Etapa IV
Nuevamente al ser la última etapa, la solución es bastante sencilla al analizarse una
única sucursal (la 4) en la cual invertir los fondos disponibles. Los resultados simplemente
se extraen de la tabla presentada anteriormente:

Etapa III
A partir de esta etapa comienza a aplicarse la matriz para combinar el rendimiento
inmediato por invertir en la sucursal de esta etapa (la 3) junto con lo mejor de la etapa
posterior ya estudiada (𝒇𝒇∗𝟒𝟒 (𝒔𝒔𝟒𝟒 )). En la tabla también se expone los rendimientos que se
lograrían invirtiendo en la sucursal 3 sin tener en cuenta las demás sucursales.
El resto de los valores de la tabla forman una matriz triangular en la que cada valor
surge de la suma de los rendimientos de la fila (dinero invertido en esta etapa) y de la
columna (dinero invertido en las etapas posteriores ya examinadas) que intersectan,
siempre y cuando la suma de los montos invertidos no supere el máximo (el todo, los
$6.000, razón por la cual la matriz tiene forma triangular). Como podemos observar, todos
los rendimientos de un determinado estado quedan sobre la misma diagonal.

La tabla de la derecha muestra las subpolíticas óptimas. Indica cuáles son las mejores
opciones (que incluye su asociación con los rendimientos futuros de la sucursal 4 𝒇𝒇∗𝟑𝟑 (𝒔𝒔𝟑𝟑 ))
cuando en esta etapa se enfrentan los estados (dinero disponible) de 0 a 6. Se obtienen de
comparar todos los valores de una diagonal de la matriz y elegir de ellos el mejor. Hallado

140
dicho valor, se busca por la misma fila el valor que indique la cantidad de dinero que se
invertirá en esta etapa (𝒙𝒙𝟑𝟑∗ ), es decir, en la sucursal 3.

Etapa II
En este caso, en la matriz se consideran los rendimientos inmediatos que se obtendrían
por invertir en la sucursal 2 en conjunto con lo mejor de las etapas posteriores ya vistas
(𝒇𝒇∗𝟑𝟑 (𝒔𝒔𝟑𝟑 )), valores que se obtienen de la tabla anterior. Los resultados se exponen en la
siguiente tabla:

Etapa I
En esta etapa se finaliza con la asignación de los fondos disponibles, y por ende, con el
proceso de solución de la PD. En este caso, en la matriz se consideran los rendimientos
inmediatos que se obtendrían por invertir en la sucursal 1 en conjunto con lo mejor de las
etapas posteriores ya vistas (𝒇𝒇∗𝟐𝟐 (𝒔𝒔𝟐𝟐 )).

Es importante destacar que, como se observa en la tabla, se han resuelto todos los
estados posibles de la variable s 1 , y esto es así debido a que la restricción del problema
(ver antes) establece que los fondos invertidos deben ser igual o menor que los
disponibles. Si la condición expresara que deben invertirse la totalidad de los fondos, en
esta etapa el único estado posible sería s 1 =6, y solo deberían completarse los valores
correspondiente a la última diagonal de la matriz.

Conclusiones (VER EL PROCESO EN LIBRO DE FREDES)


Como ésta es la etapa que cierra el proceso (es la primera), en el cuadro resumen el
valor de 𝒙𝒙𝟏𝟏∗ hallado para el mejor valor acumulado indica cuál es la inversión a hacer en la

141
sucursal 1 para que se maximice el valor de la función objetivo. Además, al recorrer el
camino hacia atrás se encuentran los montos a colocar en c/u de las otras sucursales.
La planificación de reemplazos y mantenimientos de equipos
La PD es aplicable para establecer una política de gestión de equipos sujetos a
utilización, desgaste, tareas de mantenimiento, etc., en función de su
comportamientofuturoesperado según su antigüedad, modalidad de uso, entre otros
factores.

Ejemplo. Decisiones de conservación o reemplazo (VER LIBRO DE FREDES)


En este caso se supondrá que un competidor que pretende salir del mercado le ha
ofrecido en venta a Quantum Rodados – empresa dedicada al alquiler de cuatriciclos en un
área recreativa de la ciudad – un lote de tales vehículos. Los mismos cuentan hoy día con 2
años de antigüedad, y la decisión se tomará en base a los costos totales aplicables a cada
móvil en concepto de operación, mantenimientos, lucro cesante por rotura, costo de
renovación, y valor de recupero. La experiencia con la que cuenta la empresa en el rubro le
permite armar la siguiente tabla, en la cual se consignan todos los conceptos citados, para
cada cuatriciclo, a través de cada año de operación:

En cada año existe la opción de mantener o de renovar el cuatriciclo, salvo en el cuarto y


último año en que es obligatoria su renovación. La planificación abarca un período de 5
años, luego del cual se venderá todo el parque de vehículos, independientemente del
estado en el que se encuentren.

Formulación
Tal como hicimos en los ejemplos anteriores, lo primero que se debe hacer consiste en
identificar las etapas y los estados posibles que pueden presentarse en ellas.
El objetivo de este problema procura minimizarel costo total de cada cuatriciclo.
Obviamente, las decisiones a tomar según tal objetivo requieren de variables de decisión
(una por cada etapa del problema de PD) que indiquen qué hacer en cada etapa (al final
de cada año): mantener o renovar el vehículo, ya que dichas opciones implican incurrir en
tales costos. Con todo lo dicho, el problema podría definirse como:
Minimizar:𝒁𝒁 = 𝒄𝒄𝟏𝟏 (𝒙𝒙𝟏𝟏 ) + 𝒄𝒄𝟐𝟐 (𝒙𝒙𝟐𝟐 ) + … + 𝒄𝒄𝑵𝑵 (𝒙𝒙𝑵𝑵 )
En donde 𝒄𝒄𝒏𝒏 (𝒙𝒙𝒏𝒏 ) es una medidadeldesempeño (costo total incurrido) al adoptar para
x n el valor “reemplazar” o “conservar” en la etapa n. Al inicio de tal etapa se estará en
presencia del estado s n (cuatriciclo con una cierta antigüedad a principio de año).
En este caso, la expresión de recurrencia sería:
𝒇𝒇∗𝒏𝒏 (𝒔𝒔𝒏𝒏 ) = 𝒎𝒎𝒎𝒎𝒎𝒎 𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 )
142
𝒙𝒙𝒏𝒏 = 𝟎𝟎, 𝟏𝟏, … , 𝒔𝒔𝒏𝒏
De forma análoga que en los ejemplos anteriores, la segunda expresión puede
reexpresar como:
𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = 𝒄𝒄𝒏𝒏 (𝒙𝒙𝒏𝒏 ) + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒙𝒙𝒏𝒏 )
Es decir, el costo (efectoinmediato) de la decisión x n en esta etapa, más el mejor costo
– ya calculado en etapas evaluadas anteriormente – que tienen en conjunto las restantes
decisiones.
Para mostrar la venta obligatoria de los cuatriciclos luego de los 5 años se añade una
etapa adicional a las necesarias para representar cada año del horizonte de planeamiento.

Representación como red


Como en muchos otros problemas, la representación gráfica brinda una gran ayuda a la
hora de resolverlos. En este ejemplo es adecuada una red como la siguiente:

Los valores sobre los arcos representan el costo total por pasar de un estado a otro, y
en los nodos se codifica el estado del cuatriciclo: primer número indica la antigüedad; A,
“años”; P, “períodos”; último número, número de período al final de la etapa.

Proceso de cálculo
A continuación se presentará la resolución del problema mediante el uso de tablas de
forma similar a lo que se hizo en los casos anteriores.
Las tablas muestran en las filas los orígenes (o estados iniciales de la etapa) y en las
columnas los posibles destinos (estados finales) según la decisión tomada.
Como siempre, se inicia con la última etapa, en este caso, el de la venta obligatoria.

Etapa Venta (5 bis).


Como ya vimos, en la última etapa la decisión para pasar al estado s n+1 es bastante
sencilla, y en este ejemplo implica quedarse con equipos de 0 años al final del período 5
(estado 0AP5), es decir, venderlos. Desde cada uno de los posibles estados iniciales (s n ) se
trazan las mejores opciones (x*) (las de menor costo). En este caso los valores son
143
negativos ya que surgen de la diferencia entre costos y valor de recupero por la venta (es
decir, valor residual), siendo el último concepto mayor (además, al tratarse de un “ingreso”,
al asignarle un valor negativo, y siendo la función objetivo de minimización, nos
aseguramos de optar por el mayor de los “ingresos”).

Etapa Período 5.
En este caso se presentan 4 posibles estados iniciales para llegar a los 4 estados finales
(iniciales en la etapa previamente estudiada). Algunas conexiones no son válidas, por lo
que se las indica con un costo de valor M.

Etapa Período 4.
Siguiendo el mismo razonamiento tenemos que:

Etapa Período 3.
De forma similar obtenemos que:

Es importante destacar que para el estado inicial 2AP2 ambas decisiones (mantener e ir
a 3AP3 o renovar e ir a 1AP3) arrojan un mismo costo acumulado (lo cual se indica con un
asterisco en la columna “Alt”).
144
145
Etapa Período 2.
Como vemos, a medida que nos acercamos a la etapa inicial, los estados iniciales se van
reduciendo, siendo solamente 2 en esta etapa.

Etapa Período 1.
Como en los ejemplos anteriores, en la primera etapa (última analizada) la cantidad de
estados iniciales posibles se reduce a una, por lo que ya se puede definir la política óptima
de solucione el problema.

Ahora es posible construir toda la ruta de subpolíticas óptimas desde la etapa 1 hasta la
última, de manera de proponer el curso de acción que minimice el costo total. Esto se
resume en la siguiente red:

Podemos observar que la solución indica que el óptimocostototal es de $13.275, y


surge de la siguiente política:
3AP1 Conservar en la etapa número 1
4AP2 Conservar en la etapa número 2
1AP3 Renovar en la etapa número 3
2AP4 Conservar en la etapa número 4
3AP5 Conservar en la etapa número 5
0AP5 Vender en la etapa número 5 bis

146
3) Caso probabilístico. Funciones y variables intervinientes. Estrategias óptimas
Situaciones en las que es aplicable la Programación Dinámica Probabilística
Los casos que se pueden tipificar de esta manera reúnen todas las características
anteriormente nombradas al inicia de esta unidad, a las que se le agrega el hecho de que
el rendimiento de al menos una de las decisiones del proceso presenta resultados
inciertos, por diferentes razones:
a) Los estados finales posibles son inciertos y pueden obtenerse mediante la aplicación
de alguna distribución de probabilidades que se supone conocida;
b) Lo incierto es el rendimiento asociado a cada estado posible.

Entonces, en cada etapa se parte de un valor asignado a la variable de estado (estado


inicial) y para avanzar al siguiente estado, no solo depende de la decisión a tomar, sino
que también influye otro factor sobre el que no se tiene control: el azar.
Existen dos tipos de casos:
• Procesos en los que el azar sobreviene una vez tomada la decisión, que se denominan
Decisión-Azar, como por ejemplo cuando se encara un proyecto de inversión: cuando
comienza a ejecutarse pueden llegarse a distintas situaciones que las previstas.
• Procesos en los que en cada se produzcan simultáneamente las decisiones y los eventos
aleatorios, que se denominan Azar-Decisión, y suele aplicarse en los modelos de gestión
de inventarios en que las decisiones se toman en período fijos con la finalidad de que tal
gestión sea óptima: con la decisión de reponer existencias se producen disminuciones de
ellas en base a comportamientos no previstos con exactitud.

Representación del modelo y adecuación del Teorema de Optimidad


Para resolver programas dinámicos estocásticos se pueden utilizar tablas (como las
vistas), o redes en las cuales a partir de un número finito de estados posibles
(representados en los nodos) la toma de decisiones y la influencia del azar (graficados en
los arcos) llevan a nuevos estados. La diferencia aquí radica en que los elementos que el
decisor puede controlar se representarán mediante nodoscuadrados y arcos con
líneasdiscontinuas, mientras que aquellos con características aleatorias, a través de
nodoscirculares y arcos con líneasllenas.
Si bien se mantienen todos los conceptos vistos en el glosario y utilizados en PDD, en
este caso se reemplazará el término “política” por “estrategia”, puesto que como no se
conoce con certeza el comportamiento futuro del sistema, es imposible determinar con
exactitud el conjunto de opciones disponibles ni el estado de la Naturaleza en que será
posible tomar la decisión.
Dicha variación obliga a reexpresar el TeoremadeOptimidad de la siguiente forma: una
estrategiaóptima solo puede estar formada por subestrategiasóptimas. Igual que en el
caso determinístico, cada decisión futura se adopta en forma óptima sin necesidad de
apelar a decisiones ya tomadas: no importan las decisiones específicas tomadas en etapas
147
anteriores sino un resumen delos rendimientos obtenidos en ellas. Debido a que dichos
rendimientos surgen de expresiones en las cuales intervienen elementos aleatorios, se
evaluarán en función de Esperanzas Matemáticas. En este caso el procedimiento de
cálculo es similar al aplicado en Teoría de las Decisiones, y necesariamente debe ser
mediante recurrenciaen retroceso (en el caso determinístico podía hacerse “en avance”).
Las situaciones que se modelarán aquí comienzan con un estado inicial de
desconocimiento sobre cuál de las situaciones se presentará al inicio, y las conclusiones
recomendarán distintos cursos de acción (estrategias) para cada una de las posibles
situaciones iniciales. Dicha cuestión la diferencia con los árboles de decisión (UNIDAD VI),
donde primeramente se eligen las alternativas, luego en las ramas subsiguientes se
consideran tanto los sucesos aleatorios como las decisiones, y al final se recomienda optar
por una estrategia óptima para la situación problemática.
La nomenclatura es similar a la aplicada: en la etapa n se puede adoptar la decisión x n a
partir del estado s n para pasar a cualquier estado i (i=1,2,3,…,S) que es posible encontrar
en la etapa n+1. Cada una de las decisiones que pueden tomarse en la etapa n contribuye
a la función de rendimiento con un valor v i . Por ser un modelo estocástico, el cambio hacia
cada uno de los S estados posibles tiene una probabilidad p i de ocurrencia.
La fórmula recurrente que permite resolver el problema dependerá de la forma global
que tenga la función objetivo planteada. Por lo general, la siguiente forma de plantearla es
válida, si se considera que se busca el óptimo (máx. o mín.) de la esperanza de los
rendimientos inmediatos de todas las etapas desde la actual hasta la última:
𝑺𝑺

𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = � 𝒑𝒑𝒊𝒊 [𝒗𝒗𝒊𝒊 + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒊𝒊)]


𝒊𝒊=𝟏𝟏
Donde 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒊𝒊) = ó𝒑𝒑𝒑𝒑 𝒇𝒇𝒏𝒏+𝟏𝟏 (𝒊𝒊, 𝒙𝒙𝒏𝒏+𝟏𝟏 )
𝒙𝒙𝒏𝒏+𝟏𝟏
Ejemplo. Decisiones de estrategias de mercado
Se analizarán los posibles cursos de acción de una hipotética empresa que se dedica a
servicios de cadetería en la ciudad de Santa Rosa. En función de decisiones ya tomadas la
empresa tiene un desarrollo en marcha, aunque no sabe cuál será su posición en el
mercado dentro de algunos meses. Por lo tanto considera tres escenarios posibles de
inicio para su plan bienal (2 años):
1. Dominante: claro liderazgo en el rubro, domina el 30% del mercado (SituaciónA).
2. Expectante: sin llegar a dominar el mercado, capta una buena parte del mismo (25%) y
escolta al líder (Situación B).
3. Relegada: la empresa no consigue una posición relevante en el mercado y solo reúne al
10% de los clientes potenciales (Situación C).

148
Cada una de estas situaciones eventuales requiere un análisis diferente en lo que
respecta a las posibles acciones futuras, cuyas consecuencias tendrían efecto durante el
primer año del plan. De esta manera:
1. Si se diera la situación A la empresa no está dispuesta a renunciar a su liderazgo, por lo
que reinvertirá la totalidad de los fondos disponibles para conservar dicha posición e
iniciará un plan agresivo para mejorar la calidad del servicio.
2. Si se diera la situación B, las alternativas se dividen entre intentar alcanzar el liderazgo
con un plan similar al anterior o tratar de mantenerse en la posición actual mediante un
plan con menor intensidad.
3. Si se diera la situación C, la empresa no contaría con muchos recursos disponibles, por
lo que intentaría conservar la poca porción del mercado ya captado. Una alternativa sería
la financiación externa con el cual desarrollar un plan de expansión y mejora de los
servicios con el fin de conseguir la posición de la situación B.

Si se buscara que luego de un año la posición fuera Dominante (1 y 2) se podría llegar


a A’, lo que permitiría obtener un 11% más del mercado que se poseía. Sin embargo,
puede ocurrir que la competencia lleve a cabo un plan similar. Los estudios sobre el
eventual comportamiento futuro de la demanda indican que hay una probabilidad de 0,60
de llegar a tal porcentaje, y una de 0,40 de que el incremento en la cantidad de clientes
sea solo del 1% y la empresa llegue a una posición B’ en el inicio de la segunda etapa.
En cambio, si se busca llegar a una posición Expectante (2 y 3), pueden surgir tres
estados nuevos iniciales:
• Un aumento de la participación en un 13% y ubicarse en la posición A’, cuya
probabilidad es de 0,35.
• Crecer solo un 5% y posicionarse en B’, cuya probabilidad es de 0,55.
• Perder un 8% de porción del mercado y llegar a la situación C’, con una prob=0,10.

Por última, si la empresa decidiese mantenerse en la posición Relegada y por factores


externos no controlables el plan resulta muy exitoso se podría ganar un 12% del mercado
y llegar a la posición B’, estimándose una probabilidad del 0,80; en cambio, si el plan
fallara, existe una probabilidad de 0,20 de mantenerse en la misma posición (C’).
Todo lo dicho en los párrafos previos se resume en la siguiente red, en la cual se
representa en los nodos cada uno de los estados (situaciones A B o C) y en los arcos el
posible crecimiento o decrecimiento del porcentaje del mercado junto con su probabilidad
de ocurrencia (SIGUIENTE PÁGINA):

149
Formulación
Para adecuar el planteo simbólico planteado arriba, debemos tener en cuenta que se
cuenta con dos etapas, por lo que los valores de n serán 1 y 2, mientras que las decisiones
a adoptar se simbolizarán con x 1 y x 2 respectivamente, para pasar del estado s 1 al s 2 y del
s 2 al s 3 . En cada una de las fases o etapas los estados son siempre 3: AB y C. Las
participaciones adicionales de mercado que puede obtenerse como consecuencia de cada
transición tomarán un valor de vi distinto según la decisión. En cuanto a las probabilidades
pi de ocurrencia de tales rendimientos, también se consignan en la red (arcos línea llena).

Resolución

Etapa II.
Ya que el problema se resuelve mediante recurrencia en retroceso, en primer lugar se
trabaja con la última etapa, calculando la esperanza matemática correspondiente a cada
una de las situaciones iniciales (A’, B’ y C’), en función de la decisión a tomar y de las
probabilidades de los respectivos estados finales para dicha etapa terminal.
1. Situación inicial A’. La resolución es bastante sencilla (por ser la última etapa), porque el
valor que se obtiene para la fórmula de recurrencia es el mismo que corresponde en forma
directa como rendimiento inmediato para la decisión que se tome en esta etapa (es decir,
dicho rendimiento ya refleja el acumulado). En este caso el único destino posible es A’’:
s 2 =A’, x 2 =A’’. La particularidad aquí es que, producto de la aleatoriedad, al tomarse una
única decisión pueden llegarse a dos situaciones distintas. Por ello corresponde calcular la
esperanza matemática para tales estados finales, en función de su probabilidad:
𝑺𝑺

𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = � 𝒑𝒑𝒊𝒊 [𝒗𝒗𝒊𝒊 + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒊𝒊)] → 𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝑨𝑨′′) = 𝒑𝒑𝑨𝑨′′ ⋅ 𝒗𝒗𝑨𝑨′′ + 𝒑𝒑𝑩𝑩′′ ⋅ 𝒗𝒗𝑩𝑩′′
𝒊𝒊=𝟏𝟏
𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝑨𝑨′′) = 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ 𝟓𝟓 + 𝟎𝟎, 𝟔𝟔𝟔𝟔 ⋅ (−𝟐𝟐) = 𝟎𝟎, 𝟖𝟖𝟖𝟖

150
𝒇𝒇∗𝟐𝟐 (𝑨𝑨′) = ó𝒑𝒑𝒑𝒑𝒙𝒙𝟐𝟐 𝒇𝒇𝟐𝟐 (𝑨𝑨′, 𝒙𝒙𝟐𝟐 ) = 𝟎𝟎, 𝟖𝟖𝟖𝟖
2. Situación inicial B’. Se procede de forma similar, con la diferencia de que ahora son
dos las alternativas de elección, por lo que deben considerarse tanto la intención de
ubicarse en A’’ como la mantenerse en B’’. Para el primer caso los resultados son los
mismos del inciso anterior, ya que la situación final sería la misma con idénticas
probabilidades: 𝒇𝒇𝟐𝟐 (𝑩𝑩′, 𝑨𝑨′′) = 𝟎𝟎, 𝟖𝟖𝟖𝟖. Cuando se analiza la segunda opción, sería:
𝒇𝒇𝟐𝟐 (𝑩𝑩′, 𝑩𝑩′′) = 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ 𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟓𝟓𝟓𝟓 ⋅ 𝟐𝟐 = 𝟔𝟔, 𝟏𝟏𝟏𝟏 = 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′)
3. Situación inicial C’. En este caso también existen dos alternativas (llegar a B’’ o
conservar C’’), por lo que el razonamiento es bastante similar. Los cálculos serían:
𝒇𝒇𝟐𝟐 (𝑪𝑪′, 𝑩𝑩′′) = 𝟔𝟔, 𝟏𝟏𝟏𝟏 = 𝒇𝒇∗𝟐𝟐 (𝑪𝑪′)
𝒇𝒇𝟐𝟐 (𝑪𝑪′, 𝑪𝑪′′) = 𝟎𝟎, 𝟕𝟕𝟕𝟕 ⋅ 𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟑𝟑𝟑𝟑 ⋅ (−𝟑𝟑) = 𝟔𝟔, 𝟏𝟏𝟏𝟏
Etapa I.
Una vez calculados los valores para la etapa II, se deben calcular en la etapa I los
rendimientos inmediatos y considerarlos en conjunto con los valores óptimos acumulados.
1. Situación inicial A. La única acción posible es pasar de A a A’ y se rendimiento sería
igual a:
𝑺𝑺

𝒇𝒇𝒏𝒏 (𝒔𝒔𝒏𝒏 , 𝒙𝒙𝒏𝒏 ) = � 𝒑𝒑𝒊𝒊 [𝒗𝒗𝒊𝒊 + 𝒇𝒇∗𝒏𝒏+𝟏𝟏 (𝒊𝒊)]


𝒊𝒊=𝟏𝟏

𝒇𝒇𝟏𝟏 (𝑨𝑨, 𝑨𝑨′ ) = 𝒑𝒑𝑨𝑨′ [𝒗𝒗𝑨𝑨´ + 𝒇𝒇∗𝟐𝟐 (𝑨𝑨′ )] + 𝒑𝒑𝑩𝑩′ [𝒗𝒗𝑩𝑩′ + 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′ )]
𝒇𝒇𝟏𝟏 (𝑨𝑨, 𝑨𝑨′ ) = 𝟎𝟎, 𝟔𝟔𝟔𝟔 ⋅ (𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟖𝟖𝟖𝟖) + 𝟎𝟎, 𝟒𝟒𝟒𝟒 ⋅ (𝟏𝟏 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) = 𝟗𝟗, 𝟗𝟗𝟗𝟗 = 𝒇𝒇∗𝟏𝟏 (𝑨𝑨)
Conclusión: si la empresa está en la situación A en el momento actual tiene la
esperanza de captar el 9,94% de los clientes del mercado si toma las decisiones que se
recomendaran en la solución detallada del problema.

2. Situación inicial B. En este caso, en cambio, existen dos opciones: intentar llegar a A’
o mantenerse en B’. Para cada alternativa debe calcularse su valor esperado.
a. Como en la etapa II, se toma el resultado ya obtenido antes 𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑨𝑨′ ) = 𝟗𝟗, 𝟗𝟗𝟗𝟗
b. En este caso, tomada la decisión de conservar la posición de Expectante, pueden
producirse 3 situaciones distintas (3 estados finales), por lo que:
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝒑𝒑𝑨𝑨′ [𝒗𝒗𝑨𝑨´ + 𝒇𝒇∗𝟐𝟐 (𝑨𝑨′ )] + 𝒑𝒑𝑩𝑩′ [𝒗𝒗𝑩𝑩′ + 𝒇𝒇∗𝟐𝟐 (𝑩𝑩′ )] + 𝒑𝒑𝑪𝑪′ [𝒗𝒗𝑪𝑪′ + 𝒇𝒇∗𝟐𝟐 (𝑪𝑪′ )]
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝟎𝟎, 𝟑𝟑𝟑𝟑 ⋅ (𝟏𝟏𝟏𝟏 + 𝟎𝟎, 𝟖𝟖𝟖𝟖) + 𝟎𝟎, 𝟓𝟓𝟓𝟓 ⋅ (𝟓𝟓 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) + 𝟎𝟎, 𝟏𝟏𝟏𝟏 ⋅ (−𝟖𝟖 ⋅ 𝟔𝟔, 𝟏𝟏𝟏𝟏)
𝒇𝒇𝟏𝟏 (𝑩𝑩, 𝑩𝑩′ ) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕
Como este último es el mayor, se tiene que:
𝒇𝒇𝟏𝟏∗ (𝑩𝑩) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕
151
Conclusión: si la empresa está en la situación B en el momento actual, el porcentaje de
clientes adicionales que se espera captar en dos años es 10,77.

3. Situación inicial C. Siguiendo un razonamiento similar al anterior, se tiene que:


a. 𝒇𝒇𝟏𝟏 (𝑪𝑪, 𝑩𝑩′ ) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕
∗ ∗
b. 𝒇𝒇𝟏𝟏 (𝑪𝑪, 𝑪𝑪′ ) = 𝒑𝒑𝑩𝑩′ [𝒗𝒗𝑩𝑩´ + 𝒇𝒇𝟐𝟐 (𝑩𝑩′ )] + 𝒑𝒑𝑪𝑪′ [𝒗𝒗𝑪𝑪′ + 𝒇𝒇𝟐𝟐 (𝑪𝑪′ )]
𝒇𝒇𝟏𝟏 (𝑪𝑪, 𝑪𝑪′ ) = 𝟎𝟎, 𝟖𝟖𝟖𝟖 ⋅ (𝟏𝟏𝟏𝟏 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) + 𝟎𝟎, 𝟐𝟐𝟐𝟐 ⋅ (𝟎𝟎 + 𝟔𝟔, 𝟏𝟏𝟏𝟏) = 𝟏𝟏𝟏𝟏, 𝟕𝟕𝟕𝟕 = 𝒇𝒇∗𝟏𝟏 (𝑪𝑪)
Conclusión: si la empresa se encuentra en la situación C en el momento actual, el
porcentaje de clientes adicionales que se espera captar en dos años es 15,74.

Conclusiones
A modo de resumen, en la siguiente tabla se exponen las decisiones óptimas que se
recomiendan tomar ante cada una de las posibles situaciones.

La particularidad aquí es que se cuenta con una estrategia de acciones condicionales (las
cuales varían con cada estado s n que se puede presentar) y en la que cada decisión a
recomendar sólo es aplicable una vez que se haya producido el efecto de un evento aleatorio.

4) Los árboles de decisión en la toma de decisión multinivel


La toma de decisiones en varios niveles requiere de la ejecución de un
“ProcesodeDecisión”, el cual involucra un conjunto de decisiones conectadas (enlazadas,
eslabonadas). A diferencia de lo estudiado hasta aquí en esta unidad, aun cuando cada
decisión tiene asociado un resultado que depende de la decisión adoptada, en este caso el
otro condicionante conjunto está dado por circunstancias externas al proceso.
En Programación Dinámica, como vimos, las condiciones para cada etapa dependen
del estado que surgió de una decisión anterior. En el caso de los árboles de decisión las
circunstancias que rodean externamente a la elección de la opción se denominan “Estados
de la Naturaleza”.
El problema se puede representar con un árbol de decisión cuando se tiene un conjunto
finito de opciones y los estados de la Naturaleza tienen una determinada probabilidad de
ocurrencia. Si el árbol de decisión no es demasiado grande resulta útil para resumir y
presentar las posibilidades de acción y sus potenciales consecuencias.
Este tema ya se abordó con mayor profundidad en la UNIDAD VI.

152
UNIDAD IX: Teoría de los Juegos
1) Características del modelo. Clasificación
Una “metáfora científica”
La primera idea que se nos viene a la mente al leer el título de esta UNIDAD se asemeja
a todas aquellas actividades lúdicas que desde hace muchos años ocupan un lugar
preponderante en las distintas sociedades: los juegos. Dichas actividades comúnmente se
clasifican en distintas categorías: juegos de mesa, juegos de cartas, videojuegos, juegos
deportivos, entre otros.
Todos estos juegos comparten una “idea básica” que les permite recibir tal
denominación. Esta cuestión se explica a través de la teoría de las categorías de
Aristóteles, que permite agruparlos en función de ciertas características comunes:
1. Reglas. Todos los juegos tienen reglas que establecen qué (y qué no) puede hacer cada
jugador que participa del juego.
2. Estrategia. En todos los juegos se deben seguir cursos d acción que lleven al mejor
resultado. Se puede ganar por implementar una estrategia mejor que la seleccionada por
el adversario, o perder si se opta por una peor que la del oponente.
3. Resultado. Existe un resultado del juego, que depende tanto de la estrategia seguida
por un jugador como de las aplicadas por los otros participantes.

Estas tres características en conjunto configuran la definición de Juego: cualquier


situación regida por reglas con un resultado bien definido que es función de una cierta
interdependenciaestratégica.
Desde mediados del siglo XX, principalmente con los trabajos de John Von Neumann,
comenzó a desarrollarse la representación de situaciones de relaciones entre seres
humanos en las cuales los resultados dependen de la interacción estratégica de dos o más
personas. Tal representación se convirtió en una “metáfora científica” que permitió
analizar, con un enfoque científico, situaciones que encajan en la definición de Juego.

Historia (VER MÁS EN LIBRO DE FREDES)


Como dijimos al final del título anterior, a partir de 1944 con la publicación de la obra
“Theory of games and Economic Behavior” de Von Neumann se sentaron las bases
definitivas de la Teoría de los Juegos como campo del conocimiento con entidad propia.
Podríamos definirla como la teoría matemática que estudia las características generales de
situaciones competitivas de manera formal y abstracta.
Los desarrollos continuaron en los años ’50, principalmente con el aporte de John Nash
denominado “equilibrio de Nash”, que se aplicó en juegos no cooperativos.

Racionalidad
En muchos casos resulta necesario que los participantes del juego se comporten de una
forma racional. Ello permite la modelación aplicando esta teoría y, brevemente expuesto,
153
significa que el decisor elige en función de sus preferencias el mejor curso de acción entre
todas las opciones disponibles.
En otras palabras, la teoría de la decisión racional expone que dada una situación, el
decisor seleccionará un elemento del conjunto de opciones posibles de manera que lo
hace por “lo mejor” según sus preferencias.
Esta racionalidad, entendida como una conducta inteligente motivada por un cálculo de
ventajas y desventajas de acuerdo a un sistema de valores, ha servido para expresar el nexo
entre la Economía Neoclásica y la Teoría de los juegos. En la primera las consecuencias se
perciben “a través del mercado”, y en la segunda por la interacción directa.

Clasificaciones. Los distintos criterios de clasificación son:


 Según la cantidad de jugadores:
1. Bipersonales: intervienen solo dos jugadores.
2. Personales: participan más de dos personas.
 Según el número de estrategias:
1. Finitos: juegos de m x n, donde m puede o no ser igual a n.
2. Infinitos.
 Según su evolución en el tiempo:
1. Dinámicos: hay ganancia de información por parte de algún jugador a medida que
transcurre el tiempo.
2. Estáticos: no existe tal ganancia.
 Según el intercambio de información:
1. Cooperativos: los jugadores pueden intercambiar información y colaborar, sin ser
necesario que los intereses sean comunes.
2. No cooperativos: no existe la posibilidad de intercambiar información.
 Según la variación de la riqueza del conjunto de jugadores:
1. De suma no constante: en el propio juego se genera o pierde riqueza.
2. De suma constante: existe una cantidad fija a repartir y el juego definirá tal reparto.
3. Suma cero o suma nula: un caso especial de suma constante es donde la riqueza del
conjunto es igual a cero: todo lo que ganen algunas de las partes provendrá de lo que
pierden las otras.
 Según la cantidad de información disponible:
1. Con información completa: la función de ganancias de cada jugador es conocida
por todos los jugadores.
2. Con información incompleta: al menos uno de los participantes no conoce las
ganancias de otro. Ejemplo: una subasta.
 S/ la cantidad de información adquirida durante el juego, solo para juegos dinámicos:
1. Información perfecta: el jugador que debe tomar una acción posee la historia
completa de todas las decisiones tomadas.
2. Información imperfecta: no se cuenta con dicha información.
154
2) Juegos no cooperativos de dos personas de suma cero: representación,
estrategias, juegos con punto de equilibrio.

Distintas formas de representación


Los conceptos que veremos sobre representación de los modelos, si bien se verán
aplicados a juegos no cooperativos, los mismos son también aplicables a cualquiera de los
juegos modelados, independientemente de la categoría en que sean clasificados.
Si bien en toda representación habrá valores numéricos y será común hablar de
“ganancias”, “pérdidas” o “pagos”, no necesariamente reflejarán valores monetarios ni
transferencias dinerarias entre los jugadores. Los “pagos” pueden referirse a variadas
entidades: cantidad de clientes ganados o perdidos, aumento de utilidades o quebrantos,
medida de expansión territorial, entre otros. Lo que permite que cada jugador reemplace
dichas entidades por valores números es la Teoría de la Utilidad, ya desarrollada en la
UNIDAD VI.
Los juegos tienen diversas formas de ser representados, contando cada una de ellas con
diferentes grados de detalle sobre el juego insertado en el modelo. Los principales
modelos matemáticos son los siguientes:
 Matriz de pagos o matriz de consecuencias. En este caso el juego está expuesto en
formanormal o estratégica, y contiene descriptos en forma compacta los aspectos
matemáticos del juego. Constituye la forma básica de representación de juegos no
cooperativos. Consiste en un cuadro con valores dispuestos en filas y columnas, es decir,
un cuadro de doble entrada en el cual las filas y columnas representan las opciones de
juego de cada jugador. Cuando se trata de oponentes racionales se identifican con la letra
A (filas) y B. De esta modo, si miramos desde la posición de jugador A (fila) el valor
ubicado en la intersección de la m-ésima fila con la n-ésima columna refleja cual será la
consecuencia o resultado de que A opte por la alternativa representada en la fila m-ésima
y B opte por la opción consignada en la columna n-ésima. Similar razonamiento se puede
hacer si se analizar desde la posición de B.
La representación se completa con una flecha que vincula los nombres de los jugadores;
indica el sentido en que fluirían las ganancias si se ejecutara el juego. Por ejemplo, el
elemento a 21 de la matriz indica lo que A gana a costa de la pérdida de B, cuando A opta
por la alternativa 2 y B por la 1; en el caso que el signo sea negativa, B es el jugador que
gana, mientras que A el que pierde. A continuación se muestra una matriz:

155
 Árboles de resultados sucesivos. Consiste en una representación en forma extensiva.
Se utiliza en juegos en lo que existe secuencia de movimientos, ya que esta forma de
representación permite una mejor descripción de cómo se desarrolla en el tiempo.
En base a un punto de partida se despliegan sucesivas ramas (arcos entre nodos)
representando las distintas opciones que dispone cada jugador y las consecuencias que
provocaría ejecutar cada una de ellas. La red presenta una forma de árbol o red dirigida.
La forma extensiva brinda el mayor detalle y proximidad con la realidad modelada.
 Curvas de reacción. Esta forma de representación tiene su correlato en muchas otras
expresiones que se utilizan en Economía. Consiste en representar en un eje de
coordenadas cartesianas ortogonales las combinaciones de decisiones y pagos. El caso
más conocido son las curvas de oferta y demanda de un bien.
 Forma función de coalición.Esta forma de representación es adecuada para aquellos
juegos de n personas en los cuales es factible el intercambio de información entre los
jugadores y su agrupamiento en coaliciones (alianzas, equipos, grupos).

Reducción de un juego por dominación


 Concepto de dominación de vectores. Se dice que un vector A domina a otro vector B,
si todos los elementos de A son mayores o iguales que los correspondientes elementos
del vector B. Si todos son mayores se trata de una dominación estricta, mientras que si
existe al menos un elemento es igual, es una dominación no estricta.
 Utilización del concepto en la teoría de los juegos. La posibilidad de aplicar esta idea se
vincula con el concepto antes explicado de racionalidad. Como se presume que los
participantes actúan racionalmente, los jugadores hacen sus elecciones de forma tal que
los resultados obtenidos sean preferibles sobre cualquier otro, y sobre éstos tiene
influencia el comportamiento que observen los oponentes. En un caso extremo, si un
jugador tuviera dos estrategias para elegir y resultara que una de ellas arroja un resultado
que siempre es mejor que el que daría la otra, se dice que aquella domina a la última.
Si existe dominación estricta se estará en presencia de la mejor selección para un
jugador, independientemente de lo que haga el otro.
La dominación no estricta se caracteriza por tener, al menos, el mismo resultado que
con la/s otra/s selecciones, no importa cuál sea la estrategia aplicada por el oponente, y
por ser estrictamente mayor para alguna/s de ella/s.

La dominación en juegos de suma cero


El procedimiento a aplicar busca convertir un juego de m filas y n columnas en otro que
posea una cantidad menos de filas y/o columnas a los fines de facilitar su resolución.
Actuando racionalmente el jugador A puede descartar las filasdominadas: ante
cualquier estrategia del oponente, en todos los casos, darán ganancia igual o menor que la
filadominante. Con similar razonamiento, pero de forma inversa, el jugador B puede
eliminar la columnadominante, ya que todos sus valores presentan un pago mayor o
igual al de la dominada, sin importar la elección de A.

156
Propiedades de la reducción por dominación
Se denominarán con J 1 , J 2 , etc., los juegos que se obtienen en sucesivas reducciones de
un juego J. Toda solución óptima en J 1 , J 2 , etc., es solución óptima del juego original J, y
el valor del juego es siempre el mismo (es decir, que se aplique o no reducción por
dominación, la solución del problema no varía; simplemente aplicar dicha propiedad sirve
para simplificar la resolución del mismo).
Entonces, se puede afirmar que, si las reducciones se hicieron por dominación estricta,
para cualquier solución que se encuentre en J 1 , J 2 , etc., las estrategias óptimas y el valor v
serán los mismos. En cambio, si la dominación no fuera estricta, podría haber otras
soluciones en J (soluciones alternativas) que, con estrategias distintas a las obtenidas,
arrojen el mismo valor que v.

Estrategia
Se puede definir la estrategia como un plan de acción completo en un juego
determinado, aplicable en cada momento de decisión de jugador.
También puede relacionarse dicho concepto con cada una de las alternativas con las
que cuenta un jugador, en el caso de juegos representados en forma normal. Si se trata de
juegos en forma extensiva, dicho concepto es representativo de un
completoplandeselecciones, uno por cada punto de decisión del jugador.
Desde este último punto de vista, en los juegos de suma cero cada jugador tiene un
número de elecciones posibles, denominadas estrategias.

Estrategia pura en juegos de dos jugadores de suma cero o nula


Se emplea una estrategia pura cuando existe la determinación previa de elegir siempre
un curso de acción particular aplicando sólo una de todas las estrategias (opciones)
disponibles).
En estas condiciones, un criterio que se aplica es el minimax-maximin, denominado así
porque un jugador selecciona “el mínimo de los máximos”, mientras que el otro “el
máximo de los mínimos”. Como cada participante actúa en contra de los intereses del
oponente, cada uno puede esperar lo peor del otro, ya que así se obtiene lo mejor para
ése. Lo mejor para un jugador es lo peor para el contrincante.
Esta manera de buscar una estrategia satisfactoria se denomina Criterio de Wald o
pesimista (VER TEORIA DE LAS DECISIONES). En este caso, cada jugador elige la estrategia
que proporciona “el mejor de los peores resultados posibles”. Como generalmente la
matriz de pagos se presenta en términos del pago al jugador A, este jugador elegirá de los
valores más bajos de cada fila, el mayor; mientras que el jugador B, de forma inversa,
optará por el menor valor de los más altos de cada columna.

157
Caso particular de un juego con punto de equilibrio
Si ninguno de los jugadores encuentra favorable cambiar su estrategia, ya que si lo
hiciera su oponente podría seleccionar otra estrategia con mejor resultado, el juego se
encuentra estable. En este caso, si ocurre que el valor minimax iguala al valor maximin,
las estrategias puras correspondientes se denominan estrategias óptimas, y el juego tiene
un punto de equilibrio. Dicho valor coincidente se denomina valor del juego (el pago
que recibirá A al jugarse ese par de estrategias).
Supongamos que el punto de equilibrio está en el elemento a kl , siendo x i e y j las
variables de decisión que definen si se elige o no una cierta estrategia. La solución será:
𝒙𝒙𝒊𝒊 = 𝟎𝟎 para 𝒊𝒊 ≠ 𝒌𝒌 𝒚𝒚𝒋𝒋 = 𝟎𝟎 para 𝒋𝒋 ≠ 𝒍𝒍
𝒙𝒙𝒊𝒊 = 𝟏𝟏 para 𝒊𝒊 = 𝒌𝒌 𝒚𝒚𝒋𝒋 = 𝟏𝟏 para 𝒋𝒋 = 𝒍𝒍
𝒗𝒗 = 𝒂𝒂𝒌𝒌𝒌𝒌
3) Juegos no cooperativos de dos personas de suma cero: teorema de Von
Neumann, estrategias mixtas, solución gráfica.

Estrategia mixta o ponderada


Si no existe punto de equilibrio el juego es inestable, y cada jugador ve conveniente
cambiar de estrategia (fila o columna, respectivamente) con el fin de mejorar el resultado
que obtiene del mismo. De esta forma, si el juego se repitiera varias veces (y los jugadores
cambiaran constantemente de estrategia) se iría convergiendo hacia un único valor v,
ubicado entre los valores obtenidos con las estrategias puras.
En lugar de proceder con aproximaciones sucesivas, puede aplicarse un concepto con
fundamento científico que permite obtener la estrategia mixta o ponderada. En este caso
existe la determinación previa de cada jugador de elegir un curso de acción siguiendo una
distribución de probabilidad (o de ponderaciones) para definir la cantidad de veces que
se optará por cada alternativa.
Bajo una serie de N repeticiones del juego se denominará estrategia mixta a la
elección por parte del jugador A de las m alternativas de acuerdo a una probabilidad x i
(probabilidad de elegir la alternativa i) y a la elección por parte del jugador B de las n
opciones según una probabilidad y j (probabilidad de elegir la alternativa j). Es decir
Para el jugador A:
Elegirá sus m opciones según las probabilidades x 1 , x 2 , …, x m , siendo cada uno positivo
y de forma tal que: x 1 + x 2 + … + x m = 1. Entonces:
𝒎𝒎
Se define el vector 𝑿𝑿 = [𝒙𝒙𝟏𝟏 𝒙𝒙𝟐𝟐 … 𝒙𝒙𝒎𝒎 ]donde � 𝒙𝒙𝒊𝒊 = 𝟏𝟏y𝒙𝒙𝒊𝒊 ≥ 𝟎𝟎
𝒊𝒊=𝟏𝟏
Para el jugador B:
Elegirá sus n opciones según las probabilidades y 1 , y 2 , …, y n , siendo cada uno positivo y
de forma tal que: y 1 + y 2 + … + y n = 1. Entonces:
158
𝒏𝒏
Se define el vector 𝒀𝒀 = �𝒚𝒚𝟏𝟏 𝒚𝒚𝟐𝟐 … 𝒚𝒚𝒏𝒏 �donde � 𝒚𝒚𝒋𝒋 = 𝟏𝟏y𝒚𝒚𝒋𝒋 ≥ 𝟎𝟎
𝒋𝒋=𝟏𝟏
Teorema fundamental de la Teoría de los Juegos
Como ya dijimos, John Von Neumann es considerado el fundador de la Teoría de los
Juegos. Fue quien fundó el Teorema Minimax, cuya aplicación permite obtener las
estrategias mixtas. Puede enunciarse de la siguiente manera:
Todo juego rectangular posee un valor de juego v, y este valor es único. Existe una
estrategiaóptimapara el jugador A, que consiste en seleccionar las probabilidades
𝒙𝒙∗𝟏𝟏 , 𝒙𝒙∗𝟐𝟐 , … , 𝒙𝒙∗𝒎𝒎 , tales que si juegala alternativa 1, 2 y m puede asegurarse que su
∗ ∗
gananciamediaesperada𝑭𝑭(𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , … , 𝒙𝒙∗𝒎𝒎 ) sea mayor o igual que v. A su vez, existe
una estrategia óptima para el jugador B que consiste en definir las probabilidades
𝒚𝒚𝟏𝟏∗ , 𝒚𝒚𝟐𝟐∗ , … , 𝒚𝒚𝒏𝒏∗ , tales que si juega la alternativa 1, 2 y n puede asegurarse que su pérdida
∗ ∗ ∗)
media esperada 𝑭𝑭(𝒚𝒚𝟏𝟏 , 𝒚𝒚𝟐𝟐 , … , 𝒚𝒚𝒏𝒏 será inferior o igual al valor del juego v.

Solución del juego. Solución gráfica


Hallar la solución implica encontrar los valores de las probabilidades x i (i=1, 2,…, m) P/
el jugador A y de las probabilidades y j (j=1, 2,…, n) P/ el jugador B, y el valor del juego v.
Debido a que la resolucióngráfica se lleva a cabo sobre un plano (dos dimensiones), es
necesario que al menos uno de los jugadores sólo tengas dos estrategias disponibles.
A modo de ejemplo se presenta la siguiente matriz de
pagos, de la cual determinaremos las estrategias mixtas
óptimas para cada jugador y el valor esperado del juego:
Primeramente, se observa que es posible aplicar la
propiedad de reducciónpordominación vista
anteriormente. El jugador B jamás elegiría la opción 4, ya que, independientemente de lo
que haga el jugador A, siempre “pagaría” más. Es decir, los valores de la columna 4 son
mayores que los valores de las demás columnas en iguales filas. Por ello la matriz de
consecuencias se reduce a una de 2x3.
Una vez eliminada la última columna, es posible
aplicar el criterio de minimax-maximin como se
refleja en la nueva matriz:
Los valores que resultan de que cada jugador
adopte estrategiaspuras (-3 y 5) no concuerdan en el valor esperado del juego, ya que se
trata de un juego que no tiene punto de equilibrio. Por tal motivo, es necesario buscar
estrategiasmixtas, y una forma es mediante la solución gráfica.
Con el juego reducido se plantean las desigualdadeslineales que, según el Teorema de
Von Neumann, representan los criterios y condiciones de decisión para A y para B.

159
El jugador Apara asegurarse una ganancia de por lo menos el valor v, aplicará las
probabilidades x 1 al elegir la alternativa 1 y x 2 al elegir la 2, siendo la suma de ambas igual
a 1. Estos valores a su vez están condicionados por cada
estrategia pura de B, por lo que para cada una de ellas
corresponde una desigualdad que asegure la ganancia v, y
además deben cumplirse todas las condiciones simultáneamente
por lo que forman un sistema de desigualdades lineales. El
problema para A se plantearía de la siguiente forma:
Con un similar razonamiento, para el jugador B, pero
considerando las probabilidades y1, y2 y y3, y con el fin de
asegurarse una pérdida no mayor que el valor v, se plantea:
De ambos planteos, el único posible de graficas es el del
jugador A por tener solo dos variables. Si bien son tres (x 1 , x 2 y v) es posible trabajar sólo
con dos, haciendo un pasaje de términos en la única igualdad, quedando x 2 =1–x 1 ,
pudiendo reemplazarse x 2 en cada desigualdad. Por último, puede expresarse el valor de v
en función de la probabilidad de elegir la estrategia 1 (la variable x 1 ):

Luego simplemente deben graficarse, para lo cual solo se necesitan hallar dos puntos,
siendo lo más útil darle los valores máximo y mínimo a la variable independiente (0 y 1, ya
que son probabilidades), para después marcar el semiplano que satisface la condición de
desigualdad. Todo ello se observa en la siguiente gráfica:

160
Las zonas de validez que marcan las desigualdades en el plano indican, para el jugador
A, las combinaciones de valor de juego y probabilidad x 1 que satisfacen a cada inecuación
planteada para cada una de las estrategias puras de B. Como vemos en la gráfica existe
una zona común de las tres inecuaciones. En dicha zona, que representaría “lo peor que le
puede pasar” (criterio maximin), el jugador A elige el mayor valor, que se corresponde con
x1=0,70 y v=2, y que gráficamente surge de la intersección entre las rectas (1) y (2):

La resolución analítica permite obtener con mayor precisión los valores de la solución,
y además, el valor de x 2 =1–x 1 =0,30. Esto significa que para asegurarse una ganancia
esperada de 2, si se ejecutara 100 veces el juego, A debería optar por la estrategia 1 en 70
ocasiones y por la 2 en las 30 restantes.
Resta definir ahora los valores de las probabilidades para el jugador B: y 1 , y 2 e y 3 . Si bien
la resolución gráfica no resulta posible, ya que hay más de dos alternativas, se puede razonar
de la siguiente manera. Como dijimos, cada una de las desigualdades planteadas para A se
correspondía con cada una de las estrategias puras de B. El jugador A ha fijado sus
probabilidades en función de las estrategias 1 y 2 de B. Los valores establecidos para x 1 y
x 2 , aplicados sobre la restante estrategia de B (la 3) significan un mayor valor del juego: hay
dominación en la ganancia para la mezcla de probabilidades que garantiza el valor de juego
v al jugador A, por lo que éste implícitamente la descarta. En
consecuencia, B descarta las demás estrategias en su solución, ya
que la elección de cualquiera de ellas corresponde a valores de v
superiores al fijado por A (=2). El sistema de inecuaciones queda:
Ahora es posible la resolución gráfica de forma similar a lo hecho con el jugador A,
donde se obtendría un semiplano de soluciones factibles, aunque en este caso respecto de
a los valores superiores del gráfico, de los cuales optaría por el menor posible, para
asegurarse pagar a lo sumo el valor de juego (criterio de
minimax). No obstante, dicha solución se simplifica ya que se
cuenta con v=2, valor que puede reemplazarse en las inecuaciones:
Habiendo dos inecuaciones y dos incógnitas, es posible resolver analíticamente el
problema, proceso que arroja los siguientes resultados: y 1 =0,5 y y 2 =0,5. Lo que significa
que el jugador B optará por las estrategias 1 y 2 en la mitad de las veces para cada una,
mientras que descartará las estrategias 3 y 4, de manera que se asegure no perder un valor
mayor que el calculado como valor de juego: v=2.

161
4) Juegos no cooperativos de dos personas y suma no constante: Punto de
equilibrio, estrategias mixtas.

Juegos de suma variable con dos jugadores


En este punto, a diferencia de lo estudiado en 3), la suma de las utilidades
(consecuencias) de los jugadores es diferente según los resultados obtenidos por tomar
una u otra decisión.
Las situaciones que pueden modelarse de esta forma son habituales en las
organizaciones y en el ámbito económico, como por ejemplo: las pujas entre empresarios
y sindicatos, la competencia entre dos productos de un mismo producto, las negociaciones
entre comprador y vendedor, etc.
Debido a lo ya mencionado, la representación del modelo también difiere a la ya vista, si
bien pueden adoptarse tanto la forma normal (estratégica) como la expansiva (árbol).
La representación en forma normal o estratégica consta de dos conjuntos de valores X
e Y de estrategias puras para cada uno de los jugadores, A y B respectivamente. Las
consecuencias (o ganancias) resultantes provendrán de lo siguiente: si A selecciona x ∈ X y
B elige y ∈ Y, A recibe u 1 (x,y) y B recibe u 2 (x,y). Es decir, que las utilidades de los
jugadores (u 1 y u 2 ) no suman 0, sino que las sumas serán variables en función de las
estrategias que seleccionen los participantes.
Debido a esto, ya no es posible representar el juego con la matriz antes utilizada. En
este caso debe usarse una matriz de pares ordenados, llamada también bimatriz. Cada
par será (u 1 , u 2 ). La matriz tendrá tantas filas como estrategias puras tenga el jugador A y
tantas columnas como estrategias tenga B (similar a la matriz anterior). Un ejemplo sería:

A dispone de tres estrategias mientras que B de cuatro. Si A elige la tercera y B también


la tercera, el primero pierde 2 y el segundo gana 3.
Una forma alternativa de representación consiste en separar en dos matrices los valores
correspondientes a cada uno de los jugadores.

Dominación
De igual forma que en los juegos de suma cero, también es posible reducir la matriz
aplicando el concepto de dominación de vectores.
Un jugador racional nunca jugaría una estrategia pura que esté estrictamente dominada,
ya que existe alguna estrategia que garantiza un resultado mejor cualquiera sea la decisión
162
de su adversario. En este ejemplo podemos ver que para el jugador B la alternativa 4 es
dominada por la alternativa 3, por lo que puede suprimirse la última columna. De igual
forma, el jugador A jamás optaría por la alternativa 1, debido a que ésta se ve dominada
por la opción 2, por lo que puede eliminarse la primera fila.

Equilibrio estratégico. Equilibrio en estrategias puras.


A diferencia de los juegos de suma cero, la noción de “óptimo” comportamiento no
puede ser aplicada a las situaciones que se modelan en este caso. Al tratarse de juegos no
cooperativos, no es posible el intercambio de información entre los participantes ni a
formación de alianzas. Entonces, la solución de un juego está vinculada con la noción de
equilibrio estratégico. Este concepto fue desarrollado por Nash y permite contestar la
pregunta “¿Siempre existen equilibrios estratégicos?”. El teorema afirma que cualquier
juego finito de n personas en forma estratégica tiene al menos un equilibrio estratégico.
La noción de equilibrio estratégico se basa en la idea de que, habiendo n jugadores, si
todos los jugadores excepto uno (designado como i) utilizan sus estrategias puras
indicadas, lo mejor que puede hacer i es jugar su estrategia x i . Dicha elección x i se
denomina la mejor respuesta a las selecciones de estrategias de los otros jugadores. Así,
una selección de estrategias en particular de los jugadores forma un equilibrio en
estrategias puras cuando cada jugador está utilizando su mejorrespuesta a las
selecciones de estrategias puras de los demás.
Lo dicho anteriormente está basado en la suposición que hacen todos los jugadores de
que al decidir cambiar de estrategia todos los otros jugadores no cambiarán la suya, lo que
se denomina “Conjetura de Nash”. En el equilibrio la estrategia seleccionada por cada
jugador es óptima, ya que cada uno elige la estrategia de equilibrio. Si así ni fuera,
cualquiera querría cambiar su estrategia y ya no se estaría en equilibrio.
En otras palabras, existe equilibrio estratégico cuando para cada jugador cualquier
otra estrategia le da una ganancia menor o igual.
Al analizarse una matriz puede llegarse a la conclusión de que hay más de un equilibrio.

Dilema del prisionero


Dos conocidos truhanes (bandidos, pillos, picaros) han sido detenidos bajo la sospecha
de que han cometido un delito, y alojados en celdas separadas. El fiscal sabe que no
cuenta con suficiente evidencia para condenarlos bajo un cargo serio como desearía, así
que les ofrece un trato: si uno solo de ellos confiesa aportando evidencia que culpe al otro,
el que confesó será liberado inmediatamente (0), mientras que el imputado recibirá la
pena máxima que se le puede aplicar (-3); si los dos mantienen el silencio, el fiscal acusará
a ambos por un cargo menor (-1); y si ambos culpan al otro, irán a prisión por una
sentencia no muy grave (-2). Esto puede representarse en la siguiente bimatriz:

163
Solución al “Dilema”. Para obtener el equilibrio de Nash en estrategias puras se trazan las
flechas que se observan en la figura, y que reflejan los movimientos que cada jugador haría
cuando deba elegir entre las alternativas presentadas. Por ejemplo, para el jugador A la
flecha de la izquierda va de la alternativa 1 a la 2 ya que si B decide callarse A tendría la
libertad inmediata si culpara a su compañero. El resto de las flechas surgen de similar
razonamiento. Siguiendo el sentido de las flechas se obtiene el punto de equilibrio
estratégico, el cual se marca con un asterisco. Si cada jugador elige la alternativa 2,
ninguno tendría motivos para cambiar de estrategia, ya que correría el riesgo de recibir
una condena mayor.

Entrar al mercado
La situación modelizada en este caso se sitúa en un mercado oligopólico en el cual dos
empresas intentan intervenir con la finalidad de aprovechar la oportunidad de ocupar un
nicho de mercado recientemente descubierto. Se consideran como posibles resultados 8 y
0 (podrían ser utilidades obtenidas)
cuando una de las empresas decide
ingresar al mercado y la otra quedarse
afuera; si ambas se abstienen de
intervenir claramente la ganancia es nula
para ambas; si ambas optan por entrar,
las consecuencias son quebranto de 4
para cada una de ellas. La matriz sería:
Podemos ver que este juego tiene dospuntosdeequilibrio de Nash en estrategias
puras, que son asimétricos, ya que al cambiar de estrategias a los jugadores les
corresponden ganancias diferentes aun cuando se sigan manteniendo en equilibrio.

Equilibrio estratégico en estrategias mixtas


Al igual que lo visto en juegos de suma cero para dos personas, al no existir equilibrio
en estrategias puras, se puede recurrir a buscar el equilibrio en estrategias mixtas. Se lo
hace de forma similar a la ya vista anteriormente.
Para el ejemplo previo, el razonamiento es el siguiente. El jugador A evalúa las
consecuencias que tendría para él que B decidiera aplicar las proporciones y 1 e y 2 a la
hora de ejecutar el juego. Si A optara por la primera opción la ganancia esperada estaría
164
dada por la ecuación V(x 1 )=-4*y 1 +8*y 2 , mientras que si elige la segunda estrategia la
ecuación sería V(x 2 )=0*y 1 +0*y 2 , donde obviamente el valor esperado es 0. Esto último
hace que la solución sea bastante sencilla, ya que como 0=-4*y 1 +8*y 2 y y 1 + y 2 = 1, se
pueden obtener los valores de las proporciones de juego para B: y 1 =2/3 y y 2 =1/3.
Si de forma análoga se resuelve el problema para B, se obtienen que las proporciones
de A son: x 1 =2/3 y x 2 =1/3.
Entonces, se trata de un equilibrio simétrico en estrategias mixtas, ya que las
proporciones son idénticas para cada jugador, con un valor de juego V=0, lo que hace
equitativo al juego, ya que da igualdad de derechos a cada parte. No obstante, el juego es
ineficiente, debido a estar dominado en ganancias por los otros dos equilibrios.

Entrar al mercado con ventajas competitivas


La situación que se modelizará ahora supone que al entrar en soledad al mercado
alguno de los competidores (la empresa A) puede aprovechar ventajas competitivas, lo
que modifica los valores de la matriz:

Nuevamente son dos los equilibrios en estrategias puras, y también son asimétricos. Si
aplicamos idéntico razonamiento al ya visto, obtenemos que para B las proporciones son
y 1 =3/4 y y 2 =1/4. Vemos que el jugador B debe variar su comportamiento para
compensar la asimetría introducida por A al hacer uso de la ventaja en su incorporación al
mercado cuando su oponente no lo hace. Las proporciones para A continúan siendo las
mismas: x 1 =2/3 y x 2 =1/3.
La conclusión es que ahora el juego tiene que jugarse con equilibrio asimétrico también
al aplicarse estrategias mixtas.

Equilibrio y solución del juego


Hemos analizado juegos que tenían un solo punto de equilibrio estratégico, y otros que
tenían dos. También aplicamos estrategias mixtas para hallar un patrón de juego para que
los jugadores se aseguren un valor esperado, y así garantizar un equilibrio.
Sin embargo, en determinadas circunstancias puede no resultar aplicable la búsqueda de
estrategias mixtas, aun cuando haya más de un punto de equilibrio en estrategias puras.
En tal caso, es conveniente tener en cuenta que la obtención de puntosdeequilibrio no
significa haber obtenido la solución del juego.

165
Supongamos esta nueva matriz, en la cual se tienen dos puntos de equilibrio estratégico:

Evidentemente, si los jugadores pueden pasar de un punto de equilibrio al otro tendrán


un cambio significativo en los rendimientos obtenidos, a pesar de que ambos puntos
procuran el equilibrio.
Si en este caso no fuera posible obtener estrategias mixtas, ¿Cuál de los puntos será
solución del problema? La solución del juego implica llegar a satisfacer dos condiciones:
1. Condición necesaria: el equilibrio es condición necesaria para llegar a la solución, ya que
brinda una situación de estabilidad que ningún jugador desea abandonar.
2. Condición suficiente: la SOLUCIÓN requiere, además, una condición suficiente que
permita elegir entre equilibrios de valor alto y de valor bajo. En este caso, la misma puede
satisfacerse a partir del concepto de dominación: justamente la combinación “No-no” está
dominada para ambos jugadores, por lo que resulta indeseable. Por tal motivo, nunca
puede ser solución del juego, si siéndolo el restante punto de equilibrio.

5) Juegos cooperativos. Juegos de n personas. Dominación, núcleo, valor Shapley


Características de las situaciones donde es posible la cooperación
Las características que se destacan de estos juegos son la existencia de n ≥ 3jugadores
y la posibilidad que tienen éstos de poder intercambiar información y construir coaliciones
(alianzas). Las personas que intervienen puede ser consideradas en forma individual o
constituirse grupos, lo cual se simbolizará con la letra S.

Juegos de n personas con transferencia de utilidad


En este tipo de juegos no hay restricciones a los acuerdos que pueden pactarse entre
los jugadores. Además, como los pagos se miden todos en la misma unidad, existe la
posibilidad de transferir lateralmente las utilidades mediante pagos realizados e/ los
participantes.
Resulta conveniente utilizar notación conjuntista (MIRAR ANEXO PDF). Se tiene un
conjunto de n jugadores, numerados de 1 a n, que forman el conjunto N:
N = {1, 2, 3, … , n}
Dentro del mismo una coalición que se forme, S, estará definida como subconjunto de
N y, como tal, incluido en el mismo: S ⊂ N. El número de coaliciones que pueden formarse
es 2n, que surge de considerar todas las combinaciones posibles de n elementos tomados
de a 0, 1, 2, … , n. Obviamente, cuando n=0 se obtiene un conjuntovacío (∅) o coalición
166
vacía. Por otra parte, la reunión de todos los jugadores en un solo grupo conforma la
“supercoalición” o gran coalición.

La representación bajo la forma de Función de coalición


Un juego representado bajo esta forma se simboliza con el par (N,v), en el cual
N={1,2,…,n} es el conjunto de jugadores, y v es una función con valor real (la función
característica del juego) definida en el conjunto de todas las coaliciones (2n) que satisface
dos condiciones:
1. La coalición vacía tiene valor cero: v(ϕ)=0. Esto significa que el conjunto que no
tiene jugadores, obviamente, puede alcanzar un valor nulo.
2. Superaditividad: el valor de dos coaliciones disjuntas (S y T) cuando se reúnen es al
menos tan grande como cuando actúan por separado.
Si 𝑺𝑺 ∩ 𝑻𝑻 = 𝝓𝝓 , 𝒗𝒗(𝑺𝑺) + 𝒗𝒗(𝑻𝑻) ≤ 𝒗𝒗(𝑺𝑺 ∪ 𝑻𝑻)
La razonabilidad de esta probabilidad se basa en los incentivos que existen para formar
coaliciones cuando el resultado que se obtiene por integrarlas es mayor que el resultado
de sumar los que obtendría cada una de las partes individualmente.
La función característica dada por la cantidad v(S) (correspondiente a un número real
para cada coalición que es subconjunto de N) puede ser considerada como el poder, valor
o importancia de la coalición S cuando sus miembros actúan en forma conjunta. En otras
palabras, es la suma que los jugadores miembros de S pueden conseguir sin ayuda de
aquellos que no están en S.

Ejemplo 1. Función característica de una situación hipotética


Supongamos que el propietario de una determinada extensión de tierra (A) considera
que la misma, para sus actividades de granja, tiene un valor de $100.000. Recibe ofertas de
dos potenciales adquirentes: una empresa manufacturera (B) que le ofrece $200.000, y un
intermediario del mercado inmobiliario (C) que lo valoriza en $300.000.
Para comenzar en la búsqueda de la solución del problema, es conveniente observar
que cualquier coalición sin A tiene valor 0, ya que las otras partes no pueden obtener el
valor que han estimado si no cuentan con la tierra.
Entonces se tiene, cuando se forman coaliciones con conjunto de ninguno o un solo elemento:
v({ })=0v({ A })=100.000v({ B })=0v({ C })=0

Cuando los elementos del conjunto N que reúne a todos los jugadores se coaligan de a
dos o más, el valor que adopta tal coalición es igual al máximo que un miembro de la
coalición le transmite a la misma. Entonces, considerando coaliciones de dos jugadores:
v({ A, B })=200.000v({ A, C })=300.000v({ B, C })=0

Finalmente, la supercoalición consiste en reunir el mejor valor de cuando se tomaron de


a dos y agregar el valor que incorpore el tercero que se une:
v({ A, B, C })=300.000
167
Así hemos considerado los ocho subconjuntos posibles de extraer del conjunto N, lo
que habilita continuar con los análisis que se desarrollarán a continuación.

Ejemplo 2. Función característica a partir de un juego en forma estratégica


Supongamos un juego de tres personas (jugadores A, B y C), cada uno de los cuales
posee dos estrategias puras posibles, y con las matrices de pagos que se detallan aquí:

Resolución. Como todos los pagos están volcados en las matrices y no existe información
acerca de potenciales mejoras en los resultados producto de la agrupación de dos o más
jugadores, todos los cálculos deben apoyarse en los datos que se exponen.
Automáticamente tenemos que: v({ })=0.
También resulta sencillo estimar el valor de la supercoalición N, ya que es la mayor
suma que se reparte considerando los ocho resultados posibles, lo cual corresponde a las
estrategias a, d y e (4,2,3), siendo: v({ A, B, C})=9.
Para encontrar v({ A }) es necesario observar los diversos resultados que A obtendría
cuando el otro jugador es la coalición (B, C), y los resultados que tendría dicha coalición.
Los mismos se observan en las siguientes matrices:

Al quedar reducido a un juego de dos jugadores con suma no constante es


relativamente sencilla su resolución aplicando conceptos ya estudiados: la estrategia (d, e)
domina a la (c, e) y la (c, f) a la (d, f), en la segunda matriz. Al eliminarse dichas
estrategias, para el jugador A la estrategia a domina a la b, por lo que todo se reduce a:

Dicha matriz puede reducirse aún más, ya que para la coalición (B, C) la estrategia (d, e)
domina a la (c, f). Y así se obtienen los valores buscados:
v({ A })=4 v({ B, C })=5
168
Para hallar v({ B }) y v({ C }) se deben hacer construcciones similares para las
respectivas ganancias que obtendrían jugando contra (A, C) y contra (A, B). Con similares
razonamiento (VER PDF PÁG. 23) se obtiene que:
v({ B })=1 v({ A, C })=3 v({ C })=3 v({ A, B })=6
Imputaciones, dominación y núcleo
Es evidente que el comportamiento racional lleve a que los jugadores establezcan
coaliciones en las que encuentren un reparto equitativo y estable (en el sentido de que
ninguno de los jugadores esté interesado o tenga el poder suficiente p/ romper el acuerdo.
Cuando se encuentra dicha forma de repartir se identifican puntos de núcleo, idea que
se desarrollará a continuación.
En primer lugar, es necesario definir lo que es un vector de recompensas (X), el cual
contiene la cantidad x i que recibiría cada uno de los n jugadores:
X = ( x 1 , x 2 ,x 3 , … ,x n )
Un vector de recompensas es un candidato a formar parte de una solución al juego, y se
denomina imputación, cuando satisface dos condiciones:
1. Racionalidad individual: resulta obvio que ningún jugador acordará recibir menos de
lo que obtendría actuando solo: x i ≥ v({ i }) para todo i ∈ N.
2. Racionalidad del grupo (o eficiencia): el monto total recibido por los jugadores
debería ser correspondiente al valor de la supercoalición:
𝒏𝒏

𝒗𝒗(𝑵𝑵) = � 𝒙𝒙𝒊𝒊
𝒊𝒊=𝟏𝟏
El conjunto de Imputaciones podría expresarse como:

𝑰𝑰 = {𝑿𝑿 = (𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , 𝒙𝒙𝟑𝟑 , … , 𝒙𝒙𝒏𝒏 )/ � 𝒙𝒙𝒊𝒊 = 𝒗𝒗(𝑵𝑵), y 𝒙𝒙𝒊𝒊 ≥ 𝒗𝒗({ 𝒊𝒊 }) para toda 𝒊𝒊 ∈ 𝑵𝑵}
𝒊𝒊∈𝑵𝑵
Ahora es necesario definir dominación, la cual se relaciona con los pagos que recibiría
un jugador perteneciente a una coalición cuando se le propusiera participar de una
imputación cualquiera.
Supongamos que tenemos una imputación X propuesta para repartir el valor v(N) y que
los integrantes de aquel conjunto N forman una coalición S.
Si por adoptar la imputación X los integrantes de la coalición S obtuvieran un resultado
que fuera menor que aquel que la coalición por sí misma puede obtener, entonces habría
tendencia a que la coalición se forma y que no se tenga en cuenta la propuesta de la
imputación X. Dicha imputación tiene una inestabilidad inherente y está dominada por la
imputación que surge de considerar los valores que obtienen los integrantes de S por

169
pertenecer a dicha coalición. Toda imputación dominada no se acepta como solución del
juego, por lo que los jugadores solo adoptarán las que sean estables y no dominadas.
Un conjunto C de imputaciones estables (no dominadas) es lo que se denomina
núcleo. El mismo puede consistir en varios puntos, aunque también puede estar vacío si
no resulta factible satisfacer a todas las coaliciones al mismo tiempo.
El conjunto de Imputaciones que compone el núcleo puede escribir como:

𝑪𝑪 = {𝑿𝑿 = (𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , … , 𝒙𝒙𝒏𝒏 )/ � 𝒙𝒙𝒊𝒊 = 𝒗𝒗(𝑵𝑵), y � 𝒙𝒙𝒊𝒊 ≥ 𝒗𝒗(𝑺𝑺)para toda 𝑺𝑺 ⊂ 𝑵𝑵}
𝒊𝒊∈𝑵𝑵 𝒊𝒊∈𝑺𝑺
Ejemplo 3. Conjunto de imputaciones núcleo para el ejemplo 2.
En el caso citado son:v({ A })=4 v({ B, C })=5 v({ B })=1
v({ A, C })=3 v({C })=3 v({ A, B })=6
Y el conjunto de imputaciones es:
𝑰𝑰 = {(𝒙𝒙𝟏𝟏 , 𝒙𝒙𝟐𝟐 , 𝒙𝒙𝟑𝟑 )/ 𝒙𝒙𝟏𝟏 + 𝒙𝒙𝟐𝟐 + 𝒙𝒙𝟑𝟑 = 𝟗𝟗, 𝒙𝒙𝟏𝟏 ≥ 𝟒𝟒, 𝒙𝒙𝟐𝟐 ≥ 𝟏𝟏, 𝒙𝒙𝟑𝟑 ≥ 𝟑𝟑}
Por último, el conjunto de imputaciones para definir el núcleo son:

Una forma sencilla de obtener los valores que componen el núcleo consiste en trazar un
triángulo como se ve a continuación:

170
Se ha graficado mediante coordenadas baricéntricas, lo cual evita trabajar con tres
planos, aun cuando debe trabajarse con tres variables. A partir de un triángulo equilátero
(grisado) se trazan las escalas correspondientes a las tres variables; en este caso al ser
v({N})=9, el máximo valor que pueden adoptar las variables es 9, y siempre en todas las
intersecciones de coordenadas la suma de los valores de las variables dará dicha cantidad,
así como en todos los puntos interiores del triángulo. Con línea discontinua se traza la
trama correspondiente a las respectivas escalas de cada variable.
La búsqueda del núcleo requiere que se grafiquen todas las desigualdades con el fin de
identificar la porción del plano que satisface a todas ellas. Por tal motivo se han trazado las
rectas de trazo grueso (representan la igualdad) acompañadas de una flecha que indica la
parte del plano que cumple con la correspondiente desigualdad. Se trazan 6 de las 7
desigualdades, ya que v({N})=9 se representa con el triángulo. Al final del proceso de
graficación, la parte del plano que esta grisada y, además, es alcanzada por todas las
flechas representa al núcleo del juego. En este caso el único punto que satisface dichas
condiciones es el trío (4, 2, 3), que son los valores que, asignados a las variables x 1 , x 2 y
x 3 , dan un repartoestable del valortotaldeljuego.

Ejemplo 4. Sobre tres empresas con intenciones de formar alianzas


Las empresas E 1 , E 2 y E 3 procuran formalizar alianzas que les permitan aumentar sus
utilidades, ya que en forma individual no es posible obtener incrementos porcentuales de

171
las utilidades. Entonces, sin alianzas son x i =0 (i=1, 2, 3). Las empresas saben que si logran
unirse las utilidades incrementan de la siguiente forma:
v({1,2})=15% v({1,3})=10% v({2,3})=5% v({1,2,3})=15%

Con n miembros en el juego, se deben se deben cumplir 2n–1 desigualdades del tipo:

� 𝒙𝒙𝒊𝒊 ≥ 𝒗𝒗(𝑺𝑺)para toda 𝑺𝑺 ⊂ 𝑵𝑵, las cuales forman un sistema.


𝒊𝒊∈𝑺𝑺
Las desigualdades son 23–1=7, y son:

La resolución del sistema de inecuaciones arroja que el núcleo es C=(10, 5, 0).

Aplicación y verificación de su razonabilidad. (VER PDF FREDES).

Valor Shapley
De la misma forma que el núcleo es un concepto que representa estabilidad, podemos
analizar otro aspecto importante que permite llegar a determinar un valor de interés para
cada jugador, y que en general conduce a soluciones más equitativas que las del núcleo: el
valor Shapley. Consiste en una forma de calcular la medida del poder que tiene cada i-
ésimo jugador en el juego, siempre teniendo en cuenta el concepto de ecuanimidad.
Como consecuencia de tales cálculos, se obtiene una función de valor ϕ, que es un
vector de recompensas para un juego de n personas en forma característica, que asigna
una n-upla (n-upla: n valores de una variable) de números realesϕ(v), en la cual cada ϕ i (v)
representa el valor del jugador i en el juego con función característica v.
𝝓𝝓(𝒗𝒗) = 𝝓𝝓𝟏𝟏 (𝒗𝒗), 𝝓𝝓𝟐𝟐 (𝒗𝒗), … , 𝝓𝝓𝒏𝒏 (𝒗𝒗)
Para obtener el resultado mencionado se debe cumplir con los siguientes 4 axiomas:
1. Eficiencia o racionalidad de grupo: ya definida anteriormente.

𝒗𝒗(𝑵𝑵) = � 𝝓𝝓𝒊𝒊 (𝒗𝒗)


𝒊𝒊∈𝑵𝑵
2. Simetría: si la función característica es simétrica para los jugadores i y j, los valores
asignados a i y j deben ser iguales. En otras palabras, si se intercambian dos jugadores se
intercambian sus recompensas.
172
Si 𝒗𝒗(𝑺𝑺 ∪ {𝒊𝒊}) = 𝒗𝒗(𝑺𝑺 ∪ {𝒋𝒋}) para cada coalición S que no contiene a i ni a j,
𝝓𝝓𝒊𝒊 (𝒗𝒗) = 𝝓𝝓𝒋𝒋 (𝒗𝒗) .
3. Nulidad (dummy): si el jugador i no agrega ni quita valor a cada coalición S a la que se
incorpora, entonces su valor es cero.
Si 𝒗𝒗(𝑺𝑺) = 𝒗𝒗(𝑺𝑺 ∪ {𝒊𝒊}) para cada coalición S que no contiene a i, entonces
𝝓𝝓𝒊𝒊 (𝒗𝒗) = 𝟎𝟎.
4. Aditividad: los valores u y v de dos juegos distintos sumados equivalen a encontrar el
valor de ambos en conjunto.
𝝓𝝓(𝒖𝒖) + 𝝓𝝓(𝒗𝒗) = 𝝓𝝓(𝒖𝒖 + 𝒗𝒗)
Es factible ahora aplicar el siguiente Teorema. Existe una única función ϕ que satisface
tales axiomas citados, bajo la cual la recompensa para el i-ésimo jugador está dada por:
(|𝑺𝑺| − 𝟏𝟏)! (𝒏𝒏 − |𝑺𝑺|)!
𝝓𝝓𝒊𝒊 (𝒗𝒗) = � ∗ [𝒗𝒗(𝑺𝑺) − 𝒗𝒗(𝑺𝑺 − {𝒊𝒊})]
𝒏𝒏!
𝑺𝑺⊂𝑵𝑵
𝒊𝒊∈𝑺𝑺
El valor Shapley es simplemente el pago promedio para cada jugador cuando han
entrado en orden completamente aleatorio a las coaliciones que pueden formarse en el
conjunto N.
Desagregación de la fórmula
1. La diferencia encerrada entre corchetes en el extremo derecho representa el incremento
que tiene el valor de una coalición S al incorporarse el jugador i.
2. Es factible la incorporación a muchas coaliciones y aportando a cada una de ellas
diferente valor incremental. Esto es lo que queda reflejado en la fracción que está dentro
de la sumatoria, y que puede presentarse de la siguiente forma:
(|𝑺𝑺| − 𝟏𝟏)! (𝒏𝒏 − |𝑺𝑺|)! 𝟏𝟏 (|𝑺𝑺| − 𝟏𝟏)! (𝒏𝒏 − |𝑺𝑺|)!
=
𝒏𝒏! 𝒏𝒏 (𝒏𝒏 − 𝟏𝟏)!
La expresión |S| indica el número de integrantes de la coalición S. El factor 1/n, al
aplicarse sobre el valor mencionado en 1., calcula el promedio de los diferentes tamaños
de coaliciones posibles (Hay n tamaños posibles de coalición). A su vez, la otra fracción
resultante, si es invertida se verá que es el número de combinaciones simples de n-1
elementos tomados de a |S|-1: el número de coaliciones de tamaño |S| que incluyen a i. En
verdad, este número iría dividiendo al calculado según lo mencionado en 1., ya que actúa
promediando dicho valor en función de la probabilidad de que i entre y encuentre la
coalición S-{i} ya formada; en la fórmula de Shapley se incorpora multiplicando por su
inverso, en lugar de dividir.

Ejemplo 5. El valor Shapley para el ejemplo 1.


173
Ya se obtuvo para el ejemplo 1 la función característica de este juego en forma
coalición. Ahora se presentará, desarrollada analíticamente, la aplicación de la fórmula
presentada anteriormente. Para ello, se utilizará la tabla que se muestra a continuación, la
cual permite hacer todos los cálculos necesarios en forma sistemática y clara.

Breve explicación del contenido de la tabla.


1. En la 1ra columna se indica que se calculará el valor vpara todas aquellas alianzas en las
que puede participar el jugador estudiado.
2. Cómo el cálculo de dicho valor se basa en el aporte que el jugador hace a la coalición,
en la 2da columna se especifica la forma de calcular la diferencia respectiva.
3. La 3ra columna muestra el resultado de aplicar la ecuación insertada en la 2da columna.
4. El factor de ponderación para cada una de las coaliciones en que puede intervenir el
jugador depende de lo mencionado en el título “Desagregación de la Fórmula”.
5. La última columna calcula el valor que corresponde a la coalición considerada, mediante
la multiplicación de los valores que están en las dos columnas anteriores (3ra y 4ta).
6. Para llegar al valor que corresponde al jugador por todas sus posibles intervenciones en
el juego (valor shapley) se suman todos los valores obtenidos en la 5ta columna.

Primeramente se calcula el valor shapley para el jugador A, lo que se expone en la


siguiente página.

Podemos ver que cuando el jugador A (el propietario) se incorpora a una coalición con
cualquiera de los otros dos jugadores, el valor Shapley le adjudica todo el incremento a
dicho jugador, si bien posteriormente se lo pondera en función de las probabilidades de
que tal coalición ocurra. Esto se debe a que el propietario tiene todo el poder: sin su tierra,
los demás no pueden hacer negocio.
Si calculamos, de manera similar, el valor shapley para los otros dos jugadores tenemos:

174
Si se suman todos los valores Shapley se llega a los $300.000, que son el total que
puede repartir la supercoalición. El propietario recibe la mayor parte de ellos, aunque no el
total, mientras que el manufacturero un valor que no es cero, aunque es el menor.

175

También podría gustarte