UNIVERSIDAD FERMIN TORO FACULTAD DE CIENCIAS ECONOMICAS Y SOCIALES ESCUELA DE ADMINISTRACION ANALISIS DE PROBLEMAS Y TOMA DE DECISIONES
AUTORA: INGRIS SANCHEZ ENERO 2014
Técnicas y herramientas para la toma de decisiones Según el Profesor Hossein Arsham “Un modelo de Optimización Matemática consiste en una función objetivo y un conjunto de restricciones en la forma de un sistema de ecuaciones o inecuaciones. Los modelos de optimización son usados en casi todas las áreas de toma de decisiones, como en ingeniería de diseño y selección de carteras financieras de inversión.” (http://home.ubalt.edu/ntsbarsh/opre640S/SpanishD.htm.)
Los problemas de toma de decisiones se pueden clasificar en dos categorías: modelos de decisión determinísticos y modelos de decisión probabilísticos. En los modelos determinísticos, las buenas decisiones se basan en sus buenos resultados. Se consigue lo deseado de manera "determinística", es decir, libre de riesgo. Esto depende de la influencia que puedan tener los factores no controlables, en la determinación de los resultados de una decisión y también en la cantidad de información que el tomador de decisión tiene para controlar dichos factores. Aquellos que manejan y controlan sistemas de hombres y equipos se enfrentan al problema constante de mejorar (por ejemplo, optimizar) el rendimiento del sistema. El problema puede ser reducir el costo de operación y a la vez mantener un nivel aceptable de servicio, utilidades de las operaciones actuales, proporcionar un mayor nivel de servicio sin aumentar los costos, mantener un funcionamiento rentable cumpliendo a la vez con las reglamentaciones gubernamentales establecidas, o "mejorar" un aspecto de la calidad del producto sin reducir la calidad de otros aspectos. Para identificar la mejora del funcionamiento del sistema, se debe construir una representación sintética o modelo del sistema físico, que puede utilizarse para describir el efecto de una variedad de soluciones propuestas. Un modelo ofrece al analista una herramienta que puede manipular en su análisis del sistema en estudio, sin afectar al sistema en sí. Por ejemplo, supóngase que se ha desarrollado un modelo matemático para predecir las ventas anuales como una función del precio de venta unitario. Si se conoce el costo de producción por unidad, se pueden calcular con facilidad las utilidades anuales totales para cualquier precio de venta. Para determinar el precio de venta que arrojará las utilidades totales máximas, se pueden introducir en el modelo distintos valores para el precio de venta, uno a la vez, determinando las ventas resultantes y calculando las utilidades anuales totales para cada valor de precio de venta examinado. Mediante un proceso de prueba y error, el analista puede determinar el precio de venta que maximizará las utilidades anuales totales. Lo ideal sería que si el modelo matemático es una representación válida del rendimiento del sistema, mediante la aplicación de las técnicas analíticas adecuadas, la solución obtenida a partir del modelo debería ser también la solución para el problema del sistema. Así, la efectividad de los resultados de la aplicación de cualquier técnica operativa es en gran medida una función del grado en el cual el modelo representa al sistema en estudio.
Métodos determinísticos Programación Lineal (PL) Es un procedimiento matemático para determinar la asignación óptima de recursos escasos. Este encuentra su aplicación práctica en casi todas las facetas de los negocios, desde la publicidad hasta la planificación de la producción. Problemas de transporte, distribución, y planificación global de la producción son los objetos más comunes del análisis de PL. La industria petrolera parece ser el usuario más frecuente de la PL. Un gerente de procesamiento de datos de una importante empresa petrolera recientemente calculó que del 5% al 10% del tiempo de procesamiento informático de la empresa es destinado al procesamiento de modelos de PL y similares. La programación lineal aborda una clase de problemas de programación donde tanto la función objetivo a optimizar como todas las relaciones entre las variables correspondientes a los recursos son lineales. Este problema fue formulado y resuelto por primera vez a fines de la década del 40. Rara vez una nueva técnica matemática encuentra una gama tan diversa de aplicaciones prácticas de negocios, comerciales e industriales y a la vez recibe un desarrollo teórico tan exhaustivo en un período tan corto. Hoy en día, esta teoría se aplica con éxito a problemas de presupuestos de capital, diseño de dietas, conservación de recursos, juegos de estrategias, predicción de crecimiento económico y sistemas de transporte. Recientemente la teoría de la programación lineal también contribuyó a la resolución y unificación de diversas aplicaciones. Es importante saber que desde el comienzo que el término "programación" tiene un significado distinto cuando se refiere a Programación Lineal que cuando hablamos de Programación Informática. En el primer caso, significa planificar y organizar mientras que en el segundo caso, significa escribir las instrucciones para realizar cálculos. La capacitación en una clase de programación tiene muy poca relevancia directa con la otra clase de programación. De hecho, el término "programación lineal" se acuñó antes de que la palabra programación se relacionara con el software de computación. A veces se evita esta confusión utilizando el término optimización lineal como sinónimo de programación lineal. Cualquier problema de PL consta de una función objetivo y un conjunto de restricciones. En la mayoría de los casos, las restricciones provienen del entorno en el cual usted trabaja para lograr su objetivo. Cuando usted quiere lograr el objetivo deseado, se dará cuenta de que el entorno fija ciertas restricciones (es decir, dificultades, limitaciones) para cumplir con su deseo (vale decir, el objetivo). Qué es una función: una función es una cosa que hace algo. Por ejemplo, una máquina de moler café es una función que transforma los granos de café en polvo. La función (objetivo) traza, traduce el dominio de entrada (denominado región factible) en un rango de salida con dos valores finales denominados valores máximo y mínimo.
Cuando se formula un problema de toma de decisiones como un programa lineal, se deben verificar las siguientes condiciones: 1.
La función objetivo debe ser lineal. Vale decir que se debe verificar que todas las variables estén elevadas a la primera potencia y que sean sumadas o restadas (no divididas ni multiplicadas);
2.
El objetivo debe ser ya sea la maximización o minimización de una función lineal. El objetivo debe representar la meta del decisor; y
3.
Las restricciones también deben ser lineales. . Asimismo, la restricción debe adoptar alguna de las siguientes formas (£, ³, O =, es decir que las restricciones de PL siempre están cerradas).
Proceso de Formulación de un Problema de PL y su Aplicación Para formular un problema de PL, se recomienda seguir los siguientes lineamientos generales después de leer con atención el enunciado del problema varias veces. Todo programa lineal consta de cuatro partes: un conjunto de variables de decisión, los parámetros, la función objetivo y un conjunto de restricciones. Al formular un determinado problema de decisión en forma matemática, debe practicar la comprensión del problema (es decir, formular un Modelo Mental) leyendo detenidamente una y otra vez el enunciado del problema. Mientras trata de comprender el problema, formúlese las siguientes preguntas generales: 1.
¿Cuáles son las variables de decisión? Es decir, ¿cuáles con las entradas controlables? Defina las variables de decisión con precisión utilizando nombres descriptivos. Recuerde que las entradas controlables también se conocen como actividades controlables, variables de decisión y actividades de decisión.
2.
Cuáles son los parámetros? Vale decir ¿cuáles son las entradas no controlables? Por lo general, son los valores numéricos constantes dados. Defina los parámetros con precisión utilizando nombres descriptivos.
3.
¿Cuál es el objetivo? ¿Cuál es la función objetivo? Es decir, ¿qué quiere el dueño del problema? ¿De qué manera se relaciona el objetivo con las variables de decisión del dueño del problema? ¿Es un problema de maximización o minimización? El objetivo debe representar la meta del decisor.
4.
¿Cuáles son las restricciones? Es decir, ¿qué requerimientos se deben cumplir? ¿Debería utilizar un tipo de restricción de desigualdad o igualdad? ¿Cuáles son las conexiones entre las variables? Escríbalas con palabras antes de volcarlas en forma matemática.
La región factible tiene poco o nada que ver con la función objetivo (mínimo. o máximo). Estas dos partes en cualquier formulación de PL generalmente provienen de dos fuentes distintas. La función objetivo se establece para cumplir con el deseo (objetivo) del decisor mientras que las restricciones que forman la región
factible generalmente provienen del entorno del decisor que fija algunas limitaciones / condiciones para lograr su objetivo. Ejemplo: Un carpintero comunica que sólo fabrica mesas y sillas y que vende todas las mesas y las sillas que fabrica en un mercado. Sin embargo, no tiene un ingreso estable y desea optimizar esta situación. El objetivo es determinar cuántas mesas y sillas debería fabricar para maximizar sus ingresos netos. Comenzamos concentrándonos en un horizonte de tiempo, es decir, un plazo de planificación, para revisar la solución semanalmente, si fuera necesario. Para saber más acerca de este problema, se debe ir al negocio del carpintero y observar lo que sucede y medir lo que necesita para para formular (para crear un modelo de) su problema. Debe confirmar que su objetivo es maximizar sus ingresos netos. El problema del carpintero se trata de determinar cuántas mesas y sillas debe fabricar por semana; pero primero se debe establecer una función objetivo, La función objetivo es: 5X1 + 3X2, donde X1 y X2 representan la cantidad de mesas y sillas; y 5 y 3 representan los ingresos netos (por ejemplo, en dólares o décimas de dólares) de la venta de una mesa y una silla, respectivamente. Los factores limitantes, que normalmente provienen del exterior, son las limitaciones de la mano de obra (esta limitación proviene de la familia del carpintero) y los recursos de materia prima (esta limitación proviene de la entrega programada). Se miden los tiempos de producción requeridos para una mesa y una silla en distintos momentos del día y se calculan en 2 horas y 1 hora, respectivamente. Las horas laborales totales por semana son sólo 40. La materia prima requerida para una mesa y una silla es de 1 y 2 unidades, respectivamente. El abastecimiento total de materia prima es de 50 unidades por semana. En consecuencia, la formulación de PL es la siguiente: Maximizar 5 X1 + 3 X2 Sujeta a: 2 X1 + X2 £ 40 restricción de mano de obra X1 + 2 X2 £ 50 restricción de materiales tanto X1 como X2 son no negativas. Este es un modelo matemático para el problema del carpintero. Las variables de decisión, es decir, las entradas controlables son X1, y X2. La salida o el resultado de este modelo son los ingresos netos totales 5 X1 + 3 X2. Todas las funciones empleadas en este modelo son lineales (las variables de decisión están elevadas a la primera potencia). El coeficiente de estas restricciones se denomina Factores Tecnológicos (matriz). El período de revisión es de una semana, un período conveniente dentro del cual es menos probable que cambien
(fluctúen) las entradas controlables (todos los parámetros tales como 5, 50, 2,..). Nótese que dado que el Carpintero no va a ir a la quiebra al final del plazo de planificación, agregamos las condiciones que tanto X1 como X2 deben ser no negativas en lugar de los requerimientos que X1 y X2 deben ser números enteros positivos. Recuerde que las condiciones de no negatividad también se denominan "restricciones implícitas". Nuevamente, un Programa Lineal funcionaría bien para este problema si el Carpintero continúa fabricando estos productos. Los artículos parciales simplemente se contarían como trabajos en proceso y finalmente se transformarían en productos terminados, en la siguiente semana. Podemos intentar resolver X1 y X2 enumerando posibles soluciones para cada una y seleccionado el par (X1, X2) que maximice 5X1 + 3X2 (los ingresos netos). Sin embargo, lleva mucho tiempo enumerar todas las alternativas posibles y si no se enumeran todas las alternativas, no podemos estar seguros de que el par seleccionado (como una solución) es la mejor de todas las alternativas. Otras metodologías preferidas (más eficientes y efectivas), conocidas como las Técnicas de Soluciones de Programación Lineal están disponibles en el mercado en más de 4000 paquetes de software de todo el mundo. La solución óptima, es decir, la estrategia óptima, es establecer X1 = 10 mesas y X2 = 20 sillas. Programamos las actividades semanales del carpintero para que fabrique 10 mesas y 20 sillas. Con esta estrategia (óptima), los ingresos netos son de US$110. Esta solución prescripta sorprendió al carpintero dado que debido a los mayores ingresos netos provenientes de la venta de una mesa (US$5), el solía fabricar más mesas que sillas. ¿Contratar o no contratar a un ayudante? Supóngase que el carpintero pudiera contratar a un ayudante a un costo de US$2 por hora (adicionales $2) ¿Le conviene al carpintero contratar a un ayudante? En caso afirmativo, ¿por cuántas horas? X3 es la cantidad de horas extra, entonces el problema modificado es: Maximizar 5 X1 + 3 X2 - 2 X3 Sujeta a: 2 X1 + X2 £ 40 + X3 restricción de la mano de obra con horas adicionales desconocidas X1 + 2 X2 £ 50 restricción de materiales En esta nueva condición, veremos que la solución óptima es X1 = 50, X2 = 0, X3 = 60, con ingresos netos óptimos de US$130. Por lo tanto, el carpintero debería contratar a un ayudante por 60 horas.
Teoría del método Simplex El método Simplex es un procedimiento iterativo que permite mejorar la solución de la función objetivo en cada paso. El proceso concluye cuando no es posible continuar mejorando dicho valor, es decir, se ha
alcanzado la solución óptima (el mayor o menor valor posible, según el caso, para el que se satisfacen todas las restricciones). Partiendo del valor de la función objetivo en un punto cualquiera, el procedimiento consiste en buscar otro punto que mejore el valor anterior. Como se verá en el método Gráfico, dichos puntos son los vértices del polígono (o poliedro o polícoro, si el número de variables es mayor de 2) que constituye la región determinada por las restricciones a las que se encuentra sujeto el problema (llamada región factible). La búsqueda se realiza mediante desplazamientos por las aristas del polígono, desde el vértice actual hasta uno adyacente que mejore el valor de la función objetivo. Siempre que exista región factible, como su número de vértices y de aristas es finito, será posible encontrar la solución. El método Simplex se basa en la siguiente propiedad: si la función objetivo Z no toma su valor máximo en el vértice A, entonces existe una arista que parte de A y a lo largo de la cual el valor de Z aumenta. Será necesario tener en cuenta que el método Simplex únicamente trabaja con restricciones del problema cuyas inecuaciones sean del tipo "≤" (menor o igual) y sus coeficientes independientes sean mayores o iguales a 0. Por tanto habrá que estandarizar las restricciones para que cumplan estos requisitos antes de iniciar el algoritmo del Simplex. En caso de que después de éste proceso aparezcan restricciones del tipo "≥" (mayor o igual) o "=" (igualdad), o no se puedan cambiar, será necesario emplear otros métodos de resolución, siendo el más común el método de las Dos Fases.
Preparando el modelo para adaptarlo al método Simplex La forma estándar del modelo de problema consta de una función objetivo sujeta a determinadas restricciones: Función objetivo:
c1·x1 + c2·x2 + ... + cn·xn
Sujeto a:
a11·x1
+
a12·x2
+
...
+
a1n·xn
=
b1
a21·x1
+
a22·x2
+
...
+
a2n·xn
=
b2
+
am2·x2
+
...
+
amn·xn
=
bm
... am1·x1
x1,..., xn ≥ 0 El modelo debe cumplir las siguientes condiciones: 1.
El objetivo consistirá en maximizar o minimizar el valor de la función objetivo (por ejemplo, incrementar ganancias o reducir pérdidas, respectivamente).
2.
Todas las restricciones deben ser ecuaciones de igualdad (identidades matemáticas).
3.
Todas las variables (xi) deben tener valor positivo o nulo (condición de no negatividad).
4.
Los términos independientes (bi) de cada ecuación deben ser no negativos.
Hay que adaptar el problema modelado a la forma estándar para poder aplicar el algoritmo del Simplex
Método Simplex Construcción de la primera tabla: Las columnas de la tabla están dispuestas de la siguiente forma: la primera columna de la tabla contiene las variables que se encuentran en la base (o variables básicas), esto es, aquellas que toman valor para proporcionar una solución; la segunda columna recoge los coeficientes que dichas variables básicas tienen en la función objetivo (esta columna es llamada Cb); la tercera muestra el término independiente de cada restricción (P0); a partir de ésta aparece una columna por cada una de las variables de decisión y holgura presentes en la función objetivo (Pj). Para tener una visión más clara de la tabla, se incluye una fila que contiene los títulos de cada una de las columnas. Sobre esta tabla se agregan dos nuevas filas: una de ellas, que lidera la tabla, donde aparecen los coeficientes de las variables de la función objetivo, y una última fila que recoge el valor la función objetivo y los costes reducidos Zj - Cj. Los costes reducidos muestran la posibilidad de mejora en la solución Z0. Por este motivo también son llamados valores indicadores. Se muestra a continuación el aspecto general de la tabla del método Simplex:
Todos los valores incluidos en la tabla vendrán dados por el modelo del problema salvo los valores de la fila Z (o fila indicadora). Estos se obtienen de la siguiente forma: Zj = Σ(Cbi·Pj) para i = 1..m, donde si j = 0, P0 = bi y C0 = 0, y en caso contrario Pj = aij. Se observa, al realizar el método Simplex, que en esta primera tabla ocupan la base todas las variables de holgura y por ello (todos los coeficientes de las variables de holgura son 0 en la función objetivo) el valor inicial de Z es cero. Por este mismo motivo tampoco es necesario realizar los cálculos de los costes reducidos en la primera tabla, pudiéndose determinar directamente como el cambio de signo de los coeficientes de cada variable en la función objetivo, esto es, -Cj.
Condición de parada: Se cumple la condición de parada cuando la fila indicadora no contiene ningún valor negativo entre los costes reducidos (cuando el objetivo es la maximización), esto es, no existe posibilidad de mejora. Si no se cumple la condición de parada es necesario realizar una iteración más del algoritmo, esto es, determinar la variable que se vuelve básica y la que deja de serlo, encontrar el elemento pivote, actualizar los valores de la tabla y comprobar si se cumple nuevamente la condición de parada.
Es también posible determinar que el problema no se encuentra acotado y su solución siempre resultará mejorable. En tal caso no es necesario continuar iterando indefinidamente y se puede finalizar el algoritmo. Esta situación ocurre cuando en la columna de la variable entrante a la base todos los valores son negativos o nulos.
Elección de la variable que entra a la base: Cuando una variable se vuelve básica, es decir, entra en la base, comienza a formar parte de la solución. Observando los costes reducidos en la fila Z, se decide que entra a la base la variable de la columna en la que éste sea el de menor valor (o de mayor valor absoluto) entre los negativos.
Elección de la variable que sale de la base: Una vez obtenida la variable entrante, se determina que sale de la base la variable que se encuentre en aquella fila cuyo cociente P0/Pj sea el menor de los estrictamente positivos (teniendo en cuenta que esta operación se hará únicamente cuando Pj sea superior a 0).
Elemento pivote: El elemento pivote de la tabla queda marcado por la intersección entre la columna de la variable entrante y la fila de la variable saliente.
Actualización de la tabla: Las filas correspondientes a la función objetivo y a los títulos permanecerán inalteradas en la nueva tabla. El resto de valores deberán calcularse como se explica a continuación: o
En la fila del elemento pivote cada nuevo elemento se calcula como: Nuevo Elemento Fila Pivote = Anterior Elemento Fila Pivote / Pivote.
o
En el resto de las filas cada elemento se calcula:
Nuevo Elemento Fila = Anterior Elemento Fila - (Anterior Elemento Fila en Columna Pivote * Nuevo Elemento Fila Pivote). De esta forma se consigue que todos los elementos de la columna de la variable entrante sean nulos salvo el de la fila de la variable saliente cuyo valor será 1. Ejemplo
Teoría Bayesiana La teoría Bayesiana se encarga de estudiar y analizar al consumidor, se observan las características y los atributos
que
describen
el
comportamiento
del
potencial
cliente.
Consiste en aislar los atributos que la persona en cuestión le asigna al determinado producto, y una vez hecho esto aislarlo, y estudiarlo y analizarlo. Se dejan de lado todos los otros factores, como características del producto,
del
cliente,
etc.,
y
se
centra
simplemente
en
este
atributo
encontrado.
Esta les da la libertad a los investigadores de estudiar la complejidad del comportamiento humano de una forma mucho más realista, de lo que era previamente posible. Aunque ningún método es 100 % exacto ya que la
psiquis
humana
es
demasiado
compleja
como
para
simplificarla
en
una
teoría.
El razonamiento bayesiano proporciona un enfoque probabilístico a la inferencia. Está basado en la suposición de que las cantidad de interés son gobernadas por distribuciones de probabilidad y que se pueden tomar decisiones óptimas razonando sobre estas probabilidades junto con los datos obtenidos. Este enfoque está siendo utilizado en multitud de campos de investigación, de los que cabe destacar la robótica móvil y la visión computacional, ambas relacionadas con el contenido de esta tesis. En este apéndice queremos definir
dos de las herramientas utilizadas en el desarrollo de esta tesis: el teorema de Bayes y el principio de longitud de
descripción
mínima.
El equilibrio de Nash ocupa un lugar central en la teoría de juegos; constituye de alguna manera una condición mínima de racionalidad individual ya que, si una combinación de estrategias no es un equilibrio de Nash, existe al menos un jugador que puede aumentar sus ganancias cambiando de estrategia, y en consecuencia, ésta se puede considerar difícilmente como una “solución” del modelo en la medida en que el jugador interesado en cambiar descarta su elección, después de conocer la de los otros. Se ha tomado la costumbre por parte de los teóricos de juegos, lo mismo que por parte de sociólogos, economistas etc. de ilustrar este tipo de situación empleando una “pequeña historia” propuesta por A.W. Tucker y que llamó el dilema del prisionero que se puede resumir de la siguiente manera.
Ejemplo
Dos individuos sospechosos de haber cometido un robo son detenidos por la policía que los lleva ante el juez, el cual los interroga separadamente. Cada uno puede callar o denunciar a su cómplice; los dos se encuentran ante las siguientes posibilidades: Callar
y
salir
Callar
y
ser
Denunciar
al
otro
libre
si
condenado y
salir
libre,
el si
ganándose
otro el
otro
una
recompensa
hace
lo
escoge si
el
mismo; denunciarlo;
otro
se
calla;
Denunciar al otro y quedarse en prisión por un tiempo si el otro decide de la misma manera la delación. Se constata fácilmente que el único equilibrio de Nash consiste en una denuncia mutua, lo que evidentemente es sub óptimo ya que los dos sufren una condena, en tanto que si se hubieran callado habrían sido liberados. No obstante este equilibrio es “robusto” en el sentido en que la estrategia de acusar al otro es dominante cualquiera que sea la elección del otro, la denuncia le procura una ganancia superior.
Teorema de Bayes Vamos a llamar P(A) a la probabilidad de que ocurra el suceso A. P(A.B) a la probabilidad de que ocurran los sucesos A y B (ambos). P(A / B) a la probabilidad de que ocurra A cuando sabemos que ha ocurrido B (se denomina probabilidad condicionada). La probabilidad de que ocurra A y B es igual a la probabilidad de B multiplicada por la probabilidad de A condicionada a que haya ocurrido B.
P(A.B) = P(B) x P(A / B) = P(A) x P(B / A) Por simetría es obvio que se cumple la tercera igualdad.
Ejemplo de aplicación del teorema de Bayes La aplicación más intuitiva en medicina este teorema, y con la que todo el mundo está familiarizado, la encontramos en el campo de las pruebas diagnósticas, y nos permite, conociendo la prevalencia de una enfermedad en la población a la que pertenece un individuo y los valores de sensibilidad y especificidad de la prueba, calcular la probabilidad de que un sujeto que ha dado positivo en el test, verdaderamente tenga esa enfermedad.
Si llamamos P a la probabilidad a priori de que el sujeto esté enfermo, y Q=1-P a su complementaria, S a la sensibilidad y E a la especificidad de la prueba T; aplicando el teorema de Bayes podemos calcular la probabilidad de que un sujeto esté verdaderamente enfermo cuando dio positivo (valor predictivo positivo de la prueba) y la probabilidad de que no esté enfermo cuando dio negativo (valor predictivo negativo). Sin más que reescribir la fórmula anterior del teorema de Bayes tenemos
Pongamos algunos números en estas fórmulas: si sabemos que la prevalencia en la población del VIH es de 1/1000 y que el test de VIH que efectuamos tiene una sensibilidad del 98 % y una especifidad del 98 % ¿cuál es la probabilidad de que un sujeto que ha resultado positivo sea verdaderamente portador del VIH? Substituyendo esos valores en la primera de las fórmulas anteriores obtenemos una probabilidad de 0.047, o lo que es lo mismo ¡cerca del 95% de los positivos obtenidos en el test son realmente falsos positivos!. Esto inicialmente choca con nuestra intuición, ¿cómo puede ser que una prueba con una sensibilidad y especificidad altas parezca en la práctica tan mala?. El problema radica en el valor de la prevalencia que es muy bajo y si se refiere a la población general probablemente no será aplicable a un sujeto que acude a consulta a un hospital y al que se le realiza la prueba porque hay otros motivos de sospecha -porque pertenece a un grupo de riesgo, porque presenta síntomas específicos...- y entonces ya no es aplicable la prevalencia de la población general, sino la del subgrupo de población al que pertenece y en el que la prevalencia (probabilidad a priori) de padecer la enfermedad será radicalmente mayor. Sin embargo los cálculos sí que son válidos si estamos pensando en la población general, por ejemplo porque valoramos la posibilidad de plantear un programa de "screening" y habrá que considerar entonces el coste social, personal y económico que supone el tener un gran número de falsos positivos, frente al beneficio de detectar verdaderos enfermos, no vaya ocurrir que sea el propio diagnóstico el que cree una epidemia. Partiendo de este pequeño repaso al teorema de Bayes, que en esencia es un razonamiento plasmado en una fórmula que nos permite, como en el ejemplo anterior, modificar la probabilidad conocida de que ocurra un suceso cuando tenemos nueva información al respecto.
Metodología bayesiana En la metodología estadística clásica -frecuentista- se calcula la probabilidad de observar un resultado suponiendo que la realidad sea de una manera determinada (hipótesis nula), sin embargo en la práctica
necesitamos los conocimientos para tomar decisiones, y lo que realmente nos interesa es conocer la probabilidad de que las cosas sean de una manera determinada dados los datos (condicionado a...) que hemos observado. Esta es la diferencia que radica en el enfoque bayesiano. En el caso de las pruebas diagnósticas lo que nos interesa en la práctica es el valor predictivo, positivo o negativo, de la prueba no la sensibilidad o especificidad de éstas. Aunque estamos habituados a la presentación de los métodos bayesianos con sucesos binarios o dicotómicos (enfermo o sano), también son aplicables cuando los resultados son continuos (por ejemplo proporción de pacientes que sobreviven). En el análisis estadístico clásico para evaluar por ejemplo la eficacia de un nuevo tratamiento frente al tratamiento anterior se utiliza exclusivamente la información obtenida en el estudio, ensayo clínico o experimento. Por el contrario en la metodología bayesiana es fundamental el concepto de probabilidad a priori (o prior, equivalente Al conocimiento de la prevalencia en las pruebas diagnósticas). El análisis comienza resumiendo cuantitativamente la información previa existente y externa al estudio, cuyo origen puede ser diverso, desde datos de laboratorio, otros estudios, opinión de expertos o incluso la propia creencia. Supongamos que se está comparando la tasa de mortalidad, cuantificada mediante el logaritmo del odds ratio. Para utilizar la terminología habitual vamos a llamar a esa magnitud que interesa calcular
. Lo primero que
hay que determinar es la distribución de probabilidad de esa magnitud con la información externa de la que se dispone, es lo que se denomina probabilidad a priori y vamos a representar como
. Seguidamente se
cuantifica la información que aportan los datos observados en nuestro estudio mediante lo que se denomina función de verosimilitud (likelihood), que denotaremos como probabilidad de los datos observados para cualquier valor del parámetro de Bayes para actualizar el valor a priori
. La verosimilitud representa la . Podemos ahora utilizar el teorema
a la luz de los datos obtenidos y calcular
, la
denominada función de probabilidad a posteriori, es decir cómo de probables son los diferentes valores posibles de
una vez obtenidos nuestros datos. Según el teorema de bayes tenemos que
Donde el símbolo
indica que el lado de la izquierda es proporcional al lado de la derecha, es decir que son
iguales salvo por un término constante (el denominador del teorema de Bayes) que no depende del parámetro de interés
.
Así pues los resultados se expresan como una función de la probabilidad a posteriori de los diferentes valores de
. Este proceso se puede representar de forma gráfica, como ahora veremos.
Supongamos que se está comparando la diferencia entre las medias de la presión arterial sistólica de dos grupos de pacientes. En la siguiente figura la curva de la parte superior representa la distribución de probabilidad que se espera para la diferencia entre las medias a priori, de acuerdo con la información de la que se dispone. La curva de la parte central representa la función de verosimilitud obtenida a partir de los datos del estudio: probabilidad para cada posible valor de esa diferencia en función de los datos. Por último la curva de la parte inferior corresponde a la distribución de probabilidad a posteriori obtenida al combinar ambas curvas, la correspondiente a la información previa y la obtenida en nuestro estudio.
Ahora las inferencias sobre el parámetro que se estudia
-en el ejemplo la diferencia en cuanto a la media de
la PAS entre los grupos- se basan en utilizar la distribución a posteriori así calculada: podemos obtener a partir de ella, por ejemplo, un valor medio y una dispersión.
Se denomina Intervalo de credibilidad a áquel que garantiza que incluye el verdadero valor de probabilidad dada, por ejemplo del 95 %.
con una
También puede utilizarse la distribución a posteriori para evaluar la probabilidad de que
tenga un valor
igual o mayor que un valor concreto para tomar una decisión.
Cómo cuantificar la información a priori En la cuantificación de la distribución de probabilidad a priori radica el principal punto de controversia de los métodos bayesianos ya que implica una, al menos aparente, pérdida de objetividad. Sin embargo está claro que, sobre todo en la toma de decisiones, los juicios sobre una técnica terapéutica, un nuevo fármaco, la posibilidad de aparición de efectos adversos, etc nunca se fundamentan únicamente en los resultados de un solo estudio concreto. Hay que tener presente que el término a priori no implica necesariamente una relación temporal en el sentido de que corresponda a una información obtenida con anterioridad a nuestro estudio, sino que se refiere, en un sentido más amplio, a la información externa a nuestro estudio. Existen diferentes procedimientos para formalizar la distribución de probabilidad a priori y algunos autores recomiendan no limitarse a un sólo método para cuantificarla, sino utilizar varios de ellos con el fin de evaluar cómo se modifican la conclusiones en cada caso. Es lo que se conoce como análisis de sensibilidad. Desde el punto de vista probabilístico o matemático de la cuestión existen tres métodos fundamentales para establecer la distribución de probabilidad a priori: distribución no informativa o de referencia, que corresponde a una ausencia de opinión o de conocimiento clínico a priori y por lo tanto no aporta información a lo que se observa en los datos. Distribución a priori escéptica, que considera que la probabilidad de que la hipótesis alternativa sea cierta (existe diferencia entre los grupos) es muy pequeña. Y distribución a priori entusiasta, que tiene razones fundadas para encontrar diferencias, por lo que determina que la probabilidad de que éstas sean 0 o peor en el grupo de interés tiene una probabilidad muy baja. El problema radica en que la especificación y cuantificación de la distribución a priori no es una tarea sencilla, especialmente cuando se trata de modelos con más de un parámetro, como pueden ser los modelos de regresión. Por otro lado existe un cierta reticencia por parte de los investigadores a incorporar una distribución a priori con suficiente información, por temor a la posibilidad de que se les acuse de subjetividad.
Campos de aplicación Aunque la estadística clásica ha supuesto y supone una importante aportación de rigor metodológico en la investigación médica, su utilización encorsetada y dogmática la aleja de su verdadera misión como herramienta y no como ciencia en sí misma. Cada vez son más las voces que abogan por la renovación y la frescura que aporta el enfoque bayesiano, más cercano a la forma natural de pensamiento y al propio devenir
del avance científico. Comenta un epidemiólogo que cuando los médicos comunican de manera informal sus resultados (en charlas, reuniones), el balance entre la biología, la metodología, los datos y el contexto es adecuado en la mayoría de las ocasiones. Hay un énfasis en la presentación de una "historia" coherente desde el punto de vista epidemiológico o fisiológico. Sin embargo esa sensibilidad se olvida a menudo cuando la información se refleja en las publicaciones, donde la estructura de presentación es mucho más rígida y donde los resultados estadísticos, con su cortejo de P, cobran mucha mayor relevancia. Sin embargo basta efectuar una búsqueda en Medline para comprobar que la utilización de la metodología bayesiana está muy lejos de ser frecuente. El área de aplicación de la metodología bayesiana es la misma que la de la estadística clásica o frecuentista, pero hay determinadas situaciones en la que su utilización presenta indudables ventajas. Seguidamente vamos a comentar alguna de ellas.
Estudios de equivalencia Se denomina así a aquellos estudios en los que se trata de verificar la hipótesis nula, es decir que lo que realmente esperamos es que los tratamientos sean de eficacia similar, aunque uno de ellos presenta otro tipo de ventajas en otras cuestiones que ahora no son el objetivo del análisis, por ejemplo es menos agresivo, o es más barato o tiene menos efectos adversos, o es de más fácil cumplimiento. Aquí el planteamiento frecuentista resulta un poco retorcido, puesto que la hipótesis nula no se puede probar, sólo se puede rechazar, y ya sabemos que con un tamaño de muestra suficiente siempre podemos rechazar la hipótesis de igualdad. Por lo tanto el enfoque bayesiano resulta mucho más natural.
Monitorización de ensayos clínicos En los ensayos clínicos que implican observaciones a lo largo de un determinado periodo de tiempo, a medida que éste transcurre se va disponiendo de más información, de tal manera que en algún momento intermedio del estudio la evidencia de los datos puede indicar que un tratamiento es claramente muy superior al otro, por lo que puede no ser ético seguir asignando pacientes al tratamiento inferior. Y esto es especialmente importante cuando estamos hablando de enfermedades con una elevada probabilidad de muerte que puede ser mucho mayor en el grupo de pacientes asignado al tratamiento inferior. O por el contrario, se comprueba que no hay diferencias apreciables entre ambos y quizás no sea razonable seguir gastando esfuerzos y dinero adicional en el estudio. Por ello en el protocolo de muchos ensayos clínicos se indica explícitamente el número y momento en el que se realizarán análisis intermedios de los datos recogidos hasta la fecha, e incluso éstos se efectúan por un Comité de Monitorización independiente. Pero hay un gran riesgo en parar un ensayo clínico antes de reunir el tamaño de muestra inicialmente previsto para su finalización, ya que el objetivo de cualquier estudio es reunir evidencia para transmitirla a otros con el fin de influir en su práctica clínica, por lo que quizás un enfoque frecuentista de la cuestión, basado únicamente en unas normas para detener el ensayo,
justificadas en base a un nivel de significación estadístico, no es suficiente y en cambio es interesante incorporar ese conocimiento previo en el proceso, ya que es el que se pretende modificar y habrá que acumular suficiente evidencia frente a lo que se sabe o se cree saber y no frente a la hipótesis nula.
Meta-análisis El núcleo central del enfoque bayesiano radica en determinar cómo actualizar cuantitativamente los conocimientos probabilísticos que tenemos de un fenómeno, por lo que parece lógico que en el campo de los meta-análisis, en el que se combina información sobre diferentes estudios, también sea de utilidad ese planteamiento. Dado el auge de la meta análisis dentro de la corriente de medicina basada en la evidencia, es lógico pensar en cada ensayo clínico como un escalón más en la escalera del conocimiento -o de la evidenciaantes que como algo aislado y auto contenido.
Evaluación de datos locales La posibilidad de efectuar macro estudios no es asequible a cualquier investigador, sin embargo sus propios datos recogidos en un diseño correcto también contienen información valiosa. Con un enfoque frecuentista el obtener un nivel de probabilidad de 0.03 o 0.01 es irrelevante en cuanto a las conclusiones que se transmitan en la discusión de resultados por el investigador, pero si el valor de P que obtiene es 0.07 las cosas cambian radicalmente ya que al no haber obtenido un valor de p inferior a 0.05 el investigador ya no puede poner tranquilamente el marchamo de "se obtuvieron diferencias estadísticamente significativas". Las conclusiones que ahora exponga van a depender de sus convicciones en cuanto a la validez de la hipótesis del estudio y por lo tanto estará aplicando, sin cuantificar, un enfoque bayesiano de la cuestión. Si es partidario de la hipótesis alternativa dirá que el nivel de P obtenido no llegó a ser estadísticamente significativo pero probablemente se hubiera alcanzado con una muestra mayor. Esto después de haber buscado -sin éxito- algún otro modelo o técnica estadística que le permitiera llegar a la conclusión que va buscando (Todo investigador va buscando algo o es un insensato). Mientras que si es partidario de la hipótesis nula dirá que no hay evidencia muestral suficiente para rechazarla. ¿Es ésta la objetividad de la estadística clásica? Y ¿hay acaso alguna razón para rechazar ese sentimiento? El que esté libre de culpa que tire la primera piedra. Parece más que sensato aplicar un enfoque bayesiano en estas situaciones y si, como a menudo suele ocurrir, existen trabajos similares sobre el tema incluirlos en el razonamiento probabilístico y comprobar cómo nuestro estudio modifica o corrobora el conocimiento previo o externo. Por otro lado parece más lógico utilizar un razonamiento continuo, no dicotómico de aceptación y rechazo, ya que no resulta fácil de aceptar la misma hipótesis nula con una P de 0.1 que con un valor de 0.8. La realidad cotidiana nos dice que pocas personas (¿hay alguna?) toman decisiones de esa manera.
Adaptación de modelos a un nuevo entorno A menudo nos encontramos ejemplos de utilización de modelos obtenidos en un entorno diferente al que se van a aplicar. Un ejemplo muy conocido lo constituye el archifamoso modelo de Framingham para el cálculo del riesgo cardiovascular. Se observa, como en el caso citado, que al utilizarlos en un contexto diferente de aquél en el que fueron obtenidos, se encuentran resultados más discrepantes con la realidad de lo esperado. Lo ideal sería diseñar modelos locales, pero es difícil reunir una casuística tan importante y de tantos años como la que éstos modelos incorporan. Existe una aproximación intermedia entre partir de cero o utilizar sin más el modelo importado. Aquí un enfoque bayesiano también puede ser interesante ya que podemos incorporar ese conocimiento en la distribución a priori y combinarlo con lo que dicen nuestros datos locales.
Elaboración de guías clínicas por un panel de expertos Una vez más se trata de incorporar conocimiento previo y de los expertos reunidos para obtener guías de actuación, o sea de toma de decisiones. La cuestión ahora es cómo combinar los datos de diferentes expertos para obtener unas recomendaciones de actuación clínica.
Teoría de juegos Los inicios Los inicios en teoría de juegos comenzaron con el trabajo de Cournot publicado en 1838, quien desarrolló los modelos de juegos de competencia monopolística. Cournot utilizó una metodología similar a la que utilizaría posteriormente Nash en un contexto de competencia entre empresas que venden el mismo bien, para encontrar equilibrios. Sin embargo, sería el libro publicado en 1944 por el matemático John Von Neumann y el economista Oskar Morgenstern titulado «Teoría de juegos y comportamiento económico» el que desarrollaría el campo de estudio de la teoría de juegos, en el que hoy en día trabajan muchos especialistas en todo el mundo. En el medio siglo transcurrido desde su formulación se ha sofisticado increíblemente aumentando los campos de su aplicación tanto en la economía, como en lo jurídico, político, socio-lógico, biológico o lo psicológico. En su libro, Von Neumann y Morgenstern habían resuelto el caso de los juegos no cooperativos en los que los dos jugadores eran rivales puros, es decir, el aumento de las ganancias de uno implica una disminución de igual cuantía para el otro (juego de «suma-cero»). Von Neumann, anteriormente había sido el primero en exponer la representación de la «forma normal» de un juego, y el primero en definir el concepto de estrategia en un juego. Sin embargo, en su definición de forma normal incluía dos restricciones muy importantes que Nash modificaría posteriormente: el hecho de que los pagos eran transferibles y que los juegos eran de suma cero. Las aportaciones de John Nash. La revolución que supusieron las aportaciones de John Nash a la teoría de juegos, comienza con un primer trabajo sobre la negociación entre dos agentes, que luego sería publicado en la prestigiosa revista Econométrica en 1950, bajo el nombre «The Bargaining
Problem». La contribución y el mérito de este trabajo son que, siendo todavía un joven estudiante de doctorado de la Universidad de Princeton, fue capaz de dar una solución al problema de negociación entre dos agentes asumiendo que la utilidad es no transferible, mientras que, como hemos apuntado anteriormente, en la literatura previa se asumía que la utilidad era transferible. Las contribuciones más relevantes de Nash a la teoría de juegos, no se hicieron esperar, y se recogen en sus estudios de su tesis doctoral, titulada «Noncooperative Games» (1950). Su mayor aportación y la más conocida fue el desarrollo de una definición de equilibrio general en todos los juegos de horizonte finito para un número arbitrario de jugadores y preferencias, y no solamente en juegos de suma cero con dos agentes, como se venía haciendo en la literatura previa. Este concepto de equilibrio, publicado bajo el nombre de «Equilibrium points in n-per-son Games» (1950), es lo que hoy en día se conoce como Equilibrio de Nash, definición a menudo utilizada en análisis económico y por la que obtuvo el Premio Nobel cuarenta y cuatro años más tarde de su publicación. Para dar esta definición, Nash tomó los juegos en forma normal tal como Von Neumann los definió, y modeló un proceso de negociación entre personas como un juego simultáneo simple, donde cada agente elige su estrategia óptima. Bajo estas premisas, el equilibrio de Nash se define como una combinación de estrategias, una para cada jugador del juego, tales que el pago que obtiene cada agente jugando esa combinación de estrategias es mayor o igual que el pago que conseguiría en cualquier otra combinación posible de estrategias que el pudiese escoger. Nash propuso dos interpretaciones para entender la definición de su equilibrio: una, basada en la racionalidad de los agentes y otra, en el comportamiento estadístico de poblaciones. La primera interpretación establece que, suponiendo que los agentes son racionales, y que la información sobre preferencias y posibles resultados de todos los jugadores son de dominio público, cada jugador puede calcular los pagos espera-dos de cada una de las posibles estrategias de sus contrincantes y ver cuál es la estrategia óptima de los otros jugadores. Si todos los agentes hacen lo mismo, todos esperan el mismo equilibrio de Nash y ninguno tiene incentivos a desviarse y jugar otra estrategia distinta. La segunda interpretación ha sido muy útil en ciencias como la biología para entender cómo operan los principios de la selección natural en la interacción dentro y entre especies. Aquí se encuentran los llamados «evolucionistas», que utilizan una metodología de análisis que recuerda las teorías de Nash. Además de aportar un nuevo concepto de equilibrio en los juegos de negociación en forma normal, Nash demostró (1950b), aplicando el teorema del punto fijo de Kakutani, que todos los juegos con un número finito de jugadores y un espacio de estrategias finito para cada jugador, tienen al menos un equilibrio de Nash en estrategias mixtas, resultado conocido como el Teorema de Nash. Tal y como hemos apuntado antes, hay un resultado de 1838 de Cournot que anticipa el teorema de Nash en un modelo particular de duopolio. En esa aplicación particular, Cournot demuestra la existencia de equilibrio, aunque el espacio de estrategias considerado por cada duopolista es infinito. De aquí se deriva que las hipó-tesis del teorema de Nash garantizan la existencia de equilibrio, es decir, son condiciones suficientes, pero no necesarias para encontrar un equilibrio como Nash lo definió. La gran diferencia entre el trabajo de Cournot y el de Nash radica en que Cournot no intentó en ningún momento generalizar su trabajo, sino que simplemente analizó un modelo de duopolio determinado, mientras que por el contrario, Nash dio toda una metodología general para analizar cualquier tipo de juego, utilizando su concepto de equilibrio y la forma normal de juego que definió Von Neu Mann
Nuevas contribuciones A la teoría de juegos Nash marcó un antes y un después en la teoría de juegos. Este autor utilizó su teoría en juegos no cooperativos bajo supuestos de información completa , un entorno estático y basándose en la forma normal de Von Neumann. Los estudios posteriores a Nash tomaron como punto de referencia su concepto de equilibrio y su metodología, pero introduciendo nuevas condiciones en los problemas que se plantean. La primera desviación del marco genérico que creó Nash, fue la que surgió al considerar juegos dinámicos, es decir juegos que se repiten un número finito o infinito de veces, manteniendo el resto de condiciones, es decir, agentes plenamente racionales e información completa. A la hora de estudiar este tipo de juegos dinámicos aparecieron las limitaciones de la forma normal de Von Newman, lo que llevó a un estudio más profundo de la forma extensiva, llevada a cabo por Kuhn en sus trabajos de 1950 y 1953. Aunque los juegos de decisiones sucesivas pueden representarse bajo la forma normal, los aspectos dinámicos del juego resultan más fáciles de analizar si se representan en forma extensiva. Son ejemplos clásicos de juegos dinámicos el modelo de Stackelberg (1934) o el modelo de negociación de Rubinstein (1982). El problema de algunos juegos dinámicos es que incorporan muchos equilibrios de Nash, alguno de los cuales se basa en promesas o amenazas no creíbles, que resultan irracionales cuando se analizan en forma extensiva. Reinhard Selten (1965) analizó este problema y, como respuesta, desarrolló el primer refinamiento del concepto del equilibrio de Nash: el equilibrio de Nash perfecto en sub juegos. Este concepto de equilibrio permite obtener los equilibrios de Nash, para juegos tanto en forma normal como en forma extensiva, que pasan la prueba de la credibilidad. La segunda desviación del marco teórico de Nash, fue desarrollada por Harsanyi (1967, 1968), quien consideró juegos de información incompleta, o lo que es lo mismo, juegos donde existen asimetrías de información entre los jugadores, y que pueden ser considerados en un marco estático o dinámico. A este tipo de juegos de información imperfecta, se les denomina «juegos bayesianos» y se caracterizan porque al menos un agente no conoce la función de pagos de los otros agentes. Para resolver este problema, Harsanyi estableció que el agente que no conoce las ganancias de otro agente, tiene ciertas expectativas de que ese agente sea de un tipo u otro/s. De esta forma, dicho agente asigna probabilidades a cada uno de los posibles tipos de contrincante, caracterizados por las funciones de ganancias esperadas. Harsanyifue capaz de dar respuesta a estos juegos en un entorno estático, refinando de nuevo el equilibrio de Nash, y definiendo el concepto de equilibrio bayesiano de Nash. Un claro ejemplo de un juego bayesiano estático es el tipo de juegos que se producen en las subastas de sobre cerrado. En este tipo de subastas los agentes conocen sus propias valoraciones de los bienes, pero no conocen las de los demás. De esta forma cuando escriben su apuesta en el sobre cerrado, es decir, cuando tiene lugar el juego, ningún agente sabe cuáles son las valoraciones del bien de los otros. Como hemos dicho, los juegos bayesianos pueden ser estáticos y dinámicos. Para resolverlos juegos bayesianos en un entorno dinámico se refinó el concepto de equilibrio bayesiano, desarrollándose el concepto de equilibrio bayesiano de Nash perfecto en sub juegos, y estableciendo una similitud equivalente a la del equilibrio de Nash perfecto en sub juegos para juegos estáticos con información completa. David Kreps y RobertWilson (1982) aportaron el aspecto crucial del equilibrio bayesiano perfecto en sub juegos:
formalmente el equilibrio no solo viene caracteriza-do por una estrategia para cada jugador, sino también se incluyen unas creencias para cada jugador en cada conjunto de información en el que el jugador tenga que jugar. Estos dos autores definieron el equilibrio secuencial, un concepto de equilibrio equivalente al equilibrio bayesiano perfecto en muchas aplicaciones económicas, pero en algunas otras es un concepto más restrictivo. Precisamente, los ejemplos económicos más interesantes tienen lugar para juegos bayesianos que se desarrollan en un entorno dinámico y se aplican fundamentalmente en los juegos de señalización. Los juegos de señalización sirven para describir problemas económicos reales y su litera-tura comienza con el modelo de Spence (1973) que se produce entre un trabajador y un empresa-rio. El trabajador tiene una información privada sobre su productividad, que el empresario desconoce, con lo cual es necesario que el trabajador emita una señal que, en este caso será la educación, para indicar su tipo. Según la señal emitida, el empresario elige una determinada acción, que será el nivel salarial pagado al trabajador. Por último, cabe destacar que la interpretación de la forma normal fue modificada por Robert Aumann en 1974. Nash establecía que el intercambio de información entre los participantes de un juego debería ser entendido como otro movimiento del juego. Sin embargo, Aumann transformó esta interpretación definiendo el equilibrio correlacionado, para juegos donde las decisiones pueden estar correlacionadas. En este caso, se permite a los agentes obtener información antes de elegir sus propias estrategias, pero esto no se considera otro movimiento del juego. La ampliación del equilibrio correlacionado a los equilibrios bayesianos perfectos permitió el desarrollo del mecanismo directo de incentivos compatibles, muy utilizados actualmente en el análisis de la economía de la información. Mención aparte merece el trabajo de Schelling (1960) quien trata de interpretar la multiplicidad de equilibrios mediante su teoría de «focal-point efecto». Según Schelling, cuando existen múltiples equilibrios los jugadores pueden centrar-se en algún aspecto del juego que determine un equilibrio particular. En ese caso, las circunstancias que rodean el juego y que son de conocimiento público por parte de los agentes pueden llevar a que se produzcan acuerdos entre ellos y determinar el equilibrio final del juego. Myerson estable-ce que este «focal-point effect» es probablemente más útil para entender situaciones reales de negociación que la solución de equilibrio de Nash.
Un ejemplo real de aplicación de teoría de juego Una de las áreas económicas donde la teoría de juegos ha tenido más impacto en los últimos. Tiempos, es el de las subastas. Una subasta es un mecanismo que permite vender un determina-do objeto entre un número de compradores que desea comprarlo. Si una subasta se modela como un juego estratégico, los jugadores del juego son los posibles compradores; las acciones de cada jugador son el conjunto de posibles apuestas; y la función de pagos de cada agente, vendrá dada por su valoración del bien menos el precio que debe de pagar. Las subastas constituyen, junto con los juegos de señalización, uno de los casos más importantes de aplicación de juegos con información incompleta en la economía. Es un caso de información incompleta, en la medida que las valoraciones que tienen del bien los jugadores son desconocidas. Hoy en día muchos organismos utilizan las subastas como método de adjudicación de licencias. Por ejemplo, los Gobiernos han utilizado las subastas como medio para vender las licencias de telefonía móvil, para operar en los mercados
des-centralizados de electricidad, para privatizar empresas, etc. En Estados Unidos desde 1994, la Federal Communications Commission utiliza las subastas para dar licencias del espectro electro-magnético (electromagnetic spectrum). En Europa, uno de los casos que ha generado más controversia últimamente es el de las subastas llevadas a cabo para adjudicar las licencias de telefonía móvil de tercera generación. En esta sección vamos a explicar únicamente cómo se han diseña-do algunas de estas subastas, sin entrar en la polémica suscitada. Los gobiernos de nueve países europeos han adjudicado las licencias de telefonía móvil de acceso a Internet mediante el sistema de subastas. Los diseños de estas subastas han sido distintos en cada país y, de este modo, los resultados obtenidos también. A modo de ejemplo, vamos a describir el tipo de subasta utilizado por el gobierno inglés, aun-que otros países como Italia, Suiza y Holanda también han utilizado el mismo sistema de subas-tas, aunque con algunas variaciones. Reino Unido fue el primer país que subastó las licencias de UMTS mediante el método de las subastas, y uno de los que más beneficios han obtenido. Se subastaron cuatro licencias y el sistema utilizado fue el de una subasta tipo Anglo-Dutch que resulta de la combinación de dos modelos de subasta: una subasta tipo holandés (Dutch), también llamada «subasta de primer precio» (denominada en inglés «sealed-bid auction») y una subasta tipo inglés, también llamada «subasta ascendente». En la «subasta de primer precio» el subastador empieza anunciando un precio alto. El precio se va rebajando gradualmente hasta que un comprador lo detiene. Por su parte, el modelo de «subasta tipo inglés» es el que se suele utilizar para ven-der cuadros y obras de arte, y se caracteriza porque el subastador fija un precio muy bajo, y los apostantes empiezan a subir su apuesta hasta que nadie da más, y la subasta se adjudica al máximo postor. Para adjudicar las cuatro licencias de telefonía móvil, el gobierno inglés estableció que la puja comenzase con el tipo de subasta «ascendente» hasta que quedasen cinco apostantes. Las compañías realizaban varias pujas al día de forma similar a una partida de cartas, y debían igualar la oferta más alta para seguir concursando. A medida que pasaban los días algunas empresas se iban retirando del concurso, dado que su valoración del bien, era inferior al precio que se iban subas- ando. Al final quedaron cinco empresas concursantes con las cuales se realizó una subasta de tipo holandés para las cuatro licencias. Partiendo del nivel de precios corriente, se iban reduciéndolas apuestas gradualmente hasta que las compañías detenían la subasta y se quedaban con la licencia. El objetivo de combinar los dos tipos de subastas, era el de evitar colusiones entre las distintas empresas y alcanzar la máxima eficiencia y el máximo beneficio. Por último, señalar que fuera del contexto eco-nómico la teoría de juegos también ha servido para analizar problemas y conflictos sociales. En este sentido, podemos destacar el trabajo de Cas-tillo y Salazar (2001), quienes analizan el conflicto armado colombiano mediante la teoría de juegos, estudiando las estrategias de todos los agentes que intervienen: la población civil, los paramilitares, el Gobierno, etc.
ANALISIS DE LOS METODOS DE TRANSPORTE TRADICIONALES Con el crecimiento de los intercambios internacionales, y la distribución geográfica de los mercados, los transportes desempeñan un rol muy importante en la vida de la empresa. Aunque hay empresas que sólo se plantean la localización una vez en su historia, hay otras que, a menudo se tienen que enfrentar a este
problema, teniendo en cuenta que continuamente están cambiando los mercados, los gustos y preferencias de los consumidores, las tecnologías, etc., por esto las decisiones de localización forman parte del proceso estratégico de la empresa, ya que de ello depende, muchas veces, su futuro. El objetivo fundamental de la localización, es la elección de un lugar en donde se desarrollen las operaciones de la empresa de una manera efectiva, esto implica realizar unas inversiones importantes, de tal modo que si la empresa tiene problemas en el desarrollo de su actividad motivados por una mala ubicación, producirá graves pérdidas a la empresa porque tendrá que desinstalarla y volverse a plantear una nueva ubicación si quiere seguir sus operaciones. A la hora de tomar la decisión de ubicar la empresa en un lugar u otro, se tienen que tener en cuenta toda una serie de factores y, algunos de ellos, pueden ejercer mayor influencia que otros, porque todos no pueden ser tenidos en cuenta, así hay empresas que se localizan cerca del lugar donde se encuentran las materias primas, otras se localizan cerca del mercado y, finalmente, otras puede que tengan que ubicarse teniendo en cuenta factores que más repercuten sobre el proceso de elaboración del producto. Existen muchos métodos para ayudar a decidir sobre la ubicación idónea, pero en el caso de que la empresa disponga de varias factorías ubicadas en distintos lugares produciendo un único producto y operando en distintos mercados, se plantea la problemática de buscar la distribución óptima con el menor coste de transporte posible. Para ello existen igualmente distintos métodos de transporte y vamos a analizar a continuación algunos de ellos con un ejemplo común para todos. Supongamos que tenemos tres factorías, que fabrican un solo producto, ubicadas en tres lugares distintos: Soses, El Masnou y Tortosa con 800, 800 y 400 unidades de capacidad de producción, respectivamente, y operan en tres mercados distintos: Barcelona, Tarragona y Lérida, con una capacidad de absorción de 600, 700 y 700 unidades, respectivamente. Los costes unitarios de Transporte (expresados en euros) desde cada factoría a cada centro de distribución vienen representados en la siguiente matriz:
1.1.
BARCELONA
TARRAGONA
LERIDA
SOSES
3
6
2
EL MASNOU
2
3
5
TORTOSA
6
4
8
METODO DE LA ESQUINA NOROESTE
Consiste en enviar la mayor cantidad posible de producción empezando por la parte superior izquierda, es decir, de izquierda a derecha y de arriba a abajo, independientemente de cual sea el coste unitario de transporte y, teniendo en cuenta el máximo de disponibilidades de cada factoría y la máxima capacidad de absorción de cada uno de los mercados, de la siguiente manera: BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
SOSES
3
6 600
MASNOU
2
2
3
5 500
TORTOSA DEMANDA
800
200
6
4
600
800 300
8
400
400 700
700
2000
A continuación calcularemos el coste total de transporte: CT11 = 3. 600 + 6. 200 + 3. 500 + 5. 300 + 8. 400 = 9.200 euros (Primera solución básica) Para saber si esta solución es la mejor y, por tanto, la óptima, tenemos que aplicar el método de Steeping Stone, el cual puede emplearse siempre que el número de casillas ocupadas sea igual a: m + n -1, donde n es el número de filas y m es el número de columnas. Si el número de casillas ocupadas es menor que m + n -1, estamos en presencia de un problema degenerado, que también se podría resolver, pero no es nuestro caso puesto que 3 + 3 -1 = 5 (que coincide con el número de casillas ocupadas en la tabla). Por tanto, debemos de ir probando nuevas rutas, de manera que, tomamos una de las casillas que en la tabla está vacía, dejando el resto de casillas que en la primera solución básica también lo están, y ajustando las casillas que en esa tabla están llenas. Probaremos, primero, con una sola unidad calculando el coste total unitario de transporte. En el caso de que nos dé positivo, quiere decir que esa solución es peor que la anterior; si da igual a cero, quiere decir que esa solución es igual a la anterior y, si da negativo quiere decir que la solución es mejor que la anterior. Directamente vamos a hallar el coste total unitario de transporte para cada posible solución: CTU13 = +2 -5 +3 -6 = -6 (Solución mejor que la anterior) CTU21= +2 -3 +6 -3 = 2 (Solución peor) CTU31= +6 -8 +5 -3 +6 -3 = 3 (Solución peor) CTU32= +4 -8 +5 -3 = -2 (Solución mejor) Hay dos mejores soluciones, una es la ruta de Tortosa a Tarragona , teniendo en cuenta el número de unidades a enviar como máximo, que serían de 400 unidades y el menor coste unitario, que es de -2 euros, no nos proporcionaría tan buen resultado como la otra que es la de Soses a Lérida (ruta13), por tanto, vamos a enviar la mayor cantidad posible de producción a esa ruta, que representa un coste menor unitario de -6 euros, ajustando el resto de casillas que en la solución anterior estaban llenas, y en este caso, podremos enviar a esa ruta sólo 200 unidades porque nos vemos limitados por la ruta de Soses a Tarragona (ruta12):
SOSES
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
600 MASNOU
2
200 3
5 700
TORTOSA DEMANDA
6 600
4 700
Volvemos a calcular el coste total de transporte, que es el siguiente:
800 100
8 400 700
400 2000
CT13= 3. 600 + 2. 200 + 3. 700 + 5. 100 + 8. 400 = 8.000 euros (Segunda solución básica) Volviendo a repetir el proceso anterior, para una sola unidad tendremos: CTU12= +6 -2 +5 -3 = 6 (Solución peor que la anterior) CTU21= +2 -5 +2 -3 = -4 (Solución mejor) CTU31= +6 -8 +2 -3 = -3 (Solución mejor) CTU32= +4 -8 +5 -3 = -2 (Solución mejor) Vemos que hay tres mejores soluciones, debemos enviar el máximo de unidades posibles a esas rutas, a la de El Masnou a Barcelona (ruta21), en la que sólo podemos enviar 100 unidades, a la ruta de Tortosa a Barcelona (ruta31 ) 400 unidades, al igual que a la ruta de Tortosa a Tarragona(ruta32), pero de todas ellas la mejor es la ruta de Tortosa a Barcelona (ruta31), que, en este caso, enviaremos 400 unidades porque nos vemos limitados por la ruta de Tortosa a Lérida(ruta33), aunque el menor coste unitario sea de -3 euros, por tanto, tendremos: BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
SOSES
200 MASNOU
600
2
3
5 700
TORTOSA
6
800 100
4
8
400
700
700
2000
400 DEMANDA
600
Calculando el coste total: CT31= 3. 200 + 2. 600 + 3. 700 + 5. 100 + 6. 400 = 6.800 euros (Tercera solución básica) Volviendo a repetir el proceso, tendremos: CTU12= +6 -2 +5 -3 = 6 (Solución peor que la anterior) CTU21= +2 -5 +2 -3 = -4 (Solución mejor) CTU32= +4 -6 +3 -2 +5 -3 = 1 (Solución peor) CTU33= +8 -2 +3 -6 = 3 (Solución peor) La solución mejor es la ruta de El Masnou a Barcelona (ruta1), por lo que enviaremos el máximo de unidades posibles a esa ruta, que serán de 100 unidades porque nos vemos limitados por la ruta de El Masnou a Lérida (ruta23), y tendremos:
SOSES
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
100 MASNOU
2
700 3
5
800
4
8
400
700
700
2000
100 TORTOSA
6
700
400
DEMANDA
600
El coste total de transporte serรก de: CT21= 3. 100 + 2. 700 + 2. 100 + 3. 700 + 6. 400 = 6.400 euros (cuarta soluciรณn bรกsica) Repitiendo el proceso anterior: CTU12= +6 -3 +2 -3 = 2 (Soluciรณn peor que la anterior) CTU23= +5 -2 +3 -2 = 4 (Soluciรณn peor) CTU32= +4 -3 +2 -6 = -3 (Soluciรณn mejor) CTU33= +8 -2 +3 -6 = 3 (Soluciรณn peor) Por tanto enviaremos a la ruta de Tortosa a Tarragona (ruta32) el mayor nรบmero de unidades, que en este caso serรก de 400, puesto que nos vemos limitados por la ruta de Tortosa a Barcelona(ruta31), de manera que la nueva tabla queda de la siguiente forma:
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
SOSES
100 MASNOU
700
2
3 500
TORTOSA
5
800
8
400
700
2000
300
6
4 400
DEMANDA
600
700
El Coste total de transporte es: CT32= 3 . 100 + 2 . 700 + 2 . 500 + 3 . 300 + 4 . 400 = 5.200 euros (Quinta soluciรณn bรกsica) Volviendo a probar con una sola unidad para encontrar una soluciรณn mejor, tendremos: CTU12= +6 -3 +2 -3 = 2 (Soluciรณn peor que la anterior) CTU23= +5 -2 +3 -2 = 4 (Soluciรณn peor) CTU31= +6 -4 +3 -2 = 3 (Soluciรณn peor) CTU33= +8 -4 +3 -2 +3 -2 = 6 (Soluciรณn peor) Con lo cual no existe ninguna soluciรณn mejor que la quinta soluciรณn bรกsica, por tanto, la soluciรณn รณptima es la รบltima que hemos indicado en la tabla, representando un coste total de transporte de 5.200 euros.
METODO DEL COSTE MINIMO Consiste en detectar la ruta de menor coste, pero realizรกndolo por filas, de izquierda a derecha y de arriba a abajo, siguiendo con el ejemplo anterior obtendremos la primera soluciรณn bรกsica:
SOSES
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
100 MASNOU
2
3
700 5
800
600 TORTOSA
6
200 4
8
400
700
2000
400 DEMANDA
600
700
El Coste total de transporte es: CT13= 6. 100 + 2. 700 + 2. 600 + 3. 200 + 4. 400 = 5.400 euros (Primera solución básica) Para saber si esta solución es la mejor y, por tanto, la óptima, tenemos que aplicar igualmente el método de Steeping Stone,, que, en este caso, también puede aplicarse ya que m + n -1 es igual al número de casillas ocupadas, es decir, 3 + 3 -1 = 5 (tal como muestra la tabla).
Por tanto, también debemos de ir probando nuevas rutas, primero, con una sola unidad, calculando el coste total unitario de transporte. Recordemos que en el caso de que nos dé positivo, quiere decir que esa solución es peor que la anterior; si da igual a cero, quiere decir que esa solución es igual a la anterior y, si da negativo quiere decir que la solución es mejor que la anterior. Directamente vamos a hallar el coste total unitario de transporte para cada posible solución: CTU11 = +3 -6 +3 -2 = -2 (Solución mejor que la anterior) CTU23= +5 -2 +6 -3 = 6 (Solución peor) CTU31= +6 -4 +3 -2 = 3 (Solución peor) CTU33= +8 -2 +6 -4 = 8 (Solución peor)
La mejor solución es la ruta de Soses a Barcelona (ruta11) y, podemos enviar como máximo 100 unidades porque nos vemos limitados por la ruta de Soses a Tarragona (ruta12), así que la nueva tabla queda de la siguiente forma:
SOSES
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
100 MASNOU
2
700 3
500 TORTOSA
6
5
800
8
400
700
2000
300 4 400
DEMANDA
600
700
Por tanto, el coste total de transporte es: CT11= 3. 100 + 2. 700 + 2. 500 + 3. 300 + 4. 400 = 5.200 euros (Segunda solución básica) A continuación operaremos como en el método anterior: CTU12= +6 -3 +2 -3 = 2 (Solución peor que la anterior) CTU23= +5 -2 +3 -2 = 4 (Solución peor) CTU31= +6 -4 +3 -2 = 3 (Solución peor) CTU33= +8 -4 +3 -2 +3 -2 = 6 (Solución peor)
Vemos que no existe ninguna solución mejor que la segunda solución básica, por lo que la solución óptima es la última que hemos indicado en la tabla, representando un coste total de transporte de 5.200 euros , al igual que la solución óptima del método anterior, pero observamos que este método es más rápido.
METODO DEL COSTE MINIMO ESCALONADO Este método toma como base el método anterior, pero, en vez de considerar como primera solución básica el coste mínimo de izquierda a derecha, busca el coste mínimo, también por filas, pero bien de izquierda a derecha o bien de derecha a izquierda, dependiendo de dónde se encuentre el coste mínimo, de manera que vamos llenando el resto de las casillas en función de los costes unitarios inmediatamente superiores (de ahí el nombre de escalonado), tal como se muestra en la siguiente tabla:
SOSES
BARCELONA
TARRAGONA
LERIDA
CAPACIDAD
3
6
2
800
100 MASNOU
2
700 3
500 TORTOSA
6
5
800
8
400
700
2000
300 4 400
DEMANDA
600
700
Por tanto, el coste total de transporte es: CT13= 3. 100 + 2. 700 + 2. 500 + 3. 300 + 4. 400 = 5.200 euros (Primera solución básica) A continuación operaremos como en los métodos anteriores: CTU12= +6 -3+2 -3 = 2 (Solución peor que la anterior) CTU23= +5 -2 +3 -2 = 4 (Solución peor) CTU31= +6 -4 +3 -2 = 3 (Solución peor) CTU33= +8 -4 +3 -2 +3 -2 = 6 (Solución peor) Vemos que no existe ninguna solución mejor que esta primera solución básica, por lo que es, además, la solución óptima, representando un coste total de transporte de 5.200 euros. Observamos que, con este método, se puede llegar a obtener la solución óptima más rápidamente que con los métodos anteriores.
APLICACION DEL METODO DEL COSTE MINIMO ESCALONADO EN SITUACION DE INCERTEZA Vamos a considerar el supuesto de que estamos en una situación de incerteza, con lo cual, los costes unitarios de transporte son borrosos. Podemos considerar los costes unitarios en forma de intervalos de confianza, en forma de números borrosos triangulares o en forma de cuádruples de confianza. Considerémoslos en forma de intervalos de confianza aplicando el método del coste mínimo escalonado utilizando el mismo ejemplo que hemos estudiado en situación de certeza, aunque, obviamente, los costes unitarios de transporte serán distintos.
Supongamos, como en la situación anterior que tenemos tres factorías, que fabrican un solo producto, ubicadas en tres lugares distintos: Soses, El Masnou y Tortosa con 800, 800 y 400 unidades de capacidad de producción, respectivamente y, operan en tres mercados distintos: Barcelona, Tarragona y Lérida con una capacidad de absorción de 600, 700 y 700 unidades, respectivamente; los costes unitarios de transporte (expresados en euros) y, en forma de intervalos de confianza, desde cada factoría a cada centro de distribución vienen representados en la siguiente matriz: BARCELONA
TARRAGONA
LERIDA
SOSES
[2,4]
[3,6]
[2,3]
MASNOU
[1,3]
[3,5]
[4,7]
TORTOSA
[5,8]
[2,4]
[3,6]
Para aplicar el método indicado, utilizando los intervalos de confianza en los que el coste unitario está entre dos extremos, el inferior y el superior, debemos de calcular las medias de dichos intervalos, a fin de empezar a enviar el mayor número de unidades de producción desde cada factoría hasta cada centro de mercado:
De la fila uno, vemos que el menor coste unitario de transporte es la ruta de Soses a Lérida (ruta13) y a continuación la ruta de Soses a Barcelona (ruta11) y, por último la ruta de Soses a Tarragona (ruta12), con lo cual enviaremos, la mayor cantidad posible de producción siguiendo ese orden que será de 700, 100 y 0 unidades, respectivamente. En la segunda fila, el menor coste es la ruta de El Masnou a Barcelona (ruta21), luego la ruta de El Masnou a Tarragona (ruta22) y, por último, la ruta de El Masnou a Lérida (ruta23), con lo cual enviaremos 500, 300 y 0 unidades, respectivamente. Finalmente, en la tercera fila, el menor coste unitario corresponde a la ruta de Tortosa a Tarragona(ruta32), en segundo lugar, la ruta de Tortosa a Lérida (ruta33) y, por último la ruta de Tortosa a Barcelona (ruta31), por lo que enviaremos 400, 0 y 0 unidades, respectivamente, tal como muestra la siguiente tabla:
BARCELONA
SOSES
[2,4]
TARRAGONA
[3,6]
LERIDA
[2,3]
800
100 MASNOU
[1.3]
700 [3,5]
500 TORTOSA
[5,8]
CAPACIDAD
[4,7]
800
[3,6]
400
300 [2,4] 400
DEMANDA
600
700
700
2000
Por tanto, el coste total de transporte es: Z = (100) . 2, 4+ (700) . 2, 3+ (500) . 1, 3+ (300) . 3, 5+ (400) . 2, 4= 200, 400+ 1400, 2100+ 500, 1500+ 900, 1500+ 800, 1600= 3800, 7100(Primera solución básica) Calculando la media, obtenemos el siguiente resultado:
Para buscar una nueva solución, como en situación de certeza, debemos aplicar el método de Steeping Stone, pero en vez de probar con una unidad, directamente lo realizaremos enviando el mayor número de unidades a cada ruta, de la siguiente forma: Z12= (100). [3, 6]+ (700). [2, 3]+ (600). [1, 3]+ (200). [3, 5]+ (400). [2, 4]= [300, 600]+ [1400, 2100]+ [600, 1800]+ [600, 1000]+ [800, 1600]= [3700, 7100]
Z23= (600) . 2, 4+ (200) . 2, 3+ (300) . 3, 5+ (500) . 4, 7+ (400) . 2, 4= 1200, 2400+ 400, 600+ 900, 1500+ 2000, 3500+ 800, 1600= 5300, 9600 Calculando la media, obtenemos el siguiente resultado:
Z31= (100). 2, 4+ (700). 2, 3+ (100). 1, 3+ (700). 3, 5+ (400). 5, 8= 200, 400+ 1400, 2100+ 100, 300+ 2100, 3500+ 2000, 3200= 5800, 9500 Calculando la media, obtenemos el siguiente resultado:
Z33= (500). 2, 4+ (300). 2, 3+ (100). 1, 3+ (700). 3, 5+ (400). 3, 6= 1000, 2000+ 600, 900+ 100, 300+ 2100, 3500+ 1200, 2400= 5000, 9100
Calculando la media, obtenemos el siguiente resultado:
Por tanto, la segunda soluci贸n b谩sica es la ruta de Soses a Tarragona (ruta12) con un coste total de transporte de 5.400 euros, la tabla queda de la siguiente forma: BARCELONA
SOSES
[2,4]
TARRAGONA
[3,6]
LERIDA
[2,3]
800
100 MASNOU
[1.3]
[3,5] 600
TORTOSA
[5,8]
CAPACIDAD
700 [4,7]
800
[3,6]
400
200 [2,4] 400
DEMANDA
600
700
700
2000
Volviendo a repetir el proceso para buscar una soluci贸n mejor tendremos: Z11= (100). 2, 4+ (700). 2, 3+ (500). 1, 3+ (300). 3, 5+ (400). 2, 4= 200, 400+ 1400, 2100+ 500, 1500+ 900, 1500+ 800, 1600= 3800, 7100
Z23= (300). 3, 6+ (500). 2, 3+ (600). 1, 3+ (200). 4, 7+ (400). 2, 4= 900, 1800+ 1000, 1500+ 600, 1800+ 800, 1400+ 800, 1600= 4100, 8100 Calculando la media, obtenemos el siguiente resultado:
Z31= (100). 3, 6+ (700). 2, 3+ (200). 1, 3+ (600). 3, 5+ (400). 5, 8= 300, 600+ 1400, 2100+ 200, 600+ 1800, 3000+ 2000, 3200= 5700, 9500
Z33= (500). 3, 6+ (300). 2, 3+ (600). 1, 3+ (200). 3, 5+ (400). 3, 6= 1500, 3000+ 600, 900+ 600, 1800+ 600, 1000+ [1200, 2400]= [4500, 9100] Calculando la media, obtenemos el siguiente resultado:
El coste mínimo escalonado es un método alternativo a los otros métodos clásicos para la resolución del problema del transporte.
El método del coste mínimo escalonado permite llegar, casi siempre, a la solución óptima más rápidamente que con el método de la esquina noroeste y, en muchos casos, que con el del coste mínimo.
En situación de incerteza, utilizando las técnicas borrosas, para aplicar el método del coste mínimo y el coste mínimo escalonado, así como el de Houthakker, es necesario, previamente calcular la media de los intervalos de confianza o números borrosos triangulares o cuádruples de confianza, con el fin de conocer cuál es la media del coste mínimo unitario de cada ruta y poder empezar a aplicar dichos
El método de Monte Carlo Es una técnica numérica para calcular probabilidades y otras cantidades relacionadas, utilizando secuencias de números aleatorios. Para el caso de una sola variable el procedimiento es la siguiente: Generar una serie de números aleatorios, r1, r2,...,rm, uniformemente distribuidos en [0,1]Usar esta secuencia para producir otra secuencia, x1, x2,...,xm, distribuida de acuerdo a la pdf en la que estamos interesados. Usar la secuencia de valores x para estimar alguna propiedad de f(x). Los valores de x pueden tratarse como medidas simuladas y a partir de ellos puede estimarse la probabilidad de que los x tomen valores en una cierta región. Formalmente un cálculo MC no es otra cosa que una integración. En general, para integrales unidimensionales pueden usarse otros métodos numéricos más optimizados. El método MC es, sin embargo muy útil para integraciones multidimensionales Generación de números aleatorios Son necesarios para proporcionar la secuencia aleatoria inicial (uniformemente distribuida entre 0 y 1).Existen numerosos algoritmos de generación de números (pseudo)aleatorios. En particular, las diferentes variantes de RANLUX, disponibles en todas las bibliotecas matemáticas modernas (CERN, GSL, etc.) Un ejemplo sencillo es el algoritmo MLCG (multiplicative linear congruential generator) ni+1= (ani) modm,
ni
=
entero
a
=
multiplicadorm
=
módulon0
semillaa=3,m=7,n0=1→ni+1=(3ni)mod7n0=1n1=(3⋅1)mod7=3n2=(3⋅3)mod7=2n3=(⋅2)mod7=6n4=(3⋅6)md7 =4n5=(3⋅4)mod7=5n6=(3⋅5)mod7=1
La secuencia se repite!n1,n2...siguen una secuencia periódica en el rango[1,m-1]. En general se escoge a y m para obtener un periodo largo: Por ejemplo en una máquina de32 bits, m=2147483399, a=40692 proporcionan buenos resultados y el máximo periodo. Para obtener valores uniformemente distribuidos entre 0 y 1o usamos la transformación: ri =ni m La secuencia n1, n2...no es aleatoria, sino por el contrario determinista (y reproducible!) pero para todos los efectos puede considerarse como una secuencia de números aleatorios.
El método de transformación de variables Dados r, r2,..., rn, distribuidos uniformemente en [0,1] se trata encontrar un conjunto x1, x2,...,xm, distribuidos conforme a f(x) mediante una transformación x(r).Siendo: g(r)drla probabilidad de obtener un valor ren [r,r+dr]f(x)dx la probabilidad de obtener un valor x en el intervalo correspondiente a [r,r+dr],es decir [x(r),x(r)+dx(r)]Ambas probabilidades tienen que ser iguales Para determinar la transformación x(r)para la que la condición anterior se verifica puede imponerse (la receta no es única) que: P(r≤r')=P(x≤x(r'))es decir: g(r)dr=G(r')=r'=−∞r'∫f(x')dx'=−∞x(r')∫F(x(r'))Por lo tanto, para determinar x(r)la receta es: Igual a rF(x(r))=ry resolver para x(r) Ejemplo: Pdf exponencial: F (x; ξ)=1ξe−x/ξ, x≥0:RecetaIgualar1ξe−x'/ξ dx'=r0x∫y resolver para x(r)x(r)=−ξ log(1−r)Sir sigue Una distribución uniforme entre 0 y 1, x sigue una distribución exponencial, con media ξ
Método de aceptar/rechazar En muchos casos es difícil resolver analíticamente la ecuación que nos da x(r)por el método de transformación. En estos casos puede aplicarse el método de aceptar/rechazar (Von Neumann) Considerar una pdf que puede ser totalmente acotada por una “caja” (definida por x min, x máx. y la altura máxima f Max )Generar un número aleatorio x distribuido uniformemente entre [x min, x max]x=x min+ r1(x max-x min), r1uniforme en [0,1]Generar un segundo número aleatorio, u, uniformemente distribuido entre 0 y fmaxu=r2fmaxSi u<f(x) aceptar x. Si no, rechazar x y repetir. Ejemplo: F(x)=38(1+x2) Precisión del método de MC Cálculo MC = integración. Precisión ∼1/√n donde n es el número de valores aleatorios generados. Comparamos con otros métodos de integración numérica: Trapezoidal: Precisión ∼1/n2 Sin embargo para d dimensiones la precisión del método de MC es independiente de d (siempre ∼1/√n) mientras que, por ejemplo, la trapezoidal, ∼1/n2/d En resumen: Para d alta (d > 4 típicamente) el método MC da la mayor precisión
BIBLIOGRAFIA
http://teoriadecisiones.blogspot.com/2009/11/teoria-bayesiana.html
http://www.seh-lelha.org/bayes1.htm
http://es.wikipedia.org/wiki/Toma_de_decisiones
http://sauce.pntic.mec.es/~jpeo0002/Archivos/PDF/T08.pdf
http://www.programacionlineal.net/
http://www.monografias.com/trabajos6/proli/proli.shtml
http://www.monografias.com/trabajos6/proli/proli.shtml
http://www.elblogsalmon.com/conceptos-de-economia/que-es-la-teoria-de-juegos