Procesos Estocásticos y Cadenas de Markov

Page 1

Computational Intelligence for Financial Methods

Artículo núm 9.1

Procesos Estocásticos Cadenas de Markov

Escrito por:

Colaboradores:

Miguel Pérez Fontenla

Darío Lanza Vidal, Diseño e Imagen.

Febrero, 2015


Procesos Estocásticos Cadenas de Markov COPYLEFT Este material así como los applets, powerpoints, videos y archivos de sonido asociados, puede ser distribuido bajo los términos y condiciones definidos en Open Publication License versión 1.0 o posterior (La versión más reciente está disponible en http://www.opencontent.org/openpu b/). El contenido está sujeto a constantes cambios sin previo aviso. Su fin es didáctico y solo pretende la universalización de la cultura. Está escrito en base a la colaboración del equipo que compone Financial Methods. Se ha exigido a los autores que, en lo posible, referencien todas las fuentes utilizadas y que figuren en el texto. Cualquier distribución del mismo debe mencionar a Financial Methods como fuente.

Colaboran Grupo Financial Methods PI asesores AEFI VisualChart Alvaro Lanza Vidal Antonio Veiga Vidal Emilio Pedreira Vidal Elba Pérez Vidal Nicolás Deconté Demarsy Iván Jiménez M Teo Ramirez Cristina Pedreira Vidal Amando de Diego Espiñeira Javioer Inoges Cristina Simón Marco Mercedes López de Andujar Silvia Moreno Rapa Angel Leira Parrado Juan Zalvidea Perfecto García Vila

INDICE AUTORES Iniciado por Miguel Pérez Fontenla ourutopy@gmail.com

2


TABLA DE CONTENIDO

3


4


INTRODUCCIÓN Por lo general, cuando realizamos experimentos compuestos en n etapas, desconocemos a priori el número de etapas n que incluso podrían llegar a ser infinitas. Veamos unos ejemplos: Ejemplo 1 Un ejemplo podría ser un locutorio telefónico (de los de antes de los móviles) con 10 cabinas y queremos estudiar la probabilidad de que llegue alguien y las encuentre todas ocupadas, para lo cual construimos un histórico apuntando cada dos minutos el número de cabinas ocupadas. Obtenemos, pues, una sucesión de variables aleatorias X1, X2, X3, ..., Xn donde cada variable aleatoria Xi simboliza el número de cabinas ocupadas en el instante i. Este sería un ejemplo de proceso estocástico discreto Ejemplo 2 Supongamos que nos proponemos hacer una martingala para lo cual disponemos de un capital de 25,500€ (ahora veremos el por qué de esta cantidad) y nos vamos a un casino a jugar a una ruleta bien a rojo o bien a negro. Teniendo en cuenta que la ruleta tiene 37 números del 0 al 36 (ambos inclusive) y que el 0 supone ganancia para la banca, la probabilidad de rojo y negro es P = ( R)

P= (N )

18 37

5


La cuestión es hacer una primera apuesta de 100€ al rojo. Si ganamos, finaliza el juego y nos vamos con los 100€ de ganancia obtenidos. Si perdemos, realizamos una segunda apuesta de 200€ (duplicamos la anterior). Si en esta segunda apuesta ganamos, obtenemos 200€ a los cuales debo restar los 100€ perdidos en la primera jugada, por lo que obtenemos un premio de 100€ y finalizamos el juego. Si perdemos de nuevo la apuesta, apostamos de nuevo por 3ª vez la cantidad de 400€. Si ganamos, finaliza el juego, y obtenemos 400€ a los que debo restar los 300€ perdidos en las dos primeras apuestas, por lo tanto obtenemos un premio siempre de 100€. Así sucesivamente, nuestros 25,500€ nos permiten realizar hasta 8 apuestas consecutivas perdiendo siempre.

Num

Apuesta

Suma

1

100 €

100 €

2

200 €

300 €

3

400 €

700 €

4

800 €

1.500 €

5

1.600 €

3.100 €

6

3.200 €

6.300 €

7

6.400 €

12.700 €

8

12.800 €

25.500 €

Si en lugar de finalizar el juego en caso de ganar una de las apuestas, reiniciamos el juego al día siguiente partiendo de nuevo de la apuesta inicial de 100€, (suponemos que los otros 100€ suponen los gastos diarios del jugador) obtendríamos un proceso estocástico que podría tener infinitas etapas, lo que nos haría inmensamente ricos, pero tenemos una probabilidad de perder 8 veces seguidas lo que nos llevaría a la ruina. Este proceso estocástico puede tener infinitas etapas si nunca se produce situación de ruina. Este tipo de apuestas se denominan martingalas y los casinos se protegen contra ellas estableciendo límite de apuestas en cada mesa. Esta estrategia es simple e ingenua y suele abocar al jugador a la ruina. El nombre martingala se debe a los habitantes del pueblo francés de Martigues (martingales en francés) cercano a Marsella por ser considerados ingenuos y simplones (equivalente a los chistes de Lepe en España o de gallegos en Argentina o de irlandeses para los ingleses, o de Ostfriesen para los alemanes) Las estudiaremos con más detalle en un capítulo dedicado a ellas. 6


ANDRÉI MÁRVOV EXTRAÍDO DE HTTP://ES.WIKIPEDIA.ORG/WIKI/ANDR%C3%A9I_M%C3%A1RKOV FUENTE: ARCHIVO MACTUTOR, UNIVERSIDAD DE ST. ANDREWS. Andréi Andreyevich Markov (Rusia 1856–1922) nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1878 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la universidad fue discípulo de Pafnuti Chebyshov y tras realizar sus tesis de maestría y doctorado, en 1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo, a propuesta del propio Chebyshov. Diez años después Márkov había ganado el puesto de académico regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la universidad y, cuando el propio Chebyshov dejó la universidad tres años después, fue Márkov quien le sustituyó en los cursos de teoría de probabilidad. En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de la universidad, aunque siguió impartiendo algunos cursos sobre la teoría de la probabilidad. Aparte de su perfil académico, Andréi Márkov fue un convencido activista político. Se opuso a los privilegios de la nobleza zarista y llegó a rechazar las condecoraciones del propio zar en protesta por algunas decisiones políticas relacionadas con la Academia de Ciencias. Hasta tal punto llegó su implicación en la política que llegó a ser conocido con el sobrenombre de "el académico militante". Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordará principalmente por sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshov. Pero su aportación más conocida es otra: su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Markov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Markov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras.

7


Markov fue un profesor muy estricto pero también muy claro en sus exposiciones, y demandaba mucho rigor matemático en los argumentos de sus estudiantes. Markov desarrolló su teoría de cadenas de Markov desde un punto de vista matemático, aunque también aplicó su modelo en el análisis de estilos de escritura en poemas. Con sus trabajos sobre cadenas de Markov, fundó una nueva rama de la probabilidad e inició la teoría de los procesos estocásticos. Markov tuvo una salud muy precaria durante sus primeros años de vida, teniendo que caminar con muletas hasta la edad de 10 años debido a una malformación congénita en la rodilla. Márkov arrastró durante toda su vida problemas relacionados con esta malformación lo que le llevó varias veces al quirófano y que, con el tiempo, fue la causa de su muerte cuando el 20 de julio del año 1922 una de las muchas operaciones a las que se sometió le produjo una infección generalizada de la que no pudo recuperarse.

8


CAMINO ALEATORIO (RW random walk) Cuando se estudian los Mercados Financieros o, más concretamente, en Ingeniería Financiera (eso, si es que las Finanzas tienen algo de científico) uno de los conocimientos fundamentales que se debe asimilar es la teoría del Camino o Paseo Aleatorio (random walk). Vamos entonces a tratar de exponer el concepto y después a proponer una solución para simularlo bajo VBA y Microsoft Excel. Definición (Camino Aleatorio unidimensional) Veamos primero una definición simplificada a modo introductorio. Un Camino aleatorio unidimensional es un proceso a lo largo de un segmento [-m,n] que comienza en el punto 0 y, en cada unidad de tiempo establecida (paso), salta una longitud de una unidad a la derecha con probabilidad p o a la izquierda con probabilidad (1-p) de forma que si alcanza alguno de los puntos extremos queda atrapado indefinidamente en ese punto.

Ante esta definición surgen varias preguntas: •

¿Cuál es la probabilidad de que alcance algún extremo?

¿Cuántos pasos realizará, como media, para que alcance un extremo?

¿Cuál es la trayectoria más probable desde un punto determinado?

¿Cuál es la probabilidad de ir de un punto a otro en x pasos?

Partiendo de un punto de salida ¿en qué lugar esperado se encontrará tras x pasos?

Hay variantes de esta definición, por ejemplo, podríamos establecer que al tocar un extremo la partícula, en lugar de quedar atrapada, sea rechazada y enviada al punto contiguo o que salte a un punto intermedio para continuar después el proceso. En estos casos, resulta cautivador el estudiar la posibilidad de que el movimiento de la partícula se estabilice o bien que se convierta es estacionario. Una definición matemática más formal y generalizada sería Definición: Un camino aleatorio sobre un plano cartesiano, es un proceso que comienza en el punto del plano (0,0) y en cada paso de tiempo se mueve hacia arriba una cantidad fija con una probabilidad dada o hacia abajo con otra probabilidad dada.

9


Si las probabilidades de arriba y abajo son 0,5 cada una, el proceso se llama Camino aleatorio simétrico. Si el tamaño del paso hacia arriba y hacia abajo son iguales el proceso se llama camino aleatorio simple. Para una mayor comprensión añadimos el contenido de la Wikipedia al respecto: El camino aleatorio o paseo aleatorio, abreviado en inglés como RW (Random Walks), es una formalización matemática de la trayectoria que resulta de hacer sucesivos pasos aleatorios. Por ejemplo, la ruta trazada por una molécula mientras viaja por un líquido o un gas, el camino que sigue un animal en su búsqueda de comida, el precio de una acción fluctuante y la situación financiera de un jugador pueden tratarse como un camino aleatorio. El término camino aleatorio fue introducido por Karl Pearson en 1905. Los resultados del análisis de paseo aleatorio han sido aplicados a muchos campos como la computación, la física, la química, la ecología, la biología, la psicología o la economía. En particular en este último campo la teoría del paseo aleatorio de Burton G. Malkiel en su obra A Random Walk Down Wall Street (cuya traducción en español es Un Paseo Aleatorio Por Wall Street) se fundamenta en la hipótesis de los mercados eficientes, desarrollado en tres formas o hipótesis. En física, el modelo ha servido, por ejemplo, para modelar el camino seguido por una molécula que viaja a través de un líquido o un gas (movimiento browniano). En ecología, se emplea para modelar los movimientos de un animal de pastoreo, etc. Varios tipos diferentes de caminos aleatorios son de interés. A menudo, los caminos aleatorios se suponen que son cadenas de Márkov o procesos de Márkov, pero otros caminos más complicados también son de interés. Algunos caminos aleatorios están en gráficos, otros en la recta, en el plano, o en dimensiones mayores, mientras algunos caminos aleatorios están en grupos.

10


En su forma más general, los paseos aleatorios son cualquier proceso aleatorio donde la posición de una partícula en cierto instante depende sólo de su posición en algún instante previo y alguna variable aleatoria que determina su subsecuente dirección y la longitud de paso. Los caminos aleatorios también varían con respecto al tiempo. Casos específicos o límites de los paseos aleatorios incluyen la caminata de un borracho, el vuelo de Lévy y el movimiento browniano. Los paseos aleatorios están relacionados con los modelos de difusión y son un tema fundamental en la discusión de los procesos de Márkov. Varias propiedades de los paseos aleatorios incluyen distribuciones dispersas, tiempos del primer cruce y rutas de encuentro. Definición generalizada Digamos que X(t) define una trayectoria que empieza en la posición X(0) = X0 . Un paseo aleatorio se modela mediante la siguiente expresión:

X ( t += τ ) X (t ) + Φ (τ ) donde es la variable aleatoria que describe la ley de probabilidad para tomar el siguiente paso y es el intervalo de tiempo entre pasos subsecuentes. A medida que la longitud y dirección de un paso dado depende solo de la posición X(t) y no de alguna posición previa, se dice que el paseo aleatorio posee la Propiedad de Márkov. Comúnmente la distribución del paso será independiente de la posición o del tiempo transcurrido, una propiedad llamada homogeneidad. De cualquier modo, la formulación es extremadamente general. Los paseos aleatorios pueden ocurrir en cualquier número de dimensiones, ser parciales o imparciales, discretos o continuos en el tiempo y/o espacio, y pueden violar la homogeneidad en algún número de formas. Por ejemplo self-avoiding walks, nunca se interceptan ellas mismas, violando la propiedad de Márkov, mientras que los paseos que rebotan en un borde o están restringidos en su rango de algún modo son no homogéneos. Caso unidimensional Con la notación anterior un paseo simple, discreto y unidimensional en la recta numérica tiene y son variables aleatorias independientes con una distribución de Bernoulli un intervalo que toma valor +1 con probabilidad p y -1 con probabilidad 1-p en cada paso. Un paseo simple, discreto, unidimensional y sin sesgo tiene la misma probabilidad de ir a la derecha que a la izquierda, es decir p = 0.5 Una propiedad importante del paseo aleatorio discreto es que el promedio de la distancia en línea recta (el promedio de la distancia del desplazamiento desde el cero) entre el punto de partida y el punto final de un paseo unidimensional aleatorio de n pasos es del orden de más exactamente, su asíntota converge a

2n

π

n, o

≈ 0.8 n . Esto puede describirse mediante un

ejemplo. Suponiendo que tenemos una moneda que lanzamos al aire para determinar la dirección del paso. Si sale cara, nos movemos a la derecha, y si sale cruz a la izquierda. Después de cinco lanzamientos, podemos terminar en 1, -1, 3, -3, 5 o -5. Se puede terminar en 1 sacando tres caras y dos cruces en cualquier orden. Por tanto hay 10 maneras posibles de terminar en el 1. De manera simétrica existen 10 formas de terminar en -1 (sacando tres cruces y dos caras), 5 de terminar en 3 (sacando cuatro caras y una cruz) o en -3 (sacando cuatro veces cruz y una cara), 1 de terminar en 5 (sacando cuatro caras) y 1 de terminar en -5 (sacando cinco cruces), como ilustra el siguiente diagrama. 11


Como es de esperar en un paseo aleatorio no sesgado, el valor esperado es de 0 (la distancia media a la que se termina). Esto puede expresarse en el ejemplo anterior de la siguiente manera: 1×(10/32) + -1×(10/32) + 3×(5/32) + -3×(5/32) + 5×(1/32) + -5×(1/32) = 0. Así pues si queremos saber la distancia media que nos desplazamos desde cero en cualquier dirección, podemos usar la raíz cuadrada de los cuadrados. Cuando elevamos al cuadrado los valores esperados todos se vuelven positivos, de manera que no pueden cancelarse los positivos con los negativos. A esto se le llama el valor eficaz. Utilizando el ejemplo anterior, tomando cuadrados tenemos la siguiente expresión: (1)²×(10/32) + (-1)²×(10/32) + (3)²×(5/32) + (-3)²×(5/32) + (5)²×(1/32) + (-5)²×(1/32) = 5. Tomando la raíz cuadrada de la respuesta, encontramos que la distancia media del desplazamiento desde cero tras cinco pasos es la raíz cuadrada de 5. El resultado se puede generalizar a que la distancia media desplazada tras n pasos es exactamente

veces la longitud del paso.

Supongamos que trazamos una línea a cierta distancia del origen del paseo. ¿Cuántas veces cruzará el paseo aleatorio la línea? La solución es el siguiente teorema: para cualquier paseo aleatorio unidimensional, cada punto del dominio de definición de una función será casi seguramente cruzado un número infinito de veces. [En dos dimensiones esto equivale a decir que cualquier línea será cruzada un número infinito de veces.] Este problema tiene diversos nombres: el problema de cruce de niveles, el problema de recurrencia o el problema de la ruina del apostador. El origen de este último nombre es el siguiente: si un jugador con una cantidad finita de dinero juega a un juego no sesgado contra una banca con infinito dinero, siempre termina perdiendo. La cantidad de dinero del jugador efectuará un paseo aleatorio según vaya ganando o perdiendo, y siempre, en algún momento, alcanzará el 0 y el juego terminará. El número esperado de pasos hasta que el paseo aleatorio llegue hasta b o descienda hasta -a . La probabilidad de que el paseo aleatorio ascienda b pasos antes de descender a pasos es es El triángulo de Pascal también aparece en el análisis de probabilidades de paseos aleatorios unidimensionales. Observando las probabilidades, si obviamos el factor 1/2N, el patrón presente en esas probabilidades es el del triángulo de Pascal. Tras cero movimientos el único punto en el que se puede estar es el 0; tras un movimiento, podemos movernos a la izquierda o a la derecha de cero, lo que significa que es posible terminar en -1 o en 1. Tras dos movimientos, analizando el paso anterior, si partíamos de 1 podemos terminar en 2 o en 0, y si partíamos de -1 se puede terminar en -2 o en 0, así que hay una posibilidad de terminar en -2, dos de terminar en 0, y una de terminar en 2. Si se continúa el análisis de probabilidad, aparece el triángulo de Pascal.

12


n -5 -4 -3 -2 fo(n) 2 f1(n) 1 22 f2(n) 3 1 2 f3(n) 4 1 4 2 f4(n) 5 25 f4(n) 1

-1

0 1 2 3 4 5 1 1 1 2 1 3 3 1 6 4 1 10 10 5 1

Caso multidimensional Imaginemos ahora un borracho caminando aleatoriamente por una ciudad cuyas calles forman una malla cuadrada. En cada cruce, el borracho elige una de las cuatro posibles direcciones que dan a ese cruce (incluyendo aquella por la que ha venido) con la misma probabilidad. Formalmente, esto sería un paseo aleatorio sobre el conjunto de todos los puntos del plano con coordenadas enteras. El problema de saber si el borracho llegará eventualmente desde el bar a su casa, caminando al azar, tiene una respuesta positiva. Pero si realizamos un problema similar con 3 o más dimensiones, no sucede así. En otras palabras, un pájaro borracho podría vagar al azar por el cielo por siempre jamás sin encontrar nunca su nido. El modo formal de expresar este fenómeno en es que un paseo aleatorio es recurrente en dimensiones 1 y 2, mientras que en dimensiones superiores a 2 es transitorio. Esto fue probado por Pólya en 1921. La trayectoria de un paseo aleatorio es la colección de puntos por los que pasa, considerada como un conjunto que no tiene en cuenta cuándo el paseo llegó a ese punto. En una dimensión, la trayectoria es simplemente la colección de todos los puntos entre los puntos más remotos que alcanza el paseo (siendo ambos de media del orden de √n para un paseo de n pasos). Cuando se consideran más dimensiones el conjunto tiene propiedades geométricas interesantes. Por ejemplo, se obtiene un fractal discreto, consistente en un conjunto que muestra una autosimilitud estocástica a grandes escalas, mientras que visto de cerca presenta el aspecto cuadriculado que corresponde a la malla por la que se realiza el paseo.

13


Aplicaciones Algunas aplicaciones del camino aleatorio son: •

En genética de poblaciones, el camino aleatorio describe las propiedades estadísticas de la deriva genética.

En física, los caminos aleatorios son utilizados como modelos simplificados del movimiento browniano y difusión tales como el movimiento aleatorio de las moléculas en líquidos y gases. Véase, por ejemplo, la agregación limitada por difusión. Además, los caminos aleatorios y algunos de los caminos que interactúan consigo mismos juegan un papel en la teoría cuántica de campos.

En biología matemática, los caminos aleatorios son utilizados para describir los movimientos individuales de los animales, para apoyar empíricamente los procesos de biodifusión, y en ocasiones para desarrollar la dinámica de poblaciones.

En otros campos de las matemáticas, el camino aleatorio se utiliza para calcular las soluciones de la ecuación de Laplace, para estimar la media armónica, y para varias construcciones en el análisis y la combinatoria.

En informática, los caminos aleatorios son utilizados para estimar el tamaño de la Web. En la World Wide Web conference-2006, Bar-Yossef et al. publicó sus descubrimientos y algoritmos para lo mismo.

En el procesamiento de imágenes, los caminos aleatorios son utilizados para determinar las etiquetas (es decir, "objeto" o "fondo") para asociarlas con cada píxel. Este algoritmo se suele denominar como algoritmo de segmentación del camino aleatorio.

14


Relación con el movimiento Browniano Cuando en un paseo aleatorio unidimensional se disminuye la longitud del paso a valores muy pequeños se obtiene un proceso de Wiener, un proceso estocástico que se comporta como un movimiento browniano.

Paseo aleatorio simulado bidimensional asemejando un movimiento browniano. Para ser más precisos, si la longitud del paso es ε, se necesita que el paseo tenga longitud L/ε² para que se aproxime a un paseo de Wiener de longitud L. Según el límite de la longitud del paso tiende a 0 (y en consecuencia se aumenta el número de pasos necesarios para completar el paseo) el paseo aleatorio converge a un proceso de Wiener en un sentido apropiado. Formalmente si B es el espacio de todos los caminos de longitud L con la topología del máximo, y si M es un espacio de medida sobre B con la topología normada, entonces se tiene convergencia en M. De manera similar, un proceso de Wiener en varias dimensiones puede expresarse como el límite de un paseo aleatorio en las mismas dimensiones. Un paseo aleatorio es un fractal discreto, pero la trayectoria de un proceso de Wiener es un fractal auténtico, relacionado con el anterior. Por ejemplo, consideremos un paseo aleatorio de dos dimensiones que toca un círculo de radio r veces la longitud del paso. El número medio de pasos que el paseo dará dentro del círculo es de r². Esto es la versión discreta del hecho de que los paseos de Wiener bidimensionales tienen una dimensión de Hausdorff fractal de 2 En dos dimensiones el número medio de pasos que un paseo aleatorio da en el entorno de su . Esto se corresponde con el hecho de que el entorno del proceso de Wiener trayectoria es es un fractal de dimensión 4/3, como predijo Mandelbrot mediante simulaciones, y pudo finalmente probarse en el año 2000. 15


Pero ahora veamos un gráfico de un caso especial denominado geométrico, para ello

movimiento Browniano

En el gráfico verde, que nos puede resultar suficientemente familiar, se ha aplicado un movimiento browniano geométrico con parámetros media µ=0,5 y desviación típica σ=0,5 en cuyo significado profundizaremos más adelante. Ahora lo importante es que empieces a pensar en si ¿serán los mercados financieros un movimiento browniano geométrico aleatorio? Si la respuesta fuese afirmativa, cualquier estudio cuantitativo de los mismos empezaría a resultarnos banal. También la fórmula de Black-Scholes, con la que se calcula el precio de las opciones (derivados) europeas, está basada en el movimiento browniano geométrico.

 S − PV (d )  ln  PV (k )  1  x1 = + σ t 2 σ t Es importante recordar y conocer que el mal uso de esta fórmula propició una justificación matemática al complejo mundo de los productos estructurados que luego acabaron provocando el desplome de los mercados financieros en 2007 en lo que se llamó la burbuja financiera o la crisis subprime Los autores de esta joya de las matemáticas crearon un fondo de inversión en 1994 llamado Long-Term Capital Manadgement que acabo en un desastre ruinoso. A pesar de ello, a Fisher Black y a Myrton Scholes se les había otorgado el premio Nobel de Economía en 1998 por dicha fórmula y ésta se sigue empleando en la actualidad. Fuente: http://www.lavanguardia.com/economia/20120217/54255552033/ecuacionmatematica-causo-derrumbe-sector-financiero.html 16


Cómo simular un camino aleatorio Para una mayor simplicidad, simularemos un camino aleatorio simétrico. Se trata de un modelo muy sencillo donde cada Xi es una variable aleatoria que toma el valor +1 con probabilidad p y el valor -1 con probabilidad (1 - p) y se añade al valor de la v.a. previa. En notación matemática sería:

RW (n) = ∑ i =0 X i n

donde cada Xi es una variable aleatoria independiente e idénticamente distribuida. El algoritmo para R que calcula y dibuja un camino aleatorio es nfin<-1000 x<-1:nfin y<-1:nfin x[1]<-0 y[1]<-0 for(i in 2:nfin) { p<-runif(1,0,1) q<-rnorm(1,0.5,0.5) y[i]<-ifelse (p<0.5, y[i-1]+q, y[i-1]-q) } plot(x,y,type="l") Y aquí está el gráfico de un ejemplo de un camino aleatorio simple y simétrico de 1000 pasos

https://quanttutorials.wordpress.com/2013/05/30/what-is-brownian-motion/ 17


TEORIA DEL MERCADO EFICIENTE El concepto de mercado eficiente o hipótesis del mercado eficiente (en adelante, HME) (Efficient-market hypothesis (EMH)) surge de la idea de suponer que en la valoración o precio de un activo lleva implícito toda cuanta información existe sobre él.

Según esta teoría el precio es la situación de equilibrio producto de la competencia entre los intervinientes. En otras palabras, esta teoría mantiene la hipótesis de que todo el Análisis Fundamental, el Análisis Técnico, el comportamiento dinámico, la información privilegiada, la tendencia global del mercado, la información tendenciosa, las manipulaciones, todo, todo lo que pueda existir que influya en un activo financiero, está instantáneamente incluido en el precio de cotización. Ahora bien, esta teoría puede ser dulcificada gradualmente, por ello existen tres niveles

La hipótesis débil Si estamos en el nivel débil, supondremos que la cotización actual es correcta y refleja todo el pasado, luego lo que queda por venir no está reflejado y no es predecible porque nadie lo sabe (excepto información privilegiada no aplicada todavía). Según esta hipótesis, cualquier intento de predicción del precio futuro basado en precios históricos es inútil porque está a disposición de todos los intervinientes y todos la saben utilizar. Por ello hay una ausencia de leyes, reglas o pautas que permitan batir al mercado.

18


En conclusión, esta hipótesis viene a concluir que el Análisis Técnico es inútil. Por ello la búsqueda del Santo Grial, de encontrar concomitancias entre osciladores y precio que permitan adelantarse al mercado, es una absoluta quimera. Tampoco tienen cabida pues, la búsqueda de patrones de comportamiento, incluida la onda de Elliott. El único dato valorable para poder tomar decisiones en cuanto a la próxima cotización está únicamente en el precio actual a tiempo presente. Desde el punto de vista matemático, esta hipótesis mantiene que el comportamiento del precio sigue el modelo de Paseo Aleatorio (Random Walk) o, equivalentemente, un proceso estocástico denominado una Cadena de Markov, donde el precio siguiente al producido hoy será probabilísticamente independiente y aleatorio en magnitud y sentido. De ser esta hipótesis correcta, todo trader o todo sistema de trading que pretenda adivinar precios futuros está condenado al fracaso.

La hipótesis semifuerte ( o media) Según esta hipótesis el precio refleja, de forma instantánea, no sólo son los históricos sino también toda la información conocida disponible del activo, su contabilidad, sus resultados, sus proyectos, sus investigaciones, etc. Si la hipótesis anterior dejaba al Análisis Técnico como inválido, esta hipótesis media invalida toda utilidad al Análisis Fundamental. Solo es de utilidad lo que es desconocido para la masa de inversores. Ya lo decía Gordon Gekko en la película "Wall Street": "Venga chaval, dime algo que no sepa"

La hipótesis fuerte Esta hipótesis sostiene que el precio contiene de forma instantánea, no solo la información pública disponible sino, además, la información privada o privilegiada. En consecuencia, nadie sería capaz de obtener rendimientos mejores que los propios del mercado en base a un sistema de trading de cualquier tipo, incluyendo el uso de información prohibida. Y tiene su lógica, porque si tu fueses el CEO de una sociedad, nadie mejor que tu conoce tus proyectos, tu estado finan cierto, tus expectativas, tus debilidades y las estimaciones de tu futura proyección. Y si lo sabes tú, lo sabrá tu entorno, es decir, tu familia, tus amigos íntimos, etc. Y lo que vosotros hagáis moverá de una u otra manera el precio influyendo sobre esa Cadena de Markov que imprime ese movimiento aleatorio, deformándolo en alguna forma que lo deja incorporado a su cotización.

En la actualidad, la teoría de la HME admite que los intervinientes tienden a ser racionales pero mantienen que dentro de esa racionalidad habrá agentes qun sobreponderarán cada información y otros que la infravalorarán, resultando al final que cada noticia se interpretará siempre dentro de una distribución normal de modo que, en promedio, en el mercado nunca se 19


podrá actuar con ventaja. Igual que en los casinos, vaya. A menos que vengan la familia Pelayo a estudiar las ineficiencias de las ruletas o Rainman (Dustin Hoffman) a contar las cartas en el Black Jack.

Conclusiones Así pues, ninguna de estas afirmaciones para cualquiera de estas hipótesis resulta descabellada. Más bien todo lo contrario, resultan más que coherentes. Fíjate que:

• •

Se han realizado miles de estudios estadísticos por parte de las más prestigiosas mentes de las mejores universidades y éstos siempre concluyen en que el precio se comporta de forma aleatoria. En la evolución de los fondos de inversión a lo largo de su historia raramente se logra batir al propio mercado, que viene a ser el placebo comparativo. Os obvio que este juego se suma cero, a alguien le tiene salir mejor y a alguien peor, pero todos los estudios realizados durante fuertes tendencias que se hayan mantenido durante largos periodos, concluyen que prácticamente ningún trading de ningún fondo batió al propio mercado. Y si los hubo, hubo otros tantos perdedores que equilibran la situación. Los rendimientos de personas investigadas en USA proclives a haber usado información privilegiada demuestra que este uso es frecuente, sin embargo como toda la información financiera está disponible para todo el mundo, nada evita que los inversores que no manejan dicha información privilegiada puedan imitar a los que sí lo hacen. De hecho, una estrategia de inversión habitual es replicar lo que hacen los que más éxito tienen. O, simplemente, invertir donde invierten los mejores, o incluso a través de ellos mismos.

Esto justifica que muchísimos fondos se dediquen a ofrecer no más allá de un rendimiento que replique al propio índice subyacente y nunca garantizan rendimientos superiores a la media del mercado.

Un poco de historia Hoy en día, en la era del Trading de Alta Frecuencia, resulta intrigante el saber cuándo se empezaron a debatir estas hipótesis. La primera vez de la que se tienen referencias esta expresión del mercado eficiente fue en el año 1900, en un ensayo de Louis Bachellier. matemático francés pionero en matemática financiera, que fue el que modeló el denominado Movimiento Browniano (Brownian Motion) como un proceso estocástico, todo ello incluido en su obra "La teoría de la especulación" Igual que Ralph Elliott, su trabajo se sumió en el olvido hasta los años 1950, aunque diversos autores corroboraron previamente sus resultados como las llevadas a cabo por Alfred Cowles en los años 30 que concluye que los gestores profesionales. mayoritariamente, no eran capaces de obtener rendimientos superiores a los que lograba el índice. 20


Y paralelamente igual que ocurrió con la Teoría de la onda de Elliott, pero una década antes, en los 60s la hipótesis del mercado eficiente fue objeto de amplia controversia. Pero fue el economista Eugene Fama, profesor doctor (PhD que dicen en inglés) de la Escuela de Empresariales de Universidad de Chicago, entre 1965 y 1970 quién publicó la teoría tal y como la hemos expuesto aquí, incluyendo las hipótesis débil, media y fuerte, dándole rigor a las conjeturas empíricas planteadas por Louis Bachellier. Eugene Fama recibió en el 2013 el Premio Nobel de Economía. Otro premio Nobel, Paul Samuelson, publicó por aquel entonces, una "prueba" de esta hipótesis. Tanto Premio Nobel envuelto en el asunto no debe hacerte llegar a ninguna conclusión de veracidad. Recuerda siempre que otro Premio Nobel, Myron Scholes, creador de la fórmula de Black-Scholes acompañó al fondo de inversión asesorado por él, el celebérrimo LTCM, a una estrepitosa ruina. Por otra parte, ten siempre presente que en los Mercados Financieros ni las pruebas son pruebas, ni las reglas son reglas, y mucho menos las leyes son leyes. Estas palabras son simples eufemismos que tratan de dar rigurosidad a algo que no lo tiene. Y siguiendo nuestra historia, desde Eugene Fama muchos economistas han aportado estudios a esta teoría, unos a favor, otros en contra. Algunas cosas se comprobaron estadísticamente, por ejemplo que el anunciar cada año subidas de dividendos hace menos aleatorio el camino a recorrer por el activo y mucho menos si lo que anuncias son recortes de dividendo. Hasta los años 90s (del Siglo XX, claro) la hipótesis de eficiencia de los mercados es aceptada por regla general por el ámbito académico. Sin embargo, también han sido aluvión los trabajos publicados que confirman ineficiencias puntuales. Sobresale un grupo emergente de economistas denominados de las "finanzas conductuales" o conductistas o del comportamiento, que han venido ofreciendo pruebas de dicha ineficiencia proponiendo nuevas teorías que añaden la componente racional al comportamiento de los mercados, introduciendo los socorridos términos de las creencias los cuales afirman que, aparte de la componente aleatoria, los mercados se ven alimentados por decisiones de sus intervinientes que tienden a cumplir dos reglas:

• •

Cuando un interviniente del mercado recibe nueva información, no actúa aleatoriamente sino que tiende a tomar decisiones acordes a sus creencias. Los intervinientes, además, tienden a optimizar sus decisiones en base a obtener un máximo rendimiento o utilidad subjetiva esperada.

Como siempre, a cada afirmación le surgen detractores y es famosa la crítica del periodista financiero Roger Lowenstein que culpa a estas teorías de la Crisis Financiera del 2007, afirmando textualmente que "La ventaja de la Gran Recesión actual es que podría ser como una estaca en el corazón del Nostrum académico conocido como la hipótesis del mercado eficiente." No sólo ganaron el Premio Nobel sueco los defensores de la HME. Los economistas Joseph Stiglitz, George Akerlof y Michael Spence lo lograron por sus trabajos sobre mercados con información asimétrica, donde exponen las inconsistencias, anomalías, ineficiencias y fallos de los mercados financieros derivados de la denominada información asimétrica. Otros críticos, los gestores de fondos, ante estas teorías académicas alegan que: "Los que saben no hablan y los que hablan no saben". 21


Pero cada crítica tiene su respuesta, a las anomalías de la HME, los conductistas aducen situaciones de sesgo propias de la propia distribución normal que podrían ser producto no solo de la sobre o infravaloración de una información, sino por motivos asociados a la propia conducta humana como nerviosismo, estado anímico, exceso de confianza, etc. Los crack bursátiles son otro ejemplo reiterativo de ineficiencia de la HME. Normalmente motivados por el pánico, mueven el mercado de forma compulsiva y provocan reacciones en cadena de los agentes. Y un movimiento aleatorio no tiene sentimientos, luego tampoco tiene pánico. En el lunes negro de 1987, con el desplome habido, no se han encontrado causas objetivas que justifiquen lo sucedido. ¿fue aquello un paseo aleatorio? ¿un proceso estocástico? Hay estudios que confirman la existencia de componentes estacionales en algunos activos (autopistas, por ejemplo, que en épocas vacacionales aumenta sensiblemente el tráfico) y otros que mediante el análisis de factores a largo plazo superan al índice. Hoy en día con el auge de los Hedge Funds y del Trading de Alta Frecuencia, con millones de órdenes robotizadas diariamente surgen nuevos comportamientos anómalos que se alejan de la HME, como el de la "quiebra súbita" donde un mal algoritmo en la programación puede ocasionar en segundos el derrumbe de un activo, como ya pasó en más de una ocasión en las que hubo que cortar los mercados unas veces el americano y otras alguno europeo. Hablar de racionalidad en los mercados es también, por otra parte, algo temerario pues como dijo John Maynard Keynes: "Los mercados tienden a permanecer irracionales más tiempo del que tu puedes permanecer solvente". Curiosamente hoy que hemos citado a tantos premios Nobel, Keynes no recibió este prestigioso premio, se les escapó a los de la academia sueca. Como cierto tipo de consolación, tuvo un cuñado, Archibald Hill, que si lo obtuvo. Quedó todo en familia. Si lo que me preguntas cuál es mi opinión personal, que probablemente no me la pidas, pero te la diré igual, estoy más de acuerdo con esta teoría conductivista que con la de la eficiencia pura. En general, de lo que estoy convencido es que la Economía tiene mucho más de esotérico que de ciencia y que las matemáticas en los mercados financieros solo sirven como métrica. También pienso que cada vez que se realiza una operación es porque se ha encontrado a alguien que opina lo contrario, luego tenemos un interviniente acertado y uno equivocado viajando en una nave que es el mercado que, siempre, tiene la razón. También pienso que hay dos ingredientes en los mercados que no menciona la HME: la manipulación y la psicología de masas. Y por último también pienso que si en las dos últimas décadas se han publicado cientos de ineficiencias de la HME, denominadas anomalías, pues nosotros tenemos que encontrarlas y utilizarlas. Por todo ello, mi conclusión, es que hay que seguir investigando sin desfallecer.

22


Mas sobre el movimiento Browniano

Uno de los primeros conceptos que aprendemos acerca de la hora de aprender sobre el modelado de precios de las acciones o de las tasas de interés es el movimiento browniano , que es conceptualmente similar a un paseo aleatorio. Sin embargo , Movimiento Browniano ( BM ) es un proceso continuo , y en cada momento en el tiempo adquiere un valor aleatorio . La definición técnica es la siguiente: Sean (Ω, F, P) un espacio de probabilidad. Para cada w є Ω , si B(t) es un proceso continuo para t ≥ 0 tal que B(0) = 0 Sobre un intervalo dado ti є [0,T] ∀ i=0..m, los incrementos B(t1) - B(t0), B(t2) - B(t1), B(tm) - B(tm-1) son independientes. Para s,t ≥ 0, B(t) - B(s) ∼ N(0, t-s) , donde N(0, t-s) es una variable aleatoria normal con media 0 y varianza t-s. entonces B(t) es un movimiento browniano. La última propiedad indica una información muy importante sobre el camino que el BM toma en un paso de tiempo dado, BM puede tomar cualquier valor positivo o negativo, y técnicamente se puede mover una gran cantidad en un momento dado , pero esto iba a suceder con un probabilidad muy baja ( debido al comportamiento normal) ; este movimiento conduce a un 23


hecho interesante - BM es casi seguro ( es decir, con probabilidad 1 ) alcanzará cualquier valor dado , pero el tiempo de espera estimado hasta que llega a un valor dado es infinito . Algunas propiedades básicas del movimiento browniano son La esperanza de B(t) es cero. La varianza de B(t) es igual a t. Muchos modelos (por ejemplo, el de Black-Scholes) asumen que las acciones siguen un movimiento browniano geométrico , que en términos simples significa que el proceso está sobre σ B (t ) + µt

la línea de V (t )= e

. El hecho clave es que esta función es siempre positiva (debido al

comportamiento exponencial).

24


PROCESOS ESTOCASTICOS FINITOS Fuente : http://es.wikipedia.org/wiki/Proceso_estoc%C3%A1stico Definición En estadística, y específicamente en la teoría de la probabilidad, un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o efectos aleatorios constituye un proceso estocástico.

El índice de la bolsa es un ejemplo de proceso estocástico de tipo no estacionario (por eso no se puede predecir). Ejemplo 1 Tenemos una diana y disparamos con probabilidad 0,2 de acertar En este ejemplo, cada prueba es independiente del resultado previo y el que acierte o falle cada disparo tiene la misma probabilidad independientemente del orden. Ejemplo, sea A acertar y F fallar en la diana: 25


P( A, A, F , F , A) =

2 2 8 8 2 ⋅ ⋅ ⋅ ⋅ 10 10 10 10 10

Ejemplo 2 Una clase está compuesta por 20 hombres y 10 mujeres. Elegimos 5 estudiantes al azar y apuntamos su sexo. Este experimento así descrito está formado por una v.a. que es la suma de 5 experimentos igualmente distribuidos (ser hombre o mujer). Podemos calcular todas las probabilidades que se pueden dar en el mismo a lo largo de cada uno de los pasos. La probabilidad de que ocurra un suceso en una de las pruebas dependerá de lo que ocurra en todas las previas. Ejemplo:

P( H , H , M , M , H ) =

20 19 10 9 18 ⋅ ⋅ ⋅ ⋅ 30 29 28 27 26

Ejemplo 3 A lo largo de los cinco días laborables de la semana, un habitante de un pueblo costero reparte su trabajo con dos posibles tareas: o bien dedica el día a pescar o bien a labores de labradío. Ahora bien, nunca pesca dos días seguidos y si un día trabaja la tierra al día siguiente es igualmente probable que realice cualquiera de las dos tareas. Cada lunes, lanza una moneda para decidir a qué se va a dedicar. Por ejemplo, si P es pescar y T trabajar la tierra:

P(T , P, P, L, P) =

1 1 1 1 ⋅ ⋅ ⋅1 ⋅ 2 2 2 2

Otros ejemplos de procesos estocásticos Los siguientes son ejemplos dentro del amplio grupo de las series temporales: •

Señales de telecomunicación.

Señales biomédicas (electrocardiograma, encefalograma, etc.)

Señales sísmicas.

El número de manchas solares año tras año.

El índice de la bolsa segundo a segundo.

La evolución de la población de un municipio año tras año.

El tiempo de espera en cola de cada uno de los usuarios que van llegando a una ventanilla.

El clima es un gigantesco conjunto de procesos estocásticos interrelacionados (velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el tiempo.

Los procesos estocásticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una correlación de cero con las demás observaciones. 26


Espacio de estados de un proceso El conjunto de todos los resultados posibles de cada una de las pruebas recibe el nombre de Espacio de estados. Lo designaremos como E = {e1, e2, ..., en} Cuando el resultado de la prueba m es ei diremos que el proceso estocástico está en el estado ei en el paso m-ésimo. En el ejemplo primero E = {A, F} En el ejemplo segundo E = {H, M} En el ejemplo tercero E = {P, T}

Proceso estacionario Un proceso es estacionario en sentido estricto si la función de distribución conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido amplio

Proceso débilmente estacionario Es un proceso estacionario en el que se verifica que: 1. La media teórica es independiente del tiempo; y 2. Las autocovarianzas de orden s sólo vienen afectadas por el lapso de tiempo transcurrido entre los dos periodos y no dependen del tiempo.

Proceso homogéneo Cuando las variables aleatorias independientes e idénticamente distribuidas.

Proceso de Márkov Son aquellos procesos discretos en que la evolución sólo depende del estado actual y no de los anteriores. Ampliamos ahora esta idea.

27


CADENAS DE MARKOV Una cadena de Markov es un sistema que transición de un estado a otro en el que un estado actual solo depende de su estado más reciente. Tradicionalmente, una cadena de Markov es algo parecido a esto: x1 x2 x3 x4 ... Donde xi es la variable x en el momento i, y cada x¡ puede estar en n diferentes estados entre el conjunto de posibles estados E = {e1, e2, ..., en} El hecho de que la probabilidad en un paso del estado i al estado j no dependa más que del valor del paso anterior se escribe en forma matemática:

P = xi j xi= k1 , xi= k2 , xi= k3 ...=  P = xi j xi= k1  −1 −2 −3 −1 Ejemplo Un ejemplo de una cadena de Markov podría ilustrarse mediante una pelota que viaja en un avión con fricción. Si su estado es su masa y velocidad, lo único que necesitamos saber para determinar su estado actual es su estado anterior. Sabemos el efecto de la fricción en la pelota (la transición). Todo es predecible.

Definición: cadena de Markov Un proceso o una cadena de Markov es un proceso estocástico en el que el resultado de un experimento en un determinado paso depende como máximo del resultado de dicho experimento tan solo en el paso anterior, y no de ninguno de los demás resultados previos. Sea un proceso estocástico de un número finito de estados. Sea E = {e1, e2, ..., en} el espacio de estados Llamamos pij a la probabilidad de transición de que tras el estado ei ocurra el estado ej. Si ordenamos todas las probabilidades de transición en una matriz de transición resulta

 p11  p = P  21  ....   pn1

p12 p22 .... pn 2

.... .... .... ....

p1n   p2 n  ∈ Μ nxn ....   pnn 

que contiene todas las probabilidades de transición de uno a cualquier otro estado, es decir, las probabilidades de todos los resultados posibles que se pueden dar en el experimento. La suma de los elementos de cada fila debe ser 1. Definimos 28


Definición: Matriz estocástica Una matriz estocástica (también denominada matriz de transición, matriz de sustitución o matriz de Markov) es una matriz utilizada para describir las transiciones en una cadena de Markov. Tipos: •

Una matriz estocástica derecha es una matriz cuadrada cada una de cuyas filas está formada por números reales no negativos, sumando cada fila 1. a)

pi , j ≥ 0, ∀i, j

b)

∑ p =1 i, j

j

Una matriz estocástica izquierda es una matriz cuadrada cada una de cuyas columnas está formada por números reales no negativos, sumando cada columna 1.

Una matriz doble estocástica es una matriz cuadrada donde todos los valores son no negativos y todas las filas y columnas suman 1.

De la misma manera, puede definirse un vector estocástico como un vector cuyos elementos están formados por números reales no negativos que suman 1. Así, cada fila (o columna) de una matriz estocástica es un vector de probabilidad, también llamados vectores estocásticos.

29


Definición: Vector de probabilidad inicial Es el vector formado por las probabilidades del estado inicial del proceso, y lo denotaremos mediante

p (0) = ( p1(0) , p2(0) ,...., pn(0) ) cuya suma de elementos debe ser también 1, por lo que es un vector estocástico. Ejemplo Supongamos nuevamente el ejemplo del pueblo costero donde un paisano reparte su trabajo con dos posibles tareas: o bien dedica el día a pescar (P) o bien a labores de labradío (T tierra), pero nunca iba a pescar dos días seguidos El espacio de estados sería E = {P, T} , es decir e1 = P y e2 = T Hay cuatro probabilidades de transición •

Probabilidad de ir a pescar P si el día anterior fue a pescar P: p11 = 0

Probabilidad de ir a trabajar la tierra T si el día anterior fue a pescar p12 = 1

Probabilidad de ir a pescar P si el día anterior fue a trabajar la tierra p21 = 1/2

Probabilidad de ir a trabajar la tierra T si el día anterior fue a trabajar la tierra p22 = 1/2

La matriz de transición resulta

0 P=1  2

1  1 2

y el vector de probabilidad inicial es

1 1 p (0) =  ,  2 2

30


ECUACIONES DE CHAPMAN-KOLMOGOROV Transiciones de más de etapas En las cadenas de Markov es muy importante conocer las probabilidades en cada uno de los estados de la cadena de la etapa n+r conocido el estado en la etapa n. Estas probabilidades son denominadas probabilidades de transición. Cuando r=1, es decir, cuando la transición es a una sola etapa. En general, las probabilidades se pueden expresar matemáticamente mediante una probabilidad condicionada pij(r) = P(Rn+r = ej | Rn = e¡) y se denominan probabilidades de transición tras r etapas. Consideremos ahora r=2. Por el teorema de las probabilidades totales y la carencia de memoria de una cadena de Markov tenemos: pij(2) = P(Rn+2 = ej | Rn = e¡)= = P(Rn+2 = ej | Rn+1 = e1,Rn=ei) ·P(Rn+1 = e1 | Rn=ei)+ + P(Rn+2 = ej | Rn+1 = e2,Rn=ei) ·P(Rn+1 = e2 | Rn=ei)+... + P(Rn+2 = ej | Rn+1 = ek,Rn=ei) ·P(Rn+1 = ek | Rn=ei) = = P(Rn+2 = ej | Rn+1 = e1) ·P(Rn+1 = e1 | Rn=ei)+ + P(Rn+2 = ej | Rn+1 = e2) ·P(Rn+1 = e2 | Rn=ei)+... + P(Rn+2 = ej | Rn+1 = ek) ·P(Rn+1 = ek | Rn=ei) = = pi1p1j + pi2p2j + .... + pikpkj Si multiplicamos la matriz P al cuadrado, P·P=P2, observamos que el elemento (i,j) de la matriz producto coincide con la expresión última pi1p1j + pi2p2j + .... + pikpkj Llamando P(2) a la matriz que contiene las probabilidades de transición a dos etapas (las pij(2)), hemos demostrado que P(2) = P·P = P2 En general, se demostraría de la misma forma que la matriz de probabilidades de transición a r etapas, P(r) = (pij(r)), se obtiene como P(r) = P·P(r-1) = ..... = Pr Como consecuencia, la matriz de probabilidades de transición a r+s etapas, puede calcularse como el producto de la matriz de transición a r etapas por la matriz de transición a s etapas, es decir, p(r+s) = p(r). p(s) Esta igualdad puede escribirse término a término: pij(r+s) = pi1(r). p1j(s) + pi2(r). p2j(s) + .... + pik(r). pkj(s) , para cualquier i,j=1,2,...,k. Estas ecuaciones son denominadas las ecuaciones de Chapman-Kolmogoroff.

31


MATRICES DE TRANSICION Probabilidades de transición en k pasos Denominamos probabilidad de transición en k pasos a la probabilidad de que el proceso pase del estado ei al estado ej en k pasos. La representamos mediante pij

(k )

Podemos obtener ahora la matriz de todas las probabilidades de transición en k pasos:

 p11( k )  (k ) (k )  p21 = P  ....  ( k )  pn1

p1(nk )   p2( kn)  ∈ Μ nxn ....   (k )  pnn 

p12( k ) .... (k ) p22 .... .... .... pn( k2) ....

Teorema Sea P una matriz de transición de una cadena de Markov. Se v erifica que la matriz de transición de K pasos es la potencia k-ésima de P: P

(k )

= Pk

Ejemplo Siguiendo con el ejemplo del paisano que o sale a pescar P, o trabaja la tierra T, donde la matriz de transición es

0  P= 1  2

1  1 2

Si queremos calcular la situación de cada una de las probabilidades de si estará pescando P o trabajando la tierra T, 3 días después, esto sería:

0 (3) 3 P = P=  1  2

3

1  1 = 2

1 4  3  8

3 4  5  8

Y con ella podemos contestar a preguntas tales como ¿cuál es la probabilidad de que al cabo de tres días pase de ir a trabajar la tierra (T) a ir a pescar (P)? que sería el elemento p21 = (3)

3 8

Definición: Probabilidad total Probabilidad total o absoluta es la probabilidad de que el proceso esté en el estado ei tras realizar k pasos

pi( k ) 32


Definición: Distribución de probabilidad del paso k La distribución de probabilidad de cada prueba k viene dada por el vector estocástico

p ( k ) = ( p1( k ) , p2( k ) ,...., pn( k ) ) Teorema Consideremos una Cadena de Markov, donde sea P su matriz de transición y donde

p (0) = ( p1(0) , p2(0) ,...., pn(0) ) sea el vector de probabilidad inicial (o la distribución de probabilidad

del paso 0). Se verifica que: (1) p= p (0) ⋅ p

p (2) = p (1) ⋅ p= p (0) ⋅ p 2 p (3)= p (2) ⋅ p= p (0) ⋅ p 3 ................................. p ( k )= p ( k −1) ⋅ p= p (0) ⋅ p k Es decir, las distribuciones de probabilidad de cada paso k se pueden calcular multiplicando el vector de probabilidad inicial por la potencia correspondiente de la matriz de transición.

Ejemplo Siguiendo con nuestro ejemplo, si queremos calcular la distribución de probabilidad tras cuatro días, (acordémonos que el primer día tiraba una moneda para saber que labor realizar) tendríamos:

1 P (4) = P (0) ⋅ P 4 =  2

 3 5  1  8 8   11 =   2   5 11   32    16 16 

21   32 

lo cual significa que tras cuatro días la probabilidad d eir a pescar es 11/32 y la de trabajar la tierra es 21/32.

Definición: Carencia de memoria de una cadena de Markov Cuando el resultado de una etapa de una cadena de Markov, no depende del paso previo, es decir, hay independencia, esta propiedad se conoce como carencia de memoria o propiedad de Markov. Definición: Cadena de Markov homogénea Cuando la probabilidad condicionada anterior se generaliza a todas las etapas del proceso entonces la cadena de Markov es homogénea. 33


Definición: estado absorbente Un estado ei de un proceso de Markov se denomina estado absorbente cuando al alcanzarlo no puede salir de él.

34


Diagramas asociados a matrices de transición de Markov Una forma gráfica bastante adecuada de representar los elementos que componen una cadena de Markov homogénea es mediante el gráfico asociado a ella. De forma simple, un gráfico no es más que una representación gráfica que consta de unos "puntos singulares", llamados nodos, y unas "flechas" que unen algunos nodos con otros, llamados arcos del gráfico. En nuestro caso los nodos corresponderían con los distintos estados de la cadena de Markov y las flechas o arcos representarían las posibles formas de llegar a un estado (en la etapa n+1) procedente de otro estado (en la etapa n). Las flechas del gráfico llevan asociados unos valores numéricos que coinciden con la probabilidad de ir del estado de origen, en la etapa n, al estado de destino, en la etapa n+1. Las probabilidades p¡j son las probabilidades de transición que forman parte de la matriz de transición P = (pjj)k x k Ejemplo 1 Consideremos la siguiente matriz de transición asociada a un proceso de Markov

0  p11 p12   = P1 = 1   p21 p22   2

1  1 2

Este proceso se puede representar mediante un diagrama de la siguiente manera

en donde se representan los posibles estados y se indican las probabilidades de pasar de uno al otro.

Ejemplo 2

1  Para la matriz de transición P2 = 3  0

2 3  resultará el diagrama  1 

35


Ejemplo 3 Y un último ejemplo de matriz 3x3

0 0 1   P4 =  1 0 0  0 1 0  

Ejemplo 4 Consideremos ahora una matriz de transición de dimensiones 3x3, el diagrama resulra

 0  1 P3 =  5   3 4

3 4 0 1 4

1 4  4 5  0  

Cadena de Markov regular Definición: Cadenas absorbentes En la Matriz de Markov P2 del ejemplo 2 ocurre que si la matriz alcanza el estado e2 ya no es posible salir de él, por lo que e2 se denomina un estado absorbente y la Cadena de Markov es también absorbente. Definición: cadenas estacionarias Una matriz de Markov P3 como la del ejemplo 3, que los pasos de un estado a otro se realizan de forma cíclica se denominan Cadenas de Markov cíclicas o estacionarias

36


Definición: Cadenas regulares Una matriz de Markov P4 como la de los ejemplos 1 y 4, en la que es posible pasar a través de todos los estados de la cadena sin que ese paso se produzca de forma cíclica, se le denomina Matriz de Transición regular.

Punto fijo de una matriz de transición regular Consideramos la matriz de transición del ejemplo 1

0  p11 p12   P1 = = 1   p21 p22   2

1  1 2

Vamos a buscar un vector de probabilidad v(v1, v2) tal que verifique que v·P = v Por un lado si denominamos x a la probabilidad de e1, el vector tendrá la forma v(x, 1-x), por lo que

0  v ⋅ P = v ⇔ ( x,1 − x) 1  2

1  1  = ( x,1 − x) ⇔ 2

1  1 1 − x= x  x=  1  1 2 3 2 2 ⇒  ⇒ x = ⇒ v ,  1 1 1 3 3 3 x + − x =1 − x  x =  2 2 3  

Este vector v recibe el nombre de vector fijo de probabilidad de la matriz regular P

Teorema Para que una matriz estocástica P corresponda a un proceso de Markov regular es necesario que alguna potencia de P tenga todos los elementos distintos de 0

Ejercicio

1 7  Dadas las matrices P1 =  0    0 

3 7 1 4 0

3 1 3  7   3 , P2 =  0   4   1  1  3 

0 1 3 2 3

2 1  3 3   2 , P3 =  0   3     1 0  2

2 3 2 5 0

 0  3 ; estudiarlas para 5  1  2

comprobar si alguna es regular y, en caso afirmativo, calcularles su punto fijo Solución 37


La matriz P1 verifica que

P12

33 159   1  49 196 196    1 15  3 = 0 ; P1  16 16    0 1   0   

279 5193   1  343 5488 5488    1 64  3  0= ; P1  64 64    0 1   0   

2145 151455   1  2401 153664 153664    1 255   0  256 256    0 1   0   

luego es estacionaria porque si cae en el estado e3 no sale de él. En lo que respecta a la matriz P2 se tiene que

P12

3 4 2 9 9 9   2 5 2 3 = ;P 9 9 9 1    1 2 6  9 9 9

8 14   5  27 27 27    9 14  3  4 = ;P  27 27 27  1    7 14 6   27 27 27 

 19 36  81 81   18 37  81 81   13 26  81 81

26  81   26  81   42   81 

Lo que nos indica que es regular y podemos calcularle su punto fijo

2 1 1 1 1 1 v1 3 0 3  3 v1 + 0 ⋅ v2 + 3 − 3 v1 − 3 v2 =    1 2 1 2 2 2   = ( v1 , v2 ,1 − v1 − v2 ) ⇔ 0 ⋅ v1 + ⋅ v2 + − v1 − v2 = v2 ... v ⋅ P2 = v ⇔ ( v1 , v2 ,1 − v1 − v2 ) 0  3 3 3 3 3 3    2  2  1 2 0  v1 + ⋅ v2 + 0 =1 − v1 − v2  3 3 3   3 1 1   v1 + 3 v2 = 3 v1 + v2 1 v1 + v2 1  3=  3=  4 2   2 1 2 2 ⇔  v1 + v2 = − ⇔ v1 + 2v2 =−1 ⇔ v1 + 2v2 =−1 ⇔ v ( v1 v2 v3 ) =  3 3 5 5 5  5v +=  5v += 3 v v 5 3 5 3 2 2  1  1 5  5 + = v v 1  3 1 3 2  y el caso de la matriz P3 te queda como ejercicio.

Distribuciones estacionarias 0  p11 p12   Consideramos la matriz regular = P = 2   p21 p22   5

1  3  , mediante el programa Wiris  5

(http://herramientas.educa.madrid.org/wiris/) le calculamos las sucesivas potencias de P 38


y observamos que a medida que avanzamos con estas potencias los valores de la matriz P se estabilizan en los mismos cuatro valores Si calculamos el punto fijo de P tendremos

0 v ⋅ P = v ⇔ ( x,1 − x)  2  5

1  3  = ( x,1 − x) ⇔  5

2 2 2  x = − x x = 2  2 5 5 5 7  ⇒  ⇒ x = ⇒ v ,  3 3 2 7 7 7 x + − x =1 − x  x =   5 5 7 

2 5 ,  = v ( 0.285714, 0.714285 ) lo que coincide con las filas 7 7

donde , en decimal, se tiene que v 

de las potencias de P cuando dicha potencia tiene a infinito. Este resultado lo convertimos en un teorema Teorema Si P es una matriz de transición regular las potencias sucesivas de P se aproximan a una matriz que tiene todas sus filas iguales y que, además, coinciden con las componentes del vector fijo de P.

Como resumen de lo que hemos visto tenemos: Consideremos ahora una cadena de Markov regular con matriz de transición regular P y sea su vector de probabilidad inicial p

(0)

= ( p1(0) , p2(0) ,...., pn(0) )

39


En cada paso k del proceso la distribución de probabilidad de ese paso viene dada por (k ) p= p (0) ⋅ P k

y acabamos de probar que tras un número suficientemente grande k de pasos esta distribución se aproxima al vector fijo v, p

(k )

= v , o equivalentemente ( p1( k ) , p2( k ) ,...., pn( k ) ) = ( v1 , v2 ,...., vn )

Se cumple, entonces, el siguiente

Teorema Tras un número suficientemente grande de pruebas , la probabilidad de suceda un estado ei de una cadena de Markov regular es igual a la componente i-ésima del vector fijo de la matriz de transición

Definición: distribución de probabilidad estacionaria A la distribución de probabilidad que define el vector fijo se denomina distribución de probabilidad estacionaria de la cadena de Markov.

Ejemplo Se le advierte a un jugador que la ruleta del Casino tiene una serie de peculiaridades que se han ido constatando de forma que, en la primera jugada de la noche P(rojo)=0.4 y P(negro)=0.6 (suponemos para simplificar que no hay 0), pero además si sale rojo hay una probabilidad de 0.3 que vuelve a salir rojo a la siguiente jugada y si sale negro hay un 0.6 de que volverá a salir a continuación el negro. A lo largo de las jugadas de la noche ¿qué probabilidad hay de rojo y negro? Este experimento es una cadena de Markov de estados E={e1,e2}={rojo, negro} y su matriz de

 0.3 0.7   . Calculamos el vector fijo  0.4 0.6 

transición es P = 

 0.3 0.7  4 4 7 v ⋅ P = v ⇔ ( x,1 − x)   = ( x,1 − x) ⇒ x = ⇒ v  ,  11  11 11   0.4 0.6  4 7 ,  , por lo que, de este valor y del teorema previo  11 11 

siendo la distribución estacionaria v 

deducimos que la probabilidad de rojo se estabilizará en 4/11=0.3636 y la de negro en 7/11=0.6364

40


Ejemplo A lo largo de los últimos meses alcistas se ha observado la evolución del precio de cierre de un activo financiero resultando las siguientes conclusiones: •

Cuando un día el precio sube, al siguiente baja en un 35% de las veces;

el precio baja dos días seguidos un 40% de las veces.

¿Qué probabilidad hay de que suba el precio de cierre si se mantiene esta estadística? Los estados son aquí E = {e1,e2} = {sube (o igual), baja}, donde la matriz de transición es

 0.65 0.35  P =  y el vector fijo  0.6 0.4   0.65 0.35  v ⋅ P = v ⇔ ( x,1 − x)   = ( x,1 − x) ⇒ x = 0.6316 ⇒ v ( 0.6316, 0.3684 )  0.6 0.4  por lo que la probabilidad de que el precio suba es 63,16% Ejemplo Variamos un poco el ejercicio previo con una matriz de orden 3. A lo largo de los últimos meses se ha observado la evolución del precio de cierre de un activo financiero resultando las siguientes conclusiones: •

Cuando un día el precio sube, al siguiente baja en un 35% de las veces y se mantiene quieto un 5%

Tras estar quieto sube en un 80%, baja un 20% y repite un 0%.

Cuando baja, al dia siguiente sube un 65% y repite un 5%

¿Qué probabilidad hay en el futuro de que suba el precio de cierre si se mantiene esta estadística? Los estados son aquí E = {e1,e2,e3} = {sube, repite, baja}, donde la matriz de transición es

 0.6 0.05 0.35    P =  0.8 0 0.20  y el vector fijo resulta v(0.625, 0.048, 0.327) por lo que la probabilidad  0.65 0.05 0.30    pedida es del 0.625

41


Cadenas de Markov absorbentes Sea la Cadena de Markov de tres estados E = {e1,e2,e3} siguiente, descrita por la matriz y el diagrama:

2 3  P =0  0 

0 1 2 5

1 3  0 3  5

Observamos que si la matriz alcanza el estado e2, permanece en él, por lo que estamos ante un Proceso de Markov absorbente. Definición: estados transitorios y absorbentes Los estados de una cadena que una vez alcanzados la cadena permanece en él indefinidamente se llaman absorbentes. Por tanto no comunican su salida más que con si mismos. El resto, los que es posible el paso de uno a otro, se denominan transitorios. Definición: Cadena de Markov absorbente Cuando una cadena de Markov posee algún estado absorbente se denomina Cadena de Markov absorbente. Propiedad Si una Cadena de Markov posee algún estado absorbente la línea de la matriz de transición que corresponde a este estado tendrá un 1 en la diagonal principal y 0 en el resto. Esto la convierte en una matriz no regular. Definición: forma canónica Para estudiar las Cadenas de Markov absorventes nos vemos en la obligación de mover las filas que correspondan a estados absorbentes colocándolas en primer lugar, dando lugar a una matriz ordenada de forma canónica. Ejemplo En la matriz dada pasamos a colocar e2, que es el estado absorbente, al primer lugar

 1  E = {e2,e1,e3} resultando la matriz P =  0  2  5

0 2 3 0

 0  1 3 3   5

Ejemplo 42


1 4  0 Si nuestra matriz fuese P = 1  5 0 

1 4 1 0 0

2 4 0 3 5 0

 0  0 tendríamos E = {e1,e2,e3,e4} con e2 y e4 estados 1  5 1 

adsorbentes, por lo que reordenaríamos a E = {e2,e4,e3,e1} resultando la matriz canónica

1  0  P =0  1  4

0 1 1 5 0

0 0 3 5 2 4

0  0 1  matriz que puede ser dividida en zonas mediante  5 1  4

donde el primer cuarto es la matriz identidad I, el segundo cuarto la matriz nula 0, el tercer cuarto supone las probabilidades de paso de estados transitorios a absorbentes Q y el cuarto el paso de estados transitorios a transitorios P. Esto puede ser generalizado de la siguiente forma

 I 0 Q P    Definición: Matriz fundamental de la cadena de Markov Si calculamos F = (I - P)-1 a esta matriz F se denomina matriz fundamental de la cadena de Markov Con esta matriz así definida se pueden obtener los siguientes teoremas

Teorema Sean las matrices P, Q y F definidas anteriormente, se verifica i.

Empezando en un estado transitorio ai, la probabilidad de que una cadena de Markov pase del estado transitorio ai al estado absorbente aj viene dado por elemento de la iésima y columna j-ésima de la matiz F·Q

43


ii.

Empezando en un estado transitorio ai, la suma de los elementos de cada fila i de la matriz F equivale al número de veces que la cadena de Markov se mueve por los elementos transitorios antes de llegar a un estado absorbente.

iii.

Empezando en un estado transitorio ai,el elemento de la fila i-ésima columna j-ésima de la matriz fundamental F representa la media del número de veces que la cadena está en el estado transitorio aj, antes de caer en un estado absorbente.

Ejemplo Consideramos un elemento que se mueve al azar entre seis puntos. Supongamos que los puntos extremos a1 y a6 son absorbentes y los demás son transitorios. Supongamos que se mueve a la derecha con una probabilidad 0,6 y a la izquierda de 0,4. La matriz de transición resulta:

0 0 0 0 0   1   0 0   0, 6 0 0, 4 0  0 0, 6 0 0, 4 0 0    0 0, 6 0 0, 4 0   0  0 0 0 0, 6 0 0, 4    0 0 0 0 1   0  I 0  resulta Q P 

que moviendo las filas y columnas hasta lograr la matriz 

a1

a2

a3

a4

a5

a6

0 0 0 0 0  a1  1   0 0  a6  0, 6 0 0, 4 0  0 0, 6 0 0, 4 0 0  a2   0 0, 6 0 0, 4 0  a 3  0  0 0 0 0, 6 0 0, 4  a 4   0 0 0 0 1  a 5  0 Calculamos la matriz fundamental

a2 1  −1 0 F= ( I − P) = 0   0

0 1 0 0

0 0 1 0

−1

0   0 0, 4 0 0   1,5403     0   0, 6 0 0, 4 0   1,3507 = −  1, 0664 0   0 0, 6 0 0, 4        1  0 0 0, 6 0    0, 6398

a3

a4

0,9005 2, 2512 1, 7773 1, 0664

0, 4739 1,1848 2, 2512 1,3507

a5 0,1896  a 2  0, 4793  a 3 0,9005  a 4  1,5403  a 5

44


Con estos datos de la matriz F podemos contestar a las preguntas que nos resuelve al anterior teorema, por ejemplo, ahora sabemos que este proceso de Markov tarda 2,2512 pasos de media en pasar del estado a4 a volver a si mismo a4 y 0,4739 pasos para pasar del estado a2 al estado a4. Si queremos saber cuantos pasos de media tardara el proceso en pasar del estado a3 en ser absorbido por un estado absorbente habrá que sumar la fila segunda que es la que corresponde al estado a3. 1,3507 + 2,2512 + 1,1848 + 0,4793 = 5,2607 O también multiplicamos la matriz F por una matriz columna de unos y obtenemos las 4 sumas

 1,5403   1,3507  1, 0664  0, 6398 

0,9005 2, 2512 1, 7773 1, 0664

0, 4739 1,1848 2, 2512 1,3507

0,1896  1  3,1043       0, 4793  1  5, 2607  ⋅ = 0,9005  1  5,9953       1,5403  1  4,5972 

La tercera fila indica que habrá una media de 6 pasos para que este proceso de Markov pase del estado transitorio a4 a un estado absorbente. Finalmente calculamos la matriz F·Q

 1,5403   1,3507  1, 0664   0, 6398

0,9005 2, 2512 1, 7773 1, 0664

0, 4739 1,1848 2, 2512 1,3507

0,1896   0, 6 0   0,9242 0, 0758       0, 4793   0 0   0,8104 0,1896  ⋅ = 0,9005   0 0   0, 6398 0,3602       1,5403   0 0, 4   0.3839 0, 6161 

Matriz en la que la filas indican los estados transitorios y las columnas los estados absorbentes y nos da las probabilidades de pasar de unos a otros. Por ejemplo si empieza en el estado a2 tiene una probabilidad altísima 0,9242 de acabar absorbida por el estado a1 y muy baja 0,0758 de serlo por el a6.

a1  0,9242   0,8104  0, 6398   0.3839

a6 0, 0758  a 2  0,1896  a 3 0,3602  a 4  0, 6161  a 5

45


APLICACIONES Física Las cadenas de Markov son usadas en muchos problemas de la termodinámica y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusión de Laplace.

Predicción meteorológica Si consideramos el clima de una región a través de distintos días, es claro que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos.

Política Patrones de voto

Demografía Tendencias demográficas

Modelos epidemiológicos Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Éste es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).

Internet El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena.

Simulación Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos problemas de simulación tales como el Modelo M/M/1.

Juegos de azar Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro.

Economía y finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de los precios. En los negocios, las cadenas de 46


Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipamiento.

47


CADENAS DE MARKOV EN LOS MERCADOS FINANCIEROS ¿Cómo podríamos utilizar esta teoría para predecir precios de cotizaciones de un activo financiero? Si las Cadenas de Markov pueden ser utilizadas para detectar patrones de consumo o voto y ocurrencias de fraude en pólizas de seguro ¿por qué no vamos a pensar que podría existir alguna componente en la evolución del precio de los activos intervinientes en los mercados financieros que pudiera ser predecible? o al menos predecir riesgos potenciales. Los traders que son analistas técnicos de mercados tienen la teoría de que el comportamiento de los precios en el pasado encierran un conocimiento de cómo se van a comportar los precios en el futuro. Esta creencia se basa en que el precio se mueve en base a ciertos patrones de comportamiento que tienden a repetirse en el tiempo. Si los patrones se repiten y somos capaces de identificarlos con la antelación suficiente podríamos utilizarlo para hacer un trading previsiblemente exitoso. De sobra conocidos son los patrones HCH (hombro cabeza hombro) o dobles y triples máximos . Pues vamos a intentar lo mismo con Cadenas de Markov. Como hemos visto en el desarrollo de teoría previo, una cadena de Markov es un modelo matemático en el cual el resultado de un experimento que se realiza en una sucesión finita o infinita de pasos solo depende del resultado del experimento previo, pero no de ninguno de los anteriores a dicho previo. Los posibles estados de una Cadena de Markov describen la relación entre el estado en un cada paso del proceso y el estado en el paso siguiente. Si el periodo de tiempo entre paso y paso fuese, por ejemplo, un día, la cadena de Markov podría ser perfectamente el precio de un activo mañana basándose en el precio que tiene hoy. Pretencioso no? pues es al fin y al cabo lo que un trader hace diariamente.

Ejemplo Construyamos un ejemplo simple de Cadena de Markov, obtenida mediante la observación durante 10 días de las cotizaciones de un activo financiero. Para simplicidad del modelos, supongamos que este activo puede •

bien subir 1 euro, 1€

no moverse, 0 €

bien bajar 1€

Esto viene a decir que los posibles estados de esta cadena son E = {-1, 0, +1} Supongamos ahora que las observaciones obtenidas durante los 10 días son las siguientes

48


Día 1 2 3 4 5 6 7 8 9 10

Precio Dif 8 9 10 9 9 10 11 11 10 9

1 1 -1 0 1 1 0 -1 -1

Dif día previo

1 1 -1 0 1 1 0 -1

Como segundo paso, construimos una matriz donde las filas representan los estados (cambio de precio) con respecto al día anterior y las columnas representan los estados del día actual. Obtenemos así una matriz 3x3 que contiene 9 celdas.

Cambio precio Dia previo Total

Estado +1 0 -1

+1 2 1 0

0 1 0 1

-1 1 1 1

Num Observaciones 4 2 2 8

Esta matriz se obtiene de la siguiente forma: El día 3, observamos que el precio pasó del estado +1 (día previo 2) al estado +1, luego apuntaremos una unidad en la fila 1 columna 1 El día 4, pasó del estado +1 (día previo 3) al estado -1, luego apuntaremos una unidad en la fila 1 columna 3 El día 5, pasó del estado -1 (día previo 4) al estado 0, luego apuntaremos una unidad en la fila 3 columna 2 El día 6, pasó del estado 0 al estado 1, luego apuntaremos una unidad en la fila 2 columna 1 y así hasta el día 10. En total, aunque hay 10 días solo tenemos 8 observaciones completas computables.

Por tanto nuestra matriz está representando la frecuencia de los cambios de estado de este proceso.

 2 1 1    1 0 1  0 1 1   49


El tercer paso es construir la matriz de transición del proceso así definido. Como es una matriz de probabilidades (en este caso de frecuencias observadas) dividimos cada casilla de la matriz anterior por el número de observaciones de cada fila

2 1 1 4 4 4   1 1  = P = 0 2 2    0 1 1  2 2 

 0,5 0, 25 0, 25    0 0,5   0,5  0 0,5 0,5  

donde cada fila es la distribución de probabilidad del paso de un estado al siguiente, por lo que la suma de los elementos de una fila tiene que ser 1, como ya describimos para toda matriz de transición de un Proceso de Markov.

Calculamos ahora el vector fijo (equilibrium vector) mediante la técnica de multiplicar la matriz por si misma un número suficiente de veces para que converja al vector fijo.

 0,5 0, 25 0, 25    v ⋅ P = v ⇔ ( v1 , v2 ,1 − v1 − v2 )  0,5 0 0,5  = ( v1 , v2 ,1 − v1 − v2 ) ⇔  0 0,5 0,5   v1 0,5 ⋅ v1 + 0,5 ⋅ v2 + 0 =   v2 0, 25 ⋅ v1 + 0 ⋅ v2 + 0,5 − 0,5 ⋅ v1 − 0,5 ⋅ v2 = ...  0, 25 ⋅ v + 0,5 ⋅ v + 0,5 − 0,5 ⋅ v − 0,5 ⋅ v =1 − v − v 1 2 1 2 1 2   v1 = v2   −0,5 −1   −0, 04 ⇔ v ( v1 v2 ⇔ 0, 25 ⋅ v1 − 1,5 ⋅ v2 = 0,5 ⇔ v1 = = = 1, 25 25  0, 75 ⋅ v + 1 ⋅ v =  0,5 2 1   v1 = −0, 04  0,5 0, 25 0, 25    P =  0,5 0 0,5   0 0,5 0,5  

v3 ) = ( −0, 4 −0, 4

)

 0,375 0, 25 0,375    P =  0, 25 0,375 0,375   0, 25 0, 25 0,5    0, 28571 0, 28571 0, 42858    20 P =  0, 28571 0, 28571 0, 42858   0, 28571 0, 28571 0, 42858    2

Pongo los cálculos realizados con Wiris para una mejor futura interpretación 50


El vector resultante (0,28571, 0.28571, 0.43858) muestra el vector fijo o vector de equilibrio para esta matriz de transición. Como se puede observar las filas de la matriz son idénticas e indican que la probabilidad del resultado futuro es independiente del estado inicial del proceso.

Interpretación de los resultados Este vector fijo representa la tendencia a largo plazo de la Cadena de Markov sin importar el estado inicial del que partamos. Las componentes del vector son las probabilidades de futuros resultados. Esta información es útil para predecir futuros cambios en el precio y para establecer cuál es la exposición al riesgo. Por ejemplo, si hoy subió 1€ el vector nos indica que mañana subirá 1€ con probabilidad 0,28571, repetirá precio con probabilidad 0,28571 y bajará 1€ con probabilidad 0,42858 Si alguna de las celdas de la matriz de transición tuviese probabilidad 1, ese estados ería absorbente y ésto querría decir que de alcanzarse ese estado, el precio no saldría de ahí. Es ese caso también podríamos calcular el vector de equiliobrio pero aquí sí que sería imprescindible determinar el estado inicial de cara a cada resultado final. Como vimos en la teoría que hemos comentado hasta aquí si no es absorbente entonces es regular y el resultado final no depende del estado inicial.

51


Si en lugar de subir o bajar 1€ estableciésemos un rango de más resultados posibles, por ejemplo +1€ +0,5€ 0 -0,5€ y -1€ obtendríamos una matriz 5x5 pero cualquier otro tamaño es posible si tenemos un ordenador que nos realice los cálculos. Cuantos más resultados establezcamos más información o significado obtendremos de los resultados obtenidos. Si en algún lugar de las iteraciones de la matriz de transición apareciese una casilla con 0 que permaneciese inalterable en futuras potencias, la cadena de Markov sería no regular y nunca alcanzaría un vector fijo. Las matrices muy grandes ofrecen, aparte de la dificultad del cálculo, más dificultad de interpretación por lo que un método de trabajo muy razonable es buscar el máximo y el mínimo y dividir esta distancia en intervalos más pequeños de igual longitud. Por ejemplo, si en nuestra serie histórica la mayor subida fue de 2€ y la mayor bajada de -3€ podríamos tomar el rango de precios [2, -3] y dividirlo en los estados E = {2, 1.5, 1, 0.5, 0, -0.5, -1, -1.5, -2, -2.5, -3} teniendo una matriz de transición 11x11 Bajo este enfoque, la distribución de frecuencias de las observaciones pueden agruparse en torno a los estados intermedios, no muy diferente de un disparo de escopeta sobre una diana. Las observaciones suelen ser muy pocas en los estados cercanos al máximo y mínimo. Si usted encuentra que la mayoría de las observaciones se concentran en el centro de la matriz o en una sola fila en la matriz, ésta pierde gran parte de su poder predictivo. Una forma de solucionar este problema es utilizar intervalos de longitud variable para las filas y columnas; es decir, la longitud del intervalo para el primer estado puede ser diferente de la del segundo estado. Para permitir que el conjunto de datos de los límites variables para cada estado, un enfoque sería para ordenar los datos históricos en orden ascendente y, por ejemplo, establecer los límites de longitud variable para cada estado de manera que el 20% de las observaciones caigan dentro de cada intervalo. Con límites de longitud variable, hay menos agrupamiento porque cada estado (fila) tiene un número igual de observaciones.

Conclusiones El procedimiento de la Cadena de Markov asume que la distribución de probabilidad subyacente de los datos es estable con el tiempo. Esta suposición puede no ser válida para el activo financiero. De hecho, lo normal es que evolucione a patrones distintos con el tiempo pero también es cierto que durante unos periodos los patrones se mantienen por lo que tenemos que estar vigilantes de ambas situaciones, •

del patrón predictivo en el estado actual de la matriz

de la evolución de las probabilidades de la serie histórica

Recuerde el lema que figura en todos los productos de renta variable " rendimientos pasados no garantizan rendimientos futuros" Otro problema potencial es la naturaleza a largo plazo de la cadena de Markov. El vector de equilibrio a largo plazo se obtiene tras un número alto de potencias de la matriz de transición pero a corto plazo estas probabilidades ofrecen valores significativamente distintos y sí dependen del estado inicial del que partamos. Esta diferencia debe ser tenida en cuenta si nuestra actuación prevista es 5 días o a 30 días, supuesto que actuamos en gráficos diarios a corto o a más largo plazo. 52


A pesar de sus deficiencias, una cadena de Markov puede proporcionar inputs aprovechables acerca de las probabilidades y los riesgos futuros en la evolución del precio. La información podría ser útil, por ejemplo, en la estimación del riesgo de negociación (es decir, las probabilidades y magnitudes de las ganancias y pérdidas potenciales), estableciendo medias móviles de longitud variable y calculando el riesgo de ruina. El objetivo es comprender mejor el equilibrio rentabilidad-riesgo y por lo tanto hacer operaciones más inteligentes y más rentables. Al igual que con otros modelos matemáticos, sin embargo, una cadena de Markov nunca debe ser la única base del trading.

53


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.