Comunidad

01 de febrero de 2017 | por: Equipo Comunicación | 0 comentarios

Nuestro amigo R: Las cadenas de Markov

Dentro del primer paso que se puede dar hacia los modelos dinámicos, es decir, modelos que varían con el tiempo, está el estudiar las cadenas de Markov que es el modelo dinámico más sencillo y simple que puede darse.

Aquí de lo que se trata es de obtener una muestra de un determinado evento y analizarla, suponiendo que cada estado depende única y exclusivamente del estado anterior  y que no tiene ningún otro tipo de memoria.

Veamos un ejemplo.

Supongamos que estamos analizando las clases sociales de una determinada nación y obtenemos que tenemos una matriz que nos dice si los padres de una persona a la edad de 40 años eran de una determinada clase, cuál es la probabilidad de que su hijo pertenezca a una determinada clase a la edad de 40 años.

Imaginemos que esas probabilidades son las que nos aparecen en la imagen 1.

Las cadenas de Markov

Cuadro de transición de probabilidades

Lo que tenemos que hacer es analizar estos datos para ver todos los conocimientos que podemos sacar desde el punto de vista sociológico.

Veamos cómo nos ayuda nuestro amigo R.

La carga de los datos se hace de modo sencillo:

Las cadenas de Markov

Con esto, podemos empezar a trabajar.

Imaginemos que actualmente tenemos una distribución de (5%,60%,35%) para las 3 clases y nos preguntamos cuál será la distribución dentro de 3 generaciones. Lo podemos resolver de esta manera:

 Las cadenas de Markov

Obteniendo que sería un modelo de creador de riqueza para las clases altas, y que permite ir abandonando las clases bajas pero a un ritmo muy lento.

Podemos preguntarnos por ejemplo, una persona de clase baja, donde podría estar dentro de 3 generaciones, con R podemos saberlo y obtener un vector de probabilidades.

Las cadenas de Markov

Lo que significa que de cada 100 personas de clases baja, en 3 generaciones, sólo 28 de sus bisnietos serán todavía de clase baja.

Y lo mismo podemos hacer para la clase alta y la clase media.

 Las cadenas de Markov

De aquí podemos extraer el llamado concepto “steady”, que es los valores en torno a los cuales la sociedad se estabiliza dinámicamente, y que coincide con los autovalores de la matriz.

Con R podemos obtener esos valores de esta manera.

 Las cadenas de Markov

Lo que sucede con estos valores concretos y esta matriz de transición, es que ya no tendríamos evolución, llegando a un equilibrio dinámico. Es decir aunque hubiera personas que cambiaran de una clase a otra, el total del sistema no cambiaría, porque todos los cambios serían compensados. Matemáticamente se puede expresar así:

Las cadenas de Markov

Con la orden “plot”, podemos visualizar el estado de transición de la matriz.

Las cadenas de Markov

Un resumen de todo lo que contiene la cadena de Markov, nos la puede dar la orden “summary

Las cadenas de Markov

En donde todas las clases son cerradas, porque no hay estado que no se pueda alcanzar en un número finito de pasos. Todas las clases son recurrentes, ya que siempre podemos volver un número infinito de veces a cualquier clase de la que partamos. Y no tiene ningún estado transiente, porque es un suceso seguro que en un número finito de pasos que siempre se vuelva al estado del de que partió. Es irreducible, porque todos los estados son accesibles desde cualquier otro. Y el número de estados absorbente, que son como agujeros negros, de los que nunca se sale es cero.

Las cadenas de Markov pueden ser aplicadas tanto a casos de marketing, como para ver el ciclo de vida que un cliente puede tener en la empresa, aunque su principal limitación es que la matriz de transición tendría que ser constante a lo largo de un periodo de tiempo.

También te puede interesar:

Nuestro amigo R: Introducción al análisis de redes

Nuestro amigo R: análisis de supervivencia

Nuestro amigo R: reglas de asociación

Nuestro amigo R: regresiones censuradas

Autor: Pedro José Jiménez, profesor del Máster en Big Data y Business Intelligence

Máster en Big Data y Business Intelligence

Comentarios

Deja tu comentario

You must be logged in to post a comment. So log in!

EADIC Blog