Rolando Mantilla
102
Analiti a, Revista de análisis estadístico, Vol. 15 (1), 2018
P
(
n
) =
p
00
. . . P
0
n
...
. . .
...
p
n
0
. . . p
nn
Notar que en esta matriz 0
≤
p
ij
≤
1 y para todo
i
se tiene Σ
n
j
=1
p
ij
(
n
) = 1. A una matriz
con estas propiedades se la denomina
matriz de Markov o matriz estoc´astica
.
Las cadenas de Markov pueden ser expresadas a trav´es de los denominados
diagramas
de transici´on
que son grafos dirigidos que tienen como v´ertices a los estados del proceso y
como links a las probabilidades de pasar entre ´estos.
Un proceso estoc´astico se dice homog´eneo si para todo par de estados
i
y
j
se tiene que:
p
ij
=
P
(
X
n
+1
=
j
|
X
n
=
i
) =
P
(
X
n
+
m
+1
=
j
|
X
n
+
m
=
i
)
Para una cadena de Markov discreta en el tiempo, homog´enea, se puede mostrar que
para cualquier
n
= 0
,
1
,
2
, . . . ,
p
(
m
)
i,j
=
P
(
X
m
=
j
|
X
0
=
i
) = Σ
k
p
m
−
l
kj
p
l
ik
para 0
< l < m
Esta ´ultima expresi´on es conocida como la ecuaci´on de
Kolmogorov-Chapman
que puede
ser escrita en notaci´on matricial como:
P
(
m
)
=
P
(
l
)
P
(
m
−
l
)
En particular para
l
= 1,
P
(
m
)
=
PP
(
m
−
1)
De aqu´ı la matriz de transici´on para
m
pasos es obtenida de la multiplicaci´on de la matriz
de transici´on de un paso (
m
−
1) veces consecutivas pues
P
(
m
)
=
P
m
. Se debe definir tambi´en
P
(0)
=
I
.
Sea
π
(0)
i
la probabilidad de que una cadena de Markov empiece por el estado
i
y el vector
π
(0)
de probabilidades inicial de que un proceso empiece por un estado
i
se tiene que:
π
(1)
=
π
(0)
P
Y sucesivamente, en este escenario homog´eneo en el tiempo se tiene que:
π
(
n
)
=
π
(
n
−
1)
P
=
π
(0)
P
n
La distribuci´on de probabilidad al l´ımite
π
puede ser encontrada si existe el l´ımite
l´ım
n
→∞
P
(
n
)
= l´ım
n
→∞
P
n
Y calculando,
π
=
π
(0) l´ım
n
→∞
P
n