Jaime Fernández
Analítika, Revista de análisis estadístico, (2016), Vol. 11
154
es decir: las relaciones de dependencia entre variables, cantidad de variables latentes, sus
cardinalidades y los par´ametros. Por este motivo, la gran mayor´ıa de trabajos que se han
desarrollado, sobre todo en la ´ultima d´ecada, cuando estos modelos han tomado considerable
impulso (Mourad
et al.
, 2013) tienen como objetivo el aprendizaje de la estructura del LTM
a partir de un conjunto de observaciones del sistema.
Seg´un resumen Mourad
et al.
(2013), los m´etodos de aprendizaje de la estructura de un
LTM se dividen en tres categor´ıas: m´etodos basados en b´usqueda (desarrollados fundamen-
talmente para el aprendizaje de redes bayesianas), m´etodos de clusterizaci´on de variables
(relacionados a procesos jer´arquicos) y los metodos basados en distancias (desarrollados
mayoritariamente a la luz del campo de la filogen´etica.
Dentro de los m´etodos basados en b´usqueda destacan el m´etodo
greedy
de Naive y el
m´etodo de b´usqueda avanzada. En el grupo de los m´etodos basados en clusterizaci´on de
variables, se han desarrollado m´etodos espec´ıficos seg´un los tipos de LTM; as´ı, por ejem-
plo, para ´arboles binarios existe el m´etodo aglomerativo jer´arquico, para ´arboles no binarios
est´a el m´etodo bietapa aglomerativo-esperanza maximizaci´on, y para ´arboles planos existen
el algoritmo Bridged Island. Dentro de los m´etodos basados en distancias, los principales
desarrollos son: el algoritmo de uni´on de vecinos, el m´etodo de aprendizaje dedicado a LTM
generales y los m´etodos espectrales. M´as adelante se presenta el detalle de lo m´etodos selec-
cionados para el aprendizaje de la estructura del LTM propuesto en este trabajo.
Inferencia
El otro gran objetivo cuando se trabaja con modelos probabil´ısticos gr´aficos es, por su-
puesto, hacer inferencia sobre las variables. La inferencia probabil´ıstica en una red bayesiana
general es un problema NP-duro, seg´un lo demuestra Cooper (1990).Este problema se en-
frenta en la pr´actica con diferentes algoritmos heur´ısticos que se han ido mejorando a trav´es
del tiempo, siendo el desarrollo te´orico pionero en este sentido el algoritmo de Chow-Liu
(Chow y Liu, 1968). A´un cuando existen muchos m´etodos que se han desarrollado a partir
del algoritmo original de Chow-Liu y que hasta la actualidad siguen en estudio, el algoritmo
que m´as fuerza ha cobrado, tanto en nuevos estudios te´oricos, como en aplicaciones pr´acticas
es el de propagaci´on de beliefs (BP), desarrollado inicialmente por Pearl (1988).
Por contraparte, los LTM ofrecen considerables ventajas al momento de hacer inferencia.
Por un lado, debido a la estructura de ´arbol que poseen, el ´orden del n´umero de c´alculos
es lineal con respecto al n´umero de variables observables y, por otro, como se ha dicho
reiteradamente, estos modelos tienen la potencialidad de representar complejas relaciones
entre un conjunto de variables observables a trav´es de la inclusi´on de variables latentes. Sin
embargo, hay que considerar que la complejidad de la inferencia en los LTM no solamente
depende en el n´umero de variables observables, sino tambi´en en la cantidad y cardinalidad
de las variables latentes.
Algoritmos para el aprendizaje de las estructuras de los LTM
Antes de especificar el funcionamiento de cada uno de estos algoritmos, a continuaci´on se
explicar´a el procedimiento para testear el relacionamiento entre nodos. Para esto, el siguiente
44