Margarita Velín y Paúl Medina
Analíti a
k
1
Revista de Análisis Estadístico
Journal of Statistical Analysis
(
X
1
,
X
2
,
· · ·
,
X
k
)
. Además, toman en cuenta la correlación
entre las distintas muestras [2]. Algebraicamente, la regre-
sión logística puede representarse de la siguiente manera:
Pr
(
Y
=
y
i
) =
exp
(
η
i
)
1
+
exp
(
η
i
)
,
i
=
1, 2,
· · ·
,
n
,
(3)
donde
Y
=
1 cumple
0 no cumple
y
η
i
=
β
0
+
β
1
X
i
1
+
...
+
β
k
X
ik
,
para k
=
1, 2,
· · ·
,
K
.
La ecuación (3) representa una función de distribución,
en consecuencia, toma sus valores entre 0 y 1, como lo
muestra la figura 1.
-
10
-
5
5
10
x
0.2
0.4
0.6
0.8
1.0
f
H
x
L
f
H
x
L
=
1
ã
-
x
+
Figura 1.
Función de distribución logística.
Para estimar los parámetros de un modelo logístico
(distribución de probabilidad) se utiliza el método de má-
xima verosimilitud, es decir, estimaciones que hagan máxi-
ma la probabilidad de obtener los valores de la variable de-
pendiente
Y
, proporcionado por los datos de una muestra.
Estas estimaciones no son de cálculo directo, como ocurre
en el caso de las estimaciones de los coeficientes de la regre-
sión lineal múltiple, por el método de mínimos cuadrados.
Es necesario, una vez estimado el modelo, comprobar
su significación estadística. Para ello se emplean básica-
mente tres métodos que son: -2 log de la verosimilitud
(-2LL)
4
, la R cuadradro de Cox y Snell
5
y, la R cuadrado de
Nagelkerke
6
.
2.4 Análisis paramétrico de rangos
El análisis paramétrico de rangos es una alternativa al
problema de endogeneidad entre variables [15]. Para en-
tenderlo, realizaremos una breve descripción del mismo.
En primer lugar, es necesario escribir el modelo que se
desee estimar de la forma:
ln
(
Y
i
) =
X
i
β
+
ǫ
i
,
(4)
donde el término residual
ǫ
i
no es necesariamente indepen-
diente de todas las variables explicativas y, por consiguien-
te, los estimadores de MCO pueden estar sesgados, es de-
cir,
E
(
e
β
) =
β
+
B
.
(5)
Aquí
B
es el sesgo del estimador de MCO y puede definirse
como:
B
=
S
−
1
X
′
ǫ
=
S
−
1
(
ρ
X
ǫ
⊗
σ
X
)
σ
ǫ
,
(6)
donde
•
S
: es la multiplicación de
X
traspuesta por
X
, es decir,
X
′
X
.
•
ρ
X
ǫ
: son los coeficientes de correlación entre los com-
ponentes de
X
y el término residual
ǫ
.
•
σ
X
: es el error estándar de las variables de
X
y,
•
σ
ǫ
: es el error estándar de los residuos
ǫ
.
Para conocer el sesgo de cada estimador es preciso te-
ner los valores correspondientes a
σ
X
,
ρ
X
ǫ
y a
σ
ǫ
. A pesar
de que, en principio, sólo el valor de
σ
X
es conocido, un
estimador insesgado de
σ
ǫ
puede calcularse para cualquier
grupo de coeficientes de correlación
ρ
X
ǫ
, con base en la si-
guiente expresión:
σ
ǫ
2
=
ˆ
σ
ǫ
2
+
B
′
SB
=
ˆ
σ
ǫ
2
1
−
K
,
(7)
donde
•
ˆ
σ
ǫ
2
: es la varianza de los residuos de MCO y,
•
K
= (
ρ
X
ǫ
⊗
σ
X
)
′
S
−
1
(
ρ
X
ǫ
⊗
σ
X
)
.
Aquí,
⊗
denota el producto tensorial.
4
-2 log de la verosimilitud (-2LL)
: mide hasta qué punto un modelo se ajusta bien a los datos. El resultado de esta medición recibe también el
nombre de “desviación”. Cuanto más pequeño sea el valor, mejor será el ajuste.
5
R cuadradro de Cox y Snell
: es un coeficiente de determinación generalizado que se utiliza para estimar la proporción de varianza de la va-
riable dependiente explicada por las variables predictoras (independientes). La R cuadrado de Cox y Snell se basa en la comparación del log de la
verosimilitud (LL) para el modelo, respecto al log de la verosimilitud (LL) para un modelo de línea base. Sus valores oscilan entre 0 y 1.
6
R cuadrado de Nagelkerke
: es una versión corregida de la R cuadrado de Cox y Snell. La R cuadrado de Cox y Snell tiene un valor máximo
inferior a 1, incluso para un modelo “perfecto”. La R cuadrado de Nagelkerke corrige la escala del estadístico para cubrir el rango completo de 0 a 1.
62
Analítika,
Revista de análisis estadístico
, 1 (2011), Vol. 1(1): 59-90