8  Matching

ESTE CAPÍTULO SE ENCUENTRA AÚN EN CONSTRUCCIÓN

Idea: Al evaluar el efecto de tratamiento, buscamos a un grupo de individuos de control “similares” a los individuos de tratamiento en todas las características relevantes de pre-tratamiento (\(X_i\)). Una vez hecho, el efecto de tratamiento se obtiene comparando ambos tipos de individuos.

Supuestos clave:

  1. Unconfoundedness: Las variables que determinarán la asignación al tratamiento deben ser observadas.

\[\{Y_i^T,~Y_i^C\}~\perp~T_i~|~X_i\]

  1. Common support: Para el valor de \(X_i\) tenemos tanto individuos tratadas como de control.

\[0<Pr(T_i=1~|~X_i)<1\]

Existen versiones más laxas de los supuestos si xxx parámetro de interés es \(TOT\) (ej. programas de pobreza).

Supuestos (bis):

1b. Unconfoundedness para control:

\[ Y_i^C~\perp~T_i~|~X_i \]

(Recordar derivación del sesgo de selección).

2b. Weak overlap: Donde vea observaciones de tratamiento necesito encontrar controles, pero no viceversa.

\[ Pr(T_i=1~|~X_i)<1 \]

Empecemos por ver cómo OLS se podría emplear para estimar los efectos de tratamiento usando controles como “preview” a Matching

Estimador de regresión:

\[ \widehat{\tau}_{reg}=\frac{1}{N}\sum_i(\widehat{\mu}_T(X_i)-\widehat{\mu}_C(X_i)) \]

donde:

\[\begin{align*} \widehat{\mu}_T(X_i)&=E(Y_i^T~|~X_i) \\ \widehat{\mu}_C(X_i)&=E(Y_i^C~|~X_i) \end{align*}\]

Del estimador sería de esperar que:

\[\frac{1}{N_T}\sum_iW_iY_i=\frac{1}{N_T}\sum_iW_i\widehat{\mu}_T(X_i)\]

\[\frac{1}{N_C}\sum_i(1-W_i)Y_i=\frac{1}{N_C}\sum_i(1-W_i)\widehat{\mu}_C(X_i)\]

Entonces:

\[\begin{equation*} \begin{split} \widehat{\tau}_{reg}&=\frac{1}{N}\sum_i\left[W_i(\widehat{\mu}_T(X_i)-\widehat{\mu}_C(X_i))+(1-W_i)(\widehat{\mu}_T(X_i)-\widehat{\mu}_C(X_i))\right] \\ &=\frac{1}{N}\sum_i\left[W_i(Y_i-\widehat{\mu}_C(X_i))+(1-W_i)(\widehat{\mu}_T(X_i)-Y_i)\right] \\ &=\frac{1}{N}\left[N_T\cdot\underbrace{\frac{1}{N_T}\sum_{i|T_i=1}(Y_i-\widehat{\mu}_C(X_i))}_{\text{Est. efecto promedio en tratados }~TOT=\tau_{reg,T}}+N_C\cdot\underbrace{\frac{1}{N_C}\sum_{i|T_i=0}(\widehat{\mu}_T(X_i)-Y_i)}_{\text{Est. efecto promedio en no tratados}~TONT=\tau_{reg,NT}}\right] \\ &=\frac{N_T}{N}\widehat{\tau}_{reg,T}+\frac{N_C}{N}\widehat{\tau}_{reg,NT} \\ ATE~&=\text{Promedio ponderado de}~TOT~\text{y}~TONT \end{split} \end{equation*}\]

Ojo: Puede ser que el objeto de interés sea \(\widehat{\tau}_{reg,T}\)

¿Cómo obtener un buen estimador de \(\widehat{\mu}_T(X_i)\) y \(\widehat{\mu}_C(X_i)\)?

Vía regresión separada:

\[ \mu_T(X_i)=X_i'\beta_T\quad\quad\quad\mu_C(X_i)=X_i'\beta_C \]

Aquí surgen diferentes aproximaciones en la literatura que incluyen:

La idea de estos métodos es que imputan el contrafactual que no es observado.

Principio de Matching: Para cada observación de tratamiento, buscar el valor contrafactual de control con el vecino más cercano.

Encontraremos un tradeoff sesgo-varianza:

Metodología:

Búsqueda de vecinos, alternativas:

  1. Covariate matching -> Curse of dimensionality (ejemplo).

  2. PSM -> Estimar \(p(X_i)=Pr(T_i=1~|~X_i)\)

    • Probit/Logit

    • Multinomial para más de un tratamiento

Paso 1: Problemas: Selección de \(X\)

Riesgo principal: Omitir \(X\) relevantes para explicar \(T\) que son relevantes para \({Y_i^T,~Y_i^C}\) y crean sesgo de selección.

Paso 2: Elegir algoritmo de Matching (Las siguientes estrategias se pueden hacer con PSM en vez de \(X_i\) sustituyendo \(X_i~\rightarrow~p(X_i)\) unidimensional)

Tenemos \(\{Y_i,~X_i,~T_i\}_{i=1}^n\). Sea \(\ell_m(i)\) el índice \(\ell\) (indicador de observaciones) tal que \(T_i\neq T_{\ell}\):

\[\sum_{j|T_j\neq T_i}\mathbf{1}\{\|x_j-x_i\|\leq\|x_{\ell}-x_i\|\}=m\]

Hay \(m\) observaciones \(j\) igual o más cercanas que las observación \(\ell\) del grupo contrario de \(T_i\).

Hay distintas alternativas para la métrica de distancia con variables contínuas (con variables discretas se busca un match exacto)

  1. Euclideana: Suma del cuadrado de la diferencia para cada dimensión:

\[d_E(a,b)=(a-b)'(a-b)\]

  1. Mahalanobis: Suma del cuadrado de la diferencia estandarizada tomando en cuenta una posible correlación:

\[d_M(a,b)=\sqrt{(a-b)'\Sigma^{-1}(a-b)},\]

donde \(\Sigma^{-1}\) es la matriz de varianza-covarianza de las variables.

  1. Híbridos: (Abadie-Imbens) Igual a \(M\) sin correlaciones:

\[d_{AI}(a,b)=\sqrt{(a-b)'\text{diag}(\Sigma^{-1})(a-b)}\]

Sea \(\mathcal{I}_M\) el grupo de índices para los \(M\) NN de \(i\):

\[\mathcal{I}_M(i)=\{\ell_1(i),\ell_2(i),\ldots,\ell_M(i)\},\]

definir si es con sustitución o no.

\[\begin{equation*} \widehat{\mu}_C(X_i) = \left\{ \begin{array}{ll} Y_i & \mbox{si } T_i = 0 \\ \frac{1}{M}\sum_{j\in\mathcal{I}_M(i)}Y_i & \mbox{si } T_i = 1 \end{array} \right. \end{equation*}\] \[\begin{equation*} \widehat{\mu}_T(X_i) = \left\{ \begin{array}{ll} \frac{1}{M}\sum_{j\in\mathcal{I}_M(i)}Y_i & \mbox{si } T_i = 0 \\ Y_i & \mbox{si } T_i = 1 \end{array} \right. \end{equation*}\]

El estimador de Matching simple para el \(ATE\):

\[ \widehat{\tau}_{sm}=\frac{1}{N}\sum_{i=1}^N(\widehat{\mu}_T(i)-\widehat{\mu}_C(i)) \]

Alternativas al NN:

  1. Caliper Matching: El \(M-\)ésimo NN podría estar muy lejos y significar un mal control (prob xxx common support)

    Caliper \(=\) máxima distancia aceptable

    • Mismo cálculo anterior imponiendo la restricción de que:

\[\|x_{\ell}-x_i\|<c\quad\quad\rightarrow\quad c-\text{caliper}\]

Esta es una restricción del common support y provocará que tal vez no todo \(i\) tenga un match para poder formar \(\widehat{\mu}_T(X_i)\) o \(\widehat{\mu}_C(X_i)\)

  1. Radius Matching: Similar al anterior, pero ahora el radio \((r)\) hace el papel de \(M\) y se incluye en el cálculo del contrafactual xxx todos los individuos del otro grupo dentro del radio:

\[\ell_M(i)=~~\max_j~~\|x_j-x_i\|\]

\[\text{s.t.}\quad\quad\|x_j-x_i\|\leq r\]

  1. Blocking: Formar \(M\) estratos. Es más sencillo con variables discretas pero se puede hacer con PSM.

    • Discretas: \(M\) bloques que tengan al menos una observación de control si hay tratamiento.

    • PSM: \(\mathcal{J}_{im}=\mathbf{1}\left\{\frac{m}{M+1}<p(X_i)\leq\frac{m+1}{M+1}\right\},\quad m=0,1,\ldots,M\)

\[\widehat{\tau}_M=\frac{1}{N_{T,m}}\sum_{i|T_i=1~~~\mathcal{J}_{im}=1}Y_i-\frac{1}{N_{C,m}}\sum_{i|T_i=0~~~\mathcal{J}_{im}=1}Y_i,\]

donde \(N_{T,m}\) es el número de obseraciones \(T\) en el bloque \(m\) y \(N_{C,m}\) es el número de observaciones \(C\) en el bloque \(m\).

\[\widehat{\tau}_{block}=\sum_{m=0}^M\widehat{\tau}_m\left(\frac{N_{T,m}+N_{C,m}}{N}\right)\]

Para blocking se sugiere:

  1. Reponderar (weighting): Para este caso se emplea \(p(X_i)\) como una función ponderadora siguiendo el principio IPW.

Recordemos a \(W_i\) que utilizamos en Neyman:

\[W_i=\frac{T_iY_i}{\frac{N_T}{N}}-\frac{(1-T_i)Y_i}{\frac{N_C}{N}},\]

donde \(\frac{N_T}{N}\) es la proporción o probabilidad constante para todo \(T_i=1\) (similar para \(\frac{N_C}{N}\)).

Habíamos demostrado que \(\frac{1}{N}\sum_{i=1}^nW_i=\bar{Y^1}-\bar{Y^0}\), aquí sustituimos \(\frac{N_T}{N}\) con \(p(X_i)\) y \(\frac{N_C}{N}\) con \(1-p(X_i)\):

\[ \widehat{\tau}_{weight}=\frac{\sum_{i=1}^n\frac{T_iY_i}{p(X_i)}}{\sum_{i=1}^n\frac{T_i}{p(X_i)}}-\frac{\sum_{i=1}^n\frac{(1-T_i)Y_i}{1-p(X_i)}}{\sum_{i=1}^n\frac{1-T_i}{1-p(X_i)}} \]

Nótese que \(E(p(X_i))=\frac{N_T}{N}\).

Matching: Covariate-specific treat vs control comparisons, weighted together to produce \(ATE\) estimates

Regresión puede motivarse como un tipo de weighted matching estimator

Matching estimator en el contexto deselection bias:

\[E(Y_i~|~T_i=1)-E(Y_i~|~T_i=0)=\overbrace{E(Y_i^T-Y_i^C~|~T_i=1)}^{TOT}+\underbrace{E(Y_i^C~|~T_i=1)-E(Y_i^C~|~T_i=0)}_{\text{selection bias}}\]

Enfoquémosnos en el \(TOT\):

\[\begin{equation*} \begin{split} E(Y_i^T-Y_i^C)&\overbrace{=}^{LIE} E(E(Y_i^T-Y_i^C~|~X_i,T_i=1)~|~T_i=1) \\ &=E(E(Y_i^T~|~X_i,T_i=1)-E(Y_i^C~|~X_i,T_i=1)~|~T_i=1) \\ &\overbrace{=}^{\text{unconf}} E(E(Y_i^T~|~X_i,T_i=1)-E(Y_i^C~|~X_i,T_i=0)~|~T_i=1) \\ &=E(\delta_X|T_i=1) \end{split} \end{equation*}\]

donde \(\delta_X=E(Y_i~|~X_i,T_i=1)-E(Y_i~|~X_i,T_i=0)\).

En el caso discreto por ejemplo:

\[TOT=\sum_x\delta_xPr(X_i=x~|~T_i=1)\]

Similarmente podemos obtener:

\[\begin{equation*} \begin{split} ATE &= E(E(Y_i^T~|~X_i,T_i=1)-E(Y_i^C~|~X_i,T_i=0)) \\ &=\sum_x\delta_xPr(X_i=x) \end{split} \end{equation*}\]

La diferencia entre el \(ATE\) y \(TOT\) está en la distribución de \(X\) el grupo de tratamiento vs control

Una regresión que controla por los mismos covariates que el estimador de matching es en sí similar.

La diferencia son los weights que se usan para promediar los \(\delta_X\):

Veamos ahora el caso contínuo. Para el \(TOT\) se puede usar la Regla de Bayes:

\[ Pr(X_i=x~|~T_i=1)=\frac{Pr(T_i=1~|~X_i=x)\cdot Pr(X_i=x)}{Pr(T_i=1)} \]

\[ \Longrightarrow TOT=\sum_x\delta_x\cdot~\frac{Pr(T_i=1~|~X_i=x)\cdot Pr(X_i=x)}{Pr(T_i=1)} \]

\[ \widehat{\tau}_{weight}=\sum_{i~|~T_i=1}\theta_iY_i-\sum_{i~|~T_i=0}\lambda_iY_i \]

donde los ponderadores son:

\[ \theta_i=\frac{\frac{1}{Pr(X_i)}}{\sum_{i~|~T_i=1}\frac{1}{Pr(X_i)}} \]

\[ \lambda_i=\frac{\frac{1}{1-Pr(X_i)}}{\sum_{i~|~T_i=0}\frac{1}{1-Pr(X_i)}} \]

y:

\[ \widehat{\tau}_{w,TOT}=\frac{1}{N_T}\sum_{i~|~T_i=1}Y_i-\sum_{i~|~T_i=0}Y_i\psi(X_i) \]

donde:

\[ \psi(X_i)=\frac{\frac{Pr(X_i)}{1-Pr(X_i)}}{\sum_{i~|~T_i=0}\frac{Pr(X_i)}{1-Pr(X_i)}} \]

Queremos que las observaciones de control tengan su distribución de \(X_i\)’s de tratamiento. Es decir, que el segundo termino fuera calculado bajo la distribución de tratamiento.

Para ello reponderamos, ya que:

\[\begin{equation*} \begin{split} E(E(Y_i^C~|~X_i,T_i=0)~|~T_i=1) &= E(E(Y_i~|~X_i,T_i=0)~|~T_i=1) \\ &= \sum_{x,~T_i=0}Y_i\underbrace{Pr(X_i=x~|~T_i=1)}_{\text{no se puede observar}} \\ &=\sum_{x,~T_i=0}Y_i~\frac{Pr(X_i=x~|~T_i=0)}{Pr(X_i=x~|~T_i=0)}\cdot Pr(X_i=x~|~T_i=1) \\ &=\sum_{x,~T_i=0}Y_i~\frac{Pr(X_i=x~|~T_i=1)}{Pr(X_i=x~|~T_i=0)}\cdot Pr(X_i=x~|~T_i=0) \\ &=\sum_{x,~T_i=0}Y_i~\left[\frac{\frac{Pr(T_i=1~|~X_i=x)}{Pr(T_i=1)}\cdot Pr(X_i=x)}{\frac{Pr(T_i=0~|~X_i=x)}{Pr(T_i=0)}\cdot Pr(X_i=x)}\right]\cdot Pr(X_i=x~|~T_i=0) \\ &=\sum_{x,~T_i=0}Y_i\left[\frac{\frac{Pr(X_i)}{1-Pr(X_i)}}{\frac{N_T/N}{N_C/N}}\right]\cdot Pr(X_i=x~|~T_i=0) \\ &= \sum_{x,~T_i=0}Y_i\left[\frac{\frac{Pr(X_i)}{1-Pr(X_i)}}{\frac{N_T}{N_C}}\right]\cdot Pr(X_i=x~|~T_i=0)\\ &= \sum_{x,~T_i=0}Y_i\cdot\underbrace{\psi(X_i)}_{\text{ponderador}}\cdot Pr(X_i=x~|~T_i=0) \end{split} \end{equation*}\]

8.1 Synthetic Control Method

Útiles cuando hay pocas unidades de tratamiento con muchas observaciones cada unidad

  • Ejemplo: Escuelas Alemania \(\perp\) Muro

Se busca generar contrafactuales para dichas observaciones

Idea: Generar un “control sintético” combinando información de observaciones de control ponderando

\[ Y_t^C=\sum_{j=2}^{J+1}w_jY_{jt} \]

Elegir \(W=(w_2,\ldots,w_{J+1})\), minimizando:

\[ \|X_1-X_0W\|=\left(\sum_{h=1}^Kv_h(X_{h1}-X_h^C)^2\right)^{\frac{1}{2}} \]

donde \(X_h^C=\sum_{j=2}^{J+1}w_jX_{hj}\), \(v_h\) pondera la importancia de la variable \(h\).

Para elegir \(V=(v_1,\ldots,v_K)\), proponen minimizar la Media Cuadrada del Error de xxx antes del tratamiento:

\[ \min_{V}~~\sum_{t<T_0}(Y_{it}-Y_t^C)^2 \]

Otra opción: Inverso de la varianza para normalizar.