🥑 Ajiaco2

encuestas
dirichlet
probabilístico
multinomial
cmdstanr

Un nuevo intento por hacer un modelo generativo para la primera vuelta

Autor/a
Afiliación

Recetas Electorales

Análisis independiente

Fecha de publicación

28 de enero de 2026

Fecha de última modificación

1 de marzo de 2026

“Failure is a favor to the future.”
–Rita Dove

Introduciendo el Ajiaco2

El Ajiaco2 es un modelo probabilístico que las Recetas Electorales han tratado de preparar desde hace 5 años. Es complejo, pero funciona divínamente. Es el motor inferencial para la primera vuelta.

Es un modelo que procesa simultáneamente todas las encuestas como un proceso Dirichlet-multinomial, de manera que se preserven las cotas de que los posibles candidatos no tengan probabilidades absurdas de pasar a la segunda vuelta. Esto es mucho más difícil de lo que parece, y hay que hacer ciertos supuestos importantes como imputaciones de los conteos de las encuestas con base en las proporciones reportadas en las fichas técnicas. De cualquier forma, el nuevo Ajiaco2 supera las limitaciones de la receta de 2022 y se puede servir completo.

Veamos los resultados de la más reciente estimación del Ajiaco2. La Figura 1 muestra la distribución posterior para los precandidatos que registran más de un error de medición en las encuestas, separando a los punteros: @IvanCepedaCast y @ABDELAESPRIELLA

Ver código
# Graph posterior ####
ajiaco2_fit |>
  posterior::as_draws_df() |>
  tibble::as_tibble() |>
  dplyr::rename_with(
    ~ paste0("p_", colnames(conteos_2026)),
    .cols = paste0("p[", seq_along(colnames(conteos_2026)), "]")
  ) |>
  tidyr::pivot_longer(cols = dplyr::starts_with("p"), 
                      names_to = "candidato", values_to = "prop") |>
  dplyr::mutate(candidato = str_sub(candidato, start = 8L)) |>
  dplyr::group_by(candidato) |>
  dplyr::mutate(candidato_m = mean(prop), .group_by = "drop") |>
  # Nombres
  dplyr::left_join(
    candidatos_2026,
    by = c("candidato"="cod")
  ) |>
  # Quitar ruido
  dplyr::filter(candidato != "ruido") |>
  dplyr::mutate(cat = ifelse(candidato %in% c("ic","adle"),"Punteros","Resto")) |>
  ggplot(aes(x = prop, y = reorder(nombre, candidato_m))) +
  ggdist::stat_dist_slabinterval(
    aes(
      fill = color_cand,
      fill_ramp = after_stat(level)
      ),
    .width = c(0.5, 0.8, 0.95, 0.99),
    interval_alpha = 0.95,
    show.legend = c(fill = FALSE, fill_ramp = TRUE, size = FALSE) 
  ) +
  stat_pointinterval(
    aes(label = scales::percent(candidato_m, accuracy = 0.1)),
  geom = "label",
  .width = 0, 
  vjust = -0.5,
  fill = "white",
  color = "black"
  )+ 
  facet_wrap(~cat, scales = "free")+
  scale_x_continuous(labels = scales::percent_format(accuracy = 1))+   
  scale_y_discrete(labels = scales::label_wrap(20))+
  scale_fill_identity(na.translate = FALSE)+
  ggdist::scale_fill_ramp_discrete(
    name   = "Credible interval",
    range  = c(0.25, 1),
    breaks = c(0.5, 0.8, .95, 0.99),
    labels = c("50%", "80%", "95%", "99%"),
    na.translate = FALSE
  )+
  labs(
    title = "Ajiaco2: Nueva receta para la primera vuelta 2026",
    subtitle = paste0("Modelo probabilístico estimado 2026-02-28 con ", n_distinct(encuestas_2026$encuesta_id)," encuestas"),
    caption = "Fuente: https://recetas-electorales.netlify.app/",
    x = "Distribución posterior estimada, % intención de voto",
    y = NULL
  )+
  theme_minimal(base_size = 20) +
  theme(
    text = element_text(family = "news-cycle"),
    panel.grid.major.y = element_blank(),
    panel.grid.minor = element_blank(),
    legend.position = "none"
  )
Figura 1: Ajiaco2

Descifrando porcentajes y probabilidades en el Ajiaco2

Es relativamente facil interpretar el Ajiaco2, así que ilustremos para uno de los punteros Figura 2. Cada curva muestra la distribución posterior de la proporción de voto del candidato, estimada a partir del modelo Dirichlet-multinomial. Por ejemplo, para @IvanCepedaCast la mayor densidad se concentra alrededor del 29%, lo que indica que este es el valor más compatible con las encuestas observadas. El modelo sugiere que la probabilidad posterior de que la intención de voto sea inferior al 25% es relativamente baja (20%) y que sea mayor a 50%, lo que necesitaría un candidato para ganar en primera vuelta, es casi nula.

El intervalo creíble del 50% pone la intención de voto entre 28% y 31%, mientras que el intervalo de 95% se extiende desde cerca de 22% hasta 36%, lo que refleja la incertidumbre que resulta de la heterogeneidad de las encuestas disponibles.

Ver código
# Graph posterior ####
ajiaco2_fit |>
  posterior::as_draws_df() |>
  tibble::as_tibble() |>
  dplyr::rename_with(
    ~ paste0("p_", colnames(conteos_2026)),
    .cols = paste0("p[", seq_along(colnames(conteos_2026)), "]")
  ) |>
  tidyr::pivot_longer(cols = dplyr::starts_with("p"), 
                      names_to = "candidato", values_to = "prop") |>
  dplyr::mutate(candidato = str_sub(candidato, start = 8L)) |>
  # Nombres
  dplyr::left_join(
    candidatos_2026,
    by = c("candidato"="cod")
  ) |>
  dplyr::filter(candidato %in% c("ic")) |>
  ggplot(aes(x = prop)) +
  ggdist::stat_dist_slabinterval(
    aes(
      fill = color_cand,
      fill_ramp = after_stat(level)
      ),
    .width = c(0.5, 0.95, 0.99),
    interval_alpha = 0.95,
    show.legend = c(fill = FALSE, fill_ramp = TRUE, size = FALSE) 
  ) +
  scale_x_continuous(labels = scales::percent_format(accuracy = 1))+   
  scale_y_continuous(labels = scales::percent_format(accuracy = 1))+   
  scale_fill_identity(na.translate = FALSE)+
  ggdist::scale_fill_ramp_discrete(
    name   = "Credible interval",
    range  = c(0.25, 1),
    breaks = c(0.5, .95, 0.99),
    labels = c("50%", "95%", "99%"),
    na.translate = FALSE
  )+
  labs(
    title = "Interpretando el Ajiaco2 para @IvanCepedaCast",
    subtitle = paste0("Modelo probabilístico estimado 2026-02-28 con ", n_distinct(encuestas_2026$encuesta_id)," encuestas"),
    caption = "Fuente: https://recetas-electorales.netlify.app/",
    x = "% intención de voto estimada",
    y = "Probabilidad"
  )+
  theme_minimal() +
  theme(
    text = element_text(family = "news-cycle", size = 20),
    panel.grid.major.y = element_blank(),
    panel.grid.minor = element_blank(),
    legend.position = "top"
  )
Figura 2: Interpretando el Ajiaco2

El ajiaco viene con ñapa para explorar interactivamente el modelo Ajiaco2. Selecciona un candidato y un umbral de intención de voto para ver probabilidades posteriores.

Retrovisor: El Ajiaco de 2022 quedó aguado. ¿Qué falló?

En 2022 salió la primera versión de Ajiaco, que en su momento buscaba solucionar un problema técnico complejo en el análisis de encuestas: ¿Cómo se pueden representar correctamente las probabilidades de \(N\) candidatos que compiten en la primera vuelta? Para solucionar el problema era necesario usar distribuciones de probabilidad un tanto complejas; tal vez más complicado aún era determinar la parametrización de esas funciones.

El Ajiaco en 2022 buscó estimar simuláneamente la proporción de votos para cada candidato teniendo en cuenta las proporciones de voto blanco e indeciso, y trató de proyectar la incertidumbre que hay en cada votación sin romper el techo que mantiene acotadas las proporciones para que nunca sumen menos de cero o más de cien por ciento.

Fracasó: el Ajiaco de 2022 quedó aguado. No logró lo que pretendía y cometió muchos errores, algunos imperdonables. El modelo avanzó en el uso de la función correcta, una Dirichlet, pero no usó las observaciones a nivel cada encuesta directamente; además ignoró la varianza muestral, las diferencias por encuestadora y el paso del tiempo. El modelo usó estimaciones de promedios por candidato para simular a cada candidato. El muestreo MCMC era redundante y no había propagación de la incertidumbre como se pensaba. Metodológicamente no fue un modelo predictivo inferencial porque fijaba arbitrariamente el tamaño de muestra (\(N=100\)) de resultados de las encuestas existentes.

Mea culpa. Estas cosas son dificiles de hacer y se hizo lo que se pudo en 2022. Pero como dice la poeta Rita Doves, el error del pasado al menos nos ayudó a solucionar el problema del presente.

El modelo corregido se puede aplicar a la primera vuelta de 2022. El resultado Figura 3 es similar: Las encuesta no detectaron la subida de Rodolfo Hernandez por la veda.

Ver código
# ggdist ####
ajiaco2_retro2022_fit |>
  posterior::as_draws_df() |>
  tibble::as_tibble() |>
  dplyr::rename_with(
    ~ paste0("p_", colnames(conteos_2022)),
    .cols = paste0("p[", seq_along(colnames(conteos_2022)), "]")
  ) |>
  tidyr::pivot_longer(cols = dplyr::starts_with("p"), 
                      names_to = "candidato", values_to = "prop") |>
  dplyr::mutate(cod = str_remove(candidato,"p_")) |>
  # Nombres
  dplyr::left_join(
    candidatos_2022,
    by = "cod"
  ) |>
  dplyr::filter(cod != "ruido") |>
  dplyr::group_by(candidato) |>
  dplyr::mutate(candidato_m = median(prop), .group_by = "drop") |>
  ggplot(aes(x = prop, y = reorder(nombre, candidato_m))) +
  ggdist::stat_dist_slabinterval(
    aes(
      fill = color_cand,
      fill_ramp = after_stat(level)
      ),
    .width = c(0.5, 0.8, 0.95, 0.99),
    interval_alpha = 0.95,
    show.legend = c(fill = FALSE, fill_ramp = TRUE, size = FALSE) 
  ) +
  ggdist::stat_pointinterval(
    aes(label = scales::percent(candidato_m, accuracy = 0.1)),
    geom = "label",
    .width = 0, 
    vjust = -0.5,
    size = 3,
    fill = "white",
    color = "black"
    )+ 
  geom_vline(data = . %>% dplyr::distinct(cod, nombre, vuelta_1, color_cand), 
             aes(color = color_cand, xintercept = vuelta_1, label = nombre), linetype = "dashed", show.legend = FALSE)+ 
  scale_x_continuous(labels = scales::percent_format(accuracy = 1))+   
  scale_fill_identity(na.translate = FALSE)+
  scale_color_identity(na.translate = FALSE)+
  ggdist::scale_fill_ramp_discrete(
    name   = "Credible interval",
    range  = c(0.25, 1),
    breaks = c(0.5, 0.8, .95, 0.99),
    labels = c("50%", "80%", "95%", "99%"),
    na.translate = FALSE
  )+
  labs(
    title = "Ajiaco2 cocinado con los ingredientes de la primera vuelta de 2022",
    subtitle = "Modelo retrospectivo 2022 con base en 32 encuestas",
    caption = "Fuente: https://recetas-electorales.netlify.app/",
    x = "% intención de voto estimada",
    y = NULL
  )+
  theme_minimal() +
  theme(
    text = element_text(family = "news-cycle", size = 20),
    panel.grid.major.y = element_blank(),
    panel.grid.minor = element_blank(),
    legend.position = "top"
  )
Figura 3: Ajiaco2 recalentado con los ingredientes de la primera vuelta de 2022

Receta Ajiaco2

El Ajiaco2 agrega encuestas \(j\) como un vector de conteos por candidato \(y_j\) que se modela como un proceso Dirichlet-Multinomial con un tamaño de muestra \(n_j\), que corresponde a la muestra de cada encuesta.

La lógica del modelo es que existe una distribución de apoyo a los candidatos (las proporciones \(p\)), común a todas las encuestas, y que cada encuesta es una realización ruidosa de esa distribución. Muy similar a los métodos de meta análisis. El parámetro de concentración \(\kappa\) controla qué tan similares son las encuestas entre sí: valores altos implican encuestas muy parecidas y valores bajos permiten mayor variabilidad. El modelo produce no solo estimaciones de apoyo para cada candidato, sino también simulaciones de resultados de encuestas hipotéticas, lo que permite evaluar la incertidumbre y la coherencia del modelo con los datos observados.

Agárrese que el modelo es complicado pero se puede describir, con ayuda de un LLM para el Latex, de la siguiente manera:

\[ \begin{aligned} &\textbf{Datos:}\\ &J \in \{1,2,\dots\}, \qquad K \in \{2,3,\dots\},\\ &n_j \in \{0,1,2,\dots\}, \qquad \mathbf{Y}_j = (Y_{j1},\dots,Y_{jK}) \in \{0,1,2,\dots\}^K,\\ &\sum_{k=1}^K Y_{jk} = n_j \quad \text{para } j=1,\dots,J.\\[6pt] &\textbf{Parámetros:}\\ &\mathbf{p}=(p_1,\dots,p_K) \in \Delta_{K-1}, \qquad \kappa>0.\\[6pt] &\textbf{Priors:}\\ &\mathbf{p}\sim\mathrm{Dirichlet}(\mathbf{1}_K),\\ &\kappa \sim \mathrm{LogNormal}(\log 200,\;0.7).\\[6pt] &\textbf{Likelihood:}\\ &\mathbf{Y}_j \mid \mathbf{p},\kappa \sim \mathrm{Dirichlet\text{-}Multinomial} \!\left(n_j,\;\boldsymbol{\alpha}\right), \qquad \boldsymbol{\alpha}=\kappa\,\mathbf{p}, \quad j=1,\dots,J. \end{aligned} \]

Modelo

Abajo se describe el modelo en Stan.

Ver código
data {
  int<lower=1> J;                     // encuestas
  int<lower=2> K;                     // candidatos
  array[J] int<lower=0> n;            // tamaño muestral
  array[J, K] int<lower=0> Y;         // conteos Y[j, k]
}

parameters {
  simplex[K] p;                   // preferencias pooled
  real<lower=0> kappa;            // concentración DM
}

model {
  // priors
  p ~ dirichlet(rep_vector(1.0, K));    // relativamente débil
  kappa ~ lognormal(log(200), 0.7);    // centrado en 200

  // likelihood
  for (j in 1:J) {
    Y[j] ~ dirichlet_multinomial(kappa * p);
  }
}

generated quantities {
  vector[K] alpha = kappa * to_vector(p);
  array[J, K] int Y_rep;              // conteos
  for (j in 1:J) {
    Y_rep[j] = dirichlet_multinomial_rng(alpha, n[j]);
  }
}

Estimación

Usamos cmdstanr para estimar el modelo luego de transformar las proporciones reportadas en las fichas técnicas de las encuestas en conteos sobre la muestra de cada encuesta. Por ejemplo, si un candidato marcó 20% de la intención de voto en una encuesta de 2 000 personas, el conteo es 400.

Luego la maravilla de compiladores se encargan de estimar el modelo.

El muestreo funciona como se espera:

Ver código
bayesplot::mcmc_trace(ajiaco2_fit$draws(),  pars = vars(starts_with("p[")))

Ver código
ajiaco2_fit$cmdstan_diagnose()
Checking sampler transitions treedepth.
Treedepth satisfactory for all transitions.

Checking sampler transitions for divergences.
No divergent transitions found.

Checking E-BFMI - sampler transitions HMC potential energy.
E-BFMI satisfactory.

Rank-normalized split effective sample size satisfactory for all parameters.

Rank-normalized split R-hat values satisfactory for all parameters.

Processing complete, no problems detected.

Resultados

Ahora miremos los parametros:

Ver código
ajiaco2_fit$cmdstan_summary()
Inference for Stan model: ajiaco2_model
4 chains: each with iter=4000; warmup=1000; thin=1; 4000 iterations saved.

Warmup took (0.15, 0.16, 0.16, 0.18) seconds, 0.65 seconds total
Sampling took (1.4, 1.5, 1.6, 1.4) seconds, 5.9 seconds total

                 Mean     MCSE   StdDev      MAD     5%    50%    95%  ESS_bulk  ESS_tail  ESS_bulk/s  R_hat

lp__             -110  3.0e-02  2.5e+00  2.4e+00   -115   -110   -107      6774     10313        1148    1.0
accept_stat__    0.95  3.8e-04    0.054    0.040   0.84   0.97    1.0     21283     16918        3607    1.0
stepsize__       0.42      nan    0.023    0.024   0.39   0.42   0.46       nan       nan         nan    nan
treedepth__       3.1      nan     0.31     0.00    3.0    3.0    4.0        40        38         6.8    1.1
n_leapfrog__      8.7      nan      3.3     0.00    7.0    7.0     15        41        41         7.0    1.1
divergent__      0.00      nan     0.00     0.00   0.00   0.00   0.00       nan       nan         nan    nan
energy__          116  4.5e-02      3.4      3.3    111    116    122      5712      8812         968    1.0

p[1]             0.31  1.1e-04  1.5e-02  1.5e-02   0.29   0.31   0.34     18968     11770        3215    1.0
p[2]             0.23  9.8e-05  1.4e-02  1.4e-02   0.21   0.23   0.25     19503     10911        3306    1.0
p[3]            0.025  3.4e-05  4.6e-03  4.6e-03  0.018  0.025  0.033     18224     11934        3089    1.0
p[4]            0.049  4.8e-05  6.9e-03  6.8e-03  0.038  0.049  0.061     20072     11266        3402   1.00
p[5]            0.021  2.9e-05  4.1e-03  4.1e-03  0.014  0.021  0.028     19001     11754        3220    1.0
p[6]            0.020  3.0e-05  4.0e-03  4.0e-03  0.013  0.019  0.026     16895     10597        2864    1.0
p[7]            0.048  4.9e-05  6.6e-03  6.7e-03  0.037  0.048  0.059     18609     11074        3154    1.0
p[8]            0.031  4.0e-05  5.3e-03  5.3e-03  0.023  0.031  0.040     17044     10869        2889    1.0
p[9]            0.017  2.5e-05  3.6e-03  3.6e-03  0.011  0.016  0.023     19927     11030        3377    1.0
p[10]           0.018  2.8e-05  3.8e-03  3.7e-03  0.012  0.018  0.024     18250     11478        3093    1.0
p[11]            0.23  1.0e-04  1.4e-02  1.4e-02   0.21   0.23   0.26     18052     12383        3060    1.0
kappa             111  1.5e-01  1.8e+01  1.8e+01     84    110    141     13620     11595        2308   1.00
alpha[1]           34  5.0e-02  5.9e+00  5.9e+00     25     34     45     13448     10938        2279   1.00
alpha[2]           25  3.8e-02  4.4e+00  4.4e+00     18     25     33     13696     10671        2321    1.0
alpha[3]          2.8  4.6e-03  6.3e-01  6.3e-01    1.8    2.7    3.9     18627     11971        3157    1.0
alpha[4]          5.4  8.7e-03  1.1e+00  1.1e+00    3.7    5.3    7.4     16392     11503        2778   1.00
alpha[5]          2.3  3.8e-03  5.3e-01  5.4e-01    1.5    2.2    3.2     19572     11164        3317    1.0
alpha[6]          2.2  3.6e-03  5.1e-01  5.1e-01    1.4    2.1    3.1     19551     11428        3314    1.0
alpha[7]          5.3  8.5e-03  1.1e+00  1.1e+00    3.7    5.2    7.2     15815     11963        2681   1.00
alpha[8]          3.4  6.0e-03  7.8e-01  7.8e-01    2.2    3.4    4.8     16380     11813        2776    1.0
alpha[9]          1.8  3.0e-03  4.5e-01  4.5e-01    1.1    1.8    2.6     22191     11608        3761    1.0
alpha[10]         2.0  3.3e-03  4.7e-01  4.7e-01    1.2    1.9    2.8     20169     11812        3419    1.0
alpha[11]          26  3.8e-02  4.5e+00  4.4e+00     19     26     34     13564     12230        2299   1.00
Y_rep[1,1]       1406  1.7e+00  2.1e+02  2.1e+02   1068   1400   1767     16222     15468        2750    1.0
Y_rep[1,2]       1030  1.6e+00  1.9e+02  1.9e+02    726   1023   1363     15742     15166        2668    1.0
Y_rep[1,3]        113  5.5e-01  7.1e+01  6.5e+01     24    100    253     16610     15410        2815    1.0
Y_rep[1,4]        221  7.7e-01  9.9e+01  9.5e+01     84    208    404     16319     15509        2766    1.0
Y_rep[1,5]         94  5.1e-01  6.6e+01  5.8e+01     15     80    219     15749     15916        2669    1.0
Y_rep[1,6]         88  5.0e-01  6.3e+01  5.5e+01     13     74    205     16149     15047        2737    1.0
Y_rep[1,7]        216  7.8e-01  9.8e+01  9.3e+01     82    203    395     15815     15898        2680    1.0
Y_rep[1,8]        139  6.3e-01  7.9e+01  7.4e+01     36    127    288     15990     16024        2710   1.00
Y_rep[1,9]         75  4.7e-01  5.8e+01  4.9e+01    9.0     60    188     15584     15591        2641    1.0
Y_rep[1,10]        81  4.8e-01  6.1e+01  5.2e+01     10     66    198     16508     16155        2798    1.0
Y_rep[1,11]      1057  1.6e+00  2.0e+02  2.0e+02    747   1050   1388     15919     15649        2698    1.0
Y_rep[2,1]        375  4.6e-01  5.8e+01  5.8e+01    281    374    473     16105     15593        2730    1.0
Y_rep[2,2]        275  4.2e-01  5.3e+01  5.3e+01    192    273    365     15741     15817        2668    1.0
Y_rep[2,3]         30  1.5e-01  2.0e+01  1.8e+01    6.0     26     69     16679     15837        2827    1.0
Y_rep[2,4]         59  2.1e-01  2.7e+01  2.5e+01     21     55    109     16643     15879        2821   1.00
Y_rep[2,5]         25  1.4e-01  1.8e+01  1.6e+01    4.0     21     60     15959     15749        2705    1.0
Y_rep[2,6]         23  1.4e-01  1.7e+01  1.5e+01    3.0     19     57     16483     16113        2794    1.0
Y_rep[2,7]         58  2.1e-01  2.7e+01  2.5e+01     20     55    108     15932     14848        2700    1.0
Y_rep[2,8]         37  1.7e-01  2.2e+01  2.1e+01    9.0     34     78     16139     15625        2736    1.0
Y_rep[2,9]         20  1.2e-01  1.6e+01  1.3e+01    2.0     16     52     16594     16095        2812   1.00
Y_rep[2,10]        21  1.3e-01  1.6e+01  1.3e+01    2.0     17     54     15720     15440        2664   1.00
Y_rep[2,11]       283  4.2e-01  5.4e+01  5.5e+01    198    281    375     16421     15584        2783    1.0
Y_rep[3,1]       1320  1.6e+00  2.0e+02  2.0e+02    997   1317   1660     16063     15926        2723    1.0
Y_rep[3,2]        967  1.4e+00  1.8e+02  1.8e+02    681    959   1282     16279     15639        2759    1.0
Y_rep[3,3]        106  5.3e-01  6.7e+01  6.1e+01     23     94    233     16222     15765        2749    1.0
Y_rep[3,4]        206  7.7e-01  9.3e+01  8.9e+01     79    194    376     14456     15182        2450   1.00
Y_rep[3,5]         88  4.8e-01  6.1e+01  5.3e+01     15     75    206     15720     14975        2664    1.0
Y_rep[3,6]         83  4.6e-01  5.9e+01  5.0e+01     13     70    196     16333     16033        2768   1.00
Y_rep[3,7]        204  7.0e-01  9.2e+01  8.7e+01     77    191    375     16933     15579        2870    1.0
Y_rep[3,8]        131  5.9e-01  7.5e+01  6.8e+01     35    118    273     16027     15752        2716    1.0
Y_rep[3,9]         70  4.4e-01  5.5e+01  4.7e+01    8.0     57    177     16258     15589        2756   1.00
Y_rep[3,10]        75  4.4e-01  5.6e+01  4.9e+01     10     62    185     16063     16028        2723    1.0
Y_rep[3,11]       993  1.4e+00  1.9e+02  1.9e+02    702    987   1312     16532     14981        2802   1.00
Y_rep[4,1]        684  8.2e-01  1.0e+02  1.0e+02    515    682    858     16082     15645        2726    1.0
Y_rep[4,2]        500  7.4e-01  9.5e+01  9.5e+01    349    496    662     16482     15659        2794   1.00
Y_rep[4,3]         55  2.8e-01  3.5e+01  3.1e+01     11     48    123     16067     15835        2723   1.00
Y_rep[4,4]        108  3.8e-01  5.0e+01  4.7e+01     40    101    199     16412     15567        2782   1.00
Y_rep[4,5]         46  2.5e-01  3.2e+01  2.8e+01    7.0     39    107     16348     15756        2771    1.0
Y_rep[4,6]         43  2.5e-01  3.1e+01  2.7e+01    6.0     36    104     16189     15711        2744    1.0
Y_rep[4,7]        106  3.9e-01  4.8e+01  4.6e+01     40     99    195     15408     15426        2612    1.0
Y_rep[4,8]         68  3.2e-01  3.9e+01  3.6e+01     17     61    141     15449     15818        2619   1.00
Y_rep[4,9]         37  2.3e-01  2.9e+01  2.4e+01    4.0     30     94     15794     15707        2677    1.0
Y_rep[4,10]        39  2.4e-01  3.0e+01  2.5e+01    5.0     32     98     16066     15204        2723   1.00
Y_rep[4,11]       516  7.5e-01  9.5e+01  9.3e+01    367    512    677     15950     14288        2703    1.0
Y_rep[5,1]       2264  2.7e+00  3.4e+02  3.5e+02   1715   2254   2837     15712     15470        2663    1.0
Y_rep[5,2]       1665  2.4e+00  3.1e+02  3.1e+02   1175   1654   2195     16384     15117        2777   1.00
Y_rep[5,3]        183  9.0e-01  1.2e+02  1.0e+02     41    161    405     16516     15589        2799   1.00
Y_rep[5,4]        359  1.3e+00  1.6e+02  1.6e+02    138    338    652     16106     16053        2730    1.0
Y_rep[5,5]        152  8.2e-01  1.1e+02  9.3e+01     26    130    353     16465     16016        2791    1.0
Y_rep[5,6]        142  8.1e-01  1.0e+02  8.9e+01     22    120    338     15724     15348        2665    1.0
Y_rep[5,7]        350  1.2e+00  1.6e+02  1.5e+02    133    329    640     16233     15888        2751    1.0
Y_rep[5,8]        228  1.0e+00  1.3e+02  1.2e+02     61    205    472     16342     15711        2770    1.0
Y_rep[5,9]        121  7.4e-01  9.4e+01  8.0e+01     15     99    305     15837     15819        2684   1.00
Y_rep[5,10]       131  7.6e-01  9.7e+01  8.5e+01     18    109    320     16200     15551        2746    1.0
Y_rep[5,11]      1703  2.5e+00  3.1e+02  3.1e+02   1213   1690   2236     15581     15927        2641   1.00
Y_rep[6,1]        655  8.2e-01  1.0e+02  1.0e+02    493    653    823     15248     15056        2584    1.0
Y_rep[6,2]        481  7.2e-01  9.2e+01  9.0e+01    336    476    638     16072     16074        2724    1.0
Y_rep[6,3]         53  2.6e-01  3.4e+01  3.1e+01     11     47    117     16246     15567        2754    1.0
Y_rep[6,4]        103  3.7e-01  4.7e+01  4.4e+01     39     97    190     16032     15910        2717    1.0
Y_rep[6,5]         44  2.5e-01  3.1e+01  2.7e+01    7.0     37    104     15879     14698        2691   1.00
Y_rep[6,6]         41  2.4e-01  3.0e+01  2.5e+01    6.0     34     99     15962     15803        2705   1.00
Y_rep[6,7]        101  3.6e-01  4.6e+01  4.4e+01     37     95    186     16204     15717        2746    1.0
Y_rep[6,8]         65  2.9e-01  3.7e+01  3.6e+01     17     59    136     16074     15388        2724    1.0
Y_rep[6,9]         35  2.2e-01  2.8e+01  2.2e+01    4.0     28     88     15977     16061        2708    1.0
Y_rep[6,10]        37  2.3e-01  2.8e+01  2.5e+01    4.0     31     92     15571     15649        2639    1.0
Y_rep[6,11]       493  7.2e-01  9.1e+01  9.0e+01    349    489    651     16169     14945        2740   1.00
Y_rep[7,1]       2007  2.5e+00  3.0e+02  3.0e+02   1516   2002   2519     15362     14607        2604   1.00
Y_rep[7,2]       1477  2.2e+00  2.8e+02  2.7e+02   1039   1465   1959     15815     15481        2681   1.00
Y_rep[7,3]        163  8.1e-01  1.0e+02  9.2e+01     35    144    360     16127     16005        2733    1.0
Y_rep[7,4]        316  1.1e+00  1.4e+02  1.4e+02    120    298    576     16750     15757        2839   1.00
Y_rep[7,5]        133  7.6e-01  9.3e+01  8.2e+01     23    113    313     15281     15061        2590    1.0
Y_rep[7,6]        127  7.3e-01  9.1e+01  8.0e+01     19    107    302     15653     15070        2653    1.0
Y_rep[7,7]        311  1.1e+00  1.4e+02  1.4e+02    117    291    569     16949     16233        2873   1.00
Y_rep[7,8]        198  8.8e-01  1.1e+02  1.0e+02     54    179    412     16291     15180        2761    1.0
Y_rep[7,9]        108  6.7e-01  8.5e+01  7.0e+01     13     88    272     16015     15786        2714    1.0
Y_rep[7,10]       115  6.8e-01  8.6e+01  7.4e+01     15     95    283     15946     15821        2703    1.0
Y_rep[7,11]      1511  2.2e+00  2.8e+02  2.8e+02   1079   1496   1991     15406     15788        2611   1.00
Y_rep[8,1]       1200  1.5e+00  1.8e+02  1.8e+02    904   1196   1510     15626     15640        2649   1.00
Y_rep[8,2]        882  1.3e+00  1.7e+02  1.7e+02    623    875   1168     16292     15778        2761    1.0
Y_rep[8,3]         97  4.7e-01  6.1e+01  5.5e+01     20     85    214     16791     15424        2846    1.0
Y_rep[8,4]        189  6.6e-01  8.4e+01  8.2e+01     72    178    347     16589     15994        2812    1.0
Y_rep[8,5]         81  4.5e-01  5.7e+01  5.0e+01     13     68    190     15442     15247        2617    1.0
Y_rep[8,6]         76  4.4e-01  5.5e+01  4.9e+01     11     64    183     15815     15357        2680    1.0
Y_rep[8,7]        186  6.7e-01  8.4e+01  7.9e+01     70    174    342     15730     16092        2666    1.0
Y_rep[8,8]        119  5.4e-01  6.8e+01  6.2e+01     31    108    247     16002     15827        2712    1.0
Y_rep[8,9]         64  4.0e-01  5.0e+01  4.3e+01    8.0     53    162     15927     16133        2700    1.0
Y_rep[8,10]        68  4.1e-01  5.1e+01  4.3e+01    9.0     56    169     16126     15838        2733    1.0
Y_rep[8,11]       904  1.4e+00  1.7e+02  1.7e+02    637    897   1192     15427     15052        2615    1.0
Y_rep[9,1]       1145  1.4e+00  1.7e+02  1.7e+02    866   1140   1438     16517     16006        2800   1.00
Y_rep[9,2]        840  1.2e+00  1.6e+02  1.6e+02    587    834   1106     16793     15345        2846   1.00
Y_rep[9,3]         93  4.7e-01  5.9e+01  5.3e+01     20     81    203     15377     14713        2606   1.00
Y_rep[9,4]        181  6.4e-01  8.2e+01  7.7e+01     67    170    330     16126     15632        2733   1.00
Y_rep[9,5]         76  4.2e-01  5.3e+01  4.7e+01     13     66    178     15729     15884        2666    1.0
Y_rep[9,6]         72  4.3e-01  5.3e+01  4.6e+01     11     60    175     15293     15084        2592    1.0
Y_rep[9,7]        176  6.3e-01  7.9e+01  7.6e+01     66    165    322     15942     14992        2702   1.00
Y_rep[9,8]        113  5.3e-01  6.5e+01  5.9e+01     29    102    236     14898     14855        2525    1.0
Y_rep[9,9]         61  3.8e-01  4.8e+01  4.2e+01    7.0     50    154     16694     15887        2829    1.0
Y_rep[9,10]        66  4.0e-01  5.0e+01  4.3e+01    8.0     54    162     16042     16052        2719   1.00
Y_rep[9,11]       862  1.3e+00  1.6e+02  1.6e+02    613    854   1137     16206     15863        2747   1.00

Samples were drawn using hmc with nuts.
For each parameter, ESS_bulk and ESS_tail measure the effective sample size for the entire sample (bulk) and for the .05 and .95 tails (tail), 
and R_hat measures the potential scale reduction on split chains. At convergence R_hat will be very close to 1.00.

Cómo citar

BibTeX
@online{recetas_electorales2026,
  author = {{Recetas Electorales}},
  title = {🥑 Ajiaco2},
  date = {2026-01-28},
  url = {https://www.recetas-electorales.com/elecciones/2026-colombia/2026-01-28-ajiaco2/2026-ajiaco2.html},
  langid = {es}
}
Por favor, cita este trabajo como:
Recetas Electorales. 2026. “🥑 Ajiaco2.” January 28. https://www.recetas-electorales.com/elecciones/2026-colombia/2026-01-28-ajiaco2/2026-ajiaco2.html.