Apunte 22 — Adverse impact, sesgo algorítmico y ética en selección: marco internacional y contexto chileno

Analítica de Personas · Semestre otoño 2026 · Semana 8 · Prof. René Gempp

El problema concreto que resuelve este apunte Imagínate que armaste un modelo de scoring. Predice bien (Apunte 20: validez sólida) y rinde económicamente (Apunte 21: ROI estimado en cientos de millones). Tu CFO quiere ponerlo en producción mañana. Pero antes de firmar, tu Gerente Legal te pregunta: «¿estamos seguros que este modelo no nos va a meter en un problema con la Dirección del Trabajo, con la nueva Agencia de Protección de Datos, o con un litigio por discriminación?». Este apunte te enseña a responder esa pregunta con rigor técnico y con conocimiento del marco normativo chileno.

1. Por qué hablamos de equidad en una clase técnica

Los Apuntes 20 y 21 mostraron cómo medir si un sistema de selección predice el desempeño (validez) y cuánto vale en pesos (utilidad). Pero un sistema con validez alta y utilidad millonaria puede, simultáneamente, estar sistemáticamente excluyendo a personas calificadas porque pertenecen a un grupo demográfico determinado. Cuando eso ocurre, la métrica que falta detectarlo es el adverse impact.

El concepto tiene origen jurídico, no académico. La sentencia Griggs v. Duke Power (US Supreme Court, 1971) estableció que un requisito laboral neutral en su redacción puede ser discriminatorio en sus efectos, y que la responsabilidad del empleador es demostrar que el requisito es necesario para el puesto. Una década después, la Equal Employment Opportunity Commission (EEOC) publicó las Uniform Guidelines on Employee Selection Procedures (UGESP, 1978), que dieron a la doctrina su forma operativa: cualquier procedimiento de selección con tasas de paso desiguales entre grupos protegidos debía justificarse técnicamente.

«Disparate treatment» vs. «disparate impact» La jurisprudencia estadounidense distingue dos formas de discriminación. Disparate treatment es trato distinto deliberado en virtud del grupo protegido (e.g., descartar CV con nombres femeninos a propósito). Disparate impact es un procedimiento neutral que produce efectos desiguales, sin requerir intención discriminatoria. La regla de los 4/5 que veremos a continuación está pensada para detectar el segundo, que es el más sutil y el más frecuente en la práctica. La distinción es importante porque, en el derecho chileno, el artículo 2 del Código del Trabajo y la Ley 20.609 capturan ambas modalidades, aunque la doctrina nacional sobre disparate impact está mucho menos desarrollada que la estadounidense.

2. La regla de los 4/5: la heurística más conocida

El UGESP de 1978 introdujo la regla de los 4/5 (también llamada regla del 80%) como criterio operativo para identificar adverse impact:

Si la tasa de paso del grupo focal es menor al 80% de la tasa de paso del grupo de referencia, hay adverse impact prima facie.

Formalmente:

$$\text{Impact Ratio} = \dfrac{\text{Tasa de paso}_{\text{grupo focal}}}{\text{Tasa de paso}_{\text{grupo referencia}}}$$

Si el impact ratio es menor a 0.80, el procedimiento dispara la regla y debe justificarse. Si es mayor o igual a 0.80, la regla no dispara, pero eso no exime al procedimiento de otras objeciones legales.

2.1 Qué cuenta como grupo protegido

El concepto de «grupo protegido» varía por jurisdicción. En Estados Unidos, las categorías protegidas federalmente incluyen raza/etnicidad, género, edad (≥40 años), discapacidad, religión, origen nacional, embarazo y veterancia. En la Unión Europea, la Directiva 2000/78 cubre las mismas categorías más orientación sexual.

En Chile, el catálogo de categorías protegidas se construye a partir de varios cuerpos normativos que veremos en detalle en la sección 6: el artículo 19 nº 16 de la Constitución, el artículo 2 del Código del Trabajo, la Ley 20.609 (antidiscriminación), la Ley 20.348 (igualdad de remuneraciones) y las Leyes 21.015 y 21.275 (inclusión laboral de personas con discapacidad). Las categorías cubiertas incluyen sexo, edad, estado civil, sindicación, religión, opinión política, nacionalidad, ascendencia nacional, origen social, orientación sexual, identidad de género, discapacidad y otras.

2.2 Aplicación en R con el dataset de InnovaCo

library(tidyverse)
postulaciones <- read_csv("innovaco_postulaciones.csv")

# Tasa de paso de la entrevista en familia Tecnología, por género
adverse_tec <- postulaciones |>
  filter(familia_cargo == "Tecnología",
         paso_filtro_cv == 1) |>
  group_by(genero) |>
  summarise(
    n_evaluados = n(),
    n_pasaron   = sum(score_entrevista >= 3.0, na.rm = TRUE),
    tasa_paso   = n_pasaron / n_evaluados
  )

adverse_tec
  genero  n_evaluados n_pasaron tasa_paso
1 Hombre          219       133     0.607
2 Mujer           138        46     0.333
impact_ratio <- adverse_tec$tasa_paso[adverse_tec$genero == "Mujer"] /
                adverse_tec$tasa_paso[adverse_tec$genero == "Hombre"]
impact_ratio
# [1] 0.549

impact_ratio < 0.80
# [1] TRUE → viola la regla de los 4/5

El impact ratio para la entrevista de Tecnología en InnovaCo es 0.55, muy por debajo del umbral de 0.80. La regla dispara: hay adverse impact prima facie. La empresa debe ahora justificar técnicamente la entrevista (validez de criterio, validez de contenido) o cambiar el procedimiento.

2.3 Limitaciones de la regla del 4/5

La regla del 4/5 es popular precisamente porque es simple. Pero tiene tres limitaciones técnicas serias que un analista debe conocer:

El test estadístico complementario La práctica recomendada es complementar la regla del 4/5 con un test de proporciones. Si la diferencia es pequeña pero el N es grande, el test puede ser estadísticamente significativo aunque la regla no dispare. Si el N es chico y la diferencia es grande, la regla dispara pero el test puede no rechazar. Ambas pruebas, juntas, dan una imagen más completa.
n_h <- adverse_tec$n_evaluados[adverse_tec$genero == "Hombre"]
x_h <- adverse_tec$n_pasaron[adverse_tec$genero == "Hombre"]
n_m <- adverse_tec$n_evaluados[adverse_tec$genero == "Mujer"]
x_m <- adverse_tec$n_pasaron[adverse_tec$genero == "Mujer"]

prop.test(c(x_h, x_m), c(n_h, n_m))
     2-sample test for equality of proportions with continuity correction

X-squared = 26.4, df = 1, p-value = 2.8e-07
alternative hypothesis: two.sided
95 percent confidence interval:
 0.169  0.379
sample estimates:
  prop 1   prop 2
0.6073  0.3333

El test confirma: la diferencia es altamente significativa (p < 0.001), con un intervalo de confianza al 95% para la diferencia de tasas que va de 17 a 38 puntos porcentuales. La regla del 4/5 y el test estadístico convergen en la misma conclusión.

3. El caso Amazon 2018: el incidente que cambió el debate

En octubre de 2018, Reuters publicó una nota firmada por Jeffrey Dastin que se convertiría en referencia obligada del campo: «Amazon scraps secret AI recruiting tool that showed bias against women». La compañía había desarrollado, entre 2014 y 2017, un sistema de machine learning para puntuar CVs de candidatos a puestos técnicos. El sistema escaneaba decenas de miles de CVs por mes.

Cuando los ingenieros auditaron el modelo, encontraron que penalizaba sistemáticamente los CVs que contenían la palabra «women's» (como en «women's chess club captain») y devaluaba los grados otorgados por dos universidades exclusivamente femeninas. El sistema no había sido programado para hacer eso. Lo había aprendido.

3.1 El mecanismo: cómo aprendió el sesgo

Amazon entrenó el modelo con CVs de los últimos 10 años de candidatos exitosos en la empresa. Esos CVs venían mayoritariamente de hombres, reflejando la composición histórica del sector tecnológico. El algoritmo aprendió a reconocer patrones que predecían «ser contratado» en ese histórico, y entre esos patrones estaban los marcadores lingüísticos de identidad masculina.

El sesgo no estaba en el algoritmo: estaba en los datos. Pero el algoritmo lo amplificó y operacionalizó a escala industrial. Cuando los ingenieros intentaron eliminar las palabras de género más obvias, surgieron variables proxy: el modelo encontraba la señal en otras pistas correlacionadas con género (verbos usados, deportes practicados, formato del CV).

3.2 La decisión final

Amazon nunca usó el sistema para decisiones de contratación reales. El proyecto se desactivó en 2017, el equipo se disolvió, y la noticia se conoció un año después. La compañía declaró que el sistema había sido solo «experimental».

El valor pedagógico del caso Amazon El caso es citado tanto como ejemplo de sesgo algorítmico cuanto como ejemplo de buena gobernanza: la empresa identificó el problema y desactivó el sistema antes de causar daño operativo masivo. La pregunta abierta —y políticamente cargada— es cuántas empresas, hoy, tienen sistemas similares en producción sin haber hecho una auditoría comparable.

4. Tres mecanismos de sesgo algorítmico en selección

Raghavan, Barocas, Kleinberg y Levy (2020) sistematizaron, en un análisis de 19 herramientas comerciales de pre-employment assessment, los mecanismos por los que el sesgo entra en sistemas algorítmicos de selección. Los tres más comunes:

4.1 Target leakage

El criterio que predice el modelo está él mismo contaminado por sesgo histórico. Si predigo «ser promovido en los próximos 3 años» y la empresa históricamente ha promovido más a hombres, el modelo aprenderá a preferir candidatos masculinos. La señal aprendida es real (en términos de la historia), pero codifica injusticia.

4.2 Variables proxy

Aunque la variable protegida (género, raza) no esté en el modelo, otras variables correlacionadas la representan implícitamente. En el contexto chileno, el código postal correlaciona fuertemente con nivel socioeconómico y, en algunas regiones, con composición étnica. La universidad de origen correlaciona con clase social. El año de graduación con edad. Eliminar la variable explícita no elimina el sesgo si los proxies permanecen.

4.3 Feedback loop

El sistema entrena hoy con resultados de decisiones que él mismo tomó ayer. Si ayer el sistema descartó a 1.000 mujeres calificadas, ese descarte se convierte en señal de «no calificada» en el dataset de mañana, reforzando la decisión inicial. El sesgo se amplifica con el tiempo en lugar de corregirse.

5. Auditoría de un sistema de scoring: una checklist

Cuando te toque auditar un sistema de scoring algorítmico —tu propio modelo logístico de la Tarea 6, o un sistema comercial que está evaluando RRHH—, las preguntas de la checklist son:

  1. ¿Cuál es el criterio que el modelo predice? ¿Es un proxy razonable de «buen trabajador»? ¿Está él mismo contaminado por sesgo histórico?
  2. ¿Qué predictores entran al modelo? ¿Cada uno tiene justificación de validez de contenido? ¿Hay proxies de variables protegidas?
  3. ¿Cuál es la composición demográfica del set de entrenamiento? ¿Refleja la diversidad esperada de aplicantes futuros?
  4. ¿Cuál es la performance del modelo desagregada por grupo? ¿AUC, sensibilidad, especificidad por género/edad/discapacidad?
  5. ¿Cuál es el impact ratio en la decisión final? ¿Y a lo largo de las etapas del embudo?
  6. ¿Hay un proceso de monitoreo periódico? ¿Cada cuánto se re-audita el modelo?
  7. ¿Hay una vía de apelación humana para candidatos rechazados por el sistema?
El test mínimo viable Si solo puedes hacer una cosa antes de poner un sistema en producción, ese debe ser calcular el impact ratio en cada etapa por cada grupo protegido relevante. Es la métrica que primero detectaría problemas tipo Amazon 2018 y la que primero te exigiría un auditor regulatorio.

6. Marco regulatorio chileno: lo que aplica hoy y lo que viene

Chile tiene un marco normativo de no discriminación laboral robusto, aunque distribuido en varios cuerpos legales sin una norma específica para sistemas algorítmicos de empleo. Lo que sigue es el mapa completo, en orden creciente de relevancia operativa para tu trabajo como analista.

6.1 Marco constitucional y laboral general

La Constitución Política de la República, artículo 19 nº 16, garantiza la libertad de trabajo y establece que «se prohíbe cualquiera discriminación que no se base en la capacidad o idoneidad personal». Esa frase es el ancla constitucional de todo análisis de adverse impact en Chile: si una práctica de selección produce efectos diferenciales que no derivan de capacidad o idoneidad, el procedimiento es inconstitucional per se.

El Código del Trabajo, artículo 2, desarrolla esta garantía a nivel laboral. Define como actos de discriminación «las distinciones, exclusiones o preferencias basadas en motivos de raza, color, sexo, edad, estado civil, sindicación, religión, opinión política, nacionalidad, ascendencia nacional u origen social, situación socioeconómica, idioma, creencias, participación en organizaciones gremiales, orientación sexual, identidad de género, filiación, apariencia personal, enfermedad o discapacidad u origen social, que tengan por objeto anular o alterar la igualdad de oportunidades o de trato en el empleo y la ocupación». La lista es extensa y, para efectos prácticos, mucho más amplia que la lista federal estadounidense.

6.2 Ley 20.348 (2009): igualdad de remuneraciones

La Ley 20.348 obliga a los empleadores con 200 o más trabajadores a llevar un registro de cargos y funciones y a tener un procedimiento para que las trabajadoras puedan reclamar diferencias salariales injustificadas con sus pares masculinos en el mismo cargo. Aunque su foco es compensación (no selección), hay un punto operativo que importa para analítica de personas: la ley exige que las diferencias salariales tengan justificación objetiva basada en capacidades, calificaciones o idoneidad, y los modelos predictivos de salario o de potencial deben poder pasar ese test si llegaran a usarse en decisiones que afecten remuneración.

6.3 Ley 20.609 (2012): antidiscriminación («Ley Zamudio»)

La Ley 20.609 establece un mecanismo judicial específico para reclamar contra actos de discriminación arbitraria, definidos como «toda distinción, exclusión o restricción que carezca de justificación razonable». La acción se interpone ante el juez de letras y permite ordenar el cese del acto discriminatorio y la reparación. Aunque su uso ha sido principalmente en discriminación por orientación sexual y religión, la redacción es genérica y aplica a discriminación algorítmica en selección si se consigue acreditarla.

6.4 Ley 21.015 (2017) y Ley 21.275 (2020): inclusión laboral de personas con discapacidad

La Ley 21.015 obliga a empresas y organismos públicos con 100 o más trabajadores a contratar al menos 1% de personas con discapacidad. La Ley 21.275, vigente desde noviembre de 2022, agregó tres obligaciones complementarias:

Para tu análisis de adverse impact, esto significa que el grupo «personas con discapacidad» debe estar explícitamente en tu auditoría si la empresa supera los 100 trabajadores, no como una cortesía sino como obligación legal con sanciones administrativas.

6.5 Ley 21.719 (2024): el game-changer en protección de datos

La norma más importante para analítica de personas en Chile La Ley 21.719, publicada en el Diario Oficial el 13 de diciembre de 2024 y vigente desde el 1 de diciembre de 2026, reemplaza la Ley 19.628 de 1999 y cambia radicalmente las reglas para cualquier modelo predictivo aplicado a personas. Está fuertemente alineada con el GDPR europeo y crea una nueva Agencia de Protección de Datos Personales con facultades de fiscalización y sanción.

Los puntos que deben estar en el radar de cualquier persona que haga analítica de personas en Chile a partir de diciembre de 2026:

Lo que esto cambia para tu trabajo Hasta ahora, un modelo predictivo de selección podía operar sin más documentación que un README técnico. Desde diciembre de 2026, ese modelo necesitará: (i) base de licitud del tratamiento documentada; (ii) EIPD si el tratamiento es de alto riesgo; (iii) procedimiento operativo para responder solicitudes ARCO en plazos legales; (iv) mecanismo de intervención humana significativa en decisiones automatizadas. Si tu empresa no se está preparando hoy, tiene 8 meses para hacerlo.

6.6 Política Nacional de IA y proyecto de Ley sobre Sistemas de IA

La Política Nacional de Inteligencia Artificial en su versión actualizada de 2024 (Decreto Supremo nº 12 del Ministerio de Ciencia, del 11 de abril de 2024, publicado en el Diario Oficial el 28 de enero de 2025) establece los lineamientos estratégicos del Estado en materia de IA con horizonte al año 2031. Profundiza, respecto de la versión 2021, en gobernanza y ética, e incluye un Plan de Acción con 177 iniciativas coordinadas por 14 ministerios. Aunque la Política no es vinculante para el sector privado, define el lenguaje técnico y los principios que serán recogidos por la futura ley.

El proyecto de ley que regula los sistemas de inteligencia artificial (Boletín 16.821-19, refundido con el Boletín 15.869-19) ingresó a tramitación el 7 de mayo de 2024 mediante mensaje del Ejecutivo. Fue aprobado en particular por la Cámara de Diputadas y Diputados el 13 de octubre de 2025, y a la fecha de redacción de este apunte se encuentra en segundo trámite constitucional en el Senado, con urgencia simple, en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación.

El proyecto adopta un modelo basado en riesgo similar al AI Act europeo, con cuatro categorías: prohibido, alto riesgo, riesgo limitado y riesgo mínimo. Las herramientas automatizadas de selección de personal caen claramente en la categoría de alto riesgo, lo que implicará obligaciones reforzadas de documentación técnica, supervisión humana, auditoría y registro de operaciones.

Si y cuándo el proyecto se promulgue como ley es incierto. Pero la dirección de la política regulatoria está clara: Chile va a tener una ley específica de IA en los próximos 12–24 meses, modelada sobre el AI Act europeo, con selección de personal entre los sistemas de alto riesgo. La práctica responsable hoy es operar como si esa ley ya estuviera vigente.

7. Marco regulatorio comparado: NYC LL 144 y AI Act EU

Aunque ninguna de estas normas es directamente exigible en Chile, ambas son las referencias que están moldeando la discusión local y la práctica de las empresas multinacionales que operan en el país.

7.1 NYC Local Law 144 (vigente desde julio 2023)

La ciudad de Nueva York fue la primera jurisdicción del mundo en regular específicamente las herramientas automatizadas de empleo (AEDT, automated employment decision tools). La ley exige:

7.2 EU AI Act (Regulation 2024/1689)

La Unión Europea aprobó en 2024 el AI Act, primer marco regulatorio integral de inteligencia artificial. La ley clasifica los sistemas de IA en categorías de riesgo. Los sistemas usados para selección y reclutamiento están clasificados como alto riesgo (Anexo III), lo que implica obligaciones reforzadas: sistema de gestión de calidad documentado, datos de entrenamiento auditables y representativos, supervisión humana significativa, robustez técnica y ciberseguridad, registro automático de operaciones (logs), transparencia, marcaje CE y registro en una base de datos europea pública.

Las disposiciones para sistemas de alto riesgo entran en vigencia escalonadamente entre agosto de 2026 y agosto de 2027. Las multas pueden alcanzar el 3% de la facturación global anual o EUR 15 millones, lo que sea mayor.

8. Herramientas chilenas concretas para la práctica responsable

Más allá de la normativa, en Chile existe una infraestructura técnica desarrollada en los últimos cinco años que pone a disposición —gratis, en español, adaptada al contexto local— las herramientas que necesitas para auditar un sistema de scoring. Conocerla y usarla es lo que distingue a un analista profesional de uno aficionado.

8.1 GobLab UAI: el proyecto Algoritmos Éticos

El GobLab, laboratorio de innovación pública de la Escuela de Gobierno de la Universidad Adolfo Ibáñez, dirigido por María Paz Hermosilla, lleva adelante desde 2020 el proyecto Algoritmos Éticos, Responsables y Transparentes, con apoyo del BID Lab y financiamiento de ANID. El proyecto ha articulado a organismos públicos, mundo privado y academia para desarrollar normativa, guías y herramientas de IA responsable, en una iniciativa pionera en Latinoamérica.

De este proyecto han salido tres productos concretos que cualquier analista chileno debería conocer:

  1. Ficha de Transparencia Algorítmica. Una plantilla estandarizada para documentar un sistema algorítmico —objetivo, datos, predictores, métricas, supervisión humana, vías de apelación— con información comprensible para usuarios no técnicos.
  2. Medición de Sesgos y Equidad. Herramienta que calcula impact ratios, métricas de fairness desagregadas y test estadísticos complementarios, todo desde una interfaz adaptada al contexto chileno.
  3. Evaluación de Impacto Algorítmico (EIA). Guía estructurada para identificar riesgos —sesgos, discriminación, infracciones a protección de datos, opacidad— en etapa temprana del ciclo de vida de un sistema algorítmico.

Las tres herramientas están disponibles públicamente en algoritmospublicos.cl, son gratuitas y de código abierto.

Por qué esto importa para tu trabajo Si te toca defender frente a un comité ejecutivo o frente a un regulador la auditoría de un sistema, citar el uso de las herramientas del GobLab UAI tiene un peso institucional mucho mayor que armar tu propia plantilla desde cero. La Subsecretaría de Seguros y Seguridad Social (SUSESO) y otros servicios públicos las han pilotado y adoptado, lo que las convierte en estándar de facto en el sector público chileno. En el sector privado, su adopción es voluntaria pero creciente.

8.2 ChileCompra: Bases Tipo de Licitación con estándares éticos

En 2023, ChileCompra publicó las primeras Bases Tipo de Licitación en Latinoamérica para la contratación de servicios de ciencia de datos e inteligencia artificial por parte del Estado, con requisitos específicos de transparencia, equidad y protección de datos. Estas bases, elaboradas en alianza con el GobLab UAI, fueron aprobadas por la Contraloría General de la República.

Aunque aplican formalmente solo al sector público, son la mejor referencia operativa que existe hoy en Chile para escribir términos de referencia internos cuando una empresa privada licita un proveedor de IA para selección de personal. La práctica recomendada es copiar las cláusulas relevantes de las Bases Tipo en tu RFP interno: te protege legalmente y te asegura que el proveedor entrega un sistema auditable.

8.3 Instructivo General de Transparencia Algorítmica

El Consejo para la Transparencia, en alianza con el GobLab UAI, publicó en 2023 el primer Instructivo General de Transparencia Algorítmica de Latinoamérica, regulando estándares de transparencia para sistemas algorítmicos en el sector público. Aunque su alcance formal es público, sus exigencias —documentación, explicabilidad, accountability— son la mejor benchmark disponible para definir tu propia política interna en el sector privado.

9. Pareto-optimization: cuando validez y equidad están en tensión

Cerramos con una idea que enlaza con el Apunte 20: cuando el adverse impact aparece, la respuesta no siempre es eliminar el predictor. De Corte, Lievens y Sackett (2007) propusieron el marco de Pareto-optimization: en lugar de maximizar la validez, encontrar el frente de combinaciones de predictores donde no se puede mejorar uno sin empeorar el otro.

El algoritmo asume que tienes varios predictores con distintos perfiles de validez y de adverse impact, y busca la combinación lineal óptima entre ellos. El resultado es un frente de Pareto que muestra, para cada nivel de adverse impact aceptado, el sistema con máxima validez compatible. La decisión sobre qué punto del frente elegir es organizacional y ética, no técnica, pero al menos el espacio queda descrito.

El paquete paretoR de R implementa el algoritmo. Su uso queda fuera del alcance de esta clase, pero merece estar en el horizonte de cualquier analista que enfrenta la disyuntiva validez-equidad en serio.

10. La decisión ética del analista: cuándo recomendar no construir el modelo

Los apuntes anteriores te entregaron herramientas para construir, validar y monetizar un modelo de selección. Este apunte cierra con la pregunta complementaria: ¿cuándo la respuesta correcta es no construirlo?

Hay tres situaciones donde, profesionalmente, lo correcto es decirle a tu cliente o a tu empresa que el modelo no debería entrar en producción, incluso si técnicamente funciona:

  1. Cuando el criterio del modelo está estructuralmente sesgado. Si el modelo predice «ser contratado en los últimos 10 años» en una empresa que históricamente no ha contratado mujeres, no hay limpieza técnica que arregle el problema. El criterio es la falla.
  2. Cuando los costos de un falso negativo son catastróficos para el candidato. Un modelo que descarta a una persona del proceso de selección le quita una oportunidad económica que probablemente no recuperará. Si tu falso negativo está concentrado en un grupo histórico-mente excluido, estás amplificando una injusticia preexistente.
  3. Cuando la organización no tiene la madurez para auditar y monitorear. Un modelo que entra en producción sin un proceso de re-auditoría periódica, sin documentación, sin canal de apelación humana, y sin un dueño accountable, no es un modelo: es una bomba de tiempo regulatoria. Si tu cliente no está dispuesto a invertir en esa infraestructura, tu recomendación profesional honesta es no implementar.
El analista como conciencia técnica En tu trayectoria profesional vas a estar en posiciones donde un comité ejecutivo querrá implementar algo y tú serás la única persona en la sala que entiende los riesgos técnicos y regulatorios. La obligación profesional de levantar la mano —con datos, con cita normativa, con propuestas alternativas— es la diferencia entre ser un técnico ejecutor y ser un analista profesional. La frase que separa a uno del otro es: «antes de avanzar, necesito mostrarles tres cosas que un regulador o un litigante van a preguntarnos en 24 meses».

11. Cinco principios para la práctica responsable + checklist chilena

  1. Audita antes de implementar. Regla 4/5 + test de proporciones por etapa, por grupo protegido, antes de poner cualquier procedimiento en producción.
  2. Re-audita periódicamente. Las composiciones demográficas y los criterios de éxito cambian. Una auditoría de hace 2 años no protege hoy.
  3. Documenta todo. Si un regulador o un demandante pregunta dentro de 3 años cómo entrenaste tu modelo, qué decisiones tomaste y por qué, debes poder responder con artefactos guardados. La Ficha de Transparencia Algorítmica del GobLab UAI es un buen punto de partida.
  4. No elimines la supervisión humana. Aunque el sistema decida, debe haber un humano accountable y un canal de apelación operativo. Esto no es solo buena práctica: a partir de diciembre 2026 será exigencia de la Ley 21.719.
  5. Asume que el sesgo está en los datos, no en el algoritmo. La pregunta correcta no es «¿este modelo es justo?» sino «¿qué historia me están contando los datos sobre las decisiones que tomó esta organización antes?».
Checklist chilena mínima antes de poner un modelo de selección en producción
  1. ¿Calculé impact ratio por género, edad y discapacidad en cada etapa del embudo?
  2. ¿Mi modelo sobrevivirá una solicitud ARCO bajo Ley 21.719 (acceso del candidato a sus datos y a la lógica de la decisión)?
  3. ¿Tengo un mecanismo de intervención humana significativa en la decisión final, no meramente decorativo?
  4. ¿Mi documentación cumpliría con el formato de la Ficha de Transparencia Algorítmica del GobLab UAI?
  5. ¿Si la empresa tiene 100+ trabajadores, mi auditoría incluye explícitamente el grupo «personas con discapacidad» (Leyes 21.015 y 21.275)?
  6. ¿Hay un dueño accountable identificado por nombre y cargo, con responsabilidad sobre el sistema?
  7. ¿Hay un canal documentado de apelación humana para candidatos rechazados?
  8. ¿Hay un calendario de re-auditoría definido (mínimo anual)?
Si alguna respuesta es «no», el sistema no está listo para producción.

Referencias

Doctrina y normativa internacional

Normativa chilena

Herramientas e iniciativas chilenas