Analítica de Personas · Semestre otoño 2026 · Semana 8 · Prof. René Gempp
Los Apuntes 20 y 21 mostraron cómo medir si un sistema de selección predice el desempeño (validez) y cuánto vale en pesos (utilidad). Pero un sistema con validez alta y utilidad millonaria puede, simultáneamente, estar sistemáticamente excluyendo a personas calificadas porque pertenecen a un grupo demográfico determinado. Cuando eso ocurre, la métrica que falta detectarlo es el adverse impact.
El concepto tiene origen jurídico, no académico. La sentencia Griggs v. Duke Power (US Supreme Court, 1971) estableció que un requisito laboral neutral en su redacción puede ser discriminatorio en sus efectos, y que la responsabilidad del empleador es demostrar que el requisito es necesario para el puesto. Una década después, la Equal Employment Opportunity Commission (EEOC) publicó las Uniform Guidelines on Employee Selection Procedures (UGESP, 1978), que dieron a la doctrina su forma operativa: cualquier procedimiento de selección con tasas de paso desiguales entre grupos protegidos debía justificarse técnicamente.
El UGESP de 1978 introdujo la regla de los 4/5 (también llamada regla del 80%) como criterio operativo para identificar adverse impact:
Si la tasa de paso del grupo focal es menor al 80% de la tasa de paso del grupo de referencia, hay adverse impact prima facie.
Formalmente:
Si el impact ratio es menor a 0.80, el procedimiento dispara la regla y debe justificarse. Si es mayor o igual a 0.80, la regla no dispara, pero eso no exime al procedimiento de otras objeciones legales.
El concepto de «grupo protegido» varía por jurisdicción. En Estados Unidos, las categorías protegidas federalmente incluyen raza/etnicidad, género, edad (≥40 años), discapacidad, religión, origen nacional, embarazo y veterancia. En la Unión Europea, la Directiva 2000/78 cubre las mismas categorías más orientación sexual.
En Chile, el catálogo de categorías protegidas se construye a partir de varios cuerpos normativos que veremos en detalle en la sección 6: el artículo 19 nº 16 de la Constitución, el artículo 2 del Código del Trabajo, la Ley 20.609 (antidiscriminación), la Ley 20.348 (igualdad de remuneraciones) y las Leyes 21.015 y 21.275 (inclusión laboral de personas con discapacidad). Las categorías cubiertas incluyen sexo, edad, estado civil, sindicación, religión, opinión política, nacionalidad, ascendencia nacional, origen social, orientación sexual, identidad de género, discapacidad y otras.
library(tidyverse)
postulaciones <- read_csv("innovaco_postulaciones.csv")
# Tasa de paso de la entrevista en familia Tecnología, por género
adverse_tec <- postulaciones |>
filter(familia_cargo == "Tecnología",
paso_filtro_cv == 1) |>
group_by(genero) |>
summarise(
n_evaluados = n(),
n_pasaron = sum(score_entrevista >= 3.0, na.rm = TRUE),
tasa_paso = n_pasaron / n_evaluados
)
adverse_tec
genero n_evaluados n_pasaron tasa_paso 1 Hombre 219 133 0.607 2 Mujer 138 46 0.333
impact_ratio <- adverse_tec$tasa_paso[adverse_tec$genero == "Mujer"] /
adverse_tec$tasa_paso[adverse_tec$genero == "Hombre"]
impact_ratio
# [1] 0.549
impact_ratio < 0.80
# [1] TRUE → viola la regla de los 4/5
El impact ratio para la entrevista de Tecnología en InnovaCo es 0.55, muy por debajo del umbral de 0.80. La regla dispara: hay adverse impact prima facie. La empresa debe ahora justificar técnicamente la entrevista (validez de criterio, validez de contenido) o cambiar el procedimiento.
La regla del 4/5 es popular precisamente porque es simple. Pero tiene tres limitaciones técnicas serias que un analista debe conocer:
n_h <- adverse_tec$n_evaluados[adverse_tec$genero == "Hombre"]
x_h <- adverse_tec$n_pasaron[adverse_tec$genero == "Hombre"]
n_m <- adverse_tec$n_evaluados[adverse_tec$genero == "Mujer"]
x_m <- adverse_tec$n_pasaron[adverse_tec$genero == "Mujer"]
prop.test(c(x_h, x_m), c(n_h, n_m))
2-sample test for equality of proportions with continuity correction X-squared = 26.4, df = 1, p-value = 2.8e-07 alternative hypothesis: two.sided 95 percent confidence interval: 0.169 0.379 sample estimates: prop 1 prop 2 0.6073 0.3333
El test confirma: la diferencia es altamente significativa (p < 0.001), con un intervalo de confianza al 95% para la diferencia de tasas que va de 17 a 38 puntos porcentuales. La regla del 4/5 y el test estadístico convergen en la misma conclusión.
En octubre de 2018, Reuters publicó una nota firmada por Jeffrey Dastin que se convertiría en referencia obligada del campo: «Amazon scraps secret AI recruiting tool that showed bias against women». La compañía había desarrollado, entre 2014 y 2017, un sistema de machine learning para puntuar CVs de candidatos a puestos técnicos. El sistema escaneaba decenas de miles de CVs por mes.
Cuando los ingenieros auditaron el modelo, encontraron que penalizaba sistemáticamente los CVs que contenían la palabra «women's» (como en «women's chess club captain») y devaluaba los grados otorgados por dos universidades exclusivamente femeninas. El sistema no había sido programado para hacer eso. Lo había aprendido.
Amazon entrenó el modelo con CVs de los últimos 10 años de candidatos exitosos en la empresa. Esos CVs venían mayoritariamente de hombres, reflejando la composición histórica del sector tecnológico. El algoritmo aprendió a reconocer patrones que predecían «ser contratado» en ese histórico, y entre esos patrones estaban los marcadores lingüísticos de identidad masculina.
El sesgo no estaba en el algoritmo: estaba en los datos. Pero el algoritmo lo amplificó y operacionalizó a escala industrial. Cuando los ingenieros intentaron eliminar las palabras de género más obvias, surgieron variables proxy: el modelo encontraba la señal en otras pistas correlacionadas con género (verbos usados, deportes practicados, formato del CV).
Amazon nunca usó el sistema para decisiones de contratación reales. El proyecto se desactivó en 2017, el equipo se disolvió, y la noticia se conoció un año después. La compañía declaró que el sistema había sido solo «experimental».
Raghavan, Barocas, Kleinberg y Levy (2020) sistematizaron, en un análisis de 19 herramientas comerciales de pre-employment assessment, los mecanismos por los que el sesgo entra en sistemas algorítmicos de selección. Los tres más comunes:
El criterio que predice el modelo está él mismo contaminado por sesgo histórico. Si predigo «ser promovido en los próximos 3 años» y la empresa históricamente ha promovido más a hombres, el modelo aprenderá a preferir candidatos masculinos. La señal aprendida es real (en términos de la historia), pero codifica injusticia.
Aunque la variable protegida (género, raza) no esté en el modelo, otras variables correlacionadas la representan implícitamente. En el contexto chileno, el código postal correlaciona fuertemente con nivel socioeconómico y, en algunas regiones, con composición étnica. La universidad de origen correlaciona con clase social. El año de graduación con edad. Eliminar la variable explícita no elimina el sesgo si los proxies permanecen.
El sistema entrena hoy con resultados de decisiones que él mismo tomó ayer. Si ayer el sistema descartó a 1.000 mujeres calificadas, ese descarte se convierte en señal de «no calificada» en el dataset de mañana, reforzando la decisión inicial. El sesgo se amplifica con el tiempo en lugar de corregirse.
Cuando te toque auditar un sistema de scoring algorítmico —tu propio modelo logístico de la Tarea 6, o un sistema comercial que está evaluando RRHH—, las preguntas de la checklist son:
Chile tiene un marco normativo de no discriminación laboral robusto, aunque distribuido en varios cuerpos legales sin una norma específica para sistemas algorítmicos de empleo. Lo que sigue es el mapa completo, en orden creciente de relevancia operativa para tu trabajo como analista.
La Constitución Política de la República, artículo 19 nº 16, garantiza la libertad de trabajo y establece que «se prohíbe cualquiera discriminación que no se base en la capacidad o idoneidad personal». Esa frase es el ancla constitucional de todo análisis de adverse impact en Chile: si una práctica de selección produce efectos diferenciales que no derivan de capacidad o idoneidad, el procedimiento es inconstitucional per se.
El Código del Trabajo, artículo 2, desarrolla esta garantía a nivel laboral. Define como actos de discriminación «las distinciones, exclusiones o preferencias basadas en motivos de raza, color, sexo, edad, estado civil, sindicación, religión, opinión política, nacionalidad, ascendencia nacional u origen social, situación socioeconómica, idioma, creencias, participación en organizaciones gremiales, orientación sexual, identidad de género, filiación, apariencia personal, enfermedad o discapacidad u origen social, que tengan por objeto anular o alterar la igualdad de oportunidades o de trato en el empleo y la ocupación». La lista es extensa y, para efectos prácticos, mucho más amplia que la lista federal estadounidense.
La Ley 20.348 obliga a los empleadores con 200 o más trabajadores a llevar un registro de cargos y funciones y a tener un procedimiento para que las trabajadoras puedan reclamar diferencias salariales injustificadas con sus pares masculinos en el mismo cargo. Aunque su foco es compensación (no selección), hay un punto operativo que importa para analítica de personas: la ley exige que las diferencias salariales tengan justificación objetiva basada en capacidades, calificaciones o idoneidad, y los modelos predictivos de salario o de potencial deben poder pasar ese test si llegaran a usarse en decisiones que afecten remuneración.
La Ley 20.609 establece un mecanismo judicial específico para reclamar contra actos de discriminación arbitraria, definidos como «toda distinción, exclusión o restricción que carezca de justificación razonable». La acción se interpone ante el juez de letras y permite ordenar el cese del acto discriminatorio y la reparación. Aunque su uso ha sido principalmente en discriminación por orientación sexual y religión, la redacción es genérica y aplica a discriminación algorítmica en selección si se consigue acreditarla.
La Ley 21.015 obliga a empresas y organismos públicos con 100 o más trabajadores a contratar al menos 1% de personas con discapacidad. La Ley 21.275, vigente desde noviembre de 2022, agregó tres obligaciones complementarias:
Para tu análisis de adverse impact, esto significa que el grupo «personas con discapacidad» debe estar explícitamente en tu auditoría si la empresa supera los 100 trabajadores, no como una cortesía sino como obligación legal con sanciones administrativas.
Los puntos que deben estar en el radar de cualquier persona que haga analítica de personas en Chile a partir de diciembre de 2026:
La Política Nacional de Inteligencia Artificial en su versión actualizada de 2024 (Decreto Supremo nº 12 del Ministerio de Ciencia, del 11 de abril de 2024, publicado en el Diario Oficial el 28 de enero de 2025) establece los lineamientos estratégicos del Estado en materia de IA con horizonte al año 2031. Profundiza, respecto de la versión 2021, en gobernanza y ética, e incluye un Plan de Acción con 177 iniciativas coordinadas por 14 ministerios. Aunque la Política no es vinculante para el sector privado, define el lenguaje técnico y los principios que serán recogidos por la futura ley.
El proyecto de ley que regula los sistemas de inteligencia artificial (Boletín 16.821-19, refundido con el Boletín 15.869-19) ingresó a tramitación el 7 de mayo de 2024 mediante mensaje del Ejecutivo. Fue aprobado en particular por la Cámara de Diputadas y Diputados el 13 de octubre de 2025, y a la fecha de redacción de este apunte se encuentra en segundo trámite constitucional en el Senado, con urgencia simple, en la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación.
El proyecto adopta un modelo basado en riesgo similar al AI Act europeo, con cuatro categorías: prohibido, alto riesgo, riesgo limitado y riesgo mínimo. Las herramientas automatizadas de selección de personal caen claramente en la categoría de alto riesgo, lo que implicará obligaciones reforzadas de documentación técnica, supervisión humana, auditoría y registro de operaciones.
Si y cuándo el proyecto se promulgue como ley es incierto. Pero la dirección de la política regulatoria está clara: Chile va a tener una ley específica de IA en los próximos 12–24 meses, modelada sobre el AI Act europeo, con selección de personal entre los sistemas de alto riesgo. La práctica responsable hoy es operar como si esa ley ya estuviera vigente.
Aunque ninguna de estas normas es directamente exigible en Chile, ambas son las referencias que están moldeando la discusión local y la práctica de las empresas multinacionales que operan en el país.
La ciudad de Nueva York fue la primera jurisdicción del mundo en regular específicamente las herramientas automatizadas de empleo (AEDT, automated employment decision tools). La ley exige:
La Unión Europea aprobó en 2024 el AI Act, primer marco regulatorio integral de inteligencia artificial. La ley clasifica los sistemas de IA en categorías de riesgo. Los sistemas usados para selección y reclutamiento están clasificados como alto riesgo (Anexo III), lo que implica obligaciones reforzadas: sistema de gestión de calidad documentado, datos de entrenamiento auditables y representativos, supervisión humana significativa, robustez técnica y ciberseguridad, registro automático de operaciones (logs), transparencia, marcaje CE y registro en una base de datos europea pública.
Las disposiciones para sistemas de alto riesgo entran en vigencia escalonadamente entre agosto de 2026 y agosto de 2027. Las multas pueden alcanzar el 3% de la facturación global anual o EUR 15 millones, lo que sea mayor.
Más allá de la normativa, en Chile existe una infraestructura técnica desarrollada en los últimos cinco años que pone a disposición —gratis, en español, adaptada al contexto local— las herramientas que necesitas para auditar un sistema de scoring. Conocerla y usarla es lo que distingue a un analista profesional de uno aficionado.
El GobLab, laboratorio de innovación pública de la Escuela de Gobierno de la Universidad Adolfo Ibáñez, dirigido por María Paz Hermosilla, lleva adelante desde 2020 el proyecto Algoritmos Éticos, Responsables y Transparentes, con apoyo del BID Lab y financiamiento de ANID. El proyecto ha articulado a organismos públicos, mundo privado y academia para desarrollar normativa, guías y herramientas de IA responsable, en una iniciativa pionera en Latinoamérica.
De este proyecto han salido tres productos concretos que cualquier analista chileno debería conocer:
Las tres herramientas están disponibles públicamente en algoritmospublicos.cl, son gratuitas y de código abierto.
En 2023, ChileCompra publicó las primeras Bases Tipo de Licitación en Latinoamérica para la contratación de servicios de ciencia de datos e inteligencia artificial por parte del Estado, con requisitos específicos de transparencia, equidad y protección de datos. Estas bases, elaboradas en alianza con el GobLab UAI, fueron aprobadas por la Contraloría General de la República.
Aunque aplican formalmente solo al sector público, son la mejor referencia operativa que existe hoy en Chile para escribir términos de referencia internos cuando una empresa privada licita un proveedor de IA para selección de personal. La práctica recomendada es copiar las cláusulas relevantes de las Bases Tipo en tu RFP interno: te protege legalmente y te asegura que el proveedor entrega un sistema auditable.
El Consejo para la Transparencia, en alianza con el GobLab UAI, publicó en 2023 el primer Instructivo General de Transparencia Algorítmica de Latinoamérica, regulando estándares de transparencia para sistemas algorítmicos en el sector público. Aunque su alcance formal es público, sus exigencias —documentación, explicabilidad, accountability— son la mejor benchmark disponible para definir tu propia política interna en el sector privado.
Cerramos con una idea que enlaza con el Apunte 20: cuando el adverse impact aparece, la respuesta no siempre es eliminar el predictor. De Corte, Lievens y Sackett (2007) propusieron el marco de Pareto-optimization: en lugar de maximizar la validez, encontrar el frente de combinaciones de predictores donde no se puede mejorar uno sin empeorar el otro.
El algoritmo asume que tienes varios predictores con distintos perfiles de validez y de adverse impact, y busca la combinación lineal óptima entre ellos. El resultado es un frente de Pareto que muestra, para cada nivel de adverse impact aceptado, el sistema con máxima validez compatible. La decisión sobre qué punto del frente elegir es organizacional y ética, no técnica, pero al menos el espacio queda descrito.
El paquete paretoR de R implementa el algoritmo. Su uso queda fuera del alcance de esta clase, pero merece estar en el horizonte de cualquier analista que enfrenta la disyuntiva validez-equidad en serio.
Los apuntes anteriores te entregaron herramientas para construir, validar y monetizar un modelo de selección. Este apunte cierra con la pregunta complementaria: ¿cuándo la respuesta correcta es no construirlo?
Hay tres situaciones donde, profesionalmente, lo correcto es decirle a tu cliente o a tu empresa que el modelo no debería entrar en producción, incluso si técnicamente funciona: