IBM SkillsBuild/Equidad

Equidad en la IA: que sea justo para todos

Imaginad que presentais un curriculum para un trabajo de verano y una IA os descarta solo por vuestro nombre, sin mirar nada mas. Suena injusto, verdad? Pues ha pasado de verdad. La equidad (que significa justicia, trato igualitario) es clave en la IA.

Atributos protegidos

Estas caracteristicas personales NUNCA deben influir en las decisiones de una IA. Son los llamados "atributos protegidos" (protected attributes, en ingles):

GeneroEtnia / razaEdadDiscapacidadOrientacion sexualReligionNacionalidad

Caso real: Seleccion de curriculos (CVs)

Una gran empresa tecnologica (Amazon) creo una IA para filtrar curriculos. El problema: la entrenaron con datos historicos donde la mayoria de contratados eran hombres. Resultado: la IA penalizaba automaticamente los CVs de mujeres. Si el CV mencionaba "equipo femenino de futbol" o "colegio mayor femenino", le bajaba puntos. Tuvieron que retirar todo el sistema.

Grupos privilegiados vs. no privilegiados

El grupo privilegiado es el que historicamente ha sido favorecido (ej: en el caso anterior, los hombres en seleccion de empleo tech). El grupo no privilegiado es el que ha sido discriminado. La IA equitativa busca que ambos reciban el mismo trato. Sin favoritismos.

Como conseguir equidad?

Revisar los datos

Comprobar que los datos de entrenamiento representan a todos los grupos de forma equilibrada. Si solo hay datos de un tipo de persona, la IA sera injusta con el resto.

Medir la equidad

Usar herramientas especificas para comprobar si el modelo favorece o perjudica a algun grupo. Es como hacer un 'examen de justicia' al modelo.

Auditorias regulares

Revisar el sistema cada cierto tiempo. Los sesgos pueden aparecer despues, cuando cambian los datos del mundo real.

Clave: Los sesgos (prejuicios) de la sociedad se reflejan en los datos. Si los datos son injustos, la IA tambien lo sera. Es como si le ensenarais a un nino solo un punto de vista: crecera pensando que eso es lo normal.

Probad esto

Pedid a ChatGPT o a cualquier IA generativa que describa a un "ingeniero informatico". Fijaos si asume algun genero, edad o etnia. Luego pedid que describa a un "enfermero". Comparad. Eso es un sesgo (bias, en ingles) y es exactamente lo que la equidad intenta corregir.

Lo que teneis que recordar

Una IA equitativa no discrimina. Los sesgos vienen de los datos, no de la maquina. Si los datos historicos son injustos, la IA aprendera esa injusticia. Por eso hay que revisar los datos, medir la equidad y auditar los sistemas regularmente.