Explicabilidad: por que la IA decide lo que decide
Imaginad que pedis una beca y os la deniegan. Preguntais por que y os dicen: "porque lo dice la maquina". Sin mas explicacion. Os quedais igual, verdad? La Explicabilidad (Explainability, en ingles) es el derecho a entender POR QUE la IA toma una decision.
Dos tipos de modelos
Modelos interpretables (puedes ver por dentro)
Son modelos simples que puedes entender directamente. Es como una receta de cocina: ves cada paso. Un arbol de decision (decision tree, en ingles) es un ejemplo: es literalmente un esquema de preguntas de si/no que lleva a una respuesta.
Ejemplo: "Si horas de estudio > 10 Y asistencia > 80% entonces APRUEBA". Facil de entender, no?
Modelos de caja negra (no puedes ver por dentro)
Son modelos complejos, como las redes neuronales profundas (deep learning, en ingles), donde NO puedes ver directamente por que toman una decision. Son super potentes pero nadie sabe exactamente que pasa dentro.
Ejemplos que usais a diario: ChatGPT, los filtros de Instagram, el reconocimiento facial de vuestro movil, las recomendaciones de Netflix
Asi funciona una caja negra
Datos
entrada
caja negra
Decision
salida
Que pasa dentro? Sin explicabilidad, no lo sabemos. Solo vemos la entrada y la salida.
Herramientas para explicar la IA
LIME
Explicaciones Interpretables Locales Independientes del Modelo (Local Interpretable Model-agnostic Explanations, por sus siglas en ingles)
Explica decisiones individuales. Es como hacer zoom en UNA decision concreta para entender que la causo. Por ejemplo: "a este alumno le predijo suspenso porque su asistencia es baja y estudia pocas horas".
SHAP
Explicaciones Aditivas de Shapley (SHapley Additive exPlanations, por sus siglas en ingles)
Calcula cuanto contribuye cada factor a la decision final. Imaginad un partido de futbol: SHAP os dice cuanto aporto cada jugador al resultado. Aplicado a IA: cuanto peso tuvo cada dato en la prediccion.
Es vuestro DERECHO
En la Union Europea (UE), teneis derecho a recibir una explicacion cuando una decision automatizada os afecta. Si una IA decide que no os dan una beca, un prestamo o un empleo, teneis derecho legal a saber por que. No es un favor, es la ley.
Ojo: Mas potencia no siempre significa mejor IA. A veces un modelo simple y explicable es mejor opcion que uno super complejo que nadie entiende. Sobre todo cuando hay decisiones importantes de por medio, como dar o no dar una beca.
Probad esto
Preguntadle a ChatGPT: "Por que has respondido eso? Explicame tu razonamiento paso a paso". Vereis como intenta desglosar su respuesta. Eso es un intento de explicabilidad. Ahora pensad: os fiarias de una IA que no pudiera hacer eso?
Lo que teneis que recordar
La explicabilidad es el derecho a entender por que la IA toma una decision. Hay modelos interpretables (simples, puedes ver por dentro) y modelos de caja negra (complejos, no ves por dentro). En la UE es un derecho legal: si una IA os afecta, podeis exigir saber por que.