IBM SkillsBuild/Explicabilidad

Explicabilidad: por que la IA decide lo que decide

Imaginad que pedis una beca y os la deniegan. Preguntais por que y os dicen: "porque lo dice la maquina". Sin mas explicacion. Os quedais igual, verdad? La Explicabilidad (Explainability, en ingles) es el derecho a entender POR QUE la IA toma una decision.

Dos tipos de modelos

Modelos interpretables (puedes ver por dentro)

Son modelos simples que puedes entender directamente. Es como una receta de cocina: ves cada paso. Un arbol de decision (decision tree, en ingles) es un ejemplo: es literalmente un esquema de preguntas de si/no que lleva a una respuesta.

Ejemplo: "Si horas de estudio > 10 Y asistencia > 80% entonces APRUEBA". Facil de entender, no?

Modelos de caja negra (no puedes ver por dentro)

Son modelos complejos, como las redes neuronales profundas (deep learning, en ingles), donde NO puedes ver directamente por que toman una decision. Son super potentes pero nadie sabe exactamente que pasa dentro.

Ejemplos que usais a diario: ChatGPT, los filtros de Instagram, el reconocimiento facial de vuestro movil, las recomendaciones de Netflix

Asi funciona una caja negra

Datos

entrada

caja negra

Decision

salida

Que pasa dentro? Sin explicabilidad, no lo sabemos. Solo vemos la entrada y la salida.

Herramientas para explicar la IA

LIME

Explicaciones Interpretables Locales Independientes del Modelo (Local Interpretable Model-agnostic Explanations, por sus siglas en ingles)

Explica decisiones individuales. Es como hacer zoom en UNA decision concreta para entender que la causo. Por ejemplo: "a este alumno le predijo suspenso porque su asistencia es baja y estudia pocas horas".

SHAP

Explicaciones Aditivas de Shapley (SHapley Additive exPlanations, por sus siglas en ingles)

Calcula cuanto contribuye cada factor a la decision final. Imaginad un partido de futbol: SHAP os dice cuanto aporto cada jugador al resultado. Aplicado a IA: cuanto peso tuvo cada dato en la prediccion.

Es vuestro DERECHO

En la Union Europea (UE), teneis derecho a recibir una explicacion cuando una decision automatizada os afecta. Si una IA decide que no os dan una beca, un prestamo o un empleo, teneis derecho legal a saber por que. No es un favor, es la ley.

Ojo: Mas potencia no siempre significa mejor IA. A veces un modelo simple y explicable es mejor opcion que uno super complejo que nadie entiende. Sobre todo cuando hay decisiones importantes de por medio, como dar o no dar una beca.

Probad esto

Preguntadle a ChatGPT: "Por que has respondido eso? Explicame tu razonamiento paso a paso". Vereis como intenta desglosar su respuesta. Eso es un intento de explicabilidad. Ahora pensad: os fiarias de una IA que no pudiera hacer eso?

Lo que teneis que recordar

La explicabilidad es el derecho a entender por que la IA toma una decision. Hay modelos interpretables (simples, puedes ver por dentro) y modelos de caja negra (complejos, no ves por dentro). En la UE es un derecho legal: si una IA os afecta, podeis exigir saber por que.