Discusión sobre el artículo "El problema del desacuerdo: profundizando en la explicabilidad de la complejidad en la IA"

 

Artículo publicado El problema del desacuerdo: profundizando en la explicabilidad de la complejidad en la IA:

En este artículo hablaremos de los problemas relacionados con los explicadores y la explicabilidad en la IA. Los modelos de IA suelen tomar decisiones difíciles de explicar. Además, el uso de múltiples explicadores suele provocar el llamado "problema del desacuerdo". Al fin y al cabo, la comprensión clara del funcionamiento de los modelos resulta fundamental para aumentar la confianza en la IA.

El desacuerdo es un área de investigación clave dentro de una esfera interdisciplinar conocida como inteligencia artificial explicable (Explainable Artificial Intelligence, XAI). La inteligencia artificial explicable intenta ayudarnos a entender cómo nuestros modelos llegan a sus decisiones. Desafortunadamente, en la práctica resulta más complicado que eso. 

Todos sabemos que los modelos de aprendizaje automático y los conjuntos de datos disponibles son cada vez mayores y más complejos. De hecho, los científicos de datos que desarrollan algoritmos de aprendizaje automático no pueden explicar de manera precisa el comportamiento de sus algoritmos en todos los conjuntos de datos posibles. La Inteligencia Artificial Explicable (XAI) debe ayudarnos a explicar la funcionalidad de los modelos y confirmar que estos están listos para su uso práctico. Por prometedor que suene, este artículo mostrará al lector por qué no podemos confiar ciegamente en ninguna explicación que podamos obtener de cualquier aplicación de la tecnología de inteligencia artificial explicable. 

Autor: Gamuchirai Zororo Ndawana