Un altro attacco sul fronte dell’AI, e in particolare alle tecniche di Deep Learning, viene da coloro che lamentano la mancanza di spiegazioni su come i sistemi ottengono risultati o effettuano le loro decisioni.
Non si può negare che i metodi che si basano su approcci statistici, vadano realizzati con molta attenzione alla trasparenza e ad evitare rischi di bias dovuti alla raccolta di dati su cui si basano.
Gli strumenti della statistica vanno usati correttamente, anche se non è facile farlo, come spiega questo recente articolo su Nature:
https://www.nature.com/articles/d41586-017-07522-z
Mi soffermo invece sulla questione della capacità di spiegare le decisioni da parte da un sistema basato su Deep Learning.
Primo punto, voi preferite un sistema che:
- non si sa in quanti casi funziona
- ha un’accuratezza misurata relativamente bassa
- fornisce una spiegazione di come ha prodotto un risultato
oppure un sistema che:
- si sa in quali circostanze funziona
- ha un’accuratezza misurata molto elevata
- fornisce un’indicazione percentuale del suo grado di confidenza
- la risposta che dà è ottimale (non ce né una migliore) sulla base dei dati di partenza e l’obiettivo da ottenere.
Secondo punto.
Voi credete che gli esperti umani, di cui un sistema di Deep Learning cerca di emulare le capacità, sappia fornire una spiegazione effettiva dei suoi risultati?
Siete convinti che tutti gli esperti a cui vi affidate siano esenti da bias?
No, infatti la società si è attrezzata con meccanismi di verifica: se una decisione non soddisfa qualcuno ci si rivolge a una terza parte a cui contestare gli esiti.
Ma attenzione, fornire spiegazioni del comportamento di un sistema di Deep Learning è perfettamente possibile. È il risultato di un calcolo che è riproducibile e deterministico.
L’unico problema è che noi umani non sappiamo capire la spiegazione, perché non è formulata in termini a noi comprensibili.
Ma del resto i medici fanno fatica a darci delle spiegazioni comprensibili a non esperti.
Ma una soluzione tecnica c’è, e consiste nel realizzare un sistema di AI che apprende a formulare spiegazioni comprensibili agli umani di un altro sistema di AI.
C’è chi lo sta già facendo:
https://www.theregister.co.uk/2017/09/28/inside_explainable_ai/
e qui c’è un esempio proprio nel campo della medicina:
https://arxiv.org/abs/1711.06402