Si.
Nel termine “AI-Blackbox” c’è una criticità duplice:
-
Scatola nera come limite tecnologico:
prendiamo il caso di un sistema di deep-learning o comunque di un qualche buon vecchio algoritmo basato sulla statistica. Uno dei problemi lamentati spesso è la mancanza di “introspezione”: il sistema non è in grado di spiegare il “ragionamento” che porta ad una certa conclusione e la spiegazione è statistica non ci soddisfa affatto! Ma questo è in fondo un falso problema e penso che i sistemi AI evolveranno necessariamente fornendo report introspettivi interpretabili come ragionamenti comprensibili dagli umani. No problem.
-
Scatola nera come necessità commerciale:
Qui la faccenda è più rognosa. Io azienda produttrice di un sistema qualsivoglia di AI (non fatemi fare nomi), voglio vendere il mio sistema proprietario, quindo non fornisco informazioni che permettano alla “concorrenza” di ri-costruire un sistema simile. Uso codice chiuso, brevetto tutto il brevettabile, etc. etc.
A mio modesto avviso il futuro del software è in tutt’altra direzione, fatto di sistemi “whitebox”, con codice aperto e sviluppo condiviso. Modelli di business da re-inventare. E’ questo tra l’altro l’ambito in cui come “sistema Europa” avremmo una carta da giocare. Facile a dirsi, lo so… ma quale occasione, se non quella di questa task force, per parlare apertamente della necessità trans-nazionale di una OpenAI, come passo evolutivo rispetto alla attuale temporanea fase storica dei sistemi proprietari?
Suggerimento: ricordiamoci la storia della computer science dal dopoguerra ad oggi … e la storia si ripete 