Romanzi e film di fantascienza cavalcano e avvalorano la paura dell’ignoto: l’Intelligenza Artificiale spesso viene rappresentata in maniera negativa, come un pericolo per l’umanità, potenzialmente capace di prendere il sopravvento e di dominarci
Come Data in Start Trek?
O come R2-D2 in Star Wars?
O come R. Daneel Olivaw nel Ciclo della Fondazione di Asimov?
Non capisco l’utilità di questa forma retorica (utilizzata in diversi punti di questo libro): la fantascienza ha proposto l’intelligenza artificiale e la robotica sia in termini positivi che in termini negativi.
Dobbiamo iniziare classificare come fantascienza utopica le speranze vendute come certezze da chi produce soluzioni basate sulla intelligenza artificiale? No?
Ma allora perché insistere ad associare qualunque obbiezione all’utilizzo inappropriato di questa stessa tecnologia con la fantascienza distopica?
Questo uso strumentale della fantascienza per denigrare una larga parte delle opinioni presenti nel dibattito corrente sulla IA (dibattito tutt’altro che concluso), risuona come un segno di insicurezza in chi sostiene a spron battuto i vantaggi della tecnologia.
Non sarebbe più produttivo un confronto basato su argomenti razionali e sul rispetto reciproco?
Di certo sarebbe opportuno rimuovere questa narrativa strumentale da un testo che vuole rappresentare uno strumento utile per la pubblica amministrazione.
L’Intelligenza Artificiale, ad esempio, può migliorare la nostra vita guidando al posto nostro
Qui bisogna aggiungere “e scaricando la responsabilità penale di eventuali incidenti sulle ditte costruttrici dei veicoli”. Ma in assenza di normativa che sancisca chi esattamente sia responsabile penalmente degli errori della IA (se il CEO o gli azionisti) sarebbe opportuno rimuovere il riferimento alla guida autonoma.
In questo settore sono molto interessanti anche le ricerche sui robot che si prendono cura dei pazienti, eventualmente memorizzando le medicine da somministrare loro, i tempi e le dosi, oppure monitorando il loro stato di salute per mezzo di misurazioni biometriche da trasmettere al medico, corredate eventualmente da una ipotesi di diagnosi.
L’utilizzo del robot sottrarrebbe il paziente dalla interazione umana che la somministrazione delle medicine comporta. Questo potrebbe avere notevoli impatti psicologici, soprattutto per quei pazienti per cui tale interazione umana rappresenta una larga percentuale delle interazioni sociali complessive.
Anche se potessimo sostituire le visite dei famigliari (spesso finalizzate alla somministrazione di medicine) con dei robot, non dovremmo farlo.
Anche in questo caso, comunque, la responsabilità penale di errori del robot (dovuti a bug nella programmazione, a malfunzionamenti o a problemi di interazione imprevista con il paziente) andrebbe a ricadere sulle aziende produttrici e rimane da stabilire nell’ordinamento se ne rispondano il CEO o gli azionisti.
Proprio in questo tipo di situazioni, che si potrebbero prestare ad ampie controversie etiche e scientifiche o a potenziali conflitti di interessi tra pazienti e medici, si evidenzia un punto focale in cui l’IA si posiziona in maniera eccellente…
“Si evidenzia un punto focale in cui…” ovvero in italiano “si spera forse di riuscire un giorno a trovare un modo in cui…”
Un uso più semplice e più serio di tecniche di machine learning potrebbe consistere nel monitoraggio dell’operato del personale sanitario, fra cui i medici, ma non solo.
Potrebbero essere evidenziati celermente comportamenti sospetti ai danni del servizio sanitario nazionale, semplici inefficienze o possibili ottimizzazioni.
In questo caso si tratta di raccogliere dati sull’operato delle strutture sanitarie e dei loro dipendenti, non sui pazienti, azzerando il conflitto fra la privacy del cittadino-paziente e l’esigenza di dati per le analisi statistiche in questione.
È oltretutto già possibile immaginare di programmare sistemi intelligenti che leggono i risultati degli esami e li interpretano, sulla base delle statistiche condotte su grandi moli di dati simili e sul loro significato…
Questo pone il problema del paradosso dell’automazione: il medico potrebbe dare eccessiva fiducia alla macchina (che nel suo vissuto psicologico “non sbaglia mai”) ed assumersi la responsabilità di una diagnosi sbagliata dovuta ad un bug.
La questione dei bug effettivamente viene completamente ignorata in tutto il libro, segno evidente dell’assenza di programmatori con esperienza fra i redattori.
Qualcosa di molto simile sta accadendo anche nella scuola
Anche qui la somministrazione di contenuti personalizzati nasconde diverse insidie, in quanto potrebbe riprodurre e diffondere pregiudizi.
Un uso più semplice e molto più efficace dell’intelligenza artificiale nella scuola potrebbe essere il supporto allo studio individuale, quale strumento di autovalutazione attraverso la redazione automatica di esercizi aggiuntivi (ma non personalizzati) e interrogazioni virtuali.
[BOX] oppure la conoscenza, da parte di un hacker, del modello utilizzato dall’Intelligenza Artificiale per la gestione dei dati sensibili, può rendere questi dati insicuri.
A parte l’utilizzo improprio del termine hacker dove dovrebbe stare piuttosto “pirata informatico”, e’ importante osservare che la Security through obscurity in informatica non funziona.
L’unico modo per garantire la sicurezza degli algoritmi e renderli completamente pubblici e destinare una parte dei risparmi ottenuti dall’introduzione della IA al finanziamento della peer review di tale codice.
E’ lecito parlare di security by design solo se si e’ coscienti che design e implementazione, teoria e pratica, non coincidono mai. Nessun metodo di test o di verifica formale ad oggi disponibile può garantire l’assenza di errori, solo mostrare la loro presenza.
Cosa ben nota agli hacker. E nota anche ai pirati informatici.
Infine, la sezione “Le potenzialità dell’IA nella Pubblica amministrazione” (buona nel complesso) non cita il rischio che un intelligenza artificiale venga tratta in errore da un adversarial example studiato per distorcerne il risultato.
Questo rischio potrebbe diventare elevato nel contesto di concorsi pubblici e bandi di gara, ma potrebbe anche rappresentare un vero e proprio pericolo per la vita dei cittadini, se tale tecnica venisse applicata ad un veicolo a guida autonoma.
Pericolo tutt’altro che teorico, come dimostrato da queste ricerche.