Proprio come le leggi di Asimov, anche queste aprono dei paradossi esistenziali di difficile soluzione, sia per gli esseri umani che per i robot e le AI.
Ovviamente stiamo partendo, nel prenderle in considerazione, dal pensiero che la superAI sia in qualche modo vicina. Questo non è certo (anzi, è molto vero il contrario), ma proviamo a fare lo stesso l’esercizio.
Ogni legge di questo genere ha almeno due tipi di problemi: è antropocentrica; è ambigua in modo da dire, alla fine, pochissimo sulla realtà e su come si possono svolgere i fatti; è una semplificazione (troppo) enorme della realtà.
Sul primo punto: il problema è che non è centrata su una relazione (AI/umano, robot/umano), ma sull’umano e basta. E questo è un problema. Perché tecnicamente tutti i problemi dell’AI sorgono dall’incontro di due “psicologie”, di due “filosofie esistenziali”, da quando due tipi diversi di “coscienza” (e quindi di autonomia, una umana e una “aliena”, in qualche modo) si incontrano. Quindi i paradigmi o leggi che volessimo progettare si dovrebbero posizionare, tecnicamente, all’intersezione, non da un lato o dall’altro. Questo lo dicono le nozioni di base di psicologia relazionale. In altri modi si va incontro a disastri di vario tipo.
Il secondo punto si spiega da sé.
Il terzo punto assomiglia a tanti assunti della roboetica, che creano problemi interpretativi e operativi di vario genere. Come il problema del carrello sul binario e la scelta di chi uccidere.
Sono problemi mal posti, che implicano
- che sia possibile scegliere solo tra A e B e
- che sia già certo e definito il ruolo dell’AI nel mondo.
Ambedue le ipotesi sono ovviamente sbagliate. Nel mondo reale si può scegliere anche C, D, F4, Z5k6, e infinite altre decisioni. Si può anche decidere di non uscire di casa quel giorno, o di andare in bicicletta o di ascoltare della musica. Eccetera.
E, per quanto riguarda il ruolo dell’AI, stiamo facendo un po’ in gioco da cui ci metteva in guardia McLuhan: guardare il futuro dallo specchietto retrovisore.
Stiamo dando per scontato un ruolo dell’AI che deriva sostanzialmente dal passato: l’automobile intelligente, l’assistente virtuale, le previsioni per il crimine e gli investimenti, eccetera. Tutte cose che sappiamo dal passato e che vorremmo “migliorare” (ma sarà poi vero?) nel futuro.
Guardare il futuro dallo specchietto retrovisore.
Un gioco più interessante è, invece, non cadere in questo tranello, e aprirsi ai nuovi paradigmi. Che, però, richiedono di aprirsi sul al ruolo dell’AI nel mondo. In questo senso, principi/leggi di questo genere non sono molto utili, anzi.
Grazie per averle tirate fuori e spero di essere stato chiaro: sono argomenti di filosofia e psicologia e, per questo, un po’ difficili da trattare in poco spazio.