Il rapporto uomo-robot è da sempre uno dei più avvincenti, molto affrontato nella letteratura e nei romanzi di fantascienza, oggi sempre più al centro di importanti discussioni che riguardano la scienza e l’epistemologia. 

È indubbio come l’intelligenza artificiale sia al centro degli interessi di studiosi, scienziati e centri di ricerca di tutto il mondo per l’impatto che può avere nella nostra nuova società digitale, e per la capacità di generare enormi vantaggi per l’uomo sia nel mondo del lavoro sia nella vita di tutti giorni. Di contro, la stessa attenzione va riposte verso i potenziali rischi che le applicazioni intelligenza artificiale comportano.

Tanto che la Commissione Europea, lo scorso aprile, ha presentato il ”Progetto di orientamento etico per una Intelligenza artificiale affidabile” (Draft Ethics guidelines for trustworthy AI) che mira a delineare sette requisiti fondamentali per usare correttamente applicazioni intelligenza artificiale al fine di consentire la competitività responsabile, accrescere la fiducia degli utenti, e facilitarne una più ampia diffusione a livello globale, in tutti settori della vita e del lavoro. 

Fra questi requisiti ci sono quelli per cui i nuovi sistemi di intelligenza artificiale devono promuovere lo sviluppo di società più equa, scatenando cambiamenti sociali positivi, puntando ad accrescere la sostenibilità del nostro pianeta attraverso una maggiore responsabilità ecologica.

Centrali restano i diritti umani fondamentali che nessun sistema di intelligenza artificiale deve ridurre, limitare, intaccando quella che è l’autonomia dell’uomo. Si parla infatti di XAI - eXplainable Artificial Intelligence - ovvero intelligenza artificiale spiegabile, comprensibile e decifrabile dagli esseri umani che devono assolutamente rimanere gli unici veri controllori della tecnologia.

Questo comporta che lo sviluppo di applicazioni di intelligenza artificiale non può prescindere dalla sicurezza, affidabilità e robustezza degli algoritmi e del fine ultimo per cui le applicazioni sono state sviluppate, senza mai correre il rischio di utilizzare i dati personali finendo per danneggiarli o discriminarli.  Questo passaggio fondamentale della relazione della commissione europea punta a prestare grande attenzione alle situazioni dove i sistemi di intelligenza artificiale finiscono per interagire con gruppi più vulnerabili, quali per esempio i bambini, o le persone con disabilità. O più semplicemente, tali principi di non discriminazione ed equità non devono portare a generare situazioni di asimmetria di potere o di informazione, e basti pensare a rapporti fra imprese e consumatori, o fra datori di lavoro e lavoratori.  

Un tentativo mirabile che prova a spostare dunque le attenzioni verso l’intelligenza artificiale da un punto di vista squisitamente tecnico a un approccio sempre più antropocentrico, dove l’uomo non subisce i vantaggi, ma ne sfrutta i benefici con etica e... intelligenza.