E se l’IA avesse dei pregiudizi?

- EN- IT
© Google DeepMind
© Google DeepMind
I pregiudizi umani potrebbero essere trasferiti all’Intelligenza Artificiale (IA), che verrebbe influenzata da bias simili ai nostri nelle sue decisioni. Il tema è stato approfondito in occasione della Settimana contro il razzismo , grazie a un’attività organizzata dall’Università della Svizzera italiana (USI) e da SUPSI, in collaborazione con Zonaprotetta e il Centro per la prevenzione delle discriminazioni. Monica Landoni, Professoressa titolare presso la Facoltà di scienze informatiche dell’USI, ne ha parlato al Quotidiano (RSI).

Il rischio è quello che gli stessi pregiudizi che a volte influenzano le decisioni umane possano riflettersi anche nelle scelte dell’IA, svantaggiando immotivatamente minoranze o gruppi che storicamente hanno incontrato più difficoltà, come le donne o gli stranieri.

Ma come si può stabilire quali siano i principi giusti da seguire? "Ognuno di noi ha la propria etica, i propri valori e i propri principi - ha spiegato la Professoressa Monica Landoni -. Una società di solito si identifica come tale perché condivide dei valori, pertanto ciò che è etico e giusto è stabilito dalla comunità, che definisce cosa va bene e cosa non va bene fare".

Tuttavia non tutto è arbitrario: "Si presume che alcuni valori, ad esempio il benessere dell’individuo, siano universali. Noi, come informatici, abbiamo un codice etico nel quale si stabilisce che dobbiamo utilizzare quello che facciamo per il benessere dell’utente e della comunità".