Lo status sociale di un’IA ne influenza l’accettazione

- EN- DE- FR- IT

Come le persone valutano le prestazioni di un sistema di intelligenza artificiale? I risultati di una nuova ricerca condotta da un gruppo di sociologi dell’Università di Lucerna mostrano che anche gli attori non umani sono soggetti a pregiudizi sociali.

Immaginate due medici con competenze identiche e prestazioni impeccabili: Il vostro giudizio sulle loro azioni cambierebbe se uno dei due lavorasse in un ospedale di livello mondiale o se fosse maschio o femmina? E se uno di questi medici non fosse affatto una persona, ma un’intelligenza artificiale (AI)?

Un articolo recentemente pubblicato sulla rivista "Sociological Science" fa luce su come lo status sociale di un’IA influenzi la nostra percezione di essa. Gli autori sostengono che le IA - come gli esseri umani o le istituzioni - possono avere uno "status sociale". Più alto è lo status percepito di un’IA, meno le persone riterranno discutibile l’uso di questa IA.

Appartenere conta, anche se si è un’intelligenza artificiale

Gli autori e l’autrice dell’articolo - il dottor Patrick Schenk , Vanessa A. Müller e Luca Keiser del Dipartimento di Sociologia - hanno scoperto che le persone trovano l’uso dell’IA più moralmente accettabile quando è associato a organizzazioni di alto livello. Allo stesso tempo, gli attori umani ottengono risultati migliori rispetto all’IA in questa valutazione, anche se l’IA ha prestazioni altrettanto buone o talvolta addirittura migliori in determinati compiti.

Nell’ambito dello studio, quasi 600 partecipanti hanno valutato l’accettazione di diversi attori (umani, IA e semplici programmi informatici) in tre diversi scenari: Diagnosi di cancro in un ospedale, controllo dei fatti nella redazione di un giornale e decisioni sul personale in un’agenzia di reclutamento. I risultati dello studio mostrano che i sistemi di IA sono percepiti in modo simile ai semplici programmi informatici, ma il loro uso è considerato moralmente più discutibile rispetto a quello di un attore umano. Questa preferenza per gli esseri umani rimane indipendentemente dall’efficacia con cui i rispettivi attori svolgono i compiti analizzati.

Inoltre, fattori come il genere o l’attribuzione di un nome umano all’IA non hanno un’influenza significativa sulla valutazione, ma la reputazione dell’organizzazione sì. Secondo i risultati, se un’IA è associata a un’istituzione rinomata, le persone la valutano più favorevolmente.

Creare consapevolezza per superare i pregiudizi

Lo studio illustra come i pregiudizi sociali, come l’associazione tra prestigio e valore, influenzino la nostra visione delle nuove tecnologie. I risultati suggeriscono che le persone possono essere più disposte a fidarsi e ad accettare l’IA se è sostenuta da istituzioni affidabili, indipendentemente dalle sue prestazioni effettive. Secondo gli autori e l’autore dello studio, riconoscere questa tendenza allo "status bias" potrebbe contribuire a promuovere valutazioni più eque e obiettive dei sistemi di IA nella società.

Lo studio, pubblicato con il titolo "Social Status and the Moral Acceptance of Artificial Intelligence", fa parte del progetto del Fondo Nazionale Svizzero per la Ricerca Scientifica "Artificial Intelligence and Moral Decision-Making in Contemporary Societies: An Empirical Sociological Investigation", guidato da Gabriel Abend, professore di Sociologia, e Patrick Schenk.