Il nostro riflesso nello specchio dell’IA

- EN- DE- FR- IT
Modello D-12 della General Electric, anno 1910 © Wikipedia
Modello D-12 della General Electric, anno 1910 © Wikipedia
Assegnare tratti umani alle macchine non è una novità, ma con l’ascesa dell’intelligenza artificiale generativa, l’antropomorfismo sta assumendo una nuova dimensione. Questa tendenza solleva questioni filosofiche ed etiche cruciali, ridefinendo al contempo il nostro rapporto con la tecnologia.

Avete mai detto "ciao" o "grazie" a ChatGPT? Se sì, avete antropomorfizzato. Questa parola, molto difficile da pronunciare, è sempre più presente nelle conversazioni sull’intelligenza artificiale (AI). Ma cosa significa? In generale, è la tendenza a umanizzare qualcosa che non è umano, come un animale o un oggetto, e ad attribuirgli qualità umane.

Oggi la nozione di antropomorfismo va ben oltre i robot umanoidi: si innesta nei software che utilizzano l’IA e, più in particolare, l’Intelligenza Artificiale Generativa (AGI). A differenza delle AI specializzate, utilizzate per compiti specifici come il riconoscimento facciale, le AGI come ChatGPT sono progettate per produrre testo, immagini o altre forme di contenuto in risposta a una vasta gamma di richieste.

Sebbene l’umanizzazione degli strumenti della IAG possa passare quasi inosservata, questa tendenza solleva domande sulla definizione stessa di umanità e intelligenza e sul nostro rapporto con queste nuove tecnologie. C’è il rischio di trattare una macchina alla stregua di un essere umano?

Antropomorfismo, nei geni dell’IA

Gli inizi dell’antropomorfismo tecnologico risalgono al 1950. Alan Turing, matematico e informatico britannico, propose un modo rivoluzionario di pensare all’intelligenza delle macchine. Il suo famoso "test di Turing", in cui un valutatore umano deve determinare da una conversazione scritta quale interlocutore è umano e quale è una macchina, permette di valutare la capacità di una macchina di dimostrare un’intelligenza simile a quella umana.

Questo lavoro pionieristico ha gettato le basi per il dibattito sull’antropomorfismo, evidenziando la nostra tendenza ad attribuire caratteristiche umane alle macchine. "La nostra aspettativa nei confronti di una tecnologia o di una macchina è che sia precisa e che svolga un compito in modo più rapido o efficiente di un essere umano. Le AGI ci sembrano umane perché possiedono caratteristiche proprie degli esseri umani: sono imprecise, si adattano alle nostre domande e risposte e possono essere sorprendenti", spiega Daniel Huttenlocher, preside dello Schwarzman College of Computing del MIT (Masaschussets Institute of technology) e dottore onorario dell’EPFL 2024.

Tecnologie che ci assomigliano

Il termine "intelligenza artificiale" include certamente la parola intelligenza, ma soprattutto la nozione di artificialità. Tuttavia, "questi sistemi riflettono vaste serie di dati e le decisioni di apprendimento di coloro che li progettano", spiega Johan Rochel, docente e ricercatore di etica e diritto dell’innovazione all’EPFL. "Riflettono anche i loro valori, le loro convinzioni e la loro moralità.

È innanzitutto durante la progettazione dell’interfaccia di questi sistemi che questa dimensione di antropomorfismo prende piede. Se gli utenti umanizzano l’IA, è proprio perché una serie di caratteristiche umane le sono state deliberatamente attribuite dai suoi progettisti. Ad esempio, Alexa di Amazon ha una voce calda - oltre ad avere un nome umano - e ChatGPT adotta un’educazione e una cordialità che imitano quelle degli esseri umani. Uno degli obiettivi di queste caratteristiche è rendere l’interfaccia facile e piacevole da usare. "I migliori strumenti digitali sono pensati e costruiti pensando all’utente. Più sono intuitivi e piacevoli, più le persone saranno disposte a usarli", sottolinea Johan Rochel.

Ma non è così semplice creare l’illusione. Marcel Salathé, co-direttore del Centro AI dell’EPFL, spiega: "È una vera sfida tecnica. Affinché un sistema sia completamente indistinguibile da un essere umano, dovrebbe padroneggiare perfettamente le sottigliezze del linguaggio, riconoscere le emozioni e agire di conseguenza, e adattarsi perfettamente a ogni utente in base alla sua personalità e alle sue esigenze".

Creare legami

Quando ChatGPT ci augura buona fortuna per il nostro evento dopo averci chiesto idee per i nomi, crea l’illusione di una relazione, rendendo l’interazione più coinvolgente ed emotiva. L’antropomorfismo sta quindi diventando uno strumento strategico nella progettazione dell’IA, per i legami che permette di creare tra la tecnologia e i suoi utenti.

Secondo un recente studio di Robert West dell’EPFL, interagire con un’intelligenza artificiale che ha accesso ai nostri dati personali nell’ambito di un dibattito può effettivamente cambiare le nostre opinioni su determinati argomenti. Ciò solleva interrogativi sull’impatto sociale di questi sistemi, che non sono più semplici strumenti ma diventano partner di scambio in grado di influenzare le nostre decisioni.

Partner virtuali affidabili?

Il settore sanitario sta assistendo alla nascita di servizi sempre più antropomorfi per i pazienti, sia sotto forma di robot umanoidi che di robot conversatori progettati per fornire supporto morale ed emotivo. Più che i collegamenti, l’umanizzazione e la personalizzazione di questi servizi virtuali stabiliscono una sorta di rapporto di fiducia.

"Gli utenti sono sempre più informati e attenti all’uso degli strumenti digitali. C’è una crescente richiesta di affidabilità. Questo desiderio è sostenuto anche dalla legislazione", spiega Johan Rochel. "Anche se le definizioni di fiducia possono essere varie, una delle componenti chiave è che si verifica in una relazione tra persone. In questo caso, si tratta di un rapporto uomo-macchina. Tutti i parametri che creano l’illusione dell’interazione umana contribuiscono a stabilire questo rapporto di fiducia. Tuttavia, questi parametri non sono sempre espliciti. Il testo che appare quando ChatGPT fornisce la risposta a una domanda è un esempio perfetto. "Dà l’impressione che qualcuno stia scrivendo la risposta, come in un’applicazione di messaggistica. Ovviamente sappiamo che ChatGPT non è umano, ma questo modo implicito di simulare l’interazione tra esseri umani aiuta a creare un legame, una sorta di relazione con una macchina che afferma di essere come noi".

Questa illusione di relazione può andare oltre le semplici interazioni di cortesia. Nel 2013, il film HER ha affrontato questo tema con il protagonista, l’attore Joaquin Phoenix, che si innamora della sua assistente vocale interpretata da Scarlett Johansson. Il film analizza le relazioni interpersonali e l’influenza delle AGI sul nostro comportamento. "Un rapporto di fiducia può comportare la condivisione di informazioni personali e riservate che, nelle mani sbagliate, possono essere devastanti. Ci sono quindi dei rischi legati alla riservatezza", avverte Marcel Salathé.

Una questione di responsabilità e sicurezza

Se l’IA è nostra pari, possiamo incolparla se la nostra dissertazione contiene errori? Johan Rochel si chiede: "Questo significherebbe dire che l’IA può assumersi le stesse responsabilità di un essere umano. Ma dimentichiamo che questa intelligenza è solo artificiale. La macchina non potrà mai essere responsabile perché non è autonoma. Non è in grado di prendere decisioni diverse da quelle per cui è stata programmata. Dobbiamo quindi cercare l’uomo responsabile dietro la macchina. Di chi è la responsabilità? Dei progettisti o degli utenti?

"Mi piace usare la metafora della forchetta nel tostapane", dice Daniel Huttenlocher. "Quando si vedono i primi tostapane del 1900, ci si rende subito conto che era facile fulminarsi inserendo una forchetta. Per questo motivo abbiamo introdotto degli standard contro l’uso improprio per evitare che l’uso improprio stesso diventi uno standard. Dobbiamo fare la stessa cosa con l’IA: dobbiamo mettere in atto misure di salvaguardia contro l’uso improprio, stabilire responsabilità legali e standard che siano compresi da tutti".

"Un elemento cruciale in queste discussioni è la trasparenza. Ricordare alle persone che si tratta solo di una macchina, che può commettere errori, aiuterà a ridurre il rischio di uso improprio", aggiunge Johan Rochel.

La trasparenza e la spiegabilità di questi sistemi sono al centro dei dibattiti dei legislatori. L’AI Act dell’Unione Europea è chiaro su questo punto: le IA devono essere progettate e presentate in modo da non lasciare spazio al dubbio che non siano umane. Gli utenti devono essere pienamente consapevoli che stanno interagendo con una macchina.

IA e umanità: una partnership da costruire con discernimento

"L’IA ha il potenziale per insegnarci molto. AlphaGo ha imparato strategie che i migliori giocatori non conoscevano, dando una nuova dimensione al gioco del Go", afferma Daniel Huttelocher. "Vedo l’IA come un partner tecnologico che migliora, non sostituisce, le capacità umane".

"Se da un lato l’antropomorfismo dell’IA facilita l’adozione di queste tecnologie, dall’altro solleva profonde domande sul posto dell’uomo in un mondo in cui macchine e umani sono sempre più indistinguibili. Con l’evoluzione dell’IA, sarà essenziale garantire che queste interazioni, per quanto naturali possano sembrare, non ci allontanino da ciò che ci caratterizza come esseri umani", osserva Marcel Salathé.

Johan Rochel conclude: "Progettisti, azionisti, legislatori e utenti dovrebbero quindi lavorare fianco a fianco per garantire che questa tecnologia rimanga uno strumento al servizio dell’uomo e non una forza che lo sostituisce o lo manipola".