La maggior parte delle persone è generalmente più preoccupata dei rischi immediati dell’intelligenza artificiale che di un futuro speculativo in cui l’intelligenza artificiale minaccia l’umanità. Come dimostra un nuovo studio dell’Università di Zurigo, gli intervistati fanno una chiara distinzione tra scenari astratti e problemi concreti - e prendono questi ultimi particolarmente sul serio
Vi è un ampio consenso sul fatto che l’intelligenza artificiale sia associata a rischi, ma vi sono differenze nel modo in cui questi rischi vengono compresi e considerati prioritari. Una visione comune pone l’accento sui rischi speculativi a lungo termine, ad esempio sul fatto che l’intelligenza artificiale potrebbe minacciare la sopravvivenza dell’umanità. Un’altra si concentra su preoccupazioni più immediate, come il modo in cui i sistemi di IA rafforzano i pregiudizi sociali o contribuiscono alla disinformazione. Alcuni temono che enfatizzare questi drammatici "rischi esistenziali" possa distrarre dai problemi più urgenti e reali che l’IA già pone
Per indagare su queste opinioni, un team di scienziati politici dell’Università di Zurigo ha condotto tre esperimenti online su larga scala con oltre 10.000 partecipanti provenienti da Stati Uniti e Regno Unito. I partecipanti sono stati messi di fronte a vari titoli di giornale che ritraevano l’IA come un rischio catastrofico, ad esempio. Altri hanno letto di pericoli attuali come la discriminazione o la disinformazione, mentre altri ancora hanno letto dei potenziali benefici dell’IA. L’obiettivo era verificare se gli avvertimenti di una catastrofe lontana causata dall’IA riducessero la consapevolezza dei problemi reali e attuali
i nostri risultati mostrano che gli intervistati sono significativamente più preoccupati per i rischi attuali dell’IA che per le possibili catastrofi future", afferma Fabrizio Gilardi, professore presso l’Istituto di Scienze Politiche dell’UZH. Anche se i testi sulle minacce esistenziali hanno aumentato la paura di tali scenari, la preoccupazione per i problemi attuali è rimasta molto più alta. Tra questi, i pregiudizi sistematici nelle decisioni sull’intelligenza artificiale o la perdita del posto di lavoro. Tuttavia, lo studio dimostra anche che le persone sono in grado di distinguere tra pericoli speculativi e problemi concreti - e di prendere sul serio entrambi
Lo studio colma quindi un’importante lacuna conoscitiva. Nel dibattito pubblico si teme spesso che concentrarsi su scenari futuri spettacolari distragga dai problemi urgenti del presente. Lo studio fornisce per la prima volta dati sistematici che dimostrano che La consapevolezza dei pericoli reali rimane intatta anche quando le persone vengono messe di fronte ad avvertimenti apocalittici. il nostro studio dimostra che la discussione sui rischi a lungo termine non va automaticamente a scapito dell’attenzione ai problemi attuali", afferma la coautrice Emma Hoes. Fabrizio Gilardi aggiunge: "Il discorso sociale sull’IA non dovrebbe essere una scelta obbligata. Ha bisogno di una comprensione simultanea delle sfide immediate e di quelle potenziali future".
La letteratura
Emma Hoes, Fabrizio Gilardi. Le narrazioni sul rischio esistenziale dell’intelligenza artificiale non distraggono dai suoi danni immediati. Atti dell’Accademia Nazionale delle Scienze. 14 aprile 2025. DOI: 10.1073/pnas.2419055122




