AI: "Il prossimo grande salto verrà dalla diversità delle fonti"

- EN- DE- FR- IT
2025 EPFL/Alain Herzog
2025 EPFL/Alain Herzog
Responsabile del Laboratorio di elaborazione del linguaggio naturale dell’EPFL, Antoine Bosselut segue da vicino lo sviluppo di strumenti di intelligenza artificiale generativa come ChatGPT. Commenta come si sono evoluti negli ultimi due anni e suggerisce alcune strade per il futuro

Abbiamo parlato con lei due anni fa, quando ChatGPT era appena stato reso pubblico. Ripensandoci, può confermare che è stato l’inizio di una nuova era?

Sì, possiamo dire che il momento di ChatGPT ha segnato un cambiamento di paradigma nel campo dell’intelligenza artificiale, su due livelli. In primo luogo, da un punto di vista tecnico: siamo passati da strumenti orientati al compito a strumenti orientati all’istruzione. I modelli precedenti erano limitati a domini e funzioni specifiche e la loro interrogazione richiedeva conoscenze specifiche. ChatGPT ha cambiato tutto questo, non solo aumentando la portata delle sue conoscenze, ma soprattutto offrendo a chiunque la possibilità di impartire istruzioni. È soprattutto in termini di percezione che il cambiamento è stato radicale: il grande pubblico ha capito che le IA sarebbero state in grado di integrarsi in molti aspetti della vita quotidiana.

La concorrenza non ha tardato a lanciare i propri agenti conversazionali. OpenAI era davvero in anticipo sui tempi?

Molte aziende stavano già lavorando ad approcci simili. Anthropic, per esempio, che ha creato Claude, era stata fondata un anno prima da ex allievi di OpenAI... In Google stavamo seguendo diverse strade in parallelo, ma ci siamo resi conto che il modello ChatGPT funzionava meglio e soprattutto che OpenAI aveva trasformato una tecnologia in un prodotto le cui prestazioni superavano le aspettative. Ciò ha dimostrato la maturità di questo approccio e ha innescato un cambiamento di prospettiva da parte di tutti i principali attori tecnologici

DeepSeek, lanciato alla fine del 2024, è davvero diverso?

È ancora troppo presto per dire se sia davvero migliore e se sia davvero più economico. È stato il suo presunto basso costo di sviluppo, piuttosto che le sue nuove capacità, a suscitare scalpore... Tuttavia, i suoi progettisti hanno fornito solo la cifra relativa all’ultima fase di addestramento. Non sappiamo quanto siano costate le fasi precedenti. Anche il fatto che sia "open source" è discutibile. È certamente possibile utilizzare il suo codice per integrarlo nelle applicazioni o per svilupparlo ulteriormente, ma non sappiamo realmente su cosa si basa perché le sue fonti non sono state rivelate. Non sappiamo su cosa stiamo costruendo.

C’è un’enorme corsa agli investimenti nell’IA: 500 miliardi negli Stati Uniti, 200 miliardi in Europa... A cosa serviranno tutti questi soldi?

La mia valutazione è che se non investiamo questo denaro ora, lo spenderemo più tardi per acquistare gli stessi servizi, ma altrove... L’uso dell’IA generativa si diffonderà in un numero enorme di settori e il suo uso diventerà quotidiano. Se l’Europa non riuscirà a sviluppare soluzioni convincenti, gli utenti si rivolgeranno a servizi americani o cinesi, con tutti i rischi che ciò comporta in termini di sovranità.

l’opinione pubblica ha capito che l’IA potrà essere integrata in molti aspetti della vita quotidiana.

Antoine Bosselut, responsabile del Laboratorio di elaborazione del linguaggio naturale dell’EPFL

E la Svizzera?

I Politecnici federali sono molto bravi a formare gli specialisti di domani, a sviluppare solide basi teoriche e a mettere tutto a disposizione della comunità in modo che abbia un’alternativa di cui fidarsi. In questo settore, la Swiss AI Initiative e lo Swiss National AI Institute stanno facendo proprio questo: formare questi giovani e renderli visibili quando le aziende hanno bisogno del loro talento.

Torniamo al funzionamento dei grandi modelli. C’è il rischio che l’inquinamento dei dati di formazione - in particolare quelli generati dall’IA - ne comprometta la qualità?

Il rischio teorico c’è. Ma paradossalmente, grazie ai filtri e alla pulizia dei risultati che vengono sviluppati contemporaneamente, i dati sintetici utilizzati come fonti sono di qualità abbastanza elevata. Al contrario, molti contenuti generati dagli esseri umani senza filtri possono essere falsi o distorti. È quindi difficile dire che questo timore sia giustificato.

Quali sono i principali settori in cui l’IA generativa si affermerà nei prossimi anni?

Credo sia più facile pensare ai settori in cui non si affermeranno... Ci sono settori - sanità, tecnologia militare, informazioni riservate - in cui i dati sono talmente sensibili da non poter essere necessariamente rilasciati sui server in cui sono installati questi strumenti. La questione della fiducia negli strumenti e nei loro proprietari continuerà a occupare i responsabili delle decisioni per molti anni a venire

Ogni due o tre anni si assiste a un salto tecnologico in questo settore. Quale sarà il prossimo?

Nonostante la continua accelerazione delle capacità dei modelli, questi rimangono fondamentalmente basati sul testo. In concreto, attualmente tutto si basa su un vocabolario di circa 50.000 parole. Certo, questo può essere sufficiente per dare agli utenti umani l’impressione che la macchina sia in grado di ragionare. Ma il pensiero umano è molto più complesso e utilizza anche altre percezioni: suoni, immagini o persino odori. Credo che il prossimo grande sviluppo avverrà quando i modelli saranno in grado di integrare direttamente anche altri tipi di contenuti come immagini, suoni e video. Questa "IA multimodale" si avvicinerà ancora di più al "pensiero" artificiale, anche se la sua definizione rimane più filosofica che tecnica.