I membri del nostro team, Claudia Sacco, Professional Solutions Architect, e Andrea Policarpi, Data Scientist, hanno contribuito a un interessante articolo pubblicato sull’AWS Blog. L’articolo fapprofondisce il percorso tecnico intrapreso da Fastweb per sviluppare un modello linguistico di grandi dimensioni (LLM) specifico per l’italiano.
Innovazione nell’IA italiana: il Fine-Tuning del modello Mistral
Il fine-tuning del modello Mistral è uno degli sviluppi principali di Fastweb. Grazie a Amazon SageMaker HyperPod, Fastweb ha affinato il modello, dando vita a un LMM addestrato sui dati italiani. Questo è un passo importante per l’innovazione nell’IA italiana, un settore in forte crescita.
Il fine-tuning di un modello linguistico è complesso. Richiede potenza di calcolo e risorse adeguate. Amazon SageMaker HyperPod, insieme a AWS Trainium e GPU NVIDIA A100, ha fornito cluster resiliente e scalabile. La flessibilità di questa infrastruttura ha reso il processo economico e agile, ottimale per gestire i carichi di lavoro complessi.
Un cambiamento fondamentale per il panorama italiano dell’IA
L’iniziativa di Fastweb sta cambiando il panorama italiano dell’IA. L’obiettivo è rendere disponibili modelli linguistici di grandi dimensioni (LLM) in italiano, con prestazioni elevate. Questo progetto dimostra come i modelli di machine learning possano essere adattati alle specifiche esigenze locali, aprendo così nuove opportunità per l’innovazione guidata dall’IA in Italia.