(di Leonardo De Cosmo) L'intelligenza Artificiale impara a parlare italiano con Minerva, nuovi modelli linguistici addestrati "da zero" nella nostra lingua con 500 miliardi di parole.
Una base di partenza per futuri ChatGpt, il popolare modello americano che ha dato una spinta al settore, ma con un cervello italiano e completamente trasparente.
Il passo avanti
per una IA Made in Italy è ad opera del gruppo di ricerca
Natural Language Processing (Nlp) dell'Università Sapienza di
Roma, all'interno di Fair - Future Artificial Intelligence
Research, grazie alla potenza del supercomputer Leonardo del
Cineca.
"Minerva è un insieme di modelli linguistici a disposizione
dei ricercatori, di varie dimensioni e che cresceranno nel
tempo", ha detto all'ANSA Roberto Navigli, alla guida di
Sapienza Nlp. La caratteristica distintiva del nuovo modello di
IA tutto italiano è quello di essere stato costruito e
addestrato da zero usando testi ad accesso aperto, al contrario
dei modelli italiani esistenti ad oggi che sono basati
sull'adattamento di modelli come LLaMA e Mistral, i cui dati di
addestramento sono tuttora sconosciuti.
Ogni modello Minerva, al momento sono tre, è stato addestrato
su un vasto insieme di fonti italiane e inglesi online e
documentate, per un totale di oltre 500 miliardi di parole,
l'equivalente di oltre 5 milioni di romanzi. Modelli che da oggi
sono disponibili alla comunità scientifica di Fair, il progetto
guidato dal Consiglio Nazionale delle Ricerche che realizza la
strategia nazionale sull'IA, e in futuro anche al pubblico.
"Minerva sono dei modelli 'foundation' come quelli alla base
di ChatGpt e presto, al massimo due mesi, rilasceremo anche una
versione con chat capace di interagire facilmente con un utente
tradizionale, non solo per addetti ai lavori", ha aggiunto
Navigli. Questo progetto è differente da iGenius, annunciato a
gennaio come la prima IA italiana con una attenzione particolare
al mondo della Pubblica amministrazione e delle imprese.
"Minerva nasce in ambito accademico ed è pensato per essere uno
strumento di sviluppo a disposizione del mondo della ricerca e
delle comunità del settore", ha spiegato Navigli. "Siamo molto
soddisfatti di questo primo grande traguardo - ha commentato
Giuseppe De Pietro, Presidente della Fondazione Fair - raggiunto
all'interno della comunità scientifica che si riunisce intorno a
Fair. Crediamo molto nella linea di ricerca che porta verso la
nascita di un large language model italiano e per questo stiamo
investendo le risorse del Pnrr su questo progetto, che
rappresenta un primo passo strategico di grande rilevanza".
Riproduzione riservata © Copyright ANSA