/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

L'IA può valutare l'affidabilità come gli esperti umani

L'IA può valutare l'affidabilità come gli esperti umani

Ricercatori della Sapienza: "Forte allineamento per le fonti inaffidabili"

ROMA, 11 febbraio 2025, 15:04

Redazione ANSA

ANSACheck
© ANSA/EPA

© ANSA/EPA

L'intelligenza artificiale può valutare l'affidabilità delle notizie al pari di esperti umani e ricostruisce concetti in base ai dati con cui è allenata. E' la conclusione di uno studio condotto da ricercatori dell'Università Sapienza di Roma che hanno messo a confronto i Large language models (Llm) - i modelli linguistici di grandi dimensioni, programmi di IA addestrati su una grande mole di dati - di Google, Meta e OpenAI e i team di esperti umani strutturati come NewsGuard e Media Bias Fact Check (Mbfc).

 "I nostri risultati rivelano un forte allineamento tra le classificazioni dei Llm e quelle umane in particolare nell'identificazione di fonti inaffidabili", sottolineano i ricercatori. Lo studio ha preso in esame i modelli Gemini 1.5 Flash di Google, GPT-4o mini di OpenAI e LLaMA 3.1 di Meta.

Questi modelli classificano le teorie del complotto, il sensazionalismo e i pregiudizi in maniera speculare ai criteri chiave usati dagli esperti nelle loro valutazioni. Sono meno coerenti quando il contesto è limitato. Inoltre, "è interessante notare - scrivono i ricercatori - che in ambito politico i media di destra vengono considerati più inaffidabili, quelli di centro più affidabili sollevando interrogativi sul fatto che i modelli di grandi dimensioni possano ereditare pregiudizi in fase di addestramento".

 Nel complesso, i ricercatori ritengono che per i modelli di grandi dimensioni le parole chiave che si riferiscono a notizie locali, resoconti basati su fatti o al linguaggio neutro sono generalmente associate a un concetto di affidabilità. Al contrario, l'inaffidabilità è spesso caratterizzata da termini relativi a sensazionalismo, controversie o pregiudizi, che riflettono indicatori di uso comune usati da esperti umani per identificare fonti a bassa credibilità. Inoltre, 'trasparenza' e 'bias' emergono come i criteri più comunemente valutati per l'affidabilità o l'inaffidabilità delle informazioni.

"Lo studio - spiegano i ricercatori nelle conclusioni - riformula i modelli linguistici di grandi dimensioni non semplicemente come classificazioni automatizzate, ma come finestre sulle strutture cognitive sia alla base dell'uomo sia della macchina. Analizzando i loro processi di ragionamento, ci avviciniamo alla comprensione del modo con cui simulano la valutazione strutturata e si confrontano con le strategie cognitive umane in compiti di giudizio complessi".
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza