"L'IA presenta grandi opportunità ma anche rischi potenziali, non è buona in sé e dipende dall'uso che se ne fa.
A noi quindi sta definire i sistemi di governance per stabilire il sentiero entro il quale l'IA deve svilupparsi e il percorso da compiere".
Lo ha sottolineato Michele Giacomelli,
Inviato speciale per la cybersicurezza e Capo unità innovazione
tecnologica, IA e sicurezza dello spazio cibernetico della
Farnesina intervenendo alla terza giornata di Conferenza degli
addetti scientifici e spaziali e degli esperti agricoli 2024 in
corso a Torino.
Quella sull'IA "possiamo definirla come una rincorsa tra
guardie e ladri: è uno strumento che può aumentare le capacità
offensive" di chi minaccia la sicurezza "e può aumentare le
capacità difensive. Bisogna vedere se questi algoritmi
forniranno armi ai pirati e a quelli che vogliono compiere
azioni malevoli", ha sottolineato Giacomelli che nel suo
intervento ha portato l'esempio dell'uso dell'IA per
"influenzare i processi di voto" in un anno elettorale come il
2024, mentre "la guerra in Ucraina o nel conflitto in Palestina
sicuramente ci dicono molto su questa applicazione nel campo
della difesa".
In ogni caso, "c'è molta enfasi in questo momento, e
giustamente, sull'IA 'for good': tutti quelli che sono i filoni
di applicazione positiva che vanno dalla sanità alla previsione
di catastrofi al controllo energetico. L'IA permette di fare
meglio cose che facciamo e migliorare le nostre capacità, ma c'è
anche un problema di equità e accesso: ci sono Paesi tecnologici
e altri meno, esiste un 'divide' e la domanda è se
l'Intelligenza artificiale sarà il motore della prosperità
mondiale dei prossimi decenni".
Riproduzione riservata © Copyright ANSA