Progetto SAFER
SAFER - Robust Models for Safe and Secure AI Systems
Nonostante siano estremamente diffusi e utilizzati in domini sensibili e critici per la sicurezza, i modelli di intelligenza artificiale e machine learning rimangono vulnerabili e possono fornire decisioni non corrette quando i dati di input sono manipolati da un attaccante. Esempi di questo tipo di attacchi sono stati dimostrati contro i veicoli a guida autonoma e i sistemi di rilevazione delle minacce informatiche. Purtroppo, ad oggi, non esiste alcun approccio di test sistematico, automatizzato e scalabile per indagare a fondo questi problemi e, come ormai richiesto anche dalle normative più recenti, incluso l’European AI Act, è necessario progettare modelli più efficienti e robusti.
Finalita'
Sviluppare metodologie di test scalabili e sistematiche per valutare la robustezza dei sistemi di intelligenza artificiale e machine learning oltre i semplicistici modelli di perturbazione studiati finora, considerando perturbazioni più avanzate e specifiche dell'applicazione presa in considerazione.
Sviluppare modelli di intelligenza artificiale più efficienti e robusti, anche contro manipolazioni di dati più realistiche e pratiche, in conformità con l’EU AI Act.
Risultati attesi
Sviluppo di una piattaforma MLSecOps (Machine Learning Security Operations) in grado di integrare e automatizzare sviluppo, test di sicurezza e monitoraggio di modelli di intelligenza artificiale robusti in produzione.
Integrazione e testing dei metodi e della piattaforma sviluppata, su dati raccolti da domini applicativi correlati alla sicurezza, incluso il rilevamento di malware Android e Windows.
Rilascio di output, inclusi prototipi e librerie software, in grado di promuovere la riproducibilità e la diffusione su larga scala dei risultati della nostra ricerca. Poiché SAFER mira ad affrontare due sfide scientifiche fondamentali e aperte che sono anche in linea con l'EU AI Act, i risultati del progetto aiuteranno anche le PMI in Italia e in Europa a soddisfare la conformità con le normative appena emanate, e a sfruttare nelle loro attività il potenziale dell'Intelligenza Artificiale sicura e protetta.
Risultati raggiunti
(successivamente, i risultati raggiunti, evidenziando il sostegno finanziario ricevuto dall’Unione europea) (6 righe = 600 caratteri)
CUP: J23C24000090007
importo totale del progetto: 274.999,50 €
importo finanziato: 274.999,50
fonte di finanziamento:Bando a cascata partenariato esteso “FAIR “Future Artificial Intelligence Research” Codice PE0000013 - Spoke 10 – BIO-SOCIO-COGNITIVE –D.D. n. 1555 del 11/10/2022 - Piano Nazionale di Ripresa e Resilienza, Missione 4 Istruzione e ricerca - Componente 2 Dalla ricerca all’impresa – Investimento 1.3, finanziato dall’Unione europea – NextGenerationEU.
data inizio: 15/04/2024
data fine: 14/10/2025
Partners:
Pattern Recognition and Applications (PRA) Laboratory, Università degli studi di Cagliari
Responsabile scientifico:
Prof. Battista Biggio,
Professore Ordinario di Sistemi di Elaborazione delle Informazioni
Dipartimento di Ingegneria Elettrica ed Elettronica
Università degli Studi di Cagliari
Contatto:
battista.biggio@unica.it