Workshop AI Responsabile e Affidabile

23 giugno 2025

Lo sviluppo di sistemi di Intelligenza Artificiale responsabili e affidabili rappresenta una priorità sempre più crescente al giorno d'oggi, per via delle richieste formali presenti nelle nuove regolamentazioni, sia a livello europeo che internazionale. In questo contesto, emergono questioni importanti in merito alla trasparenza dei modelli, alla tutela della privacy, nonché alla mitigazione dei bias ed alla possibilità di intervenire sulle decisioni prese da questi sistemi, anche in maniera retroattiva.

In questo contesto, la protezione della privacy resta un requisito essenziale: la raccolta, l’uso e la conservazione dei dati personali nei sistemi di Intelligenza Artificiale sollevano varie questioni, richiedendo garanzie tecniche che siano coerenti con le richieste legali.

Al contempo, la crescente diffusione di metodi per spiegare sistemi intelligenti mira a rendere interpretabili i modelli complessi, favorendo un uso più trasparente e verificabile dei sistemi.

Un aspetto ancora poco esplorato, ma centrale per una visione responsabile dell’Intelligenza Artificial, è la capacità dei modelli di "disimparare" , cioè di rimuovere informazioni apprese da dati che non dovrebbero più essere trattati, come previsto dal diritto alla cancellazione (art. 17 GDPR).

Questo workshop intende stimolare il confronto interdisciplinare su approcci tecnici e normativi per garantire affidabilità, equità, privacy e rispetto dei diritti fondamentali nei sistemi di Intelligenza Artificiale, promuovendo anche una riflessione critica sulla possibilità di realizzare un’Intelligenza Artificiale etica, a partire dai vincoli tecnici e normativi e dalle conoscenze disponibili oggi.

Programma del workshop

Sessione 1 - 9:30-11:00 - Aula 3_B
Leonardo Arrighi, Matheus Camilo Da Silva and Sylvio Barbon Junior End-to-End Explainability of Machine Learning Pipelines with Decision Predicate Graphs: A Financial Scenario Case Study
Antonio Rodà and Silvana Badaloni Why does AI seem to have a problem with women?
Marina Ceccon, Giandomenico Cornacchia, Davide Dalle Pezze, Alessandro Fabris and Gian Antonio Susto Is Underrepresentation Overemphasized? A Study of Data Bias and Algorithmic Fairness
Miriana Calvano, Antonio Curci, Rosa Lanzilotti and Antonio Piccinno FrameSAI: a Three-Layer Framework to Create Symbiotic AI Systems
Giulio Rossolini, Wesam Abbasi, Federico Nesti, Andrea Saracino, Alessandro Biondi and Giorgio Buttazzo Research on Trustworthy and Secure AI at the RETIS Lab, SSSUP
Gianvincenzo Alfano, Sergio Greco, Domenico Mandaglio, Francesco Parisi, Reza Shahbazian and Irina Trubitsyna Theoretical Basis and Computational Complexity of Semifactual Explanations
Giuseppe Riccardo Leone, Andrea Carboni, Giulio Del Corso, Silvia Gravili, Davide Moroni, Maria Antonietta Pascali and Sara Colantonio Towards Trustworthy AI in the Public Transport Domain
Sessione 2 - 11:30-12:30 - Aula 3_B
Antonio Emanuele Cinà, Maura Pintor, Luca Demetrio, Ambra Demontis, Battista Biggio and Fabio Roli Evaluating the Evaluators: Trust in Adversarial Robustness Tests
Piercosma Bisconti Lucidi, Lidia Marassi, Stefano Marrone, Domenico Bloisi, Daniele Nardi and Carlo Sansone Responsible and Reliable AI @ CINI AI-IS
Ilaria Vascotto, Alex Rodriguez, Alessandro Bonaita and Luca Bortolussi Aggregating explanations to increase trustworthiness: current directions and challenges
Stefano Buzi, Simona Cacace, Andrea Loreggia, Nadia Maccabiani, Giorgio Pedrazzi, Mattia Savardi, Alberto Signoroni and Laura Zoboli Advancing Trustworthy in AI: Mission and Research Lines at the TRAIL Lab
Luca Bortolussi, Sara Candussio, Irene Ferfoglia, Laura Nenzi, Gaia Saveri and Simone Silvetti Neuro-Symbolic Methods for Time Series Data Integrating Machine Learning and Signal Temporal Logic

Chairs

Francesca Naretto
Università degli Studi di Pisa
Andrea Pugnana
Università degli Studi di Trento
Francesco Spinnato
Università degli Studi di Pisa