Workshop AI Responsabile e Affidabile
23 giugno 2025
Lo sviluppo di sistemi di Intelligenza Artificiale responsabili e affidabili rappresenta una priorità sempre più crescente al giorno d'oggi, per via delle richieste formali presenti nelle nuove regolamentazioni, sia a livello europeo che internazionale. In questo contesto, emergono questioni importanti in merito alla trasparenza dei modelli, alla tutela della privacy, nonché alla mitigazione dei bias ed alla possibilità di intervenire sulle decisioni prese da questi sistemi, anche in maniera retroattiva.
In questo contesto, la protezione della privacy resta un requisito essenziale: la raccolta, l’uso e la conservazione dei dati personali nei sistemi di Intelligenza Artificiale sollevano varie questioni, richiedendo garanzie tecniche che siano coerenti con le richieste legali.
Al contempo, la crescente diffusione di metodi per spiegare sistemi intelligenti mira a rendere interpretabili i modelli complessi, favorendo un uso più trasparente e verificabile dei sistemi.
Un aspetto ancora poco esplorato, ma centrale per una visione responsabile dell’Intelligenza Artificial, è la capacità dei modelli di "disimparare" , cioè di rimuovere informazioni apprese da dati che non dovrebbero più essere trattati, come previsto dal diritto alla cancellazione (art. 17 GDPR).
Questo workshop intende stimolare il confronto interdisciplinare su approcci tecnici e normativi per garantire affidabilità, equità, privacy e rispetto dei diritti fondamentali nei sistemi di Intelligenza Artificiale, promuovendo anche una riflessione critica sulla possibilità di realizzare un’Intelligenza Artificiale etica, a partire dai vincoli tecnici e normativi e dalle conoscenze disponibili oggi.
Programma del workshop
Sessione 1 - 9:30-11:00 - Aula 3_B | |
Leonardo Arrighi, Matheus Camilo Da Silva and Sylvio Barbon Junior | End-to-End Explainability of Machine Learning Pipelines with Decision Predicate Graphs: A Financial Scenario Case Study |
Antonio Rodà and Silvana Badaloni | Why does AI seem to have a problem with women? |
Marina Ceccon, Giandomenico Cornacchia, Davide Dalle Pezze, Alessandro Fabris and Gian Antonio Susto | Is Underrepresentation Overemphasized? A Study of Data Bias and Algorithmic Fairness |
Miriana Calvano, Antonio Curci, Rosa Lanzilotti and Antonio Piccinno | FrameSAI: a Three-Layer Framework to Create Symbiotic AI Systems |
Giulio Rossolini, Wesam Abbasi, Federico Nesti, Andrea Saracino, Alessandro Biondi and Giorgio Buttazzo | Research on Trustworthy and Secure AI at the RETIS Lab, SSSUP |
Gianvincenzo Alfano, Sergio Greco, Domenico Mandaglio, Francesco Parisi, Reza Shahbazian and Irina Trubitsyna | Theoretical Basis and Computational Complexity of Semifactual Explanations |
Giuseppe Riccardo Leone, Andrea Carboni, Giulio Del Corso, Silvia Gravili, Davide Moroni, Maria Antonietta Pascali and Sara Colantonio | Towards Trustworthy AI in the Public Transport Domain |
Sessione 2 - 11:30-12:30 - Aula 3_B | |
Antonio Emanuele Cinà, Maura Pintor, Luca Demetrio, Ambra Demontis, Battista Biggio and Fabio Roli | Evaluating the Evaluators: Trust in Adversarial Robustness Tests |
Piercosma Bisconti Lucidi, Lidia Marassi, Stefano Marrone, Domenico Bloisi, Daniele Nardi and Carlo Sansone | Responsible and Reliable AI @ CINI AI-IS |
Ilaria Vascotto, Alex Rodriguez, Alessandro Bonaita and Luca Bortolussi | Aggregating explanations to increase trustworthiness: current directions and challenges |
Stefano Buzi, Simona Cacace, Andrea Loreggia, Nadia Maccabiani, Giorgio Pedrazzi, Mattia Savardi, Alberto Signoroni and Laura Zoboli | Advancing Trustworthy in AI: Mission and Research Lines at the TRAIL Lab |
Luca Bortolussi, Sara Candussio, Irene Ferfoglia, Laura Nenzi, Gaia Saveri and Simone Silvetti | Neuro-Symbolic Methods for Time Series Data Integrating Machine Learning and Signal Temporal Logic |
Chairs
Università degli Studi di Pisa
Università degli Studi di Trento
Università degli Studi di Pisa