Workshop AI Responsabile e Affidabile

23 giugno 2025

Lo sviluppo di sistemi di Intelligenza Artificiale responsabili e affidabili rappresenta una priorità sempre più crescente al giorno d'oggi, per via delle richieste formali presenti nelle nuove regolamentazioni, sia a livello europeo che internazionale. In questo contesto, emergono questioni importanti in merito alla trasparenza dei modelli, alla tutela della privacy, nonché alla mitigazione dei bias ed alla possibilità di intervenire sulle decisioni prese da questi sistemi, anche in maniera retroattiva.

In questo contesto, la protezione della privacy resta un requisito essenziale: la raccolta, l’uso e la conservazione dei dati personali nei sistemi di Intelligenza Artificiale sollevano varie questioni, richiedendo garanzie tecniche che siano coerenti con le richieste legali.

Al contempo, la crescente diffusione di metodi per spiegare sistemi intelligenti mira a rendere interpretabili i modelli complessi, favorendo un uso più trasparente e verificabile dei sistemi.

Un aspetto ancora poco esplorato, ma centrale per una visione responsabile dell’Intelligenza Artificial, è la capacità dei modelli di "disimparare" , cioè di rimuovere informazioni apprese da dati che non dovrebbero più essere trattati, come previsto dal diritto alla cancellazione (art. 17 GDPR).

Questo workshop intende stimolare il confronto interdisciplinare su approcci tecnici e normativi per garantire affidabilità, equità, privacy e rispetto dei diritti fondamentali nei sistemi di Intelligenza Artificiale, promuovendo anche una riflessione critica sulla possibilità di realizzare un’Intelligenza Artificiale etica, a partire dai vincoli tecnici e normativi e dalle conoscenze disponibili oggi.

Chairs

Francesca Naretto
Università degli Studi di Pisa
Andrea Pugnana
Università degli Studi di Trento
Francesco Spinnato
Università degli Studi di Pisa