Questa idea è diventata il tema centrale della Winter School on Causality and Explainable AI presso la Sorbonne Université, una settimana che ha riunito i migliori ricercatori di DeepMind, UCL, TUM, Charité e Inria.
Il mese scorso, ho avuto il privilegio di partecipare alla Winter School on Causality and Explainable AI, ospitata presso la Sorbonne Université. È stata una settimana stimolante che ha riunito alcuni dei principali ricercatori mondiali nei settori della causalità, della spiegabilità e dell’IA responsabile, tra cui professori di UCL, TUM, Charité Berlin, Inria e DeepMind.
E onestamente? È stato fantastico.
Non solo per la profondità delle lezioni, ma anche per le persone. Nonostante l’incredibile livello di competenza nella stanza, non c’era alcun senso di gerarchia: professori, dottorandi e ricercatori del settore si sono scambiati idee su un piano di parità. Dopo aver terminato le proprie lezioni, scienziati di fama mondiale si sono seduti tra il pubblico, hanno preso appunti e hanno posto domande come tutti gli altri.
Aggiungete a ciò l’atmosfera accogliente, la grande energia del campus e (sì!) il cibo fantastico, ed è diventata una settimana da ricordare.

Cosa mi sono portato via per il nostro lavoro in Asseco Platform
In Asseco Platform, formiamo e implementiamo modelli di visione che supportano i clienti nei settori FMCG e farmaceutico con soluzioni avanzate di riconoscimento delle immagini che garantiscono che i prodotti siano disponibili, visualizzati correttamente e promossi efficacemente nel punto vendita.
Ciò che ho imparato alla Winter School influenzerà direttamente il modo in cui spieghiamo, formiamo e miglioriamo questi modelli.
Un messaggio chiave è risuonato in molte lezioni:
“Non possiamo più trattare l’IA come una scatola nera: dobbiamo capire perché prende ogni decisione.”
Questo principio si allinea perfettamente con la nostra attuale direzione di R&S. Nei prossimi mesi, inizieremo ad adattare le tecniche di spiegabilità discusse durante la scuola, ad esempio, i modelli spiegabili basati su concetti (CBM) e il ricorso consapevole della struttura, per rendere i nostri sistemi di riconoscimento visivo più trasparenti e interpretabili.
Questo significa due cose:
- Formazione più intelligente: progetteremo le nostre architetture in modo più consapevole, utilizzando approcci ispirati alla causalità per garantire che i modelli imparino veramente ciò che conta nei dati.
- Migliore controllo della qualità: comprendendo il “perché” dietro ogni previsione, saremo in grado di ridurre i falsi riconoscimenti e migliorare l’accuratezza e l’affidabilità complessive delle nostre soluzioni.
In definitiva, questi miglioramenti renderanno i nostri modelli di riconoscimento delle immagini non solo più performanti, ma anche in grado di spiegarsi meglio, un passo cruciale verso un’IA più affidabile nelle applicazioni commerciali.

Una riflessione personale
Al di là delle intuizioni tecniche, la Sorbona mi ha fatto riflettere sulla bellezza della ricerca sull’IA stessa.
Le lezioni non riguardavano solo gli algoritmi, ma erano costruite attorno a prove, ragionamenti e all’eleganza matematica alla base dell’apprendimento automatico. Non abbiamo semplicemente accettato ciò che “sapevamo”; lo abbiamo sfidato, ricostruito e dimostrato di nuovo, questa volta in modo più rigoroso.
Mi ha ricordato perché amo questo campo. L’IA non riguarda solo le metriche di performance. Si tratta di comprensione, scoperta e continuo interrogarsi.
E sì, tornerò sicuramente. Forse anche per un dottorato di ricerca un giorno. L’atmosfera di curiosità e aperta collaborazione alla Sorbona è stata qualcosa di veramente speciale.
Pensiero conclusivo
Eventi come la Winter School mostrano dove sta andando l’IA: verso sistemi che non sono solo intelligenti ma anche spiegabili.
E per noi di Asseco Platform, questa è una direzione che stiamo abbracciando pienamente.
La causalità ci aiuta a capire come funzionano le cose.
La spiegabilità ci aiuta a fidarci di loro.
Insieme, ci aiutano a costruire un’IA migliore.
