Ta idea stała się głównym tematem Zimowej Szkoły Przyczynowości i Wyjaśnialnej Sztucznej Inteligencji na Uniwersytecie Sorbony — tygodnia, który zgromadził czołowych badaczy z DeepMind, UCL, TUM, Charité i Inria.
W zeszłym miesiącu miałem zaszczyt dołączyć do Zimowej Szkoły Przyczynowości i Wyjaśnialnej Sztucznej Inteligencji, organizowanej na Uniwersytecie Sorbony. Był to inspirujący tydzień, który zgromadził niektórych z wiodących światowych badaczy w dziedzinie przyczynowości, wyjaśnialności i odpowiedzialnej sztucznej inteligencji — w tym profesorów z UCL, TUM, Charité Berlin, Inria i DeepMind.
I szczerze mówiąc? Było niesamowicie.
Nie tylko ze względu na głębię wykładów, ale także ze względu na ludzi. Pomimo niesamowitego poziomu wiedzy eksperckiej w sali, nie było poczucia hierarchii — profesorowie, doktoranci i badacze z przemysłu wymieniali się pomysłami na równych zasadach. Po zakończeniu własnych wykładów, światowej sławy naukowcy zasiadali na widowni, robili notatki i zadawali pytania jak wszyscy inni.
Dodając do tego przyjazną atmosferę, świetną energię kampusu i (tak!) fantastyczne jedzenie — był to tydzień, który zapadnie w pamięć.

Co wyniosłem dla naszej pracy w Asseco Platform
W Asseco Platform trenujemy i wdrażamy modele wizyjne, które wspierają klientów z branży FMCG i farmaceutycznej poprzez zaawansowane rozwiązania rozpoznawania obrazu, zapewniające, że produkty są dostępne, właściwie wyeksponowane i skutecznie promowane w punktach sprzedaży.
To, czego nauczyłem się podczas Zimowej Szkoły, bezpośrednio wpłynie na sposób, w jaki wyjaśniamy, trenujemy i ulepszamy te modele.
Jedno kluczowe przesłanie przewijało się przez wiele wykładów:
„Nie możemy już traktować sztucznej inteligencji jako czarnej skrzynki – musimy zrozumieć, dlaczego podejmuje każdą decyzję”.
Ta zasada doskonale wpisuje się w nasz obecny kierunek badań i rozwoju. W nadchodzących miesiącach zaczniemy adaptować techniki wyjaśnialności omawiane podczas szkoły – na przykład modele wyjaśnialne oparte na koncepcjach (CBM) i rekurs uwzględniający strukturę — aby uczynić nasze systemy rozpoznawania wizualnego bardziej przejrzystymi i interpretowalnymi.
Oznacza to dwie rzeczy:
- Inteligentniejsze trenowanie – Będziemy bardziej świadomie projektować nasze architektury, wykorzystując podejścia inspirowane przyczynowością, aby zapewnić, że modele rzeczywiście uczą się tego, co istotne w danych.
- Lepsza kontrola jakości – Rozumiejąc „dlaczego” kryjące się za każdą prognozą, będziemy mogli zredukować fałszywe rozpoznania i poprawić ogólną dokładność i niezawodność naszych rozwiązań.
Ostatecznie, te ulepszenia sprawią, że nasze modele rozpoznawania obrazu nie tylko będą działać lepiej, ale także lepiej się wyjaśniać – co jest kluczowym krokiem w kierunku bardziej godnej zaufania sztucznej inteligencji w zastosowaniach komercyjnych.

Osobista refleksja
Poza technicznymi spostrzeżeniami, Sorbona dała mi do myślenia o pięknie samych badań nad sztuczną inteligencją.
Wykłady nie dotyczyły tylko algorytmów – były zbudowane wokół dowodów, rozumowania i matematycznej elegancji uczenia maszynowego. Nie akceptowaliśmy po prostu tego, co „wiedzieliśmy”; podważaliśmy to, przebudowywaliśmy to i udowadnialiśmy to ponownie – tym razem bardziej rygorystycznie.
To przypomniało mi, dlaczego kocham tę dziedzinę. AI nie dotyczy tylko wskaźników wydajności. Chodzi o zrozumienie, odkrywanie i ciągłe zadawanie pytań.
I tak – na pewno tam wrócę. Może nawet kiedyś na doktorat. Atmosfera ciekawości i otwartej współpracy na Sorbonie była naprawdę wyjątkowa.
Końcowa myśl
Wydarzenia takie jak Zimowa Szkoła pokazują, w jakim kierunku zmierza AI – w stronę systemów, które są nie tylko inteligentne, ale także wyjaśnialne.
A dla nas w Asseco Platform jest to kierunek, który w pełni przyjmujemy.
Przyczynowość pomaga nam zrozumieć, jak działają rzeczy.
Wyjaśnialność pomaga nam im ufać.
Razem pomagają nam budować lepszą sztuczną inteligencję.
