Start z polskim AI – od pomysłu do wdrożenia #Bank Pekao
Start z polskim AI to cykl rozmów prezentujących doświadczenia związane z polskimi modelami językowymi AI oraz praktyki wdrożeniowe firm i instytucji. Tym razem w rozmowie udział bierze Karol Tajduś, dyrektor Departamentu Transformacji AI w Banku Pekao.
Jakie były kluczowe motywacje Banku Pekao do wdrażania rozwiązań opartych na sztucznej inteligencji (m.in. wykorzystania modeli takich jak Bielik), jak i rozwoju własnych modeli AI? Jakie cele biznesowe stoją za tymi decyzjami i w jaki sposób AI wpisuje się w długofalową strategię banku, wykraczającą poza konieczność dostosowania się do zmian rynkowych?
My nie koncentrujemy się na dostosowywaniu do rynku, naszym celem jest kształtowanie rynku, przynajmniej w obszarze bankowości. To jeden z kluczowych powodów, dla których zdecydowaliśmy się na takie działania w obszarze AI. Jestem przekonany, że gdybyśmy spotkali się ponownie za rok, trudno byłoby wskazać bank, który znajdowałby się na porównywalnym etapie dojrzałości w tym obszarze.
Budujemy i rozwijamy sztuczną inteligencję w banku w sposób świadomy i systemowy. Wynika to wprost ze strategii – sztuczna inteligencja została wpisana w strategię Banku Pekao do 2027 roku. To stosunkowo krótki horyzont, a jednocześnie bardzo ambitny: zakładamy, że 80% pracowników banku będzie korzystać z bankowej sztucznej inteligencji. Tak jasno zdefiniowany cel oznacza jedno, że szybkość wdrożeń i tempo transformacji są kluczowe. Nieprzypadkowo funkcjonujemy jako Departament Transformacji AI – naszym zadaniem jest realna transformacja banku poprzez AI, a nie punktowe eksperymenty.
Jeśli chodzi o wykorzystanie polskich modeli językowych, podchodzimy do tego przede wszystkim w sposób architektoniczny i pragmatyczny. Kierujemy się zasadą fit for purpose, korzystamy z takich modeli, które w danym zastosowaniu oferują najlepszą jakość odpowiedzi przy akceptowalnym koszcie. Nie wszystkie przypadki użycia wymagają dużych, globalnych modeli językowych. W wielu scenariuszach modele on-premise i modele polskie sprawdzają się bardzo dobrze, zarówno jakościowo, jak i kosztowo, dlatego tak często z nich korzystamy.
Oczywiście istotny jest również element patriotyzmu gospodarczego. Jesteśmy polską instytucją i naturalne jest dla nas wspieranie polskiego ekosystemu technologicznego. Jednocześnie podkreślam: gdyby te modele nie spełniały naszych wymagań, nie byłyby wykorzystywane. Faktem jest jednak, że działają, i to bardzo dobrze. Model Bielik jest jednym z najczęściej wykorzystywanych w naszych rozwiązaniach customowych. Równolegle korzystamy także z globalnych narzędzi, takich jak Copilot, który został wdrożony w skali całego banku. Całość uzupełnia warstwa zarządcza- korzystamy m.in. z rozwiązania typu Switchboard, które pozwala nam monitorować, z jakich modeli korzystamy, w jakim zakresie i przy jakiej liczbie zapytań. Dzięki temu mamy pełną kontrolę nad efektywnością, skalą i kosztami wykorzystania AI w banku.
Czy w banku rozwijacie własne, autorskie rozwiązania AI?
Zdecydowanie tak. To jest nasz plan i konsekwentnie go realizujemy. Już w najbliższym czasie uruchomimy pierwszą fazę bankowego marketplace’u rozwiązań AI, wraz z jego pierwszym wdrożeniem produkcyjnym. Znajdą się tam przede wszystkim autorskie rozwiązania AI rozwijane wewnętrznie w banku, które już dziś funkcjonują w naszych procesach.
Jeżeli mówimy o wdrożeniach stricte AI – z wyłączeniem rozwiązań takich jak Copilot – około 95% obecnie działających wdrożeń zostało zaprojektowanych i zbudowanych przez nasz wewnętrzny zespół. Oczywiście, w wybranych obszarach wspieramy się kompetencjami zewnętrznymi, jednak ma to charakter staff augmentation, a nie outsourcingu kluczowych kompetencji. Rdzeń projektów, architektura, development i odpowiedzialność pozostają po stronie zespołów wewnętrznych. Dysponujemy bardzo dojrzałym i zaawansowanym technologicznie zespołem, co jest jednym z naszych największych atutów. Mówię to również z perspektywy wcześniejszych doświadczeń zawodowych – miałem okazję obserwować, jak do tematu AI podchodzą inne organizacje. To, na jakim poziomie kompetencyjnym i organizacyjnym funkcjonuje zespół w Banku Pekao, było dla mnie bardzo pozytywnym zaskoczeniem.
Jak wygląda mapa kluczowych procesów i potrzeb biznesowych Banku Pekao, które są obecnie wspierane lub transformowane przez rozwiązania AI- zarówno wewnętrznie, jak i po stronie klienta?
Nie ograniczamy się wyłącznie do zastosowań wewnętrznych. Oczywiście optymalizacja procesów wewnętrznych jest naturalnym i często pierwszym etapem wdrażania rozwiązań AI, jednak nasze podejście jest wielofazowe. Równolegle prowadzimy kilka projektów strategicznych, które w dłuższej perspektywie będą transformować kluczowe procesy banku. Skala tych działań jest znacząca – liczba realizowanych inicjatyw pokazuje, że AI nie jest u nas dodatkiem, lecz integralnym elementem rozwoju organizacji.
Jednocześnie rozwijamy i wdrażamy rozwiązania skierowane bezpośrednio do klientów. Obecnie około 5% klientów banku objętych jest pilotażem osobistego asystenta AI, który odpowiada na pytania związane z najczęściej pojawiającymi się zagadnieniami – od podstawowych informacji, aż po wskazówki dotyczące dostępnych funkcjonalności. Rozwiązanie to ma realnie odciążyć contact center, poprawiając jednocześnie dostępność i jakość obsługi. To jednak dopiero pierwszy etap. Mamy jasno zdefiniowaną mapę rozwoju tego rozwiązania, zarówno pod kątem skali udostępnienia, jak i zakresu funkcjonalności. Asystent będzie stopniowo wzbogacany o czynności transakcyjne i operacyjne, takie jak np. zmiana limitów na kartach płatniczych. Naszym celem jest umożliwienie klientom realizacji takich działań w sposób konwersacyjny – głosowo lub poprzez czat – bez konieczności przechodzenia przez wieloetapowe procesy w aplikacji.
Wracając jeszcze do polskiego modelu, Bielik – dlaczego zdecydowaliście się na wdrożenie? Czy to był świadomy wybór z perspektywy bezpieczeństwa i suwerenności danych?
Decyzja o wykorzystaniu modelu Bielik opiera się u nas na trzech kluczowych przesłankach. Po pierwsze, istotny jest patriotyzm gospodarczy, który traktujemy jako element odpowiedzialnego podejścia do budowania ekosystemu technologicznego w Polsce. Jako polska instytucja chcemy wspierać rodzime rozwiązania – oczywiście pod warunkiem, że spełniają one nasze wymagania jakościowe i biznesowe.
Po drugie, Bielik jest po prostu dobrym modelem. W kontekście języka polskiego bardzo dobrze realizuje zadania, które przed nim stawiamy. A ponieważ w banku w zdecydowanej większości operujemy właśnie w języku polskim, nie ma potrzeby sięgania po rozwiązania całkowicie zewnętrzne czy egzotyczne, skoro dysponujemy modelem, który zapewnia wysoką jakość odpowiedzi. Warto też podkreślić, że Bielik funkcjonuje w modelu on-premise, co oznacza, że ponoszone przez nas koszty są związane głównie z infrastrukturą, a nie z kosztami tokenowymi charakterystycznymi dla dużych, komercyjnych modeli językowych – z których oczywiście również korzystamy tam, gdzie ma to uzasadnienie. Tu ważne doprecyzowanie: nie opieramy się wyłącznie na modelach on-premise. W dojrzałej architekturze AI, zarówno w banku, jak i w każdej dużej organizacji – musi istnieć kohabitacja różnych typów modeli: dużych ogólnego przeznaczenia oraz mniejszych, wyspecjalizowanych rozwiązań, dopasowanych do konkretnych zastosowań.
Trzecim, niezwykle istotnym elementem jest bezpieczeństwo. Coraz częściej pojawiają się badania – m.in. publikowane przez News Guard czy inne ośrodki analityczne – wskazujące, że duże modele językowe mogą być „zanieczyszczone” określonymi narracjami informacyjnymi, w tym dezinformacją. Jeżeli korzystamy z modelu, w przypadku którego wiemy, na jakich danych był trenowany i mamy kontrolę nad jego środowiskiem, daje nam to znacznie większą przewidywalność i bezpieczeństwo odpowiedzi.
To zresztą aspekt, na który warto zwracać uwagę również przy korzystaniu z modeli zagranicznych - kluczowe jest rozumienie ich pochodzenia, sposobu trenowania oraz potencjalnych ryzyk informacyjnych. Dla instytucji zaufania publicznego, jaką jest bank, są to kwestie absolutnie fundamentalne.
Na różnych etapach wdrażania rozwiązań opartych na sztucznej inteligencji – zarówno przed wdrożeniem, jak i w trakcie ich skalowania – z jakimi kluczowymi wyzwaniami musieliście lub nadal musicie się mierzyć? Mam tu na myśli wyzwania technologiczne, związane z danymi, ale także te dotyczące kultury organizacyjnej i gotowości zespołów na pracę z AI.
Z mojego doświadczenia wynika, że w projektach AI zdecydowanie rzadziej mierzymy się z problemami stricte technologicznymi, a znacznie częściej z wyzwaniami kulturowymi oraz sposobem tworzenia rozwiązań. Technologia, szczególnie w obszarze takich zastosowań jak chatboty wiedzy dla pracowników - jest dziś na bardzo dojrzałym poziomie. Znamy sprawdzone frameworki, wiemy, jak je projektować i wdrażać. To nie jest obszar, w którym najczęściej pojawiają się realne bariery.
Prawdziwym wyzwaniem jest praca z wiedzą i danymi. Aby stworzyć wartościowe rozwiązanie AI, kluczowe jest nie samo narzędzie, lecz to, jaką wiedzą je „nakarmimy”. Trzeba odpowiedzieć sobie na pytania: gdzie w organizacji ta wiedza faktycznie się znajduje, które informacje są aktualne i wiarygodne, a które są przestarzałe lub nie powinny być już wykorzystywane. To etap wymagający dużej dyscypliny organizacyjnej. Jak wszyscy wiemy, słaba jakość danych na wejściu oznacza słabą jakość odpowiedzi na wyjściu, niezależnie od tego, jak zaawansowany model czy skalowalna architektura stoją pod spodem.
Drugim istotnym obszarem jest zmiana kultury organizacyjnej. To element kluczowy, choć akurat w naszym przypadku nie postrzegam go jako największego ryzyka. Zainteresowanie AI jest dziś bardzo duże, a świadomość jej potencjału powszechna. Widzimy coraz więcej osób, które same przychodzą z inicjatywą i chęcią tworzenia nowych rozwiązań.
Co więcej, uważam, że jesteśmy w tym obszarze w pewnym sensie forpocztą. Widzę to po sposobie współpracy z biznesem, to zespoły przychodzą do nas z konkretnymi pomysłami: jak wykorzystać AI do lepszej sprzedaży produktów bankowych, poprawy doświadczeń klientów czy realnego ograniczenia kosztów. Nie musimy nikogo przekonywać, że AI jest ważne. Ta potrzeba już istnieje po stronie biznesu. To jest jedna z naszych największych przewag i w dużej mierze zasługa obecnego zarządu, który bardzo jasno wspiera transformację opartą na AI. W dyskusjach na poziomie decyzyjnym znacznie częściej pojawia się pytanie „dlaczego to jeszcze nie dzieje się szybciej?”, a nie „czy to w ogóle ma sens?”. Z mojego punktu widzenia to ogromne wsparcie i jeden z kluczowych czynników, które umożliwiają skuteczną transformację AI w banku.
Czy możesz opowiedzieć o ostatnim wdrożeniu – od pomysłu do uruchomienia? Ile trwał proces i jakie były kluczowe etapy?
Dobrym przykładem takiego podejścia jest projekt, który realizowaliśmy wspólnie z jednym z działów sprzedaży. Co istotne, inicjatywa ta wyszła bezpośrednio od biznesu, to zespół zgłosił potrzebę stworzenia wyspecjalizowanego agenta AI, który realnie wspierałby analityków i doradców w codziennej pracy. Biznes bardzo precyzyjnie określił, jakie informacje taki agent powinien dostarczać, które elementy pracy analitycznej są kluczowe na jej początkowym etapie oraz które z nich można zautomatyzować. Dzięki temu mogliśmy szybko przejść od pomysłu do pierwszego prototypu i udostępnić rozwiązanie pilotażowo niewielkiej grupie – około dwustu pracownikom. Już na tym etapie agent realnie wspierał procesy sprzedażowe.
Co szczególnie istotne, po pierwszych doświadczeniach to biznes sam zgłosił chęć dalszego rozwoju rozwiązania. Zespół jasno zarysował nawet trzyletnią wizję rozwoju tego agenta, który miałby coraz bardziej optymalizować pracę doradców i analityków. Plan obejmuje m.in. funkcjonalności związane z wyższym poziomem agregacji i kategoryzacji danych, dostarczaniem skonsolidowanych informacji o klientach oraz produktach bankowych, a także inteligentnym dopasowywaniem oferty do potrzeb konkretnego klienta.
Jednym z najbardziej „game-changerowych” elementów tego projektu jest jednak integracja z systemami bankowymi. Biznes jasno wskazał, że agent nie może funkcjonować jako odseparowany czat, do którego trzeba ręcznie przeklejać dokumenty czy dane. Oczekiwaniem było, aby rozwiązanie pobierało informacje bezpośrednio z systemów bankowych, konsolidowało je i prezentowało w formie konwersacyjnej – w jednym, spójnym interfejsie.
W tym kontekście kluczowa okazała się decyzja o wykorzystaniu polskich modeli on-premise. Dzięki temu mamy pewność, że wrażliwe dane nie opuszczają infrastruktury banku i są przetwarzane wyłącznie w naszym środowisku. To jeden z fundamentów projektowania takich rozwiązań. Kolejnym bardzo praktycznym przykładem są notatki służbowe po rozmowach z klientami w oddziałach banku. To czynność, która dziś wciąż w dużej mierze wykonywana jest manualnie. Tymczasem nie ma żadnego uzasadnienia, aby w obecnej rzeczywistości cyfrowej obciążać tym pracowników, szczególnie gdy jednocześnie mamy bardzo wysokie wymagania dotyczące bezpieczeństwa danych. Tego typu informacje nie mogą być przetwarzane w chmurach publicznych czy wysyłane na zewnętrzne serwery. Dlatego rozwijamy rozwiązania on-premise, które automatycznie generują notatki w odpowiedniej formie i strukturze, dbając o kompletność treści, spójność informacji oraz pełne bezpieczeństwo danych. Całość odbywa się w ramach infrastruktury banku, bez ryzyka utraty kontroli nad wrażliwymi informacjami.
Gdzie dziś AI daje Wam największą wartość, jak to wygląda po stronie klienta czy wewnątrz organizacji?
Jeżeli mówimy o realnych korzyściach płynących z wykorzystania sztucznej inteligencji, to pierwszym i najważniejszym obszarem są procesy wewnętrzne. Nie da się skutecznie myśleć w kategoriach „dodajmy AI do istniejącego procesu”. W większości przypadków procesy muszą zostać zredefiniowane od podstaw, tak aby faktycznie wykorzystywały potencjał sztucznej inteligencji. Szacuję, że około 70% wdrożeń AI będzie koncentrowało się właśnie na tym obszarze - na optymalizacji pracy ludzi.
Kluczowym elementem pozostaje tu human in the loop. W każdym z tych procesów człowiek nadal pełni istotną rolę – AI wspiera, przyspiesza i porządkuje pracę, ale nie zastępuje odpowiedzialności biznesowej.
Jeśli chodzi o rozwiązania AI kierowane bezpośrednio do klientów banku, to jest to obszar stosunkowo nowy i naturalnie budzący duże zainteresowanie. Oczywiście chatboty czy asystenci, którzy podpowiadają działania lub automatyzują proste czynności w bankowości internetowej czy mobilnej, mają swoje miejsce. Natomiast nie są to rozwiązania, które w większości przypadków generują największą wartość biznesową. Część z nich pełni raczej rolę atrakcyjnych dodatków niż realnych dźwigni biznesowych.
Prawdziwa wartość biznesowa sprowadza się do dwóch podstawowych kategorii: albo optymalizacji kosztów, albo optymalizacji przychodów. Dlatego tam, gdzie jesteśmy w stanie wykorzystać AI do zwiększania przychodów, otwierania nowych kanałów sprzedaży czy realnego wsparcia pracy sprzedawców, właśnie tam powinniśmy koncentrować największy wysiłek. To są obszary, w których sztuczna inteligencja przynosi najbardziej mierzalne i trwałe efekty biznesowe.
Nawiązując do korzyści biznesowych, o których wspominałeś – w jaki sposób mierzycie efektywność konkretnych wdrożeń AI? Jakie wskaźniki są dla Was kluczowe: oszczędność czasu, redukcja kosztów, poprawa jakości obsługi, a może bezpośredni wpływ na przychody?
To zawsze zależy od konkretnego projektu, ponieważ nie da się zastosować jednej, uniwersalnej miary do wszystkich wdrożeń AI. Jedno jest jednak niezmienne: jeżeli na etapie projektowania nie definiujemy mierników sukcesu i wartości biznesowej, jakie dane rozwiązanie ma dostarczyć, to w praktyce taki projekt nie powinien być uznany za sukces. Brak miary oznacza brak realnej chęci oceny efektów.
Wskaźniki mogą być bardzo różne. W przypadku rozwiązań wspierających sprzedaż naturalnym KPI będzie wzrost przychodów – mierzony np. w ujęciu rok do roku po wdrożeniu, dokładnie tak, jak w przypadku innych systemów IT wspierających biznes.
Oczywiście często pojawia się również oszczędność czasu, ale tu kluczowe jest właściwe podejście do pomiaru. Nie chodzi o proste liczenie minut „zaoszczędzonych” dzięki temu, że chatbot szybciej podał informację. Takie podejście jest mylne . Znacznie ważniejsze jest mierzenie realnej optymalizacji całego procesu.
Przykładowo, jeśli wykorzystujemy AI do kategoryzacji zgłoszeń w helpdesku, to właściwym wskaźnikiem będzie skrócenie średniego czasu rozwiązania zgłoszenia lub czasu oczekiwania na jego obsługę – porównywane w ujęciu historycznym, np. rok do roku. Dopiero taki pomiar pokazuje faktyczny wpływ rozwiązania na efektywność operacyjną. Właśnie w ten sposób powinniśmy myśleć o mierzeniu efektów wdrożeń AI – na poziomie procesów i wyników biznesowych.
Patrząc w przyszłość – jakie są Wasze dalsze plany związane z rozwojem i wykorzystaniem modeli LLM w banku? Czy rozważacie nowe obszary zastosowań lub dodatkowe funkcjonalności?
Oczywiście duży nacisk kładziemy na obszar detaliczny i wsparcie optymalizacji współpracy z klientem, ale równolegle rozwijamy także wiele rozwiązań w obszarze korporacyjnym i wewnętrznym. Realizujemy projekty typu „IT dla IT”, a także rozwiązania oparte na bazach wiedzy, które docelowo będą dostępne dla każdego pracownika banku. Nie koncentrujemy się na jednym wycinku organizacji – naszym celem jest holistyczne dostarczenie AI dla całego banku. Przy skali i tempie, w jakim działamy, nie mamy przestrzeni na wdrażanie tych rozwiązań punktowo i etapami – muszą one od początku być projektowane systemowo.
Co Twoim zdaniem najbardziej przyspieszyłoby adopcję polskich modeli językowych w biznesie? Czy to w Twojej opinii jest kwestia edukacji, regulacji, czy też być może dostępności rozwiązań, które aktualnie są na rynku ?
Dostępność rozwiązań AI na pewno przyspieszyła ich wdrażanie. Jednocześnie bardzo ważna jest edukacja i zrozumienie, które rozwiązanie do czego służy. Łatwo wyobrazić sobie sytuację, w której ktoś używa mniejszego lub starszego modelu – na przykład PLLuMa czy wcześniejszej wersji Bielika – i porównuje jego odpowiedzi do najnowszych dużych modeli od OpenAI czy Google. Oczywiście nie będą one takie same, ponieważ są to różne typy modeli, przeznaczone do różnych zastosowań. To rozwijająca się technologia, której wszyscy wciąż się uczymy, dlatego podejście fit for purpose musi stać się standardem także na rynku.