Przejdź do treści
WAŻNE

Przekazanie oświadczenia o liczbie pracowników i uczestników Pracowniczych Programów Emerytalnych (PPE). Sprawdź, co należy zrobić!

Polecamy

Nowa strategia PFR 2026–2030: Inwestujemy dla przyszłych pokoleń. Dowiedz się więcej!

Publikacje Data publikacji: 20 stycznia 2026

Start z polskim AI – od pomysłu do wdrożenia # PKO Bank Polski

Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Autor Patryk Bitner Młodszy Specjalista ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Polski Fundusz Rozwoju S.A.

Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Zapraszamy do rozmowy z Pawłem Klimiukiem, Dyrektorem Biura Rozwoju Sztucznej Inteligencji w obszarze detalicznym w PKO Banku Polskim.

Zacznijmy od samego początku. Kiedy rozpoczęła się działalność Waszego Biura Rozwoju Sztucznej Inteligencji w PKO Banku Polskim?

Historia tego biura sięga 2020 roku. Pomysł jego utworzenia wyszedł od Marcina Bednarskiego, a następnie był rozwijany i realizowany przez Kamila Konikiewicza (obecnie związanego z Allegro). Właśnie wtedy rozpoczęła się inicjatywa pod nazwą You&AI, której celem było wdrożenie w banku platformy botowej i budowa asystenta (Talk2IKO) w aplikacji mobilnej IKO. Platforma została wdrożona, a w jej ramach powstały dwa zespoły.

Pierwszy z nich zajmował się biznesową integracją rozwiązań opartych na sztucznej inteligencji przede wszystkim botów. Zespół ten funkcjonuje do dziś i odpowiada m.in. za tworzenie botów, analizę biznesową, development, raportowanie oraz monitorowanie skuteczności działania botów.

Równolegle powstał Zespół Modelowania Sztucznej Inteligencji, który koncentruje się na budowie modeli predykcyjnych – od rozwiązań z zakresu przetwarzania języka naturalnego (NLP), przez wizję komputerową, aż po modelowanie na danych strukturalnych. Oprócz dostarczania modeli dla zespołu wdrożeniowego, zespół ten realizuje również inicjatywy badawczo-rozwojowe w banku.

W ten sposób ukształtowały się fundamenty biura, które dziś ma już pięć lat i od powstania znacząco ewoluowało – zarówno pod względem odpowiedzialności, jak i skali realizowanych projektów. Przełomowy moment nastąpił w 2023 roku, jeszcze przed premierą ChatGPT w wersji 3.5. Bank planował wówczas wykorzystać europejskie fundusze na innowacje, dostępne za pośrednictwem Narodowego Centrum Badań i Rozwoju, aby zbudować moduł Automatic Speech Recognition (ASR) – kluczowy komponent rozwiązań głosowych, umożliwiający transkrypcję mowy na tekst i dalsze przetwarzanie danych.

W PKO Banku Polskim działa wyspecjalizowana jednostka zajmująca się pozyskiwaniem grantów europejskich - był to już szósty projekt grantowy realizowany w banku. W okolicach marca–kwietnia 2023 roku, niemal równolegle z premierą GPT-3.5, zapadła w banku decyzja o stworzeniu polskiego modelu językowego, dostosowanego do realiów i danych sektora bankowego. Wówczas biurem rozwoju sztucznej inteligencji kierował kolega Dawid Kin. Jako jeden z największych i najstarszych banków w Polsce, PKO Bank Polski dysponuje ogromnymi zasobami tekstu, które stanowią solidną podstawę do trenowania tego typu modeli. Wspólnie z zespołem odpowiedzialnym za granty Małgosią Sawicką, Dyrektor Biura Finansowania Działalności B+R oraz Tomaszem Groszkowskim, ekspertem ds. projektów B+R,  przygotowano wniosek projektowy i złożono go do NCBR. Po pewnym czasie bank otrzymał pozytywną decyzję o dofinansowaniu, co umożliwiło realizację projektu ze środków europejskich.

Można śmiało powiedzieć, że bez tego grantu organizacja prawdopodobnie nie zdecydowałaby się na tak dużą inwestycję w obszar obarczony wysoką niepewnością. Projekty R&D, zwłaszcza w obszarze zaawansowanej AI, rzadko mają szybki i jednoznaczny zwrot z inwestycji. Środki europejskie odegrały więc kluczową rolę – nie tylko finansową, ale również w przekonaniu zarządu, że warto podjąć to ryzyko.

W międzyczasie na rynku pojawiały się kolejne polskojęzyczne modele, takie jak Bielik czy PLLum, jednak cel banku pozostawał niezmienny: tworzenie modeli językowych wyspecjalizowanych dla sektora finansowego. I ten kierunek rozwoju – mimo dynamicznych zmian w ekosystemie AI – pozostaje aktualny do dziś.

W tym samym czasie działaliście już z projektem grantowym.

Po uzyskaniu pozytywnej opinii zarządu wystartowaliśmy z projektem. Dziś – co można również zauważyć w mediach – pojawiają się pierwsze efekty: mamy pierwsze modele językowe, dostosowane zarówno do języka polskiego, jak i do domeny finansowej. To co istotne, od początku chcieliśmy, aby część efektów naszej pracy miała również wymiar społeczny. Dlatego po uzyskaniu wszystkich niezbędnych zgód wewnątrz organizacji podjęliśmy decyzję, aby część wytwarzanych rozwiązań udostępniać społeczności na licencjach open source, dopuszczających także komercyjne wykorzystanie. Ten plan realizujemy: pierwszy model po adaptacji językowej został już udostępniony na platformie Hugging Face.

Na tle rynku wyróżnia nas fakt, że jesteśmy jedyną instytucją finansową w Polsce, która zdecydowała się na taki krok, i jedną z nielicznych w Europie. Co ciekawe, podobną ścieżką podążają najwięksi globalni gracze tacy jak JP Morgan czy Bloomberg, którzy również rozwijają wewnętrzne kompetencje AI i tworzą modele wyspecjalizowane dla własnych domen biznesowych. Równolegle, wraz z upowszechnieniem się modeli generatywnych, pojawiło się bardzo duże zainteresowanie tym obszarem wewnątrz banku. Wiele zespołów chciało eksperymentować i wykorzystywać AI w swoich procesach. Warto jednak podkreślić, że modele generatywne to tylko jeden z wielu typów modeli językowych, jakie funkcjonują w banku. Ich popularność wynika w dużej mierze z intuicyjnego interfejsu – możliwości „rozmowy” z modelem, równolegle rozwijamy wiele innych, mniej widocznych, ale kluczowych modeli predykcyjnych.

Tak duże zainteresowanie ze strony biznesu postawiło przed nami wyzwanie demokratyzacji AI w organizacji, a jednocześnie konieczność uporządkowania i zarządzania tym obszarem. Tym bardziej, że równolegle pojawiły się nowe wymagania regulacyjne dotyczące zarówno tworzenia, jak i wykorzystywania systemów AI. W odpowiedzi na te potrzeby, w ramach Departamentu Innowacji i Rozwoju, którym kieruje Piotr Kostrzewa-Zalewski, powołana została Formacja AI. Jest to swoista „fabryka” produktów opartych na sztucznej inteligencji – takich jak wyszukiwarki semantyczne, asystenci programistyczni czy rozwiązania automatyzujące cyfrową obsługę dokumentów. Jako biuro delegujemy do tej formacji naszych specjalistów, którzy współtworzą te produkty. Formacja AI ma charakter macierzowy – zespoły produktowe budowane są z ekspertów pochodzących z różnych departamentów banku, a efektem ich pracy są konkretne, wdrażane rozwiązania.

Równolegle w tym samym pionie powstało Centrum Kompetencji AI, którego rolą jest całościowe zarządzanie tematyką AI w organizacji. Jest to swego rodzaju „parasol” obejmujący m.in. kwestie regulacyjne, proceduralne i polityki AI, prowadzenie rejestrów modeli, nadzór nad inicjatywami oraz zapewnienie zgodności z wymaganiami prawnymi i regulacyjnymi.

Jest to szczególnie istotne, ponieważ zgodnie z obowiązującymi definicjami praktycznie każdy model predykcyjny – od scoringu behawioralnego, przez modele ryzyka kredytowego, po rozwiązania CRM – kwalifikowany jest jako system AI. Wymaga to spójnego podejścia do zarządzania tym obszarem.

Centrum Kompetencji AI ma charakter interdyscyplinarny – tworzą je eksperci z różnych dziedzin, w tym cyberbezpieczeństwa, ochrony danych, algorytmiki oraz infrastruktury IT, którzy wspólnie kształtują standardy i kierunki rozwoju AI w banku.

Czy jest to inicjatywa wyłącznie wewnętrzna, czy Centrum działa również na zewnątrz organizacji?

Centrum Kompetencji AI  koordynuje rozwój sztucznej inteligencji w obszarach banku, jego grupie kapitałowej oraz uczetsniczy w europejskim ekosystemie AI. Jego celem jest przede wszystkim szeroka dostępność rozwiązań AI, strategiczna zmiana modelu operacyjnego uwzględniająca sztuczną inteligencję, transfer technologii do wewnątrz i na zewnątrz organizacji oraz wspieranie suwerenności technologicznej. Bank pozostaje otwarty na współpracę z partnerami zewnętrznymi, szczególnie w projektach, które mogą wzmocnić ekosystem i przynieść większą wartość biznesową w porównaniu z działaniami realizowanymi wyłącznie in-house. CK AI dąży do demokratyzacji technologii AI, wspierając obszary banku w budowie kompetencji, rozwoju talentów oraz budowie rozwiązań biznesowych i wsparciu w zakresie ładu korporacyjnego.

Czy mógłbyś opowiedzieć, jakie potrzeby organizacji adresujecie dzięki wdrażanym rozwiązaniom opartym na AI? Jakie konkretne procesy są nimi obejmowane i jak to wygląda w praktyce? Czy macie u siebie dedykowane zespoły techniczne odpowiedzialne za te rozwiązania, czy raczej pełnicie rolę wyznaczającą kierunek biznesowy i strategiczny?

Jedną z kluczowych potrzeb, które adresujemy dzięki rozwiązaniom opartym na AI, jest zarządzanie wiedzą w organizacji. Początkowo koncentrowaliśmy się na helpdesku merytorycznym, następnie rozszerzyliśmy te działania na helpdesk IT. Przełomowym momentem było pojawienie się modeli generatywnych, które umożliwiły użytkownikom naturalną „rozmowę” z bazą wiedzy.

Rozwiązania wyszukiwarkowe zostały zintegrowane i rozwijane w formacji produktowej, a ich development realizujemy samodzielnie, wewnątrz banku. Od początku obserwowaliśmy, jak działają rozwiązania dużych graczy technologicznych, jednak dostrzegliśmy ich istotne ograniczenie – niedostateczne wsparcie dla języka polskiego, zarówno w zakresie generowania odpowiedzi, jak i semantycznego przeszukiwania treści. Z tego powodu zdecydowaliśmy się rozwijać własne rozwiązania.

Dzięki temu zdobyliśmy istotne kompetencje, zyskaliśmy dużą elastyczność i nie jesteśmy uzależnieni od zewnętrznych dostawców. Mamy realny wpływ na kierunek rozwoju tych narzędzi, które nieustannie ewoluują. Kluczowe jest to, że opieramy się na własnych zespołach deweloperskich, a nie na gotowych, zamkniętych rozwiązaniach, co pozwala nam swobodnie dostosowywać produkty do zmieniających się potrzeb organizacji.

W praktyce wyszukiwarki znacząco usprawniły dostęp do rozproszonej wiedzy. Wcześniej informacje znajdowały się w wielu miejscach, nie istniało jedno spójne źródło, a dotarcie do właściwych danych wymagało czasu i dużego wysiłku. Wdrożenie wyszukiwarek pozwoliło pracownikom – zarówno nowym, jak i doświadczonym – szybko odnajdywać potrzebne informacje i uzyskiwać konkretne odpowiedzi.

Szczególnie dużą wartość rozwiązania te przynoszą pracownikom oddziałów, w których występuje naturalna rotacja kadr. Zamiast zapoznawać się z obszerną dokumentacją, nowi pracownicy mogą po prostu zadać pytanie i otrzymać odpowiedź opartą na aktualnej bazie wiedzy.

Co istotne, wyszukiwarki te pełnią również rolę fundamentu dla kolejnych produktów wymagających pracy na wiedzy – zarówno w procesach wewnętrznych, jak i w obsłudze klienta. Umożliwiają przeszukiwanie złożonych zbiorów informacji i generowanie precyzyjnych odpowiedzi na skomplikowane pytania.

W dłuższej perspektywie planujemy, aby modele generatywne były wykorzystywane również w botach obsługujących klientów zewnętrznych. Wydaje się, że jest to już perspektywa niedalekiej przyszłości.

Wspomniałeś, że macie własne zespoły deweloperskie i dzięki temu nie opieracie się na gotowych, pudełkowych rozwiązaniach, co jest dużą przewagą. Chciałabym dopytać, jak wygląda współpraca technologiczna z innymi podmiotami – z kim współpracujecie w tym obszarze? Jak łączycie te różne współprace i linie technologiczne w spójną całość?

Współpracujemy z zespołem AI LAB z Ośrodka Przetwarzania Informacji Państwowy Instytut Badawczy pod kierownictwem Dr. Marka Kozłowskiego, który jest naszym podwykonawcą w projekcie realizowanym z Narodowym Centrum Badań i Rozwoju. Wątek PLLum pojawia się dlatego, że dr Marek Kozłowski wcześniej był zaangażowany w ten projekt, a więc wypracowane dobre praktyki w PLLum-ie wykorzystujemy w naszym projekcie. W ramach projektu NCBR-owego współpracujemy więc na solidnym zapleczu naukowym przy budowie modeli językowych, co jest dla nas bardzo dużą wartością. Dzięki temu nie tylko realizujemy konkretny projekt, ale jednocześnie budujemy kompetencje wewnętrzne i prowadzimy realny transfer wiedzy z ośrodków naukowych do organizacji – szczególnie w obszarze przetwarzania informacji.

Dzięki temu dziś wiemy, jakie są ograniczenia i podatności modeli, jak je trenować, na co zwracać uwagę przy ich ocenie oraz jakie kompetencje organizacyjne są niezbędne, aby takie rozwiązania działały skutecznie i bezpiecznie. To podejście znacząco wykracza poza proste „składanie gotowych klocków” dostępnych na rynku. Kluczowe jest bowiem dopasowanie modeli do konkretnej domeny biznesowej – w naszym przypadku do sektora finansowego. Oczywiście dostępnych jest wiele gotowych modeli generatywnych: Google, OpenAI czy Anthropic regularnie wypuszczają kolejne wersje i ogłaszają ich przewagę w benchmarkach ogólnych. Problem polega na tym, że większość organizacji nie jest w stanie jednoznacznie stwierdzić, który model jest najlepszy dla ich specyficznej domeny.

Fakt, że dany model wygrywa w ogólnych benchmarkach, nie oznacza automatycznie, że będzie najlepszym rozwiązaniem w konkretnym kontekście biznesowym. Równie dobrze może się okazać, że model taki jak PLLum lepiej sprawdzi się w danej domenie niż najnowsza wersja globalnego rozwiązania. Dlatego właśnie konieczne jest budowanie własnych, domenowych benchmarków, które pozwalają ocenić realną wartość poszczególnych modeli w konkretnych zastosowaniach. W naszym projekcie tworzymy takie wewnętrzne benchmarki, aby móc świadomie odpowiadać na pytania: czy warto przechodzić na nową wersję modelu, czy przyniesie ona realną poprawę jakości, i czy uzasadnia to dodatkowe koszty związane z jej wykorzystaniem. To podejście daje nam kontrolę, niezależność i możliwość podejmowania decyzji opartych na danych, a nie wyłącznie na marketingowych deklaracjach dostawców.

Jakie wyzwania napotykaliście podczas wdrożeń rozwiązań opartych na AI — zarówno od strony technologii i danych, jak i zmiany kultury organizacyjnej? Jak wyglądał proces przekonywania pracowników do korzystania z takich narzędzi, jak np. wyszukiwarki czy inne rozwiązania AI?

Jeżeli chodzi o samo wytwarzanie rozwiązań AI, były to dla nas nowe wyzwania organizacyjne, przede wszystkim w obszarze bezpieczeństwa. Jako instytucja finansowa funkcjonujemy w bardzo restrykcyjnym otoczeniu regulacyjnym, co szczególnie komplikuje kwestie korzystania z zewnętrznych modeli interfejsowych, zwłaszcza w kontekście danych objętych tajemnicą bankową.

O ile tajemnica przedsiębiorstwa to jedno, o tyle tajemnica bankowa wiąże się z dodatkowymi, znacznie bardziej rygorystycznymi wymaganiami. Największym wyzwaniem było więc określenie, jakiego rodzaju dane i w jakim zakresie mogą być przetwarzane przez modele dostarczane przez globalnych dostawców, takich jak Google czy OpenAI. Był to przedmiot intensywnych i niełatwych dyskusji wewnątrz organizacji.

Równolegle pracowaliśmy nad wypracowaniem najlepszych praktyk w zakresie trenowania i wykorzystywania modeli językowych na danych organizacyjnych, również tych wrażliwych. Analizowaliśmy ryzyka związane z potencjalnym wyciekiem danych, identyfikowaliśmy obszary, w których to ryzyko jest akceptowalne, oraz te, w których musi być całkowicie wyeliminowane. Efektem tych działań było zdefiniowanie standardów wytwarzania i wdrażania rozwiązań opartych na AI, które nadal ewoluują wraz z rozwojem technologii i regulacji.

Drugim istotnym wyzwaniem była adaptacja organizacyjna i budowanie kompetencji pracowników. Dlatego uruchomiliśmy specjalne programy szkoleniowe, realizowane we współpracy z zespołami odpowiedzialnymi za rozwój kompetencji. Szkolenia te obejmują m.in. praktyczne wykorzystanie narzędzi takich jak Copilot oraz inne rozwiązania oparte na AI.

W planach mamy trójpoziomowy model szkoleń:

  • szkolenia podstawowe – dla szerokiej grupy pracowników, obejmujące wprowadzenie do AI generatywnej, zasady bezpiecznego korzystania oraz ograniczenia tej technologii,
  • szkolenia eksperckie – dla osób bezpośrednio zaangażowanych w projektowanie i rozwój rozwiązań AI,
  • szkolenia menedżerskie – koncentrujące się na zarządzaniu inicjatywami AI, ryzykiem i odpowiedzialnością.

Dbamy o to, aby wiedza na temat AI była systematycznie dystrybuowana w całej organizacji, a pracownicy rozumieli zarówno możliwości, jak i ograniczenia tej technologii. To podejście pozwala nie tylko zwiększać adopcję rozwiązań AI, ale także budować realistyczne oczekiwania i odpowiedzialne podejście do ich wykorzystania.

Jak mierzycie efektywność wdrożeń AI — czas, jakość, a może jeszcze inne wskaźniki? Co jest dla Was najważniejsze?

Stosujemy wiele wskaźników efektywności, zależnych od rodzaju rozwiązania. W przypadku botów obsługowych jednym z kluczowych mierników jest tzw. poziom obsługi w pierwszej linii – czyli liczba spraw, które zostały rozwiązane przez bota bez przekazywania do konsultanta. W praktyce oznacza to, że klient nie musi angażować pracownika, aby jego sprawa została zamknięta.

Ten wskaźnik przekłada się bezpośrednio na kolejne miary efektywności, takie jak:

  • spadek kosztu obsługi procesu,
  • zmniejszenie zapotrzebowania na roboczogodziny,
  • ograniczenie zaangażowania człowieka w powtarzalne zadania.

Równolegle mierzymy również satysfakcję klientów, m.in. poprzez NPS. Regularnie prowadzimy ankiety, które pozwalają ocenić, jak klienci postrzegają działanie botów, czy technologia spełnia ich oczekiwania oraz jakie obszary wymagają dalszego rozwoju.

W przypadku rozwiązań wewnętrznych, takich jak wyszukiwarki wiedzy, efektywność mierzymy m.in. poprzez:

  • czas dotarcia do odpowiedzi,
  • skrócenie czasu obsługi danego procesu,
  • zmniejszenie kosztu operacyjnego.

Istnieje również grupa rozwiązań, w których wdrożenie AI nie tylko zwiększa efektywność, ale wręcz umożliwia realizację danego procesu. Przykładem jest analiza nagrań wideo z kamer wewnętrznych, która bez wsparcia AI wymagałaby zaangażowania bardzo dużej liczby osób analizujących materiał klatka po klatce.

W takich przypadkach wykorzystujemy algorytmy wizji komputerowej, które automatyzują analizę obrazu i umożliwiają skalowalne przetwarzanie danych wideo. Dla człowieka byłoby to rozwiązanie niezwykle czasochłonne, kosztowne, a w praktyce mało efektywne. Tutaj AI pełni więc rolę technologii umożliwiającej, a nie jedynie optymalizującej.

Jak wygląda u Was typowy proces wdrożenia rozwiązania opartego na AI — od momentu pojawienia się pomysłu do uruchomienia produkcyjnego? Czy mógłbyś podać przykład jednego z ostatnich wdrożeń? Ile zazwyczaj trwa taki proces i czy funkcjonuje u Was ścieżka fast track? Jakie są kluczowe etapy tego wdrożenia?

Jeżeli chodzi o sam development, to w naszej organizacji przebiega on relatywnie szybko. Pierwszym etapem jest ocena czy potrafimy coś zrobić w istotnym dla biznesu czasie, czy wolimy skorzystać z wiedzy i kompetencji dostawców. Następnie etap proof of concept czy pierwszy prototyp rozwiązania jesteśmy w stanie zrealizować sprawnie. Najwięcej wyzwań pojawia się później – na etapie produkcyjnym – i dotyczą one przede wszystkim bezpieczeństwa, cyberbezpieczeństwa, audytów aplikacji oraz zgodności prawnej.

Są to elementy, które nie są bezpośrednio związane z programowaniem, ale są niezbędne do tego, aby rozwiązanie mogło zostać uruchomione w skali całego banku. Dobrym przykładem są wyszukiwarki wiedzy. Część funkcjonalności była gotowa wcześniej, natomiast do uruchomienia produkcyjnego potrzebowaliśmy czasu na dopracowanie jakości z perspektywy użytkowników biznesowych. Etap konsultacji i akceptacji pre‑prod przebiegł sprawnie, a istotnym wsparciem w domknięciu wymaganej jakości okazały się rozwiązania co raz lepsze modele językowe. Dzięki temu mogliśmy bezpiecznie udostępnić narzędzie pracownikom.

Ostatnio wdrażaliśmy również rozwiązania zabezpieczające ruch do modeli językowych, tzw. guardy. Ich zadaniem jest ochrona modeli generatywnych przed próbami przełamania, np. wymuszaniem niedozwolonych informacji, zadawaniem pytań spoza domeny bankowej czy generowaniem treści o charakterze niebezpiecznym lub niezgodnym z politykami organizacji.

Było to wdrożenie realizowane we współpracy z zespołem pracującym przy projekcie NCBR-owym. Zespół ten opracował model klasyfikacyjny, wyspecjalizowany właśnie w tego typu zadaniach. Model ten oparty jest na architekturze RoBERTa 8K – gdzie „RoBERTa” odnosi się do konkretnej architektury modelu językowego, a nie do nazwy stworzonej wewnętrznie przez bank.

Ten przykład dobrze pokazuje, że największym wyzwaniem nie jest samo stworzenie rozwiązania, lecz jego bezpieczne, zgodne z regulacjami i skalowalne wdrożenie w środowisku dużej instytucji finansowej.

Zastanawiałam się kiedyś, skąd w ogóle wzięła się nazwa RoBERTa?

To nie jest nazwa nadana przez nas. RoBERTa to nazwa architektury modelu, a nie konkretnego rozwiązania stworzonego w banku. Chodzi o architekturę opartą na dwukierunkowym encoderze typu Transformer. Sam skrót rozwija się jako Robustly Optimized BERT Pretraining Approach, choć w praktyce istotne jest to, że mówimy o konkretnym typie architektury, a nie o nazwie własnej modelu.

Rzeczywiście w przestrzeni publicznej można zauważyć pewne nieporozumienia w tym zakresie, dlatego warto to doprecyzować — to nie jest „nasza” nazwa i nie jest to autorski brand modelu.

W tym przypadku kluczowa była współpraca zespołów. Model opracowany w ramach projektu grantowego był następnie rozwijany przez zespół formacji, tak aby mógł zostać wykorzystany produkcyjnie jako filtr bezpieczeństwa dla modeli generatywnych.

Jakie są Wasze dalsze plany dotyczące rozwoju modeli językowych oraz innych rozwiązań opartych na AI w banku? W jakim kierunku chcecie je rozwijać w najbliższej przyszłości?

W ramach obecnego projektu innowacyjnego wchodzimy teraz w drugi i trzeci etap, które koncentrują się na douczeniu kompetencji tworzonych przez nas modeli językowych. Mamy jasno zdefiniowane zadania domenowe, w których chcemy te modele rozwijać. Chodzi m.in. o to, jak model ma pisać i odpowiadać na reklamacje klientów, jak generować odpowiedzi na korespondencję mailową, jak prowadzić rozmowę z klientem w kanale czatowym czy w botach.

Celem jest nauczenie modeli tworzenia treści zgodnie z naszymi wewnętrznymi standardami i wymaganiami bankowymi. Nie są to modele największe z możliwych – nie konkurujemy skalą z globalnymi rozwiązaniami – ale są to modele mniejsze, wyspecjalizowane, w pełni wystarczające do realizacji zaawansowanych zadań w domenie bankowej.

Naszą ambicją jest to, aby w konkretnych zadaniach domenowych dorównywać, a nawet przewyższać jakością modele klasy enterprise oferowane przez takich dostawców jak Google czy OpenAI. Już ponad rok temu mówiliśmy o tym, że przyszłość nie należy do największych, ogólnych modeli, lecz do mniejszych modeli silnie dostosowanych do konkretnej domeny. Ten kierunek coraz częściej potwierdzają również liderzy rynku – m.in. CEO Hugging Face – którzy podkreślają, że sama skala modeli nie rozwiązuje realnych problemów biznesowych.

Adaptacja domenowa jest szczególnie kluczowa w obszarach wrażliwych, takich jak finanse czy ochrona zdrowia, gdzie błąd może być bardzo kosztowny. Nieprzypadkowo globalni dostawcy zatrudniają dziś ekspertów branżowych – w tym finansistów – do anotowania danych i budowania wyspecjalizowanych wersji modeli.

W najbliższym czasie planujemy więc dalsze douczanie modeli i budowę pierwszych pełnych business case’ów, m.in. w obszarze obsługi reklamacji oraz korespondencji mailowej. Równolegle chcemy testować wykorzystanie tych technologii w botach oraz stopniowo wdrażać rozwiązania generatywne również w kanałach skierowanych do klientów zewnętrznych. Będziemy uważnie sprawdzać, gdzie te rozwiązania faktycznie działają, gdzie jesteśmy w stanie zarządzać ryzykiem i gdzie wdrożenie ma realny sens biznesowy.

To jest nasz plan na najbliższy rok. Oczywiście pozostajemy otwarci na ewentualne przełomy technologiczne, choć obecnie w obszarze modeli generatywnych obserwujemy raczej ewolucję kolejnych wersji, a nie fundamentalne zmiany paradygmatu.

Kluczowe pozostaje dla nas rozsądne podejście biznesowe. Największą wartość osiąga się wtedy, gdy korzyści przewyższają koszty. Masowe korzystanie z modeli klasy enterprise może w pewnym momencie sprawić, że koszty operacyjne przewyższą uzyskiwane efekty, a business case przestanie się spinać. Ma to szczególne znaczenie w kontekście rozwiązań agentowych, które – jak wiele wskazuje – będą jednym z głównych trendów w nadchodzącym roku. Agenci AI są kosztowni obliczeniowo, a przy wykorzystaniu wyłącznie modeli enterprise koszty mogą bardzo szybko wymknąć się spod kontroli. Dlatego naszym celem jest robić AI mądrze, a nie tylko efektownie. Nie sztuką jest wdrożyć rozwiązanie w całości oparte na gotowych, pudełkowych modelach. Sztuką jest zbudować takie rozwiązanie, które realnie się opłaca, jest skalowalne i przynosi mierzalną wartość biznesową. Ostatecznie każda inwestycja w AI musi mieć sens ekonomiczny i prowadzić do zysku z tej inwestycji.

A co uważasz na temat rozwoju AI w kontekście niezależności cyfrowej?

Istotnym kontekstem jest również obecna sytuacja geopolityczna i próby zmiany globalnego układu sił. Patrząc na to z perspektywy europejskiej – nie tylko polskiej – uważam, że Europa musi dbać o swoją niezależność, także w wymiarze cyfrowym.

W tym sensie rozwiązania open source oraz technologie rozwijane in-house mają kluczowe znaczenie. Służą one nie tylko budowie kompetencji, ale również ograniczaniu nadmiernej zależności od największych dostawców technologicznych. W przeciwnym razie, decydując się na pełne uzależnienie od big techów, oddajemy część cyfrowej suwerenności – często bez wystarczającej refleksji nad kwestiami bezpieczeństwa, niezależności czy ryzykiem vendor lock-in.

Jeżeli organizacja wchodzi w bardzo głęboką współpracę z jednym dostawcą, nie zabezpieczając alternatyw ani kompetencji wewnętrznych, to w dłuższej perspektywie może się to dla niej źle skończyć.

Uważam, że budowanie własnych kompetencji, rozwój otwartych rozwiązań i dywersyfikacja technologiczna to nie tylko kwestia innowacyjności, ale również strategicznego bezpieczeństwa organizacji i państw.

Pytanie na podsumowujące - jak Twoim zdaniem można by najbardziej przyspieszyć adopcję polskich modeli językowych w biznesie? Czy kluczowa jest tu edukacja, odpowiednie regulacje, a może dostępność dojrzałych i łatwych do wdrożenia rozwiązań?

Moim zdaniem kluczowe są mniejsze firmy, edukacja, ale też dostępność dojrzałych i łatwych do wdrożenia rozwiązań, które realnie działają i „radzą sobie” w praktyce. Niedawno byłem w Grodzisku Mazowieckim na konferencji dla lokalnych przedsiębiorców, organizowanej m.in. z udziałem PKO Banku Polskiego, i bardzo wyraźnie było widać duże niezrozumienie technologii AI, zwłaszcza generatywnej. Pojawiały się stwierdzenia w rodzaju „po co człowiek ma coś robić, skoro AI to zrobi za niego”, co pokazuje, że wiele osób dopiero zaczyna odkrywać, czym ta technologia faktycznie jest. Dlatego poza budowaniem świadomości ważne jest także to, żeby przedsiębiorcy mieli pod ręką gotowe, sprawdzone narzędzia — takie, które można uruchomić szybko, bez dużych zespołów technicznych, i które od razu dają wymierny efekt.

Tymczasem AI jako taka nie jest niczym nowym. Modele generatywne w obecnej formie to po prostu kolejna generacja rozwiązań, które rozwijane są co najmniej od 2018 roku. Dla wielu firm nowością jest raczej możliwość „rozmowy” z technologią niż sama technologia.

Dlatego przedsiębiorcy powinni przede wszystkim zrozumieć, co mogą, a czego nie mogą zrobić z AI, oraz gdzie ta technologia ma sens biznesowy. Bardzo pomocne byłyby szkolenia oparte na konkretnych business case’ach, takich jak cyfrowa obsługa dokumentów, budowa chatbotów, predykcja zapotrzebowania w magazynach czy optymalizacja zarządzania flotą. I co ważne – nie zawsze muszą to być modele generatywne. W wielu przypadkach klasyczne modele predykcyjne w zupełności wystarczają.

Takich przykładów rynkowych jest bardzo dużo. Algorytmy rekomendacyjne w e-commerce, wyszukiwarki produktów czy systemy optymalizacyjne funkcjonują od lat. Duzi gracze są tego świadomi, natomiast mniejsze firmy często nie zdają sobie sprawy, że AI już dziś jest obecna w narzędziach, z których korzystają na co dzień. Nawet wyszukiwanie produktów na platformach takich jak Allegro jest oparte na algorytmach AI.

Dlatego edukacja powinna mieć charakter przekrojowy, oparty na przykładach z różnych branż, a nie ograniczać się do jednego sektora, np. finansów. Wiele rozwiązań, które rozwijamy w banku – jak wyszukiwarki wiedzy czy chatboty – z powodzeniem mogłoby być adoptowanych w innych przedsiębiorstwach. To są rozwiązania uniwersalne, a nie specyficzne wyłącznie dla bankowości.

Równie istotne jest uświadamianie firmom, gdzie wdrażanie AI ma sens, a gdzie nie. Nie chodzi o to, aby wdrażać technologię „na siłę”. Najlepiej zaczynać od prostych, skalowalnych przypadków użycia tam, gdzie korzyści są największe, a dopiero później przechodzić do bardziej zaawansowanych rozwiązań. Często nawet prosta automatyzacja, bez wykorzystania zaawansowanego AI, potrafi rozwiązać realne problemy biznesowe.

Edukacja powinna więc iść w parze ze wzrostem świadomości i pokazywaniem realnych korzyści. Dodatkowo dużą wartością byłoby stworzenie miejsc z gotowymi narzędziami, które przedsiębiorcy mogliby wykorzystywać bez konieczności posiadania własnych zespołów deweloperskich. Nie każda firma ma zasoby, aby utrzymywać programistów, a rozwiązania „z pudełka”, niewymagające zaawansowanej wiedzy technicznej, mogłyby znacząco przyspieszyć adopcję AI.

Właśnie w takich gotowych rozwiązaniach widzę przestrzeń do wykorzystania polskich, domenowych modeli językowych. Taką rolę mogłyby pełnić np. platformy chmurowe i ekosystemy wspierane instytucjonalnie – jak choćby OChK, który jest wspólną inicjatywą PKO Banku Polskiego i PFR. To mogłoby realnie przyczynić się do zwiększenia adopcji polskich modeli AI w biznesie.

Dziękujemy za rozmowę!