Start z polskim AI – od pomysłu do wdrożenia #Mizzox
Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Tym razem naszym gościem rozmowy jest Przemysław Kot, Prezes Zarządu Mizzox S.A., firmy oferującej platformy do zarządzania przedsiębiorstwem z wykorzystaniem AI.
Co skłoniło Państwa do wdrożenia modelu Bielik w ramach oferowanych rozwiązań?
Wdrożenie Bielika nie było dla nas reakcją na obecny „hype” wokół modeli językowych. Myśleliśmy o takim rozwiązaniu znacznie wcześniej. Gdy na polskim rynku brakowało narzędzi, które realnie rozumieją lokalny kontekst, polski biznes oraz złożoności naszego języka, rozpoczęliśmy prace nad własnym modelem.
Bielika obserwowaliśmy właściwie od samego początku, od momentu pojawienia się pierwszych publicznych informacji. Testowaliśmy kolejne wersje i w pewnym momencie uznaliśmy, że to odpowiedni moment, aby wykorzystać go w naszych procesach, szczególnie w prowadzeniu klientów oraz analizie dokumentów przechowywanych w systemie. Obsługujemy konta polskich przedsiębiorców, więc znajomość polskiego kontekstu, która jest silną stroną Bielika, okazała się idealnie dopasowana do naszych potrzeb.
Integracja modelu pozwala nam nie tylko usprawnić istniejące rozwiązania, ale też skupić się na rozwoju innych strategicznych obszarów w Mizzoxie, pozostawiając zaawansowaną analizę językową Bielikowi.
Można powiedzieć, że od dawna czekaliśmy na narzędzie tego typu - i cieszymy się, że wreszcie jest dostępne.
Wspominał Pan również, że rozwijaliście Państwo własne modele. Czy mógłby Pan opowiedzieć o tym nieco więcej?
Około półtora roku temu rozpoczęliśmy prace nad własnym modelem językowym, lokalnym i dostosowanym do struktury dokumentów, z którymi pracujemy. Jego zadaniem była analiza treści w pełni zanonimizowanej, tak aby mógł przetwarzać informacje znajdujące się w plikach naszych klientów. Model umożliwiał m.in. tworzenie streszczeń dokumentów, wyodrębnianie kluczowych danych czy wspieranie ich późniejszego kategoryzowania, wyszukiwania i porządkowania w naszym systemie.
Wprowadziliśmy także szereg mechanizmów zapewniających przetwarzanie danych w sposób niejawny i bezpieczny w taki sposób, aby model uczył się kontekstu i struktury dokumentów, nie mając dostępu do realnych informacji o charakterze wrażliwym. W obecnej formule tak właśnie działa nasz model, a dodatkowo został teraz wzmocniony możliwościami Bielika, który znacząco rozszerza jego efektywność.
Wspomniał Pan o analizie dokumentów, ale chciałbym zapytać szerzej: jakie konkretne potrzeby biznesowe udaje się Państwu rozwiązać dzięki temu rozwiązaniu? Czy mógłby Pan przybliżyć ten temat?
W przypadku dokumentów takich jak faktury jesteśmy dziś w stanie z dużo większą precyzją odczytywać wszystkie kluczowe informacje potrzebne do ich przetworzenia. Dzięki temu możemy automatycznie kierować je do odpowiednich etapów obiegu, wyodrębniać dane niezbędne do przygotowania raportów czy przekazywania informacji księgowych i finansowych.
Bielik wspiera nas jednak również w pracy z bardziej złożonymi dokumentami - takimi jak umowy czy korespondencja biznesowa. W tych obszarach świetnie radzi sobie z językiem polskim i jego zawiłościami, co znacząco poprawia jakość analizy oraz rozumienie kontekstu.
Model jest także rozwijany pod kątem uczenia się zachowań użytkowników w systemie, m.in. na podstawie wpisywanych przez nich fraz w wewnętrznej wyszukiwarce oraz danych wprowadzanych ręcznie. To pozwala mu coraz lepiej dopasowywać odpowiedzi i wspierać użytkowników w codziennej pracy operacyjnej.
W efekcie Bielik, pracując na polskich danych i polskich dokumentach, zdecydowanie przewyższa nasze wcześniejsze, własne rozwiązania. Obecnie korzystamy z obu modeli równolegle, ale już teraz widzimy wyraźny wzrost jakości, precyzji i szybkości przetwarzania danych.
Jak przebiegał proces wyboru partnera technologicznego? Wspominał Pan, że kluczowe było dla Państwa zrozumienie polskiego kontekstu i języka. Czy były jeszcze inne aspekty, na które zwracali Państwo szczególną uwagę przy podejmowaniu decyzji?
Zwracaliśmy szczególną uwagę na to, aby rozwiązanie można było w pełni uruchomić na naszej własnej infrastrukturze. Dysponujemy lokalnymi serwerami opartymi na kartach GPU, które bardzo dobrze radzą sobie z takim obciążeniem, dlatego zależało nam, by model działał właśnie w tym środowisku. Oczywiście część rozwiązań zagranicznych można do pewnego stopnia wdrażać lokalnie, jednak w praktyce większość z nich opiera się na przetwarzaniu chmurowym i pozostaje usługą funkcjonującą poza pełną kontrolą organizacji.
Kluczowe było dla nas nie tylko zapewnienie wysokiej jakości przetwarzanych danych, lecz przede wszystkim pełna ochrona prywatności i bezpieczeństwa informacji użytkowników. Nie chcieliśmy, aby jakiekolwiek dane, nawet w formie zanonimizowanej opuszczały kraj lub trafiały poza naszą infrastrukturę. Pod tym względem wybrane rozwiązanie najlepiej odpowiadało naszym wymaganiom i standardom bezpieczeństwa.
Czy podczas wdrożenia pojawiły się jakieś wyzwania? Jeśli tak, jakie obszary okazały się najbardziej wymagające?
Wyzwań było naprawdę dużo i wiele z nich towarzyszy nam również dziś, na kolejnych etapach rozwoju projektu. Największym wyzwaniem inżynieryjnym okazało się to, że zarówno Bielik, jak i nasz własny model rozwijany równolegle, działają w formie bazowej dla każdego użytkownika, ale później „uczą się” już wewnątrz konkretnej organizacji.
W praktyce oznacza to, że model u klienta X funkcjonuje inaczej niż u klienta Y, bo każdy z nich pracuje na innym zestawie danych, innych typach dokumentów oraz innych powtarzalnych czynnościach wykonywanych w systemie. Skala, z jaką obecnie operujemy, powoduje że przetwarzanie tak wielu równoległych żądań - działających na niezależnych instancjach, a nie na jednym wspólnym modelu stanowi istotne wyzwanie techniczne.
To właśnie zarządzanie tym zróżnicowaniem i zapewnienie stabilności oraz wydajności przy tak wielu jednoczesnych procesach było i nadal jest jednym z najbardziej wymagających elementów całego wdrożenia.
Jakie konkretne przykłady zastosowań Bielika funkcjonują obecnie w Państwa platformie? Czy mógłby Pan przybliżyć najważniejsze z nich?
Przede wszystkim korzystamy z Bielika w obszarze analizy dokumentów oraz tworzenia z nich zwięzłych, informacyjnych podsumowań. Jeśli mamy, na przykład, umowę liczącą sto stron, model potrafi przekształcić ją w kilka precyzyjnych zdań opisujących jej istotę. Te skrócone informacje są potem wykorzystywane w różnych miejscach systemu, między innymi w naszej wyszukiwarce.
I właśnie wyszukiwarka to drugi ważny obszar zastosowania Bielika. Dzięki niej użytkownik może odnaleźć dowolne informacje w obrębie całego systemu - nawet na podstawie bardzo ogólnego zapytania. Wpisując choćby numer rejestracyjny pojazdu, można uzyskać dostęp do wszystkich związanych z nim dokumentów: umów leasingowych, faktur za paliwo, zadań czy wydarzeń w kalendarzu. Model potrafi agregować i analizować dane pochodzące z różnych modułów, tworząc spójny kontekst.
Trzeci kluczowy element to uczenie się zachowań użytkownika i identyfikowanie powtarzalnych schematów. Jeżeli system zauważy, że jakiś dokument powinien pojawiać się cyklicznie, np. co miesiąc, a tym razem go brakuje, jest w stanie zasugerować, że mogło dojść do pominięcia lub błędu. To tworzy ramy do budowy inteligentnego asystenta wspierającego przedsiębiorcę w codziennych zadaniach.
Oczywiście wdrożenie Bielika jest stosunkowo świeże, więc cały czas rozwijamy proces uczenia, korygowania i udoskonalania pełnej funkcjonalności. Możemy jednak już teraz wskazać te trzy główne filary, w których model jest wykorzystywany: zaawansowana analiza dokumentów, inteligentne wyszukiwanie oraz adaptacyjne wspieranie użytkownika oparte na powtarzalnych czynnościach.
W nawiązaniu do Państwa ostatniego wdrożenia Bielika - czy mógłby Pan opowiedzieć, jak wyglądał cały proces od momentu powstania pomysłu aż do uruchomienia rozwiązania? Jak długo trwał ten proces oraz jakie były jego kluczowe etapy?
Pomysł wdrożenia lokalnego modelu językowego, niewykorzystującego infrastruktury Big techów, pojawił się u nas około półtora roku temu. Intensywne prace integracyjne ruszyły w listopadzie i zakończyły się w styczniu, ale cała wcześniejsza część projektu obejmowała budowę odpowiedniej infrastruktury oraz przygotowanie środowiska pod to wdrożenie. Dużym atutem było to, że mieliśmy już doświadczenie z tworzeniem i rozwijaniem własnego modelu, więc nie zaczynaliśmy z zupełnie pustą kartą. Znaliśmy charakter pracy z danymi, ich ograniczenia i wymagania techniczne. Oczywiście w przypadku Bielika pojawiły się też nowe obszary, które wymagały innej analizy czy korekt, zwłaszcza że operujemy na dużym systemie i bardzo szerokim zbiorze danych, które musieliśmy odpowiednio uporządkować.
Po podjęciu decyzji o wyborze Bielika przeanalizowaliśmy strukturę naszych danych oraz zbiory dokumentów przetwarzanych wcześniej, aby upewnić się, że wszystkie informacje są właściwie zabezpieczone i mogą być wykorzystane w procesie integracji. Następnie połączyliśmy Bielika z naszym własnym modelem w taki sposób, aby oba mogły działać w jednym ekosystemie - wymieniać się zanonimizowanymi danymi, komunikować się i wspierać się wzajemnie w zależności od procesów. Zwieńczeniem prac była publiczna integracja w wersji beta dla wybranej grupy użytkowników, która umożliwiła przetestowanie rozwiązania przed jego udostępnieniem wszystkim klientom w środowisku produkcyjnym.
A czy mierzą Państwo efektywność takich wdrożeń? Jeśli tak, to z jakich wskaźników lub metod oceny korzystacie?
Naszym głównym kryterium oceny efektywności jest czas odpowiedzi na zapytania w wyszukiwarce. Po wdrożeniu Bielika, który współpracuje z naszym dotychczasowym rozwiązaniem, obserwujemy bardzo wyraźną poprawę - wzrost wydajności na poziomie 200-300%, w zależności od jakości i liczby przetwarzanych danych. Przekłada się to na realne skrócenie czasu odpowiedzi, zwłaszcza przy bardziej złożonych zapytaniach, które wymagają integracji danych z wielu różnych struktur.
Przykładowo, gdy użytkownik wpisuje polecenie typu „pokaż wszystkie faktury sprzedażowe z określonego roku”, system musi przeanalizować bardzo dużą liczbę danych, aby zwrócić prawidłowe wyniki niemal w czasie rzeczywistym. Po integracji z Bielikiem cały proces wyraźnie przyspieszył - czas odpowiedzi skraca się o kilka sekund przy jednym zapytaniu, co stanowi odczuwalną różnicę dla korzystających z platformy.
Widzimy też, że dzięki tej poprawie nasza wyszukiwarka oparta na sztucznej inteligencji, dostępna dla klientów bez dodatkowych opłat jest w ostatnich tygodniach wykorzystywana znacznie częściej i chętniej. To dla nas jasny sygnał, że wdrożenie działa tak, jak zakładaliśmy i przynosi wymierną wartość użytkownikom.
Jakie są Państwa dalsze plany dotyczące rozwoju wykorzystania modeli językowych? Czy przewidują Państwo zastosowanie ich w nowych obszarach lub wprowadzenie dodatkowych funkcjonalności opartych na LLM?
Tak, myślę, że to proces, który tak naprawdę nigdy się nie skończy. Świat wygląda dziś zupełnie inaczej niż dwa - trzy lata temu i rozwija się w tempie, za którym coraz trudniej nadążyć nawet z perspektywy technologicznej. Naszym celem jest wykorzystanie lokalnych polskich modeli językowych również do obsługi komend głosowych. Widzimy w tym ogromny potencjał. Chcemy, aby nasi klienci mogli komunikować się z aplikacją naturalnie, głosem, wydając jej polecenia w codziennym języku.
Wyobrażamy sobie sytuację, w której przedsiębiorca mówi: „wystaw fakturę dla klienta X na kwotę Y z pozycją Z”, a system uruchamia odpowiednie procesy i wykonuje to zadanie end‑to‑end. Kluczowe jest dla nas, aby analiza i interpretacja takich komend była realizowana właśnie przez lokalny model AI, który świetnie rozumie język polski - jego akcenty, odmiany, dialekty, ale również realia polskiego biznesu. To coś, czego nie zapewniają modele globalne, nawet jeśli na pierwszy rzut oka są dużo większe. Różnica w rozumieniu lokalnego kontekstu jest ogromna i daje przewagę, którą chcemy jak najlepiej wykorzystać w kolejnych etapach rozwoju naszej platformy.
Co w Pana ocenie, mogłoby najbardziej przyspieszyć adopcję polskich modeli językowych w biznesie? Czy kluczowa byłaby większa edukacja rynku, odpowiednie regulacje, a może szersza dostępność takich rozwiązań?
Wydaje mi się, że kluczowa jest przede wszystkim zmiana sposobu myślenia wśród przedsiębiorców, startupów i firm technologicznych w Polsce. Mam wrażenie, że „polskie” rozwiązania bywają z góry postrzegane jako mniej wartościowe, podczas gdy wiele osób nie zdaje sobie sprawy, jak wysoki poziom ma dziś krajowy ekosystem AI, zarówno jeśli chodzi o jakość modeli, jak i kompetencje specjalistów, którzy je tworzą. Lokalne rozwiązania rozwijają się bardzo szybko i w wielu przypadkach wcale nie ustępują globalnym, a często wręcz lepiej odpowiadają na specyficzne potrzeby polskich firm.
Uważam, że przedsiębiorstwa działające na rzecz polskich klientów nie powinny się tego w żaden sposób obawiać - wręcz przeciwnie, powinny świadomie wykorzystywać krajowe technologie i wspierać ich dalszy rozwój. Aby to było możliwe, potrzebna jest szersza edukacja rynku: więcej szkoleń, publikacji, przykładów wdrożeń i rzetelnych informacji. Wsparcie instytucji publicznych również mogłoby odegrać ważną rolę, budując zaufanie do polskich modeli i pokazując je jako wartościowy element naszego krajowego potencjału technologicznego.
To z kolei ma bezpośrednie przełożenie na rozwój samych modeli, bo żeby mogły rosnąć, potrzebują realnych danych i realnych implementacji. Jeśli większość firm nadal będzie polegała na zagranicznych rozwiązaniach chmurowych, to w praktyce „dokarmia” modele globalne, a nie te, które powstają w Polsce i które mogłyby się dynamicznie rozwijać. Na szczęście widać już, że coraz więcej organizacji zaczyna dostrzegać wartość lokalnych modeli i chętniej z nich korzysta.
Jeżeli ta zmiana mentalności będzie postępować, to jestem przekonany, że znacząco przyspieszy to adopcję polskich modeli językowych i pozwoli im rozwijać się w tempie, na jakie zasługują.
Dziękujemy za rozmowę!
Cykl rozmów „Start z polskim AI – od pomysłu do wdrożenia” jest realizowany w ramach programu Centrum Kompetencji AI.