Start z polskim AI – od pomysłu do wdrożenia #Respect Energy
Start z polskim AI to cykl rozmów prezentujących doświadczenia związane z polskimi modelami językowymi AI oraz praktyki wdrożeniowe firm i instytucji.
Tym razem w rozmowie udział bierze Mateusz Pawełczuk, Dyrektor Innowacji w firmie Respect Energy.
Co skłoniło Państwa do wyboru polskiego modelu językowego Bielik.AI?
Zdecydowaliśmy się na wdrożenie polskiego modelu językowego przede wszystkim dlatego, że jest on tworzony lokalnie. Mamy pełną świadomość, na jakich fundamentach powstają modele takie jak Bielik czy PLLuM, wiemy, że bazują odpowiednio na Mistralu i Llamie i że zbudowanie kompletnego transformera od zera jest ogromnym wyzwaniem.
Wierzymy jednak w siłę i potencjał lokalnych inicjatyw open‑source. Jeśli istnieją polskie modele językowe, to naturalne jest dla nas, aby właśnie po nie sięgać, zwłaszcza gdy ich parametry dobrze odpowiadają naszym potrzebom biznesowym.
Chcemy też pokazywać praktyczne zastosowania takich modeli. Jeżeli Bielik jest w stanie wykonać zadania A lub B, to stanowi to realną promocję zarówno samego projektu, jak i potencjału polskich technologii. Liczymy, że w przyszłości nie tylko Polacy będą korzystać z polskich modeli, tak, jak Polacy dziś korzystają z amerykańskich czy chińskich rozwiązań. W pewnym sensie czujemy też odpowiedzialność za wspieranie krajowej innowacyjności na arenie międzynarodowej.
Respect Energy to firma działająca w branży energetycznej, generując miliardowe obroty, ale pozostając w 100% polską spółką. Za firmą stoi polski kapitał i polski właściciel, Sebastian Jabłoński. Podobnie jak wspieramy krajową energetykę odnawialną, chcemy wspierać także polski ekosystem technologiczny. Stąd wybór polskiego modelu językowego.
Jakie konkretne potrzeby biznesowe Bielik.AI pozwala Państwu adresować?
Spektrum zastosowań jest szerokie- wszędzie tam, gdzie nie jest wymagany bardzo zaawansowany reasoning i gdzie mieścimy się w oknie kontekstowym Bielika.
W praktyce są to m.in. anonimizacja dokumentów, proste eksperymenty z agentami oraz lokalne wykonywanie analiz finansowych na bazie stałych skryptów, gdzie model ma decydować o kolejności działań i przeprowadzać proces od początku do końca. Możliwość realizowania takich zadań całkowicie lokalnie stanowi dla nas realną przewagę.
Mamy też świadomość ograniczeń modelu i to pozwoliło nam skutecznie podejść do zarządzania oczekiwaniami użytkowników. Wiem, kiedy potrzebne jest im GPT5, aby uniknąć „Shadow AI”, a kiedy mogę dać im narzędzie oparte na Bieliku, które działa funkcjonalnie, bez konieczności interakcji z klasycznym czatem.
Nowe wersje, jak Bielik V3 z 11 miliardami parametrów, radzą sobie świetnie nie tylko z językiem polskim, ale również z wieloma innymi językami europejskimi. Dla nas, jako firmy działającej m.in. na Bałkanach i w Niemczech, to ogromna wartość.
Wierzymy, że takie modele mogą w przyszłości ułatwić nam skalowanie procesów i umiędzynarodowienie naszych narzędzi. Jeśli model będzie równie dobrze rozumiał język serbski jak polski, to dlaczego nie udostępnić go kolegom z oddziału serbskiego, aby mogli realizować swoje zadania tak samo efektywnie?
Z wcześniejszej wypowiedzi wynika, że istotną rolę odegrały zarówno komponent patriotyczny, jak i szeroka funkcjonalność modelu. Czy w procesie wyboru partnera technologicznego brane były pod uwagę również inne czynniki, które wpłynęły na ostateczną decyzję?
Trudno wskazać jeden dominujący czynnik, natomiast z pewnością istotne znaczenie miał fakt, że moja ścieżka zawodowa w obszarze machine learningu rozpoczęła się znacznie wcześniej niż praca w sektorze energetycznym- jeszcze zanim pojawiła się dzisiejsza popularność tematyki AI. Od lat obserwuję rozwój tej branży, brałem udział w jej kształtowaniu, ukończyłem liczne kursy, a z czasem sam zacząłem prowadzić szkolenia.
Moje silne zaangażowanie merytoryczne oraz osobiste przekonanie do tej technologii były kluczowe w decyzji o kierunku, który obraliśmy. W pewnym stopniu zadecydowała również wewnętrzna motywacja i poczucie odpowiedzialności- również w wymiarze patriotycznym, by wspierać lokalne rozwiązania. Ponieważ w tym obszarze nie było sprzecznych oczekiwań czy alternatywnych preferencji, mogliśmy konsekwentnie realizować wybrany kierunek.
A jakie wyzwania pojawiły się na etapie wdrożenia? Wspominał Pan również o pewnych ograniczeniach — czy mógłby Pan rozwinąć ten wątek?
Model Bielik jest stosunkowo niewielki, co oznacza mniejsze okno kontekstu. W praktyce ogranicza to możliwość realizacji bardziej zaawansowanych zadań- szczególnie wtedy, gdy pracujemy na dużych dokumentach lub chcemy dodać rozbudowane instrukcje w promptach systemowych. Przy analizie obszernych umów okno kontekstu może okazać się po prostu za małe, aby model poprawnie przetworzył cały materiał i dodatkowe wytyczne.
W takich sytuacjach widać, że mniejsze modele zaczynają się gubić, a jakość wyników spada. Różnica jest odczuwalna- rozmowa z takim modelem przypomina współpracę z systemem o mniejszej „pojemności poznawczej”. Dlatego przy bardziej złożonych zadaniach sięgamy po większe modele, jak PLLuM 70B, który dzięki większej liczbie parametrów lepiej radzi sobie z szeroką gamą zastosowań.
Natomiast w obszarach bardzo zaawansowanych – jak na przykład tworzenie agentów do kodowania na poziomie zbliżonym do narzędzi typu Claude Code- zarówno Bielik, jak i PLLuM nie wystarczą. Takie zadania wymagają modeli o ogromnej skali, liczonych w tryliardy parametrów, jak Gemini. To narzędzia, do których cześć naszych pracowników jest przyzwyczajona, z którymi eksperymentują nawet prywatnie, więc wiemy, że na małych modelach po prostu nie osiągniemy porównywalnych rezultatów.
Jednocześnie jest wiele praktycznych zastosowań, w których Bielik sprawdza się znakomicie. Przykład to prosty, ale bardzo potrzebny workflow OCR. Dokument, który trafia do organizacji- skan, zdjęcie, pismo- przechodzi najpierw przez Vision Language Model, który wykonuje OCR lokalnie. Następnie Bielik analizuje wynik i przypisuje go do odpowiednich kategorii. Dzięki temu cały proces pozostaje lokalny, bez naruszenia RODO i bez konieczności podpisywania umów powierzenia danych. Dla organizacji działającej w branży regulowanej, takiej jak nasza, to ogromna korzyść- pozwala zminimalizować ryzyka związane z Data Act, AI Act, NIS2 i innymi regulacjami.
Bielik dodatkowo świetnie obsługuje język polski, co jest kolejnym atutem. Przy przetwarzaniu codziennej korespondencji- listów, komunikatów, krótkich dokumentów- jego możliwości są w pełni wystarczające. Jesteśmy w stanie je łatwo digitalizować, opisywać metadanymi, archiwizować i przetwarzać dalej, bez żadnych ograniczeń.
Podsumowując: kluczowe jest dopasowanie modelu do skali i poziomu złożoności zadania. Mniejsze modele mają swoje naturalne ograniczenia, które ujawniają się przy bardzo dużych lub skomplikowanych procesach. Oczywiście można próbować je poszerzać technikami typu RAG, ale często mija się to z celem- bywa to jak strzelanie z armaty do mrówki. Tam, gdzie zadanie jest odpowiednio lekkie, Bielik działa szybko, efektywnie i w pełni lokalnie, co czyni go idealnym rozwiązaniem.
Wspominał Pan o szerokim, uniwersalnym zastosowaniu modeli AI w Państwa organizacji. Gdyby miał Pan wskazać konkretne przykłady — jakie są najczęstsze lub najbardziej praktyczne zastosowania tego rozwiązania w Państwa firmie?
W naszej organizacji model Bielik.AI wykorzystujemy przede wszystkim do analizy i klasyfikacji dokumentów oraz do anonimizacji danych- szczególnie danych osobowych. Jest to stały element naszego pipeline’u. Nawet jeśli współpracujemy z dostawcami, z którymi mamy zawarte umowy powierzenia, staramy się nie przekazywać do modeli takich jak OpenAI czy Microsoft żadnych danych osobowych. Dlatego najpierw lokalnie anonimizujemy dokumenty z użyciem Bielika, a dopiero później przesyłamy je do większego modelu językowego w celu dalszej analizy.
Zastosowania Bielika obejmują więc analizę tekstu, klasyfikację oraz proces anonimizacji i późniejszej deanonimizacji. Model nie pełni tu roli prostego narzędzia „usuń imiona i nazwiska”, lecz działa w oparciu o przygotowane skrypty, właściwą kolejność operacji i własny słownik tymczasowy, który umożliwia późniejsze odtworzenie informacji. Cały system jest zatem bardziej złożony niż zwykły prompt. Jednocześnie wiemy, że Bielik ma swoje ograniczenia- świetnie sprawdza się w pracy na fragmentach tekstu, ale nie poradzi sobie z pełną, rozbudowaną umową czy całą korespondencją wymagającą pełnego kontekstu.
Z racji tego, że jest to model stricte językowy, który nie posiada jeszcze natywnych funkcji vision, multimodalność budujemy w ramach projektu Obywatel Bielik, w ramach którego zachęcam do dodawania zdjęć.
Podsumowując: Bielik obsługuje kluczowe procesy związane z analizą, klasyfikacją, segmentacją oraz anonimizacją i deanonimizacją dokumentów tekstowych trafiających do naszej organizacji, stanowiąc ważny element przygotowania danych przed wykorzystaniem większych modeli językowych.
Jakie są Państwa plany dotyczące dalszego rozwoju i wykorzystania modeli LLM w organizacji?
Jesteśmy ambitną organizacją, choć mamy świadomość, że branża energetyczna nie należy do sektorów, które muszą być przodownikiem w kontekście innowacji. Możemy obserwować globalne trendy, analizować, co rzeczywiście się sprawdza i wdrażać rozwiązania w odpowiednim, późniejszym momencie. Dzięki temu świadomie dywersyfikujemy nasze cele: z jednej strony rozwijamy kompetencje stricte energetyczne, a z drugiej- uważnie śledzimy działania konkurentów, szczególnie w USA. Coraz wyraźniej widzimy, że większą wartość przynosi bycie pierwszą firmą, która rozsądnie adaptuje sprawdzone rozwiązania, niż tą, która eksperymentuje za wszelką cenę.
Oczywiście skale kapitałowe w Polsce i USA są nieporównywalne- to naturalna bariera. Jednocześnie aktywnie prowadzimy własne eksperymenty i wiele budujemy samodzielnie, zwłaszcza w obszarach wsparcia sprzedaży i obsługi klienta. To uniwersalne procesy biznesowe, w których AI realnie może wzmocnić efektywność, nawet jeśli nie dotyczą one bezpośrednio kluczowej specjalizacji, jaką jest energetyka. Dlatego stosujemy zrównoważone podejście: część rozwiązań opiera się na gotowych narzędziach rynkowych, a część powstaje w oparciu o nasze własne koncepcje i rozwój wewnętrzny.
Jakie czynniki – Pana zdaniem – mogłyby najsilniej przyspieszyć adopcję polskich modeli językowych w biznesie? Czy kluczową rolę odgrywa tu edukacja, szersza dostępność rozwiązań, czy może regulacje, które obecnie są istotnym tematem w kontekście rozwoju AI?
Edukacja i regulacje powinny iść ze sobą w parze. Przedsiębiorcy muszą mieć świadomość, że AI ACT nie blokuje korzystania ze sztucznej inteligencji, a praca z AI w Europie jest jak najbardziej legalna. Wciąż jednak w debacie publicznej pojawia się narracja, że ‘w Europie się nie da’. Tymczasem, jak pokazuje praktyka- można, i to w pełni bezpiecznie. Dlatego tak ważne jest budowanie realnej świadomości możliwości i zasad korzystania z AI.
Drugi element to zrozumienie samych rozwiązań. My nie używamy bezpośrednio ChatGPT, Claude’a czy Gemini- korzystamy z dostępu do API u dostawców, którzy mają formalne umowy z właścicielami modeli. Dzięki temu dane pozostają poza zasięgiem dostawcy modelu. To było dla nas kluczowe. Wielu przedsiębiorców nie zdaje sobie sprawy, że nie trzeba od razu wykupować drogich subskrypcji. Dostęp do API to koszt ponoszony tylko wtedy, gdy organizacja faktycznie korzysta z modelu. Jeśli nikt nie eksperymentuje- kosztu nie ma. A jeśli eksperymenty się pojawiają, mówimy nadal o kwotach rzędu kilku dolarów za milion tokenów. W praktyce jeszcze nie spotkałem zarządu, który byłby zaskoczony „kosztami czatowania”. Prędzej czy później w firmie pojawi się ktoś, kto stworzy coś wartościowego, inni to podchwycą, a w końcu zarząd zobaczy, że technologia realnie pracuje na korzyść organizacji.
Warto też pamiętać o przewadze firm z historią. Młode organizacje nie są w stanie konkurować w świecie AI z tymi, które mają wieloletnie zasoby danych- terabajty wiedzy o swoich procesach i klientach, zapisane w czasach, gdy nikt nie generował treści automatycznie. To są unikalne aktywa, które można dziś wykorzystać dzięki AI, zamiast traktować je jako obciążenie.
Oczywiście ważnym elementem jest również cyfrowa dojrzałość i infrastruktura- chmura, integracje, zarządzanie kontekstem na poziomie organizacji. Bez tego trudno myśleć o AI na większą skalę. Ale przede wszystkim potrzebna jest edukacja, szeroko rozumiana i wielopłaszczyznowa: świadomość regulacji, świadomość możliwości oraz zrozumienie praktycznych modeli korzystania z technologii, takich jak API.
W dużych firmach podejście „najpierw API” jest już standardem. Natomiast w sektorze MŚP często brakuje kompetencji technicznych, by ktoś mógł powiedzieć: „nie musimy kupować drogą subskrypcji, możemy zacząć za ułamek kosztu”. Dlatego jeśli z tego wywiadu ma coś wybrzmieć, to jedno zalecenie: przedsiębiorcy, zacznijcie od prostego dostępu do API. Płacicie tylko za użycie. Jeśli nikt w firmie nie będzie korzystał- nie wydacie ani złotówki. A jeśli ktoś zacznie eksperymentować, to jest ogromna szansa, że na tym zaczniecie budować realną wartość.