Przejdź do treści
Publikacje Data publikacji: 08 kwietnia 2026

Start z polskim AI. Od pomysłu do wdrożenia #InPost

Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Autor Patryk Bitner Młodszy Specjalista ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Polski Fundusz Rozwoju S.A.

Start z polskim AI to cykl rozmów prezentujących doświadczenia związane z polskimi modelami językowymi AI oraz praktyki wdrożeniowe firm i instytucji. Tym razem w rozmowie udział bierze udział Jakubem Kaczmarskim, CTO w Grupie InPost. 

Dlaczego zdecydowaliście się na taką współpracę z polskim modelem, Bielik (LLM)? Jakie były Wasze motywacje?

Model Bielika jest dostępny w aplikacji jako ogólnodostępne rozwiązanie. Projekt ten miał na celu zapoznanie użytkowników z narzędziem AI oraz przyzwyczajenie ich do tej formy interakcji. Zależało nam przede wszystkim na pokazaniu, że z AI można po prostu korzystać, rozmawiać, zadawać pytania i wykorzystywać go w codziennych sytuacjach. Warto pamiętać, że choć część użytkowników ma dostęp do narzędzi takich jak ChatGPT czy innych modeli językowych, to w skali całego społeczeństwa wciąż nie jest to jeszcze powszechne.

Dlatego zdecydowaliśmy się udostępnić model w aplikacji InPost Mobile, z której korzysta 16 milionów użytkowników. Dzięki temu każdy z nich może łatwo rozpocząć rozmowę z modelem językowym i w praktyce sprawdzić, jak działa ta technologia. Tego typu doświadczenie pomaga oswoić użytkowników z AI i pokazuje jej możliwości. W dłuższej perspektywie może to mieć także znaczenie biznesowe – osoby, które przyzwyczają się do takiego sposobu komunikacji, będą chętniej korzystać z podobnych funkcji również w głównych produktach firmy. Warto też podkreślić, że choć w niektórych środowiskach – zwłaszcza wśród młodszych użytkowników czy w branży technologicznej – narzędzia oparte na AI są już dobrze znane i szeroko wykorzystywane, to w szerszej skali wiele osób wciąż tylko o nich słyszało, ale jeszcze z nich nie korzystało. Dlatego udostępnienie takiego rozwiązania w popularnej aplikacji ma także wymiar edukacyjny – daje możliwość poznania technologii w praktyce i zrozumienia, jak można z niej korzystać. Co istotne, w tym przypadku mówimy o polskim modelu językowym Bielik – rozwijanym z myślą o języku polskim i lokalnym kontekście. Dzięki temu użytkownicy mogą korzystać z technologii AI, która lepiej rozumie polski język, kulturę oraz realia niż wiele zagranicznych modeli.

Podzieliliście się Waszymi zasięgami z Bielikiem.

Decyzja o wdrożeniu modelu w aplikacji miała kilka równoległych celów. Z jednej strony chodziło o rozwój naszego produktu i oswojenie użytkowników z technologią AI, z drugiej o wsparcie polskiego modelu językowego Bielik. Oba te cele były równie ważne. Dzięki integracji model zyskuje potencjalnie większy zasięg i możliwość kontaktu z szeroką grupą użytkowników, a my jednocześnie wspieramy rozwój polskiego rozwiązania technologicznego.

Warto przy tym podkreślić, że duża część technologii i zespołu rozwijającego aplikację znajduje się w Polsce. InPost od początku podkreśla, że główna siedziba firmy, własność intelektualna oraz kluczowe kompetencje technologiczne pozostają w kraju. W tym kontekście naturalne było rozważenie współpracy z polskim projektem AI.

Oczywiście w codziennej działalności korzystamy także z wielu zagranicznych technologii – takich jak rozwiązania chmurowe czy narzędzia biurowe globalnych firm – ponieważ często po prostu nie ma jeszcze ich polskich odpowiedników. Tam jednak, gdzie istnieje możliwość współpracy z rodzimym projektem technologicznym, chętnie z niej korzystamy. To nie tyle kwestia deklaratywnego patriotyzmu technologicznego, ile raczej naturalnej skłonności do wspierania rozwiązań, które powstają w naszym otoczeniu i które dobrze rozumiemy.

Pierwsze rozmowy o potencjalnej współpracy z zespołem rozwijającym Bielika pojawiły się już jakiś czas temu. Początkowo zastanawialiśmy się, czy łatwo będzie połączyć dwa różne podejścia – nasze, silnie osadzone w realiach produktowych i komercyjnych, z modelem rozwijanym w formule otwartego projektu. Społeczność skupiona wokół Bielika działa w dużej mierze w sposób zdecentralizowany, m.in. na platformach takich jak Discord, GitHub czy Hugging Face, jednocześnie mając realne doświadczenie we wdrożeniach biznesowych. Z czasem okazało się jednak, że te dwa światy nie tylko mogą się spotkać, ale wręcz dobrze się uzupełniają, przynosząc obopólne korzyści.

Sam projekt Bielik był zresztą w środowisku technologicznym w Polsce dość dobrze znany już wcześniej. Wielu specjalistów śledziło jego rozwój, a informacje o nim pojawiały się w branżowych dyskusjach. Gdy więc pojawiła się realna możliwość współpracy, uznaliśmy, że warto spróbować stworzyć rozwiązanie, które będzie korzystne zarówno dla użytkowników aplikacji, jak i dla samego projektu.

Tak zaczęła się Wasza współpraca w ramach akcji „Nakarm Bielika”.

Istotnym elementem tej współpracy jest również to, że modele językowe rozwijają się dzięki realnemu użyciu. Największe globalne systemy AI są trenowane przy ogromnych nakładach finansowych i infrastrukturze liczonej w milionach dolarów.  Oczywiście trzeba mieć świadomość, że polskie modele nie zawsze będą w stanie konkurować z największymi globalnymi systemami rozwijanymi przez technologiczne giganty we wszystkich obszarach. W przypadku mniejszych projektów, takich jak Bielik, istotną rolę odgrywa możliwość interakcji z użytkownikami i zbierania doświadczeń z realnego wykorzystania modelu. To z kolei pozwala stopniowo rozwijać jego możliwości i poprawiać jakość działania. Każda rozmowa z modelem to dla jego twórców cenne informacje o tym, jak ludzie korzystają z AI, jakie pytania zadają i w jakich sytuacjach potrzebują wsparcia.

Udostępnienie modelu w aplikacji, z której korzystają miliony osób, może więc być realnym wsparciem dla jego rozwoju. Nawet jeśli część użytkowników skorzysta z niego tylko przez chwilę, skala takich interakcji może być bardzo duża. W praktyce oznacza to formę „crowdsourcingu” doświadczeń, które pomagają ulepszać model i dostosowywać go do potrzeb użytkowników. Dlatego początkowym celem współpracy było przede wszystkim umożliwienie użytkownikom kontaktu z modelem i zebranie doświadczeń z jego wykorzystania. Jednocześnie pojawia się także perspektywa dalszego rozwoju samego Bielika. Integracja z popularną aplikacją może być jednym z kroków w kierunku jego udoskonalania i budowania kolejnych wersji modelu, które będą coraz lepiej odpowiadać na potrzeby użytkowników. Bielik początkowo rozwijany był z myślą o języku polskim i od tej wersji zaczynaliśmy naszą współpracę. Dziś model obsługuje już ponad 30 języków naturalnych, co znacząco poszerza zakres jego potencjalnych zastosowań. Ten wielojęzykowy kierunek nie jest jeszcze w pełni wykorzystany, ale z naszej perspektywy – jako globalnej organizacji – ma duże znaczenie. Widzimy w tym nie tylko rozwój samej technologii, ale także szansę na budowanie kompetencji w pracy z różnymi rynkami, językami i kontekstami kulturowymi.

Czy na tym etapie głównym celem jest przede wszystkim udostępnienie Bielika użytkownikom aplikacji i umożliwienie modelowi „uczenia się” poprzez interakcje? 

Na tym etapie nie chodzi wyłącznie o udostępnienie Bielika użytkownikom i obserwowanie jego działania w praktyce. Traktujemy tę współpracę szerzej – jako możliwość testowania konkretnych podejść architektonicznych. Bielik jest modelem kompaktowym, zaprojektowanym do innych klas zadań niż duże, zamknięte modele, dlatego nie rozpatrujemy go wprost jako ich zamiennika.

Kluczowa wartość, którą dziś widzimy, to zdobywane doświadczenie: jak efektywnie balansować wydajność mniejszych modeli, jak łączyć różne modele w spójne łańcuchy oraz jak zwiększać ich „kognitywność” w konkretnych zastosowaniach. Te wnioski już teraz wykorzystujemy przy optymalizacji naszej architektury e-commerce i systemów operacyjnych.

Udostępnienie Bielika użytkownikom jest więc jednym z elementów procesu, ale równie istotne jest to, czego uczymy się po stronie technologii i jak przekłada się to na nasze wewnętrzne rozwiązania.

Czy w takim razie decyzja o udostępnieniu tego rozwiązania wynikała także z potrzeb użytkowników i klientów? Czy pojawiało się z ich strony zainteresowanie korzystaniem z takiego modelu jak Bielik w aplikacji?

Decyzja o udostępnieniu Bielika wynikała przede wszystkim z naszej intencji wspierania i rozwijania polskiej myśli technologicznej w obszarze sztucznej inteligencji. Oczywiście, zawsze wsłuchujemy się w potrzeby naszych użytkowników, a także obserwujemy globalne trendy. Jednak w przypadku Bielika, nadrzędną motywacją było coś więcej niż tylko bezpośrednie zaspokojenie zidentyfikowanej, wyrażonej potrzeby biznesowej czy konkretnej funkcjonalności dla użytkownika. Chcieliśmy stworzyć warunki do rozwoju polskiego modelu językowego na dużą skalę.  Jako firma o polskim rodowodzie, czujemy odpowiedzialność za rozwój lokalnej technologii. Bielik był naszym wkładem w budowanie kompetencji AI w Polsce, a zaangażowanie naszych użytkowników w jego trenowanie było fundamentalnym elementem tej misji.

Na co zwracaliście uwagę właśnie przy wyborze Bielika? Czy to właśnie było na zasadzie tej idei, tej suwerenności technologicznej bezpieczeństwa, jakości języka?

W przypadku Bielika ważne było to, że był to projekt już rozpoznawalny, pojawiał się w mediach technologicznych, a także był polecany w środowisku osób zajmujących się nowymi technologiami. Dlatego w praktyce nie był to wybór poprzedzony bardzo szeroką analizą wielu różnych modeli. Oczywiście ktoś mógłby powiedzieć, że być może istnieją inne inicjatywy, których nie zauważyliśmy. Natomiast z naszej perspektywy Bielik, jako projekt widoczny w środowisku technologicznym, był dość oczywistym wyborem.

Kluczowe znaczenie dla bezpieczeństwa ma nie samo to, czy model jest polski, ale przede wszystkim to, gdzie przechowywane i przetwarzane są dane. Zasadniczo to właśnie miejsce przechowywania danych i infrastruktura serwerowa są najważniejsze w kontekście kontroli nad informacjami, a nie wyłącznie pochodzenie samego modelu.

Czy pojawiły się wyzwania przy wdrożeniu Bielika w aplikacji?

Integracja modelu na poziomie produktu czy interfejsu nie stanowiła dużego wyzwania, podobnie jak kwestie związane z infrastrukturą serwerową. Dużo ciekawszym elementem była natomiast sama kampania „Nakarm Bielika”, która miała bardzo duży zasięg. Wiele osób wchodziło w interakcję z modelem, testowało go i sprawdzało, jak działa w praktyce.

Z naszej perspektywy interesujący jest również odbiór tej inicjatywy – zarówno wśród użytkowników aplikacji, jak i w środowisku technologicznym. Ciekawi nas, czy poza samymi statystykami dotyczącymi liczby interakcji pojawiały się także inne sygnały, na przykład opinie użytkowników lub komentarze z branży technologicznej.

Jaką rolę pełni dziś model Bielik w Państwa rozwiązaniach i czy jest wykorzystywany również w innych systemach firmy?

Bielik wykorzystywany jest wyłącznie w tej funkcji, która została udostępniona użytkownikom w aplikacji. Nie stosujemy go obecnie w innych wewnętrznych rozwiązaniach firmy. Jeśli chodzi o inne zastosowania AI w firmie, to oczywiście testujemy różne rozwiązania i zapewne będziemy robić to dalej, zwłaszcza w kontekście projektów agentowych. Na razie jednak korzystamy z modeli, które oferują większe możliwości lub są lepiej dopasowane do konkretnych zastosowań.

Warto też dodać, że w środowisku technologicznym pojawiają się już publiczne testy i analizy dotyczące Bielika – pokazujące zarówno jego mocne strony, jak i ograniczenia oraz obszary, w których sprawdza się najlepiej. Takie porównania są pomocne przy ocenie, do jakich zastosowań dany model może być najbardziej odpowiedni.

A jak wyglądał sam proces wdrożenia Bielika w aplikacji od samego początku?

Pierwsze rozmowy dotyczące współpracy rozpoczęły się mniej więcej w październiku, a wdrożenie nastąpiło w grudniu, więc cały proces zamknął się w około dwóch miesiącach. Na początku skupiliśmy się na pracy koncepcyjnej – jak osadzić rozwiązanie w produkcie, gdzie powinno się pojawić i jakie realne potrzeby użytkowników ma adresować. Same aspekty techniczne okazały się relatywnie proste do realizacji – po kilku spotkaniach roboczych zespoły inżynierskie szybko uzgodniły kwestie infrastruktury i uruchomienia.

Warto podkreślić, że cały projekt został zrealizowany przez połączone zespoły polskich inżynierów – bez udziału zewnętrznych, zagranicznych konsultantów. To dla nas istotne, bo pokazuje dojrzałość lokalnych kompetencji technologicznych.

Skala wdrożenia była jednocześnie dużym wyzwaniem. Aplikacja mobilna ma bardzo dużą bazę użytkowników, dlatego od początku projektowaliśmy rozwiązanie z myślą o wysokiej dostępności i wydajności. W praktyce oznaczało to m.in. balansowanie ruchu pomiędzy dwoma dużymi ośrodkami obliczeniowymi wyposażonymi w GPU oraz wykorzystanie – jak na warunki europejskie – znaczącej liczby kart obliczeniowych.

Projekt nie był jedynym obszarem naszych działań w tym czasie – równolegle realizowaliśmy inne inicjatywy, w tym komercyjne. Tym bardziej pokazuje to, że byliśmy w stanie stosunkowo szybko wdrożyć rozwiązanie o dużej skali i złożoności. Z naszej perspektywy ma to szersze znaczenie – nie tylko produktowe, ale także jako dowód, że w Polsce można budować i wdrażać zaawansowane systemy AI na poziomie europejskim.

Co w Twoim zdaniem najbardziej przyspieszyłoby adopcję polskich modeli językowych w biznesie? Czy w Twojej opinii to jest być może kwestia edukacji, regulacji czy też dostępności tych rozwiązań?

Kluczowym czynnikiem przyspieszającym adopcję polskich modeli językowych w biznesie pozostaje dostęp do kapitału – zarówno na rozwój modeli, jak i infrastrukturę oraz zespoły. Bez odpowiedniej skali inwestycji trudno w ogóle myśleć o budowie konkurencyjnych rozwiązań. Można oczywiście dyskutować, czy dany projekt odniesie sukces, ale to jest kolejny etap – na świecie istnieją setki, a prawdopodobnie nawet ponad tysiąc różnych modeli językowych, co jasno pokazuje, że kluczowa jest skala inwestycji.

Z drugiej strony nie oznacza to, że Polska powinna kopiować podejście największych graczy jeden do jednego. Widzimy realną przestrzeń do specjalizacji w obszarze modeli kompaktowych i wyspecjalizowanych, które mogą być efektywnie wdrażane w konkretnych procesach biznesowych. To podejście jest bliższe naszym realiom i może stanowić przewagę konkurencyjną – szczególnie tam, gdzie liczy się wydajność, koszt i możliwość integracji z istniejącą architekturą systemów. Wsparcie dla takich inicjatyw jak Bielik dodatkowo pomaga ukierunkować ten rozwój.

Finansowanie jest potrzebne co najmniej w trzech obszarach. Po pierwsze – na ludzi, czyli zespoły inżynierów i badaczy. Po drugie – na infrastrukturę, przede wszystkim serwery i karty GPU, które pozwalają trenować i uruchamiać modele na dużą skalę. Po trzecie – na samo uczenie modeli, czyli proces trenowania na ogromnych zbiorach danych. Warto jednak podkreślić, że równie ważne jak sprzęt i dane są kompetencje. Jak trafnie zauważył profesor Dariusz Dragan, nie ma lepszego sposobu budowania wiedzy niż tworzenie rozwiązań własnoręcznie – i projekty takie jak Bielik czy inicjatywy wokół jego rozwoju, jak „Nakarm Bielika”, bardzo dobrze się w to wpisują.

Warto pamiętać, że praktycznie żaden duży model AI nie był dochodowy na początku. Przykładowo rozwiązania rozwijane przez Anthropic w ramach modelu Claude powstały dzięki ogromnym inwestycjom w technologię i infrastrukturę. Podobnie wygląda sytuacja w przypadku modelu Gemini rozwijanego przez Google – tam również włożono ogromne środki, aby nadrobić dystans i przyspieszyć rozwój AI w organizacji. Duże globalne firmy mogą sobie na to pozwolić, bo dysponują kapitałem i są gotowe inwestować miliardy w technologie przyszłości.

W Polsce sytuacja wygląda inaczej – wiele inicjatyw związanych z AI, zarówno modeli językowych, jak i projektów powstających w instytutach badawczych oraz w formule open science, potrzebuje silniejszego wsparcia finansowego oraz dostępu do danych i odpowiedniego środowiska rozwoju. W praktyce oznacza to, że potrzebny jest fundusz – niezależnie od tego, czy będą to środki publiczne czy prywatne – który umożliwi rozwój na odpowiednią skalę.

Z perspektywy biznesu kluczowe jest więc połączenie tych elementów: kapitału, infrastruktury oraz kompetencji. Mamy w Polsce bardzo dobrych inżynierów, ale bez możliwości realizacji ambitnych projektów trudno będzie konkurować na globalnym rynku AI. Dlatego tak ważne jest równoległe budowanie finansowania oraz inicjatyw, które pozwalają zdobywać praktyczne doświadczenie i rozwijać lokalny ekosystem technologiczny.

Dziękujemy za rozmowę!

 

Cykl rozmów „Start z polskim AI – od pomysłu do wdrożenia” jest realizowany w ramach programu Centrum Kompetencji AI.