Przejdź do treści
WAŻNE

Przekazanie oświadczenia o liczbie pracowników i uczestników Pracowniczych Programów Emerytalnych (PPE). Sprawdź, co należy zrobić!

Polecamy

Nowa strategia PFR 2026–2030: Inwestujemy dla przyszłych pokoleń. Dowiedz się więcej!

Publikacje Data publikacji: 19 stycznia 2026

Start z polskim AI – od pomysłu do wdrożenia #Deviniti

Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Start z polskim AI - Rozmowa w ramach programu Centrum Kompetencji AI
Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Autor Patryk Bitner Młodszy Specjalista ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Polski Fundusz Rozwoju S.A.

Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Zapraszamy do rozmowy z Grzegorzem Motriukiem z firmy Deviniti, która odpowiada między innymi za wdrożenia polskiego modelu LLM, Bielik.ai w polskich firmach.

Jesteście firmą, która odpowiada za wdrożenia technologiczne – w tym rozwiązania oparte na AI – w wielu firmach. Chciałabym zapytać, na jakim etapie tej drogi pojawiły się wdrożenia polskiego modelu LLM, Bielik.ai?

Takim pierwszym momentem, który zapoczątkował naszą przygodę z generatywną sztuczną inteligencją — a mówimy tu przede wszystkim o generatywnej AI opartej na modelach językowych — był 4 października 2022 roku.

Mam przed oczami artykuł zatytułowany „Akcja, niech Bloom przemówi po polsku, czyli rozkwit języka polskiego w rewolucyjnym transformerze. Został on opublikowany na naszej stronie, a jego autorami byli specjaliści AI z naszego zespołu.

To był moment, w którym nie było jeszcze premiery ChatGPT — ta technologia pojawiła się dopiero około miesiąc później. My natomiast już wtedy pisaliśmy o konieczności uwzględnienia języka polskiego w modelach językowych.

Można więc powiedzieć, że w pewnym sensie byliśmy jednymi z inicjatorów dyskusji i działań wokół polskich modeli językowych. Oczywiście nie przypisujemy sobie tutaj nadmiernych zasług, ale niewątpliwie to od nas wychodziło wiele idei oraz impulsów do rozpoczęcia tego myślenia.

Jakie realne potrzeby organizacji rozwiązujecie dziś jako praktycy wdrożeń AI? Od czego zazwyczaj zaczynają się takie projekty — czy są to raczej potrzeby podstawowe, czy od razu bardziej zaawansowane zastosowania? Na ile zależy to od profilu firmy i jej dojrzałości technologicznej? Jak to wygląda w praktyce?

Realizujemy wdrożenia rozwiązań AI na różnych poziomach dojrzałości organizacji, zawsze w odpowiedzi na konkretne potrzeby danej firmy. I to, co jest dla mnie bardzo ważne do podkreślenia, to fakt, że zbudowaliśmy już wiele realnych, produkcyjnych rozwiązań opartych na modelach językowych — rozwiązań klasy enterprise, które są dziś faktycznie wykorzystywane w biznesie.

Mówię o tym dlatego, że wiele organizacji wciąż jest na etapie eksperymentów czy pilotaży. Nas wyróżnia to, że realizujemy duże, złożone projekty produkcyjne — czasem o budżetach rzędu setek tysięcy, a czasem milionów złotych. I to jest coś, co zdecydowanie nas odróżnia na rynku.

Jeśli chodzi o potrzeby, które adresujemy, widzimy trzy kluczowe obszary.

Pierwszy to obsługa klienta i sprzedaż — wszelkiego rodzaju narzędzia, które pozwalają szybciej i efektywniej obsługiwać klientów oraz wspierać sprzedaż produktów i usług. Najczęściej są one oparte na wewnętrznych bazach wiedzy organizacji i zintegrowane z konkretnymi procesami oraz workflowami.

Drugi obszar to chatboty — zarówno wewnętrzne, jak i skierowane do klientów zewnętrznych. Są to rozwiązania w pełni customowe, w których model językowy nie odpowiada swoją ogólną wiedzą, lecz wiedzą organizacji. Takie chatboty potrafią nie tylko odpowiadać na pytania, ale również prowadzić użytkownika — klienta lub pracownika — przez kolejne etapy pozyskiwania informacji.

Trzeci obszar to wsparcie obsługi prawnej — narzędzia, które pomagają analizować umowy, identyfikować luki i ryzyka, weryfikować dokumentację prawną oraz sprawdzać regulacje wewnętrzne pod kątem zgodności z obowiązującymi przepisami.

To są trzy główne obszary, w których dziś realizujemy projekty.

Gdzie w praktyce pojawia się Bielik.ai? W których z tych obszarów, o których mówiliśmy, znajduje zastosowanie polski model językowy? W jakich scenariuszach jego użycie ma największą wartość?

Bielik.ai jest narzędziem bardzo uniwersalnym, dlatego może być stosowany właściwie we wszystkich obszarach, o których mówiliśmy. Jako organizacja świadomie staramy się go promować i wykorzystywać tam, gdzie ma to największy sens. Szczególnie dobrze sprawdza się w wydobywaniu informacji z dokumentacji oraz w pracy z wewnętrznymi zasobami wiedzy organizacji. Potrafi bardzo skutecznie sięgać do dokumentów wewnętrznych i pracować na nich w sposób precyzyjny i kontekstowy. Dlatego wszędzie tam, gdzie jest to możliwe, staramy się wykorzystywać Bielika.ai jako podstawowy model. Oczywiście w niektórych scenariuszach uzupełniamy go innymi modelami językowymi, jeśli wymagają tego konkretne potrzeby biznesowe lub techniczne.

Jak wygląda sam proces wdrażania rozwiązań AI. Jak wygląda droga od pierwszego pomysłu do uruchomienia rozwiązania produkcyjnego? Ile przeciętnie trwa taki proces i jakie są jego kluczowe etapy? Czy na początku prowadzicie analizę potrzeb i konsultacje z organizacją — i jak w praktyce wygląda taka współpraca na poszczególnych etapach?

Standardowo realizujemy projekty w 2–3 miesiące, czasem do pół roku. Mówimy tu o wdrożeniach produkcyjnych, w których użytkownicy realnie korzystają już z pierwszej wersji rozwiązania. Natomiast etapy testowe — tzw. proof of concept, czyli pilotaże poprzedzające właściwe wdrożenie — trwają zazwyczaj kilka tygodni. Już na tym etapie klient może zobaczyć pierwsze, bardzo konkretne efekty naszej pracy. Sam proces wdrożenia może przebiegać na dwa sposoby — i dużo zależy od tego, czy klient przychodzi do nas z jasno zdefiniowaną potrzebą, czy raczej oczekuje od nas wsparcia w jej identyfikacji.

Jeżeli potrzeba jest jasno określona i dobrze opisana, wtedy przedstawiamy konkretną propozycję rozwiązania i — przy gotowości po stronie klienta — możemy bardzo szybko rozpocząć projekt. Dalej jest to już kilkumiesięczny, ale stosunkowo zwinny proces wdrożeniowy. Jeżeli natomiast klient nie ma jeszcze sprecyzowanego pomysłu, proponujemy podejście warsztatowo-inspiracyjne. Pokazujemy możliwości, jakie daje generatywna AI, odwołujemy się do realnych wdrożeń — zarówno z rynku polskiego, jak i zagranicznego — i wspólnie z klientem szukamy punktów styku pomiędzy technologią a jego realnymi potrzebami biznesowymi. W trakcie kilku spotkań, krótkich warsztatów i pracy analitycznej powstaje koncepcja docelowego rozwiązania.

Warto też podkreślić, że nie koncentrujemy się wyłącznie na funkcjonalnościach technologicznych. Zawsze rozmawiamy z klientami o realnych korzyściach biznesowych — zarówno tych wymiernych, jak oszczędność czasu czy kosztów, jak i mniej bezpośrednich, takich jak poprawa jakości obsługi, wzrost satysfakcji klientów czy odciążenie zespołów od powtarzalnych zadań.

Zależy nam na tym, aby patrzeć na AI przez pryzmat wartości biznesowej, a nie wyłącznie jako na kolejne oprogramowanie do wdrożenia. I to jest ścieżka, która w praktyce bardzo dobrze się sprawdza.

Wspominałeś o udanych wdrożeniach, które zrealizowaliście. Gdybyś miał wskazać największe wyzwania, z jakimi mierzyliście się podczas tych projektów — czy były to wyzwania technologiczne, związane z danymi i integracją systemów, czy może raczej ze zmianą kultury organizacyjnej? A może wszystkie te obszary jednocześnie?

Myślę, że to rzeczywiście są wszystkie te obszary, ale warto je uporządkować. Po pierwsze — technologia. Generatywna sztuczna inteligencja wciąż budzi jednocześnie ogromne zainteresowanie i pewien niepokój. To zupełnie naturalne, bo każda nowa, a szczególnie rewolucyjna technologia, wywołuje nieufność. Dlatego bardzo dużą częścią naszych wdrożeń — zwłaszcza na etapie pilotaży i szkoleń — jest oswajanie tej technologii, rozwiewanie obaw i wątpliwości użytkowników.

Drugim dużym wyzwaniem jest zrozumienie niedeterministycznej natury generatywnej AI. To nie są klasyczne systemy informatyczne, w których konkretna akcja zawsze wywołuje dokładnie taki sam, przewidywalny efekt. W przypadku modeli językowych odpowiedzi mogą się różnić, wymagają ciągłego dostrajania, monitorowania jakości, testowania i kontroli. To oznacza zupełnie inne podejście do project managementu niż w tradycyjnych projektach IT.

Trzecim kluczowym obszarem są dane — ich jakość, spójność, przejrzystość i dostępność. Ogromną przewagą generatywnej AI jest to, że potrafi pracować na danych nieustrukturyzowanych: dokumentach PDF, skanach, zdjęciach czy plikach tekstowych. Jednocześnie bywa tak, że wiedza zgromadzona w organizacjach jest wewnętrznie niespójna — na przykład w jednym regulaminie pojawia się informacja X, a w innym informacja Y. W takich sytuacjach model językowy może mieć trudność z jednoznaczną interpretacją.

Na koniec warto wspomnieć o temacie, który bardzo często pojawia się w rozmowach z klientami, zwłaszcza na początku współpracy — czyli halucynacjach i błędach modeli językowych. Te obawy są zrozumiałe, natomiast dziś zarówno sama technologia, jak i nasze kompetencje wdrożeniowe są na tyle dojrzałe, że potrafimy bardzo skutecznie ograniczać halucynacje i zapewniać, że odpowiedzi generowane przez system opierają się wyłącznie na zweryfikowanych, wewnętrznych źródłach danych.

Jeszcze dopytam o kulturę organizacyjną, co wydaje się bardzo istotnym wątkiem. Jak w praktyce wygląda otwartość i zaangażowanie po stronie organizacji podczas wdrożeń AI? Współpracujecie z różnymi działami — jak zmienia się podejście ludzi na kolejnych etapach: od pierwszego pomysłu, przez wdrożenie, aż po codzienne korzystanie z rozwiązania? Jaką rolę odgrywa w tym wszystkim czynnik ludzki?

W organizacjach zawsze jest grupa osób bardzo otwartych i ciekawych tych rozwiązań. Najczęściej są to tzw. wewnętrzni czempioni, którzy promują ideę wdrożenia AI, bo widzą w niej realny potencjał dla biznesu i swojej pracy.

Z drugiej strony największe obawy pojawiają się zwykle u osób, które postrzegają sztuczną inteligencję jako zagrożenie dla swojego miejsca pracy. To jest zrozumiała reakcja. Natomiast z naszej perspektywy — obserwując wiele wdrożeń u klientów — widzimy, że organizacje, które wdrażają AI, nie zwalniają ludzi. Te obawy w praktyce bardzo rzadko się potwierdzają.

Najczęściej okazuje się, że w firmach nadal jest przestrzeń na pracę w innych obszarach. Nawet jeśli jakiś fragment codziennych obowiązków zostaje zautomatyzowany, pracownicy mogą skupić się na zadaniach bardziej złożonych, kreatywnych i wymagających kompetencji ludzkich, zamiast powtarzalnych czynności, które łatwo zautomatyzować.

Dlatego jednym z kluczowych elementów naszych rozmów z klientami jest właśnie praca z tymi obawami, tłumaczenie roli AI jako narzędzia wspierającego, a nie zastępującego ludzi. To bardzo istotny aspekt całego procesu wdrożeniowego.

Odwołując się już do naszego wspólnego programu szkoleniowego, Akademia AI PFR & Bielik, który startuje od stycznia i jest skierowany do polskich przedsiębiorców — chciałabym zapytać, jak istotny będzie w nim etap indywidualnych konsultacji. Jaką rolę odegra on w doprecyzowaniu business case’u, który uczestnicy wybiorą spośród trzech dostępnych scenariuszy? I jakie konkretne korzyści daje przedsiębiorcom praca w formule one-to-one właśnie na tym, wstępnym etapie przygotowania wdrożenia?

Jednym z kluczowych założeń programu Akademia AI PFR & Bielik jest to, aby przedsiębiorcy zachowali pełną kontrolę nad swoimi danymi oraz suwerenność technologiczną. Zależy nam na realizacji projektów, w których dane klientów nie opuszczają ich własnych struktur organizacyjnych. W tym kontekście Bielik odgrywa bardzo istotną rolę, ponieważ umożliwia pracę na prywatnej infrastrukturze organizacji, a nie wyłącznie w środowiskach chmurowych. Drugim ważnym elementem jest realizm kosztowy i operacyjny. Chcemy wspólnie z przedsiębiorcami uczciwie odpowiedzieć na pytania: co jest możliwe zarówno pod względem finansowym, jak i organizacyjnym? Czy dana organizacja jest gotowa, aby taki projekt zrealizować — nie tylko technologicznie, ale również procesowo i kompetencyjnie? Jeśli chodzi o efekty programu, zakładamy, że będą one bardzo konkretne i praktyczne. Docelowo widzimy cztery kluczowe rezultaty.

Po pierwsze — wybór priorytetowego use case’u, wraz z jasnym uzasadnieniem biznesowym. Po cyklu warsztatów może to być jeden lub dwa scenariusze wdrożeniowe, przy czym uczestnicy będą rozumieli pełne spektrum możliwości oraz potencjalnych korzyści.

Po drugie — oszacowanie potencjalnego ROI, czyli zwrotu z inwestycji, a także identyfikacja kluczowych ryzyk wraz z propozycją sposobów ich ograniczania.

Po trzecie — przygotowanie wysokopoziomowej koncepcji rozwiązania oraz jego architektury. Chcemy, aby klient — w szczególności jego dział IT — miał jasność, z jakimi wyzwaniami technologicznymi będziemy się mierzyć i w jaki sposób organizacja może nas w tym procesie wspierać.

I wreszcie czwarty, bardzo istotny efekt — gotowość do podjęcia decyzji o wdrożeniu pilotażowym. Naszym celem jest, aby na końcu tej ścieżki klient miał jasno określone kolejne kroki: najpierw pilotaż, a następnie — docelowo — wdrożenie rozwiązania produkcyjnego.

Chciałabym nawiązać jeszcze do kwestii zwrotu z inwestycji. Jak w praktyce mierzycie efektywność konkretnych wdrożeń AI? Czy stosujecie uniwersalne wskaźniki, które sprawdzają się niezależnie od branży, czy raczej każdorazowo dopasowujecie je do specyfiki organizacji i sektora, w którym realizowane jest wdrożenie?

To w dużej mierze zależy od klasy rozwiązania, które budujemy. Przykładowo — w przypadku rozwiązań do obsługi korespondencji przychodzącej w organizacji dysponujemy bardzo konkretnymi kalkulatorami efektywności. Pokazują one, ile czasu jesteśmy w stanie zaoszczędzić na pracy manualnej oraz jaki przekłada się to na realne korzyści finansowe. Każda wiadomość obsługiwana przez dział obsługi klienta czy sprzedaży generuje określony koszt, więc automatyzacja tego procesu daje wymierne i łatwe do policzenia efekty. W takich projektach pracujemy na jasno zdefiniowanych KPI i wspólnie z klientem dokładnie je wyliczamy.

To są przypadki, w których zwrot z inwestycji jest stosunkowo prosty do pokazania.

Są jednak również wdrożenia, w których ROI jest mniej bezpośrednie. Przykładem mogą być wewnętrzne chatboty organizacyjne, które znacząco ułatwiają dostęp do dokumentacji i wiedzy firmowej. W takich sytuacjach bardzo trudno precyzyjnie policzyć, ile minut dziennie każdy pracownik oszczędza na wyszukiwaniu informacji — choć realnie ta oszczędność jest duża.

Dlatego w takich przypadkach sięgamy po inne wskaźniki efektywności, na przykład Employee Net Promoter Score (eNPS), który mierzy satysfakcję pracowników. Jeśli ludzie nie tracą czasu na szukanie informacji i mogą skupić się na pracy merytorycznej, rośnie zarówno ich zadowolenie, jak i produktywność.

Podsumowując — zwrot z inwestycji można mierzyć na różne sposoby, nie tylko przez bezpośrednie wskaźniki finansowe. W zależności od charakteru wdrożenia patrzymy zarówno na twarde dane kosztowe, jak i na wskaźniki jakościowe, które długofalowo również mają bardzo realną wartość biznesową.

Na koniec chciałabym zapytać o przyszłość i Wasze plany rozwojowe. Jak widzicie dalszy rozwój wykorzystania modeli językowych w Waszych projektach? Jakie perspektywy wiążecie ze współpracą z Bielikiem i rozwojem tego polskiego modelu językowego, który — jak wiemy — cały czas dynamicznie się rozwija?

Aktywnie wspieramy zarówno Fundację Speakleash, jak i sam model językowy Bielik — nasze zaangażowanie w ten projekt pozostaje bardzo duże. Dzięki temu model rozwija się dziś na wielu poziomach i w różnych kierunkach. Patrząc w przyszłość, widzimy Bielika jako model mniejszy od największych globalnych LLM-ów, ale jednocześnie bardzo efektywny biznesowo. Jego ogromną przewagą jest niski koszt eksploatacji oraz znacznie mniejsze wymagania infrastrukturalne w porównaniu do dużych, globalnych modeli językowych. To sprawia, że jest on szczególnie atrakcyjny dla zastosowań komercyjnych i wdrożeń enterprise. Bielik bardzo dobrze radzi sobie również z językami niszowymi, co jest jednym z jego wyróżników.      Wynika to z faktu, że Bielik był celowo trenowany na mniejszych językach, w tym na wielu językach europejskich. Widzimy w tym także potencjał rozwoju międzynarodowego. Bielik może nie tylko wzmacniać suwerenność technologiczną Polski, ale również stać się elementem ekspansji na kraje Europy Środkowo-Wschodniej i Bałkany. To regiony, w których występują języki o mniejszej reprezentacji w globalnych modelach, a jednocześnie realne potrzeby biznesowe.      W efekcie Polska, także ze względu na swoją skalę i kompetencje, zaczyna pełnić rolę środkowoeuropejskiego hubu AI i technologii językowych.

Można więc powiedzieć, że dzięki Bielikowi jesteśmy dziś w tej części Europy w roli lidera, zarówno pod względem rozwoju modeli językowych, jak i ich praktycznych zastosowań w biznesie.

Na koniec chciałabym zapytać o to, co Twoim zdaniem najbardziej przyspieszyłoby adopcję polskich modeli językowych w biznesie. Czy kluczowa jest tu edukacja przedsiębiorców, większa dostępność i dojrzałość tych rozwiązań, a może jasne i stabilne regulacje? Jaką rolę Twoim zdaniem odgrywa w tym kontekście właśnie obszar regulacyjny?

Moim zdaniem kluczowa jest przede wszystkim edukacja — lepsze zrozumienie tego, jak te rozwiązania działają, jakie realne korzyści przynoszą oraz z jakimi kosztami się wiążą. Często obserwujemy, że firmy nie tyle są sceptyczne wobec AI, ile po prostu nie mają pełnej wiedzy, przez co ostrożniej podchodzą do decyzji wdrożeniowych.

Dlatego programy edukacyjne — takie jak nasz wspólny program z PFR, „Akademia AI PFR & Bielik" czy nasze inicjatywy — realnie otwierają oczy przedsiębiorcom i pomagają im zrozumieć, że wdrożenia AI nie muszą być ani ryzykowne, ani przesadnie skomplikowane.

Drugim bardzo ważnym czynnikiem byłoby wsparcie grantowe. Gdyby istniały programy, które dofinansowują pierwsze wdrożenia AI w firmach, adopcja takich rozwiązań z pewnością byłaby szybsza. I nie mówimy tu o bardzo dużych grantach — bo, jak wspominałem, wiele projektów AI nie wymaga ogromnych budżetów.

Wystarczy spojrzeć na rynki zagraniczne. Przykładowo AWS prowadzi programy, w ramach których dofinansowuje projekty AI, pod warunkiem że są one realizowane na jego infrastrukturze. Firma może przyjść z pomysłem na rozwiązanie AI, otrzymać grant i w ten sposób wejść w realny projekt produkcyjny. To prywatny kapitał, który świadomie inwestuje w rozwój rynku i kompetencji.

Gdyby polskie firmy miały dostęp do podobnych mechanizmów wsparcia, nawet na relatywnie niewielką skalę, pozwoliłoby im to w bezpieczny i mało ryzykowny sposób przejść przez pierwszy, kluczowy etap wdrożenia. A gdy organizacja ma już za sobą jeden realny projekt, znacznie łatwiej buduje kolejne kompetencje i rozwija wykorzystanie AI w dłuższej perspektywie.

Dlatego powiedziałbym, że edukacja połączona z mądrym wsparciem finansowym to dwa czynniki, które mogłyby najszybciej przyspieszyć adopcję polskich modeli językowych w biznesie.

Dziękujemy za rozmowę!