Przejdź do treści
Polecamy

Nowa strategia PFR 2026–2030: Inwestujemy dla przyszłych pokoleń. Dowiedz się więcej!

Publikacje Data publikacji: 09 lutego 2026

Start z polskim AI. Od pomysłu do wdrożenia #Workai

Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Autor Patryk Bitner Młodszy Specjalista ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Polski Fundusz Rozwoju S.A.

Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Zapraszamy do rozmowy z Grzegorzem Ciwoniuk, CGO i współzałożycielem Workai.

Jakie były Wasze główne cele przy tworzeniu Workai? Czy możecie opowiedzieć, w jaki sposób wykorzystujecie AI i czy jest to Wasze autorskie rozwiązanie?

Workai to w pewnym sensie połączenie słów „work” i „AI”  i to nie jest przypadek. Już w 2019 roku przyjęliśmy tę nazwę, mając świadomość, że sztuczna inteligencja będzie kluczową technologią w automatyzacji pracy i usprawnianiu procesów. Dziś mamy 2026 rok i AI nie jest już nowinką technologiczną, ale standardem, a wręcz wymogiem rynkowym.

W Workai wierzymy, że AI powinno być osadzone bezpośrednio w codziennej pracy pracowników, a nie funkcjonować jako ciekawostka technologiczna czy osobne narzędzie. Naszym celem jest to, aby sztuczna inteligencja realnie wspierała ludzi w ich zadaniach: skracała czas poświęcany na powtarzalne czynności, upraszczała dostęp do wiedzy, usprawniała komunikację wewnętrzną i pozwalała pracownikom wykonywać swoją pracę efektywniej, nie tylko szybciej, ale też na wyższym poziomie kompetencji. W ramach platformy Workai rozwijamy kilka kluczowych obszarów. Pierwszy to wyszukiwanie semantyczne, oparte na modelach językowych. Pracownik nie „szuka dokumentu”, tylko zadaje pytanie i otrzymuje konkretną odpowiedź wraz z kontekstem, źródłem czy fragmentem dokumentu.

Drugi obszar to  Buddy, czyli wewnętrzny asystent AI oparty wyłącznie na wewnętrznej wiedzy organizacji. To nie jest publiczny chatbot, tylko agent, który rozumie język firmy, jej terminologię, procedury i sposób komunikacji. Może tłumaczyć procesy, wyjaśniać kontekst, wskazywać właściwe dokumenty, osoby kontaktowe czy konkretne miejsca w materiałach. Sprawdza się zarówno w obsłudze klienta, sprzedaży, wsparciu technicznym, jak i w codziennej relacji pracownik–firma.

Kolejny element to AI w CMS-ie, czyli wsparcie w tworzeniu i optymalizacji treści: generowanie, skracanie, rozwijanie, sprawdzanie inkluzywności i dopasowania komunikatu do grupy odbiorców. Inaczej komunikujemy się z pracownikami liniowymi, inaczej z biurowymi, a jeszcze inaczej z zespołami pracującymi w innych strefach czasowych, AI pomaga to wszystko uwzględnić. Treści mogą być też automatycznie tworzone wielojęzycznie.

Ostatni obszar to analiza i discovery. Dzięki niej managerowie i liderzy mogą zobaczyć, czego pracownicy szukają, jakie tematy wracają, jakie pojawiają się trendy, sentymenty czy niewypowiedziane problemy. AI nie tylko analizuje dane, ale też proponuje konkretne, gotowe do wdrożenia rekomendacje usprawnień takie, które można od razu zastosować w organizacji.

Całość projektujemy z myślą o tym, żeby AI było naturalną częścią procesu, a nie osobnym narzędziem, do którego trzeba coś kopiować, wklejać i przenosić między systemami.

Co bardzo ważne, pracujemy w kontrolowanym środowisku danych klienta. To może być chmura lub środowisko lokalne, bez wycieku danych do publicznych modeli. Organizacje mogą korzystać zarówno z wydzielonych modeli komercyjnych (np. w środowisku Azure), jak i z modeli open source, takich jak Bielik czy PLLuM, albo z własnych modeli już funkcjonujących w firmie. Integrujemy się z tym, co klient posiada, a zakres funkcjonalności rośnie wraz z poziomem tej integracji.

Na ile Workai opiera się na Waszych autorskich rozwiązaniach AI, a na ile otwieracie się na współpracę z zewnętrznymi modelami, szczególnie z polskimi modelami LLM, takimi jak Bielik czy PLLuM? Czy mieliście już realne wdrożenia lub punkty styku z tymi modelami i czy są one obecnie wykorzystywane w środowiskach Waszych klientów?

Jak najbardziej. Zarówno Bielik, jak i PLLuM są stałym elementem testów, które prowadzimy. Przy tworzeniu nowych funkcjonalności korzystamy z różnych modeli językowych i regularnie wykonujemy benchmarki, porównujemy jakość odpowiedzi, rozumienie kontekstu i dopasowanie do realnych potrzeb biznesowych.

Bardzo często okazuje się, że w specyficznych przypadkach związanych z polską nomenklaturą, językiem branżowym czy kontekstem lokalnym, Bielik wypada zdecydowanie lepiej  i wtedy to właśnie ten model wdrażamy u klienta. Zdarzają się oczywiście sytuacje, w których lepszym wyborem jest model komercyjny, ale nawet wtedy działa on zawsze w zamkniętym, wydzielonym środowisku klienta.

Podchodzimy do tego case by case. Nie wierzymy w jeden uniwersalny model, który „umie wszystko”, bo to po prostu nie są realia biznesowe. Zamiast tego dobieramy model do konkretnej organizacji, jej danych, języka i procesów  tak, żeby AI faktycznie wspierało pracę, a nie było tylko technologicznym kompromisem.

A możesz powiedzieć trochę więcej, w jakich obszarach korzystaliście z Bielika?

Jeśli chodzi o Bielika, to jest nam on zdecydowanie najbliższy, również dlatego, że mamy lokalne punkty styku i współpracujemy z osobami zajmującymi się ewangelizacją tej technologii. To sprawiło, że bardzo naturalnie wszedł on do naszych testów i późniejszych wdrożeń.

Najczęściej wykorzystujemy Bielika w obszarze agentów AI przeszukujących firmowe bazy wiedzy, czyli w architekturze RAG. W praktyce wygląda to tak, że nad jedną odpowiedzią pracuje 6–7 wyspecjalizowanych agentów.

Cały proces zaczyna się od rozpoznania intencji użytkownika, następnie zapytanie jest przekształcane w taką formę, która będzie lepiej zrozumiała dla modelu językowego. Kolejnym krokiem jest właściwy RAG,  czyli pobranie kontekstu z baz wiedzy, po czym następuje selekcja odpowiedzi, ich ranking, a na końcu agent podsumowujący, który składa wszystko w spójną, czytelną odpowiedź dla użytkownika. Właśnie na tym ostatnim etapie, czyli tam, gdzie kluczowe jest zrozumienie kontekstu i naturalna odpowiedź w języku polskim, modele Bielika sprawdzają się najlepiej. To one najczęściej odpowiadają bezpośrednio do użytkownika, bo bardzo dobrze radzą sobie z polską terminologią, niuansami językowymi i kontekstem organizacyjnym.

Dlatego Bielik nie jest u nas „modelem eksperymentalnym”, tylko realnym elementem produkcyjnych flow, szczególnie tam, gdzie jakość odpowiedzi w języku polskim ma kluczowe znaczenie.

Dlaczego polskie LLM-y? Co przeważa: bezpieczeństwo, język, regulacje, czy po prostu lepsze dopasowanie do realiów biznesowych?

Bezpieczeństwo jest na pewno kwestią infrastruktury, a nie samego modelu.
Sam model jest więc tak bezpieczny, jak bezpieczne jest środowisko, w którym działa. Jeżeli pracujemy w zamkniętej, wydzielonej infrastrukturze klienta, to w praktyce każdy model dedykowany spełnia wymagania bezpieczeństwa.

Dlatego kluczowym kryterium wyboru polskich modeli LLM jest dla nas jakość języka i rozumienie lokalnego kontekstu. Bielik bardzo dobrze radzi sobie z polską nomenklaturą, branżowymi określeniami i naturalnym sposobem budowania zdań. Unika kalk językowych, sztucznych zapożyczeń czy zwrotów, które w języku polskim brzmią nienaturalnie albo są trudne do zrozumienia dla użytkownika końcowego.

Patrzymy więc przede wszystkim na jakość odpowiedzi i realne doświadczenie użytkownika i pod tym względem Bielik sprawdza się bardzo dobrze. Jednocześnie traktujemy go jako jeden z elementów większego łańcucha agentów. Nie wierzymy w jeden model „do wszystkiego” w jednym procesie może pracować sześciu, siedmiu, a czasem nawet dziesięciu agentów, z których każdy wykorzystuje inny model, dopasowany do konkretnego zadania.

Jest też trzeci, bardzo ważny aspekt: rozwój polskiej technologii. Jesteśmy polską firmą i świadomie staramy się znajdować jak najwięcej sensownych use case’ów dla Bielika. Z każdą iteracją model potrafi przyjąć więcej parametrów, lepiej rozumie kontekst i daje coraz większe możliwości trenowania pod konkretne organizacje. Widzimy w tym ogromny potencjał i realną wartość zarówno dla klientów, jak i dla całego ekosystemu.

Od czego Waszym zdaniem organizacje powinny zaczynać wdrażanie AI, żeby miało to realną wartość, a nie było tylko eksperymentem technologicznym?

Myślę, że kluczowe jest to, aby pamiętać, że technologia sama w sobie pozostaje pewną abstrakcją. Ostatecznie wszyscy walczymy o realną wartość dla użytkownika i klienta: oszczędność czasu, większą pewność podejmowanych decyzji, możliwość analizy dużych wolumenów danych czy otrzymywanie trafnych sugestii działań. Bardzo często zaczyna się to od prostych zastosowań, takich jak analiza sentymentu komentarzy z ostatniego tygodnia, a z czasem przechodzi w znacznie bardziej zaawansowane scenariusze, obejmujące analizę danych z wielu czujników i źródeł, na przykład w kontekście przewidywania awarii w systemach produkcyjnych czy w łańcuchach dostaw.

Niezależnie jednak od skali czy stopnia złożoności, punkt wyjścia zawsze jest ten sam: nie pytamy „jakiej technologii użyć”, tylko „jaki problem chcemy rozwiązać” i „jakie wyzwanie w organizacji możemy dzięki temu zaadresować”. To właśnie przypadek użycia i realna potrzeba biznesowa powinny determinować sposób wykorzystania AI.

Dlatego my bardzo mocno koncentrujemy się na doświadczeniu pracownika. Na tym, jak łatwo odnajduje informacje, jak szybko je wyszukuje i jak bardzo są one dopasowane do jego roli i kontekstu. Odchodzimy od jednego, ogólnego komunikatu czy uniwersalnej regulacji na rzecz personalizacji. Pracownik nie musi już czytać długich dokumentów – może na przykład uruchomić automatycznie wygenerowany, spersonalizowany podcast z podsumowaniem najważniejszych wydarzeń z ostatniego tygodnia, jadąc do pracy. Otrzymuje też syntetyczne podsumowania swoich celów i zadań na dany dzień, a wiele rutynowych czynności może po prostu zautomatyzować.

To właśnie taka wizja nam przyświeca: wykorzystanie AI do realnego wsparcia codziennej pracy i zwiększania efektywności organizacji. Oczywiście bez technologii nie byłoby to możliwe, dlatego naturalnie utożsamiamy się z jej rozwojem i z ideą wzmacniania także polskiego ekosystemu rozwiązań opartych na sztucznej inteligencji i nowoczesnej komunikacji.

Czy mógłbyś opowiedzieć o jednym z Waszych ostatnich wdrożeń — od momentu pomysłu aż po uruchomienie rozwiązania?

Z naszej perspektywy kluczowe jest to, że pracujemy na naszym gotowym produkcie — platformie, która posiada już określone moduły i możliwości. Wdrożenie nie polega więc na budowaniu technologii od zera, lecz na dostosowaniu jakości odpowiedzi, parametrów wyszukiwania oraz mechanizmów RAG do specyfiki danej organizacji. Sama technologia od początku umożliwia dopasowanie do konkretnych potrzeb firmy.

Dobrym przykładem jest duża organizacja finansowa, zatrudniająca kilkanaście tysięcy pracowników terenowych, zajmujących się sprzedażą i obsługą produktów ubezpieczeniowych oraz finansowych. Firma ta dysponowała ogromną bazą wiedzy obejmującą regulaminy, procedury, formularze, dokumenty PDF, a także materiały wideo wykorzystywane do szkolenia doradców. Jej potrzeba była jasno określona: poza klasycznym wyszukiwaniem informacji konieczne było wdrożenie chatbota, który umożliwi szybkie i precyzyjne odpowiadanie na pytania pracowników.

Proces rozpoczął się od etapu implementacji, a następnie stopniowego dostosowywania rozwiązania do tzw. edge case’ów, które naturalnie pojawiają się w tak dużych organizacjach. Każdy agent był konfigurowany w taki sposób, aby potrafił rozpoznać intencję użytkownika, dopytać w przypadku niejednoznacznych zapytań oraz skutecznie przeszukiwać bardzo rozległą bazę wiedzy, opartą na trzech różnych źródłach danych. Odpowiedź nie była jedynie wynikiem prostego wyszukiwania, lecz efektem wieloetapowego procesu, którego celem było wybranie najlepszego możliwego rezultatu i przedstawienie go w zrozumiałej formie.

Istotnym elementem tego wdrożenia był dodatkowy mechanizm self-assessmentu. Oprócz standardowej oceny odpowiedzi przez użytkownika, sam model dokonywał oceny jakości własnej odpowiedzi, wskazując, czy jego zdaniem była ona poprawna. Ponieważ odpowiedź powstaje w kilku następujących po sobie etapach, ostateczny rezultat nie zawsze jest idealnie zgodny z oczekiwaniami. Mechanizm ten pozwalał nam identyfikować takie sytuacje i na tej podstawie dalej dotrenowywać model lub modyfikować strukturę danych.

Całość prac przebiegała w trzech iteracyjnych etapach realizowanych wspólnie z klientem, a obecnie rozwiązanie znajduje się na etapie wdrożenia produkcyjnego.

Teraz chciałbym zapytać o mierniki efektywności wdrożeń AI. W jaki sposób je mierzycie? Czy są to na przykład oszczędności czasu, poprawa jakości odpowiedzi, czy może inne konkretne wskaźniki, które pozwalają realnie ocenić wartość takiego rozwiązania? Jak podchodzicie do tego w praktyce?

W naszym przypadku efektywność wdrożeń AI mierzymy bardzo konkretnie i operacyjnie. Z jednej strony są to twarde wskaźniki, takie jak skrócenie czasu wyszukiwania informacji, spadek liczby zapytań kierowanych do działów wsparcia oraz – w organizacjach produktowych – wyraźne zmniejszenie liczby zapytań trafiających do zespołów wsparcia produktowego. Z drugiej strony mierzymy także poprawę skuteczności komunikacji wewnętrznej.

Dzięki wbudowanej analityce jesteśmy w stanie ocenić, czy dana treść jest wystarczająco angażująca i zrozumiała, czy rzeczywiście odpowiada na potrzeby użytkowników, a jeśli nie – czy wymaga doprecyzowania lub zmiany formy. Widzimy również, jakich informacji pracownicy poszukują, a których w organizacji brakuje. W takich sytuacjach analityka, wspierana przez AI, generuje sygnały, że warto zareagować i taką treść wytworzyć lub uzupełnić.

W praktyce mierzymy więc skrócenie czasu dotarcia do informacji, skrócenie czasu tworzenia nowych treści, a także szybszą reakcję na incydenty i bieżące potrzeby pracowników. Są to wskaźniki policzalne, które jasno pokazują wartość biznesową rozwiązania. Nie mówimy tu o innowacji dla samej innowacji, lecz o realnych efektach, które można szybko zaprezentować organizacji.

Warto dodać, że liczne badania prowadzone w dużych organizacjach, zatrudniających powyżej tysiąca pracowników, pokazują, iż pracownicy potrafią tracić nawet jeden dzień w tygodniu na samo wyszukiwanie informacji potrzebnych do codziennej pracy. Oszczędzenie choćby kilku czy kilkunastu minut dziennie, w skali całej organizacji, przekłada się na bardzo wymierne korzyści. A w naszym przypadku często mówimy o znacznie większych oszczędnościach, ponieważ odpowiedzi są dostępne niemal natychmiast i bazują bezpośrednio na wiedzy zgromadzonej wewnątrz organizacji.

A jakie największe wyzwania napotykacie podczas wdrożeń rozwiązań AI?

Zdecydowanie największym wyzwaniem podczas wdrożeń jest jakość danych, które system ma przetwarzać – i nie jest to żadna nowość. Organizacje funkcjonujące od lat tworzą treści w bardzo różny sposób: przez różne zespoły, osoby o różnym poziomie wiedzy i kompetencji, często bez jednolitych standardów. W efekcie jakość, aktualność i struktura tych materiałów bywa bardzo nierówna.

Mamy pełną świadomość, że odpowiedzi dostarczane przez rozwiązania oparte na AI mogą nie być wystarczająco trafne lub użyteczne, jeśli bazują na nieuporządkowanych albo nieaktualnych danych. Dlatego stosujemy wieloetapowe podejście do oceny jakości. Zaczynamy od analizy danych w ich aktualnym stanie, następnie – po podłączeniu modeli językowych – jesteśmy w stanie ocenić jakość generowanych odpowiedzi i zidentyfikować obszary, w których treści wymagają poprawy, uzupełnienia lub archiwizacji, bo zwyczajnie przestały być aktualne.

Kluczową rolę odgrywa tu analityka, która pozwala spojrzeć na bazę wiedzy całościowo. Widzimy, gdzie występują duplikaty, które treści nie były odwiedzane przez użytkowników od dłuższego czasu, a które generują najwięcej zapytań lub problemów. Na tej podstawie można podejmować decyzje o porządkowaniu, usuwaniu albo przebudowie treści. Dodatkowo sam system zarządzania treścią umożliwia ustawianie przypomnień o konieczności aktualizacji materiałów, na przykład po określonym czasie od publikacji.

Dzięki takiemu procesowemu podejściu oraz dostarczeniu odpowiednich narzędzi dbamy o to, aby już od momentu wdrożenia treści były uporządkowane, a w dalszym etapie regularnie aktualizowane. To z kolei sprawia, że zarówno obecne, jak i przyszłe modele AI mogą skutecznie poruszać się po bazie wiedzy i generować odpowiedzi o coraz wyższej jakości.

Czy podczas wdrożeń pojawiają się też wyzwania związane z kulturą organizacyjną i adaptacją pracowników do AI? Jak wygląda odbiór takich rozwiązań po stronie klientów i ich zespołów?

Świadomość i dojrzałość organizacji w obszarze AI zdecydowanie rośnie. Jeszcze dwa lata temu często pojawiało się podejście: „to ciekawa nowość, ale niekoniecznie coś, czego naprawdę potrzebujemy”. Dziś ten odbiór jest zupełnie inny. W momencie, gdy pokazujemy realny efekt działania – pytanie i natychmiastową, precyzyjną odpowiedź – zaufanie buduje się bardzo szybko.

Dobrym przykładem są bardzo techniczne zastosowania, jak choćby ostatni proof of concept realizowany dla warsztatu samochodowego. Pytania dotyczyły niezwykle szczegółowych zagadnień związanych z konkretnymi sterownikami czy systemami redukcji gazu. To wiedza, której przeciętny użytkownik nie ma i której zdobycie normalnie wymagałoby przeglądania kilkusetstronicowych dokumentów technicznych w formacie PDF. Tymczasem po zadaniu pytania system od razu zwracał kompletną instrukcję pokazującą, jak skonfigurować i skalibrować dany system. Taki efekt natychmiast zmienia nastawienie i przełamuje sceptycyzm.

Dzięki temu otwartość na innowacje jest dziś zdecydowanie większa. Oczywiście nadal pojawiają się obawy, najczęściej związane z kosztami – pytania o zużycie tokenów, zapotrzebowanie na moc obliczeniową czy infrastrukturę. Te wątpliwości adresujemy już na etapie wdrożeń, projektując rozwiązania w sposób rozsądny kosztowo i pokazując konkretne liczby. Koszty transferu danych czy mocy obliczeniowej oczywiście istnieją, ale w praktyce okazują się znacząco niższe niż uzyskiwany zwrot z inwestycji, co bardzo szybko staje się przekonującym argumentem.

Zaufanie do takich rozwiązań rośnie, bo nie pracujemy na abstrakcyjnych obietnicach. Pracujemy na działającym systemie, który można zobaczyć, przetestować i „dotknąć” w codziennej pracy. I to właśnie ta namacalność jest dziś jedną z największych zalet we wdrażaniu AI w organizacjach.

Jakie są Wasze dalsze plany rozwoju? Jak widzicie rozwój produktu i organizacji w najbliższej przyszłości?

Myślimy o rozwoju zdecydowanie dalej niż tylko w perspektywie roku czy dwóch. Już dziś widzimy, że jednym z najbardziej obiecujących kierunków jest agentowość, czyli przejście od rozwiązań reaktywnych do rozwiązań proaktywnych. Wyobrażamy sobie, że na poziomie technologicznym, który jest możliwy do osiągnięcia w ciągu najbliższych kilkunastu miesięcy, użytkownicy i pracownicy nie będą jedynie zadawać pytania systemom, lecz będą „zatrudniać” agentów do realizacji konkretnych celów.

W tym modelu w Workai pojawi się agent, któremu definiujemy cel oraz granice działania. Przykładowo celem może być zwiększenie świadomości pracowników konkretnego departamentu na temat zmian w strategii albo przygotowanie zespołu produktowego do zrozumienia nowego produktu i skutecznego wprowadzenia go na rynek w określonym czasie. Taki agent rozumie cel, ma dostęp do odpowiednich narzędzi i danych oraz samodzielnie planuje działania w czasie. Nie działa jednorazowo, lecz rozkłada swoje aktywności na etapy, monitoruje postępy i konsekwentnie dąży do realizacji celu. Oczywiście cały proces odbywa się pod kontrolą człowieka, który nadzoruje jego pracę, ale agent nie jest zależny od ciągłego dostarczania pojedynczych instrukcji.

To właśnie autonomiczni agenci, działający na podstawie jasno określonych celów, a nie pojedynczych zapytań, są kierunkiem, który będziemy intensywnie eksplorować w najbliższym czasie. Równolegle rozwijamy inne obszary, takie jak coraz lepsze dopasowanie modeli do „języka organizacji”. Chodzi tu o bardzo precyzyjną konfigurację pod konkretne domeny, na przykład medycynę, energetykę czy finanse, gdzie kontekst, terminologia i odpowiedzialność mają kluczowe znaczenie.

Kolejnym kierunkiem jest wsparcie decyzyjne dla menedżerów, oparte na analizie danych pochodzących z wielu różnych systemów i źródeł. Integracja danych, ich łączenie i interpretacja w jednym miejscu pozwala lepiej wspierać zarządzanie i podejmowanie decyzji. Wszystkie te obszary składają się na spójną ścieżkę rozwoju, którą konsekwentnie realizujemy.

Co Twoim zdaniem najbardziej przyspieszyłoby adopcję polskich modeli językowych w biznesie? Czy kluczowa jest tu edukacja, większa dostępność technologii, odpowiednie regulacje, a może jeszcze inne czynniki?

Myślę, że edukacja jest tutaj zdecydowanie potrzebna i ona już się dzieje, natomiast wciąż znajdujemy się na bardzo wczesnym etapie krzywej adopcji. Obecnie są to głównie early adopterzy – osoby silnie związane technologicznie ze swoimi rolami, otwarte na innowacje i gotowe testować nowe rozwiązania. Jeśli mówimy o wdrażaniu polskich modeli językowych, a nie gotowych, komercyjnych usług, to trzeba jasno powiedzieć, że ten proces po prostu wymaga czasu.

Kluczowa będzie przewidywalność i stabilność. Biznes musi wiedzieć, na czym stoi – czego może oczekiwać od modelu dziś i jaki jest kolejny etap jego rozwoju. Czy będzie to większa liczba parametrów, większy kontekst wejścia i wyjścia, lepsza jakość odpowiedzi, niższy koszt, czy może łatwiejsza integracja z systemami klasy enterprise. Z perspektywy organizacji to wszystko składa się na poczucie bezpieczeństwa inwestycyjnego.

Duże znaczenie ma również forma dostarczania technologii. Dla wielu firm adopcja przyspieszyłaby, gdyby modele funkcjonowały jako gotowe usługi – połączenie infrastruktury, modelu językowego i wsparcia wdrożeniowego – albo jako rozwiązania oferowane bezpośrednio przez dostawców, które można uruchomić wewnątrz organizacji. Taki model obniża barierę wejścia i zmniejsza ryzyko po stronie klienta.

Istotnym wyzwaniem pozostaje także zaufanie regulacyjne. Wciąż brakuje jednoznacznych, praktycznych wytycznych dotyczących bezpiecznego wykorzystania modeli językowych w organizacjach: jakie dane mogą być przetwarzane, gdzie przebiegają granice odpowiedzialności, jak wygląda to w branżach regulowanych. Choć istnieją różne ramy prawne i instytucje nadzorcze, nadal trudno wyobrazić sobie pełne uregulowanie takich obszarów jak generowanie danych finansowych przez modele językowe, nawet te działające w zamkniętym środowisku.

W mojej ocenie adopcja polskich modeli będzie więc postępować stopniowo – wraz z dojrzewaniem technologii, większą przewidywalnością, lepszą ofertą „gotowych” rozwiązań oraz stopniowym doprecyzowaniem ram regulacyjnych. Edukacja jest ważna, ale to właśnie czas, stabilność i zaufanie będą tu kluczowymi czynnikami.

Dziękujemy za rozmowę!

Cykl rozmów „Start z polskim AI – od pomysłu do wdrożenia” jest realizowany w ramach programu Centrum Kompetencji AI.