Przejdź do treści
NOWOŚĆ

Rusza program Innovate Poland – 4 mld PLN na wsparcie dla firm! Sprawdź szczegóły.

Publikacje Data publikacji: 28 listopada 2025

Start z polskim AI – od pomysłu do wdrożenia #AI Lab OPI

Autor Magdalena Bryś Ekspertka ds. rozwoju innowacji, Departament Rozwoju Innowacji | Polski Fundusz Rozwoju S.A.
Polski Fundusz Rozwoju S.A.

Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Zapraszamy do rozmowy z dr. inż. Markiem Kozłowskim, kierownikiem AI LAB w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB).

Jakie były główne motywacje utworzenia AI Lab i jak wpisuje się to w długofalową strategię OPI PIB?

W OPI PIB od lat zajmowaliśmy się sztuczną inteligencją w różnych departamentach. Rewolucja związana z ChatGPT uświadomiła wszystkim, że nie jest to już wyłącznie temat naukowy, ale realna zmiana zachodząca tu i teraz, zmiana która ma faktyczny wpływ dla każdego człowieka. Choć modele NLP, w tym te oparte na sieciach neuronowych, rozwijane są od lat – pierwsze, mniej lub bardziej udane konstrukcje neuronowych modeli językowych, pojawiały się już około 2013 roku – to dopiero przełom GPT3.5 pokazał, jak blisko realnych zastosowań znajduje się ta technologia. W OPI PIB mieliśmy specjalistów zajmujących się szeroko rozumianym przetwarzaniem języka naturalnego ­– obszarem, który dziś nazwalibyśmy po prostu „AI” lub „LLMy”, choć AI jest to znacznie szersze pojęcie. Byli oni rozproszeni po różnych zespołach 
i prowadzili zarówno prace badawcze, jak i rozwojowo-produktowe. W 2023 roku uznaliśmy, że warto wykorzystać ten potencjał i skupić go w jednym miejscu. Tak powstała idea utworzenia AI Labu, który został formalnie powołany w połowie 2023 roku. Zespół liczy niespełna 10 osób. Nasz zasługujący na wymienienie z imienia i nazwiska, podstawowy skład to Sławek Dadas, Rafał Poświata, Michał Perełkiewicz, Małgosia Grębowiec, Bartek Jaworski, Przemek Buczkowski i Marcin Mirończuk. To bardzo niewielka, ale wyspecjalizowana jednostka, której zasługi dla rozwoju Polskich LLMów są olbrzymie. Jak każdy instytut naukowy, mamy również obowiązek publikować wyniki badań. Publikacje naukowe są bardzo istotne, ponieważ stanowią fundament rozwoju. Niektóre pomysły dojrzewają dekadami, inne kilka lat, a część nigdy nie znajduje zastosowań społecznych czy gospodarczych.

Naszym głównym celem stało się jednak tworzenie produktów w postaci modeli, które mogą być używane przez innych – czy to wdrażanych przez OPI PIB w różnych systemach, czy udostępnianych otwartej społeczności, np. poprzez Hugging Face. Skupiamy się na podejściach i metodykach, które są już dobrze opisane, np. modele architektury Transformer, istnieją w praktyce albo są bardzo bliskie przejścia z fazy badań do fazy tworzenia produktów. Chcemy je rozwijać, dopracowywać i możliwie szybko przekładać na konkretne produkty realnie pracujące na rzecz polskiego społeczeństwa i gospodarki.

Zauważyliśmy również, że choć obecnie dostępne modele językowe są wielojęzyczne, to rozmowa z nimi często przypomina rozmowę z osobą, która zna wiele języków, ale jednak nie jest native speakerem. Dlatego widzimy duży sens w rozwijaniu rozwiązań dopasowanych do polskiego kontekstu językowo-kulturowego. Tak jak osoba, która zna język, ale nie jest jego native speakerem, również modele wielojęzyczne mają pewne braki merytoryczne i językowe. Dlatego chcieliśmy tworzyć szerokie spektrum modeli, o których za chwilę jeszcze opowiem, rozwiązujących różne problemy, ale przede wszystkim dedykowanych językowi polskiemu. Naszą niszą stały się badania przemysłowe i szybkie przejście do etapu produktyzacji. Oczywiście również publikujemy, choć nie w takim tempie jak topowe uczelnie. Naszym priorytetem jest, aby tworzone modele realnie służyły społeczeństwu i przemysłowi. Takie podejście tłumaczy dużą liczbę projektów w naszym labie oraz szerokie zaangażowanie zarówno w przedsięwzięcia przemysłowe i publiczne, jak i w projekty finansowane z grantów Komisji Europejskiej.

Jednym z istotnych osiągnięć Waszych działań jest rozwój polskich modeli językowych AI – zarówno dla administracji publicznej, przemysłu, jak i biznesu.

Jeśli chodzi o ich zastosowania, to warto cofnąć się do jednego z pierwszych dużych projektów, które realizowaliśmy w naszym zespole. Był to system dla Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), wykorzystujący sztuczną inteligencję do wykrywania niedozwolonych klauzul w umowach. System ten działa produkcyjnie już od kilku lat i realnie pomaga identyfikować zapisy szkodliwe dla konsumentów. To przykład wdrożenia typu „od zera do produktu”: najpierw wygrany konkurs na stworzenie metodyki i modelu, potem budowa całego rozwiązania, a następnie jego uruchomienie w instytucji publicznej wraz z zakupem platformy sprzętowej. UOKiK przygotował nawet white paper opisujący działanie tego systemu.

Drugim dużym obszarem istotnym dla organów publicznych jest projekt PLLuM, który zyskał rozpoznawalność w dużej mierze dzięki Ministerstwu Cyfryzacji. Nasza rola polegała przede wszystkim na dostarczeniu m.in. internetowych danych do wstępnego trenowania modeli oraz na wsparciu procesu ich rozproszonego uczenia na setkach kart graficznych. Proces trenowania LLMów składa się z trzech głównych etapów: wstępnego treningu (z ang. pre-training), strojenia na instrukcjach (z ang. SFT) i wychowania na preferencjach (z ang. alignment). Najbardziej zasobochłonny jest etap pierwszy – i w tym etapie byliśmy szczególnie zaangażowani. Wnosiliśmy również nasz wkład w narzędzia do przetwarzania olbrzymich korpusów tekstowych, koncentrując się na ich czyszczeniu i deduplikacji, aby modele trenowane były na danych jak najwyższej jakości.

Budowaliśmy również prototypy inteligentnych asystentów – takich, które najpierw wyszukują informacje w dziedzinowych bazach danych, a następnie generują z użyciem LLMa odpowiedzi na podstawie wyszukanych dokumentów. Takie rozwiązania były wykorzystywane m.in. przy budowie prototypu asystenta dla Ministerstwa Cyfryzacji. Podobne rozwiązanie jest rozwijane przez COI w aplikacji mObywatel, gdzie dostarczamy odpowiednio dostosowane modele PLLuM.

Pomagaliśmy również we wdrożeniach komercyjnych, m.in. w projekcie Comarchu, gdzie zastosowano największy wariant naszego modelu PLLuM (70B) w usłudze czatowej dla systemu ERP. Model został wybrany przede wszystkim dlatego, że generował najmniej błędów językowych. Modele wielojęzyczne często wplatają kalki językowe, neologizmy czy błędy gramatyczne, co w systemach biznesowych jest nieakceptowalne.

Kolejna grupa projektów obejmuje wdrożenia w samorządach, np. w Gdyni i Poznaniu, oraz we współpracy z Ministerstwem Cyfryzacji. To w większości rozwiązania oparte na metodyce RAG, gdzie kluczową rolę odgrywa wyszukiwanie informacji w dokumentach urzędu, a nasze modele odpowiadają za wygenerowanie poprawnych i precyzyjnych odpowiedzi. Modele z rodziny PLLuM są modelami ogólnego przeznaczenia – potrafią rozwiązywać szeroką gamę zadań, choć nie tak szeroką jak modele klasy ChatGPT. Obsługują jednak około kilkuset różnych typów instrukcji, co pozwala wykorzystywać je w bardzo różnych zastosowaniach – od administracji publicznej, przez przemysł, po sektor finansowy.

A jakie modele AI tworzycie w OPI PIB?

Oprócz modeli ogólnego przeznaczenia jak PLLuM, w OPI PIB tworzymy również bardzo wyspecjalizowane modele LLM, projektowane z myślą o jednym, konkretnym zastosowaniu. Przykładem są enkodery tekstu służące do kompaktowej reprezentacji tekstów, wykorzystywane m.in. porównywania semantycznego tekstów, do grupowania treści, wykrywania podobnych sformułowań czy wyszukiwania informacji. Tego typu enkodery potrafią przekształcić tekst w reprezentację wektorową, która pozwala oceniać podobieństwo znaczeniowe między różnymi tekstami. Co więcej, modele takie mogą być dostrajane jako tzw. retrievery, czyli komponenty odpowiedzialne za wyszukiwanie, np. w mechanizmach RAG. To niewielkie, ale bardzo precyzyjne modele, które działają jako wyspecjalizowane „silniki przeszukiwania semantycznego”.

W naszym zespole rozwijamy m.in. modele z rodziny MMLW, nad którymi pracuje nasz czołowy badacz w AI Labie – Sławek Dadas. Modele te pobrano już ponad 2 miliony razy na Hugging Face, co jest imponującym wynikiem, biorąc pod uwagę ich wąską specjalizację – służą wyłącznie do semantycznego wyszukiwania i nie są klasycznymi modelami generatywnymi.

Innym przykładem są modele typu ReRanker, które otrzymują parę zapytanie–tekst, a następnie oceniają, jak bardzo dany tekst odpowiada na to pytanie. To mechanizm oceny trafności i wiarygodności, niezwykle ważny w bardziej złożonych systemach wyszukiwania, np. w narzędziach opartych o RAG, gdzie trzeba zdecydować, który fragment informacji jest najbardziej adekwatny. To bardzo wyspecjalizowane modele o wąskich, punktowych zastosowaniach, projektowane wyłącznie dla języka polskiego. Nie obsługują innych języków, co pokazuje, jak duże jest zapotrzebowanie zarówno w społeczeństwie, jak i w przemyśle na lokalne, precyzyjnie dopasowane modele językowe. Nasz ostatnio wydany reranker oparty na polish-Roberta-8k ma ponad 100 tys. pobrań miesięcznie.

Kiedy pojawiła się współpraca z PKO BP?

Bank jest beneficjentem konkursu NCBR dotyczącego budowy polskich, finansowych modeli językowych oraz platformy do ich obsługi. PKO Bank Polski uzyskał dofinansowanie z Unii Europejskiej na projekt pt. „Budowa innowacyjnych polskich domenowych modeli językowych i platformy usługowej do serwowania modeli wielozadaniowych wewnątrz Banku”. My w tym projekcie pełnimy rolę podwykonawcy w zakresie badań przemysłowych, czyli blisko współpracując z bankowym AI Team odpowiadamy m.in. za budowę i rozwijanie modeli dedykowanych językowi polskiemu i domenie finansowej. Jednym z rezultatów tej współpracy jest Polish Roberta 8K – model reprezentacyjny o wydłużonym kontekście, który przewyższa modele wielojęzyczne, takie jak EuroBERT czy MultiModernBERT, w zadaniach klasyfikacyjnych dotyczących tekstów w języku polskim. Co ważne, przewaga ta dotyczy nie tylko tekstów domenowych, ale również ogólnych zbiorów polskojęzycznych. Model jest opisany na Hugging Face na profilu PKO BP.

Wspólnie z PKO BP pracujemy obecnie nad kolejnymi modelami, m.in. generatywnymi, które będą publikowane w najbliższych miesiącach. Współpraca z PKO BP ma znacznie szerszy zakres niż tylko modele reprezentacyjne. Modele reprezentacyjne służą przede wszystkim do klasyfikacji, regresji czy tworzenia kompaktowych reprezentacji tekstu, tzw. enkoderów. Natomiast modele generatywne to zupełnie inna kategoria, z odmienną architekturą, zastosowaniami i wyzwaniami. To właśnie w tym obszarze rozwijamy teraz kolejne rozwiązania wspólnie z PKO BP.

Warto dodać, że sama Polish Roberta 8K zanotowała już około 10 tysięcy pobrań, co – jak na kraj wielkości Polski oraz model bazowy, który trzeba samodzielnie douczyć, aby go finalnie użyć – jest bardzo dobrym wynikiem. To pokazuje rosnące zainteresowanie wyspecjalizowanymi, polskimi modelami językowymi.

Równolegle uczestniczymy także w projektach europejskich finansowanych przez Komisję Europejską, np. w ramach konsorcjum ALTEDiC uczestniczymy w projekcie LLMS4EU, którego celem jest umiędzynarodowienie naszej wiedzy, kompetencji i produktów. W ramach tego projektu tworzymy m.in. multimodalny benchmark dla języka polskiego, który będzie oceniać nie tylko zdolności tekstowe, ale także te z zakresu rozumienia obrazów, czy dokumentów z elementami wizualnymi, oraz pierwsze w naszej historii AILABu wielojęzyczne enkodery obejmujące nie tylko język polski, ale także np. hiszpański, niemiecki i francuski. To dla nas ważny krok ze względu na wyjście poza dotychczasową bańkę języka polskiego i ekspansję na szerszy rynek europejski.

Jeśli chodzi o wdrożenia w ramach projektów Komisji Europejskiej, to jest na to jeszcze za wcześnie – prace rozpoczęły się w kwietniu i obecnie koncentrują się na opracowaniu koncepcji i fundamentów technologicznych. Wdrożenia pojawią się dopiero na kolejnych etapach.

Jakie potrzeby w organizacji rozwiązujecie dzięki rozwiązaniom? Czy były konkretne procesy, które usprawnialiście?

Biznes nie potrzebuje ChataGPT. Biznes i społeczeństwo – zarówno sektor prywatny, jak i publiczny – nie są skazane wyłącznie na model, który rozwiązuje tysiące problemów, jest olbrzymi i dostępny tylko chmurowo. W praktyce organizacje potrzebują AI do rozwiązania od kilkunastu do kilkudziesięciu use case’ów. To oczywiście reguła kciuka – czasem jest ich 5, czasem 15, czasem 25 – ale zawsze jest to ograniczona liczba konkretnych zastosowań.

Chodzi o to, że zazwyczaj potrzebujemy kilkunastu do kilkudziesięciu use case’ów biznesowych, które mają być zautomatyzowane. I da się to zrobić, wykorzystując mniejsze modele, douczone na danych określonej organizacji, tak aby rozwiązywały konkretne problemy idealnie. Nie ma potrzeby zawsze wykorzystywać modelu, który rozwiązuje tysiąc zadań naraz.

Biznesowi i administracji publicznej zawsze sugeruję, aby przed wdrożeniem AI, najpierw uporządkować procesy biznesowe, a następnie dane, które są z tymi procesami powiązane. W dalszej kolejności nakłaniam do oceny ich jakości i różnorodności, poprawienia ich, ustrukturyzowania i przetestowania na własnych benchmarkach – małych benchmarkach dopasowanych do własnych use case’ów. Dopiero wtedy zalecam dobranie i rozwijanie modeli. Może się bowiem okazać, że masz gotowy model o wielkości choćby 8 czy 12 miliardów parametrów, który realizuje Twój cel biznesowy na tyle dobrze, że nie trzeba szukać większych rozwiązań.

Jeśli chodzi o najczęstsze potrzeby organizacji i najpopularniejsze case’y związane z automatyzacją wyróżnić można dwa obszary. Pierwszy to Intelligent Document Processing (IDP), czyli klasyfikacja dokumentów i ekstrakcja informacji. Bardzo dużo treści w firmach jest zdygitalizowanych – część w mailach, cześć w dokumentach odczytywanych maszynowo, a część w skanach. Dochodzi jeszcze problem multimodalności i OCR-u, ale w praktyce chodzi o to, aby szybko wydobywać informacje z dokumentów i przyspieszać procesy oparte na ujętych w nich informacjach.

Drugi obszar to call center, czyli całościowe wsparcie użytkownika końcowego, a przede wszystkim rozwiązania typu RAG na bazach wiedzy. Zamiast listy FAQ użytkownik zadaje pytanie modelowi, a ten sam wyszukuje odpowiedź w bazie wiedzy – na przykład jak uruchomić urządzenie, jak przygotować stanowisko, jak złożyć PIT. Model nie tylko wyszukuje dokumenty i odnośniki, ale też generuje zrozumiałe podsumowanie w języku naturalnym. Takie asystenty RAG-owe to obecnie jeden z najpopularniejszych kierunków – zarówno w obsłudze klienta, jak i w usługach publicznych. Mogą to być asystenty obywatelskie, asystenty miejskie, narzędzia do szybkiego znajdowania informacji o podatkach, opłatach za odpady czy wnioskach o wsparcie. To taki fast track do rezerwuarów danych, których człowiek nie musi już przeszukiwać. Kolejny obszar to kwestie sterowania głosem. ASR-y wykrywają głos, a następnie uruchamiają odpowiednie komendy – to także część zastosowań sztucznej inteligencji.

Obecnie nadchodzi agentowość, czyli coraz większa automatyzacja pracy. Wyobraźmy sobie, że mamy własnego agenta, który obserwuje, jak odpisujemy na maile. Nagle okazuje się, że jedna trzecia naszych odpowiedzi ma ten sam wzorzec. Wykrywając to, model zaczyna generować tego typu odpowiedzi automatycznie, jako autocomplete. Nasza rola zostaje ograniczona do zatwierdzania wysyłanej wiadomości. To wsparcie bardziej spersonalizowane, dopasowane do konkretnego użytkownika. Ta wiedza nam nie ucieka – zostaje z nami i system umie ją wykorzystać. Uważam też, że kolejnym dużym obszarem w sektorze korporacyjno-publicznym będzie upraszczanie języka. Korporacje i urzędy będą musiały walczyć o prostszy, bardziej zrozumiały język – i tu również pomoże sztuczna inteligencja. Nisko wiszącym owocem jest także wykrywanie sprzeczności między dokumentami. W praktyce wygląda to tak, że system otrzymuje zestaw dokumentów i sprawdza, czy nie są ze sobą sprzeczne, czy dana opinia, ekspertyza lub informacja nie koliduje z innymi, oraz czy dana teza ma wystarczające wsparcie informacyjne. Dotyczy to zarówno aktów prawnych, jak i dokumentów wewnętrznych. Oczywiście każda branża ma swoje specyficzne wyzwania. Przemysł z dużymi halami produkcyjnymi dąży do automatyzacji procesów sortowania czy kontroli. OPI PIB współpracuje na przykład z firmą Vive Textile Recycling, w której przy pomocy sztucznej inteligencji automatyzujemy linię sortowania obuwia. Projekt ten szczegółowo opisany jest na naszej stronie internetowej.

Jak wygląda proces wdrażania rozwiązań AI przygotowanych przez AI Lab do przemysłu i sektora publicznego? Jakie pojawiają się przy tym wyzwania?

Wszystkie nasze przedsięwzięcia, począwszy od trwającego od roku projektu z PKO BP, poprzez kilkuletnią współpracę z UOKiK czy VIVE Textile Recycling, po prototypowe wdrożenia w ramach Hive/PLLuM realizowane w urzędach miast, mają wspólny mianownik. Zarówno w małych projektach samorządowych, jak i w dużych wdrożeniach bankowych czy sektorowych występuje jedno kluczowe wyzwanie: potrzebny jest aktywny partner po stronie zamawiającego, który wykona znaczną część pracy związanej z przygotowaniem procesów i danych.

Nie widziałem udanego wdrożenia sztucznej inteligencji tam, gdzie zabrakło ścisłej współpracy operacyjnej między dostawcą a odbiorcą rozwiązania. Pamiętajmy, że to właśnie odbiorca jest zazwyczaj również dostawcą danych – czy to do bazy wiedzy, czy do dodatkowego trenowania modeli. Jeśli dane nie mają odpowiedniej jakości, nie są wystarczająco liczne, ustrukturyzowane i oczyszczone, to żadna sztuczna inteligencja nie będzie w stanie pomóc.

AI działa dobrze tylko wtedy, gdy ma przygotowaną drogę – czyli dobrej jakości, dość liczne dane, które są paliwem dla modeli. Jeżeli dane są chaotyczne, rozproszone i nieuporządkowane, to AI nie tylko nie poprawi sytuacji, ale wręcz „spotęguje chaos”. Z kolei tam, gdzie panuje porządek, sztuczna inteligencja potrafi ten porządek wzmacniać i budować realną wartość.

W PKO BP proces centralizacji, oczyszczania i strukturyzacji danych trwa już od dłuższego czasu i jest to praca ciągła – przy tej skali nie da się jej wykonać jednorazowo. Najpierw trzeba dane odnaleźć w różnych bazach, zgromadzić je w dedykowanych narzędziach, a potem wybrać z nich wartościowe podzbiory, oczyścić je i ustrukturyzować. Samo tworzenie korpusów domenowych o odpowiedniej jakości i różnorodności to osobny, wieloetapowy projekt. Zawsze powtarzam, że przed rozpoczęciem wdrażania AI, należy wykonać dwie rzeczy: określić, jakie procesy chcemy usprawnić oraz zidentyfikować dane, które są z tymi procesami powiązane. Kiedy wiemy, które procesy chcemy automatyzować, to wiemy również, jakich danych powinniśmy szukać. A kiedy wiemy, jakich danych potrzebujemy, to możemy ocenić oraz czy już je mamy, czy wymagają oczyszczenia, uzupełnienia lub strukturyzacji. Te dwa kroki – procesy i dane – zawsze idą razem i zawsze są fundamentem skutecznego wdrożenia AI.

W branży funkcjonuje jeszcze jedno błędne założenie, które często jest staje się źródłem problemów – nadmierna wiara w otwarte benchmarki, takie jak MMLU czy inne analogiczne leaderboardy. Benchmarki zwykle składają się z testów pytań zamkniętych: pytań ABCD, wyboru wielu odpowiedzi lub wpisania pojedynczej wartości.

Jednak takie testy niemal w ogóle nie sprawdzają jakości generowania dłuższych form tekstowych, czyli tego, co decyduje często o przydatności modelu generatywnego w praktyce: pisaniu maili, pism urzędowych czy komunikacji biznesowej. Przykładowo, rozsądnego rozmiaru (uruchamialny na pojedynczej karcie GPU) model anglojęzyczny lub wielojęzyczny, który nauczył się języka polskiego „przy okazji”, nie będzie miał pewnych polskich kompetencji kulturowo-językowych. I nawet jeśli poprawnie dobiera słowa, to nie potrafi przewidzieć ich odbioru. Załóżmy, że model, generując mail do podatnika, na podstawie dominujących w danych treningowych angielskich wzorców, pisze: „Mam nadzieję, że pozostaje Pan w dobrym zdrowiu”. W języku angielskim wyrażenie “I hope you stay in good health” to standard, ale w polskim praktycznie nikt tak nie pisze. Polski odbiorca, szczególnie starszy, może taki mail uznać za dziwny i podejrzany. Tak właśnie wygląda różnica między językiem „który znam” a językiem, „którego jestem natywnym użytkownikiem”.

Dlatego w naszym laboratorium postawiliśmy na tworzenie modeli dedykowanych językowi polskiemu, zakorzenionych w polskich danych i polskim kontekście kulturowo-społecznym. Naszą niszą jest produktyzacja – tworzymy modele, które najczęściej są otwarte, pobierane miliony razy i realnie służą społeczeństwu i biznesowi.

Jakie są Wasze plany na dalszy rozwój wykorzystania LLM? Czy rozważacie kolejne obszary lub nowe funkcjonalności?

Jeśli chodzi o plany na przyszłość, to obecnie dołączyliśmy do konsorcjum Gaia AI Factory jako członek i tym samym jesteśmy częścią „krakowskiej” Fabryki Sztucznej Inteligencji. To drugi nasz bieżący projekt współfinansowany przez Komisje Europejską. W naturalny sposób rozwijamy więc obszar dużych modeli językowych i zamierzamy dalej pogłębiać te kompetencje. Drugim kierunkiem jest wyjście z naszymi rozwiązaniami poza Polskę. Liczymy tu również na wsparcie PFR-u, bo chcemy, aby nasze modele mogły być wdrażane w całej Unii Europejskiej, a nie tylko lokalnie, licząc, że staniemy się graczem europejskim. Wspominałem wcześniej o regionie CEE — Czechy, Słowacja, Węgry, Rumunia, ale też myślimy szerzej o całej EU — i to jest dla nas interesujący, naturalny kierunek ekspansji. Jednocześnie pojawia się bardzo ciekawy trend związany z regulacjami. Już teraz w licencjach części modeli, np. niektórych modeli Meta, pojawił się zapis zakazujący ich wykorzystania w Unii Europejskiej. Podobnie jest w przypadku nowych otwartych modeli chińskich, jak np. KALM, które również mają w licencji zakaz użycia na rynku UE. Może to oznaczać, że wielu globalnych graczy będzie stopniowo blokować swoje modele dla użytkowników w Europie, choćby ze względu na wymagania AI Act.

Takie okoliczności tworzą ogromne możliwości dla podmiotów z UE, w tym dla Polski. Jeżeli duże modele open source spoza Europy nie będą mogły być legalnie używane na naszym kontynencie, powstanie naturalna luka do zagospodarowania — zarówno przez firmy, jak i instytucje badawcze działające na rynku unijnym. My chcemy takie pojawiające się możliwości wykorzystać.

Co, Waszym zdaniem, najbardziej przyspieszyłoby adopcję polskich modeli językowych w biznesie? Czy to kwestia edukacji, regulacji, czy dostępności rozwiązań?

To pytanie jest kluczowe. Moim zdaniem świadomość biznesu, ile można zarobić dzięki sztucznej inteligencji, jest wciąż niewielka. W Stanach Zjednoczonych przedsiębiorcy inwestują w inicjatywy AI, nawet jeśli nie mają pewnych wskaźników finansowych. Zakładają, że jeśli tylko jedna z dziesięciu prób się powiedzie, to zysk z niej może przewyższyć straty z pozostałych dziewięciu nieudanych. U nas biznes jest bardziej konserwatywny i ma dużą awersję do ryzyka. Wszystko musi być dokładnie policzone. ”Lepiej nie zarobić niż stracić” to typowo polskie podejście.

Polskie firmy dalej postrzegają AI kosztowo.


Dokładnie. Trudno im oszacować potencjalne korzyści, jakie może przynieść AI. Brakuje też wsparcia – osób, które mogłyby zlokalizować procesy biznesowe i sprawdzić, które z nich można zautomatyzować oraz jaki potencjał z tego wynika. Brakuje świadomości o realnej wartości wdrożeń AI. To duża blokada. Myślę, że Polska będzie się zmagać z tym problemem jeszcze długo. Ludzi zdolnych tworzyć modele AI jest niewielu, bo wielu wyjechało do np. USA – około 30% kluczowej kadry w OpenAI to Polacy. W Polsce zostało jeszcze sporo talentów, ale już relatywnie niewiele porównując z innymi gospodarkami G20. Jedyną szansą na stworzenie czegoś dużego i zauważalnego w UE jest przeskalowanie działań na cały rynek europejski. Trzeba dostarczać rozwiązania dla większości języków europejskich i scentralizować wybitny kapitał ludzki w jednym podmiocie – coś w rodzaju „Polstral” czy „Mikro Mistral”. Jeśli Polska chce być graczem w tej dziedzinie, potrzebuje jednego centralnego podmiotu zdolnego tworzyć wybitne modele i produkty, zasilonego miliardami złotych na infrastrukturę, ludzi, czy marketing. Tylko wtedy będzie mogła rywalizować w Lidze Europy, a nie w Ekstraklasie.


Bardzo trafne porównanie ze sportu.


Nie da się wejść do Ligi Mistrzów bez dużych inwestycji. Modele jak PLLuM są tworzone ideowo, z dużym poświęceniem, ale ich budżet rocznie to zaledwie około 4 miliony euro – przy czym pojedynczy zdolni naukowcy w USA w BigTechach zarabiają tyle rocznie albo i więcej. U nas to pozwala utrzymać np. 100 osób, ale nie daje gwarancji stałego rozwoju. Aby rozwój był trwały i pozwalał konkurować na rynku europejskim, potrzebny jest centralny holding, który skupia się na produktach i wdrażaniu modeli dla użytkowników, płaci pracownikom jak zachodnie korporacje, ale wpływa też na rzeczywistość w EU dzięki swoim produktom.

Dziękuję za rozmowę.

Dr inż. Marek Kozłowski - Kierownik AI LAB w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym w Warszawie, w którym zarządza pracą zespołu badaczy i programistów, zajmującym się tworzeniem oprogramowania wzbogaconego inteligentnymi metodami przetwarzania danych tekstowych i obrazowych. Pasjonuje go przetwarzanie języka naturalnego, eksploracja danych i uczenie maszynowe. Napisał ponad 50 publikacji naukowych z zakresu semantycznego przetwarzania tekstów i uczenia maszynowego. W swojej karierze brał udział w wielu komercyjnych projektach badawczych dotyczących uczenia maszynowego dla firm takich jak np. PKO BP, Samsung, France Telecom, Orange Labs, Millward Brown, Vive Textile Recycling czy Connectis. Wygrał w 2025 roku konkurs ITMT.

Więcej o AI LAB OPI na stronie pod linkiem.