Start z polskim AI. Od pomysłu do wdrożenia # Poznańskie Centrum Superkomputerowo-Sieciowe
Start z polskim AI to cykl rozmów, którego celem jest przedstawienie doświadczeń związanych z polskimi modelami językowymi AI oraz praktykami firm i instytucji we wdrażaniu tych rozwiązań. Zapraszamy do rozmowy z Tomaszem Parkołą, kierownikiem Pionu Usług Sieciowych Poznańskiego Centrum Superkomputerowo-Sieciowego.
Jakie były główne motywacje i dlaczego zdecydowaliście się Państwo na rozwój rozwiązania opartego o Bielik.AI i jakie cele biznesowe chcieliście w ten sposób zrealizować?
Motywacja do rozwoju takich projektów jak Bielik.AI wynika przede wszystkim z misji, jaką PCSS podejmuje od początku istnienia. Naszym celem jest wspieranie rozwoju społeczeństwa informacyjnego, a szerzej mówiąc, praca na rzecz rozwoju Polski i Europy. To jest wpisane w nasze DNA jako jednostki badawczo-rozwojowej, szczególnie takiej, która kładzie bardzo duży nacisk na zastosowania, a nie wyłącznie na badania podstawowe.
Jako instytucja jesteśmy afiliowani przy Instytucie Chemii Bioorganicznej PAN i zajmujemy się kilkoma kluczowymi obszarami. To, co nas wyróżnia, zarówno w skali krajowej, jak i europejskiej, a nawet międzynarodowej, to fakt, że nie jesteśmy wyłącznie centrum przetwarzania danych. Oczywiście dysponujemy dużymi mocami obliczeniowymi i infrastrukturą do składowania danych, ale to tylko jeden z elementów.
Drugim bardzo istotnym filarem jest to, że jesteśmy operatorem naukowo-badawczej sieci telekomunikacyjnej PIONIER, czyli sieci o bardzo wysokiej przepustowości. Połączenie tej infrastruktury sieciowej z zapleczem obliczeniowym daje nam możliwość realizacji nie tylko zadań wymagających dużej mocy obliczeniowej, ale także scenariuszy intensywnych pod względem danych, takich jak transfer i przetwarzanie bardzo dużych wolumenów informacji.
Trzecim, i z mojej perspektywy najważniejszym elementem, jest fakt, że PCSS jest silnym centrum badawczo-rozwojowym. Mamy zespoły specjalistów z obszaru ICT, w tym AI, ale także zespoły dziedzinowe, które bardzo dobrze rozumieją konkretne sektory i potrafią przekładać technologię na realne zastosowania. Wspieramy bardzo różne obszary, od ochrony zdrowia, przez kulturę, rolnictwo, aż po cyberbezpieczeństwo. Dostarczamy zarówno rozwiązania software’owe, jak i sprzętowe, zawsze z naciskiem na praktyczne wykorzystanie technologii.
Inicjatywa taka, jak powstanie w PCSS fabryki sztucznej inteligencji – PIAST-AI, idealnie wpisuje się w ten kierunek, ponieważ stymuluje innowacje, zwłaszcza w obszarze małych i średnich przedsiębiorstw. My jesteśmy bardzo blisko realnych wdrożeń, blisko technologii i blisko ich praktycznego zastosowania, zarówno w projektach naukowych, jak i komercyjnych. Dlatego też dołożenie swojej cegiełki do rozwoju rodzimego modelu sztucznej inteligencji takiego jak Bielik.AI było dla nas naturalnym krokiem i logiczną konsekwencją tego, czym PCSS zajmuje się na co dzień.
Chciałbym jeszcze dopytać o Państwa współpracę z zespołami rozwijającymi Bielika i PLLuMa. Jak ona wygląda w praktyce i w jaki sposób wpisuje się w realizację Państwa inicjatyw oraz bieżącej działalności?
Z zespołami rozwijającymi Bielika i PLLuMa mamy wiele punktów stycznych. Z niektórymi inżynierami znamy się osobiście, śledzimy także kolejne generacje oprogramowania. Duże modele językowe wykorzystujemy bardzo szeroko w różnych projektach, zarówno krajowych, jak i międzynarodowych. Technologiami AI, w tym uczeniem maszynowym i głębokimi sieciami neuronowymi, zajmujemy się w PCSS od wielu lat. Oczywiście, w ostatnim czasie obserwujemy wyraźny wzrost zainteresowania tym zagadnieniem, głównie za sprawą chatbotów opartych na dużych modelach językowych, ale dla nas to dziedzina, w której poruszamy się od lat
Projektując platformę Proste Pismo, czyli narzędzia do upraszczania pism urzędowych, historycznie wykorzystywaliśmy różne modele językowe, ale na pewnym etapie zdecydowaliśmy się dołączyć również Bielika. Przewagę zapewniła mu wysoka optymalizacja pod kątem języka polskiego oraz głębokie zrozumienie lokalnego kontekstu kulturowego.
Platforma Proste Pismo powstaje przy współpracy z Uniwersytetem im. Adama Mickiewicza oraz Urzędem Miasta Poznania. Zespoły akademickie rozwijające to oprogramowanie również korzystają z Bielika, tworząc mechanizmy zaawansowanej korekty językowej i edytorskiej. My wykorzystujemy to rozwiązanie przede wszystkim do ogólnego upraszczania treści, natomiast partnerzy akademiccy dopracowywali je także pod kątem jakości językowej. To rozwiązanie jest dziś realnie wykorzystywane, między innymi w Urzędzie Miasta Poznania, a także było szeroko promowane w trakcie Polskiej Prezydencji UE w zeszłym roku.
Instytucjonalnie także wykorzystujemy w PCSS mechanizmy modeli językowych. Obecnie pracujemy nad chatbotem, który ma wspierać pracowników w dostępie do wewnętrznej dokumentacji i wiedzy organizacyjnej. Projekt jest jeszcze na etapie beta, ale już teraz jednym z podłączonych modeli jest właśnie Bielik. I to właśnie na naszym rodzimym Bieliku budujemy eksperymentalne aplikacje przeszukujące, analizujące i syntetyzujące naszą wewnętrzną dokumentację i pisma – nasz „Archiwista” działa na razie ściśle wewnętrznie, ale jest już całkiem dojrzałym narzędziem.
Częściowo odpowiedział Pan już na moje kolejne pytanie, podając przykłady zastosowań. Chciałbym więc teraz przejść do wyzwań. Jakie wyzwania pojawiły się podczas wdrażania tych rozwiązań i z czym musieliście się mierzyć w praktyce?
Rozmawialiśmy na ten temat również z zespołami technicznymi i co do zasady nie napotkaliśmy wyzwań, które byłyby specyficzne wyłącznie dla Bielika czy PLLuMa. Oczywiście pojawiały się standardowe wyzwania, typowe dla wdrażania rozwiązań opartych na dużych modelach językowych, takie jak konfiguracja, dostosowanie czy przygotowanie architektury, zwłaszcza w scenariuszach typu RAG, gdzie model pracuje na określonym zbiorze dokumentów i powinien z nich korzystać w kontrolowany sposób. Nie były to wyzwania, które wymagały niestandardowego podejścia.
Chciałbym dopytać o autorskie rozwiązania AI, które powstają w ramach fabryki AI. Czy odpowiadacie za ich rozwój i czy są one wykorzystywane głównie wewnętrznie, na potrzeby PIAST-AI, czy także udostępniane na zewnątrz, dla konkretnych grup odbiorców?
Tak. Jak już wcześniej podkreśliłem, PCSS rozwija moduły uczenia maszynowego w swoich rozwiązaniach już od wielu lat, w bardzo wielu aktywnościach dziedzinowych. Inicjatywa fabryki PIAST-AI będzie w tym zakresie niejako kontynuacją dotychczasowych projektów i eksperymentów z zakresu robotyki, medycyny czy energii, odpowiadając na konkretne, praktyczne potrzeby biznesowe i operacyjne. Jedną z grup docelowych są szpitale i lekarze, z drugiej strony, w sposób naturalny dla nas, tworzymy rozwiązania dotyczące cyberbezpieczeństwa, mamy również liczne przykłady współpracy z sektorem przemysłowym, w tym z branżą automotive. Rozwijamy systemy, które działają na etapie poprodukcyjnym. Po wytworzeniu danej części, na przykład elementów samochodowych, zestawy kamer i czujników analizują rezultat całego procesu wytwarzania. Takie systemy identyfikują anomalie i pozwalają wykryć potencjalnie wadliwe lub uszkodzone elementy jeszcze zanim trafią dalej w łańcuch dostaw. To klasyczny przykład automatycznej kontroli jakości opartej na AI.
Drugim ważnym obszarem są rozwiązania predykcyjne, związane z utrzymaniem ruchu i zapobieganiem awariom. W środowiskach przemysłowych, takich jak hale produkcyjne o wysokim zapyleniu, analizujemy dane z czujników, aby wskazać wentylatory lub inne elementy infrastruktury, które mają największe prawdopodobieństwo awarii. Dzięki temu możliwe jest zaplanowanie konserwacji z wyprzedzeniem, zamiast reagowania dopiero po wystąpieniu problemu.
Podobne podejście stosujemy we współpracy z operatorem sieci energetycznej. Analizujemy dane z kilkudziesięciu tysięcy stacji transformatorowych średniego napięcia, aby stworzyć ranking obiektów, które w pierwszej kolejności powinny zostać objęte działaniami serwisowymi. Takie podejście pozwala lepiej planować prace utrzymaniowe i znacząco ograniczać ryzyko awarii.
Rzeczywiście widać tu bardzo szerokie spektrum wdrożeń i zastosowań. Obejmują one wiele różnych obszarów i pokazują, jak uniwersalne są te rozwiązania w praktyce.
To zaledwie kilka wdrożeń kończących się sukcesem, o których wspominamy przy okazji upowszechniania inicjatywy PIAST-AI. Chciałbym podkreślić, że w PCSS pracuje dziś ponad 450 osób, z czego ponad 350 to specjaliści z obszaru ICT. To bardzo duża organizacja z ogromnym zapleczem kompetencyjnym. Nasze zespoły potrafią skutecznie wspierać bardzo różne dziedziny, zarówno od strony wdrożeniowej, jak i stricte naukowej.
Dobrym przykładem są również projekty realizowane w ramach infrastruktury badawczej 5G i 6G. Pracujemy tam nad platformą, która jest już na końcowym etapie realizacji. W pewnym sensie przypomina ona monitoring mediów, ale działa w zupełnie innym trybie. W klasycznym monitoringu analizujemy istniejące zasoby danych, natomiast tutaj mamy do czynienia z rozproszoną siecią czujników rozmieszczonych na terenie całej Polski.
Z tych czujników, niezależnie od tego, czy są to kamery, mikrofony czy inne urządzenia pomiarowe, zbieramy dane i analizujemy je w czasie rzeczywistym. Następnie identyfikujemy zdarzenia i przypisujemy je do określonych klas. Kluczowym wyzwaniem jest tu również precyzyjna synchronizacja czasowa, tak aby poprawnie określić, kiedy i gdzie dane zdarzenie miało miejsce.
W praktyce może to oznaczać na przykład klasyfikację dźwięków, których mamy zdefiniowanych kilkaset różnych kategorii albo identyfikację obiektów i artefaktów na obrazach czy nagraniach wideo. Wchodzimy tu bardzo głęboko, aż do poziomu rozpoznawania osób, twarzy czy określonych cech charakterystycznych. W najbardziej zaawansowanych scenariuszach analizowane mogą być nawet takie elementy jak postawa czy nastrój.
To jest wręcz kosmiczna skala, zarówno jeśli chodzi o zebranie tych danych, ich jakość, jak i późniejszą analizę. To musi być ogromna inwestycja technologiczna.
To prawda, ale też nasza pozycja badawcza jest w dużej mierze unikalna. Takie projekty opierają się na naszej szybkiej, ogólnopolskiej sieci PIONIER, która sama w sobie jest olbrzymim laboratorium naukowym. Bez tej infrastruktury nie bylibyśmy w stanie realizować tak zaawansowanych scenariuszy monitorowania i analizy danych w czasie rzeczywistym. Z kolei bez zaplecza data center nie moglibyśmy ani przetwarzać ogromnych wolumenów danych, ani efektywnie przesyłać ich przez sieć. A bez naszych ekspertów nie bylibyśmy w stanie tych technologii zaprojektować, rozwijać i wdrażać w praktyce.
Efekt skali osiągamy dzięki synergii: zarządzamy krajową siecią światłowodową, budujemy zaawansowaną infrastrukturę obliczeniową, a przede wszystkim dysponujemy zespołem wybitnych ekspertów. Dzięki temu możemy realizować wiele projektów, współpracować z różnymi instytucjami i rozwijać zaawansowane rozwiązania z obszaru sztucznej inteligencji.
I choć dziś skupiamy się na AI, to warto podkreślić, że jest to tylko jeden z elementów znacznie szerszego portfolio technologii i rozwiązań, nad którymi pracujemy na co dzień.
Automatyzacja jest tu kolejnym bardzo ważnym elementem.
Rozwiązania te realnie wspierają instytucje w wielu obszarach. W praktyce niemal każdy tworzony przez nas system – nawet jeśli nie promujemy go jako opartego na sztucznej inteligencji – zawiera już w sobie jej zaawansowane elementy. Po prostu te technologie stały się na tyle powszechne, że często działają w tle i nie zawsze są zauważalne z perspektywy użytkownika końcowego.
W zbiorowej wyobraźni sztuczna inteligencja najczęściej kojarzy się z chatbotami i generatywnymi modelami językowymi, bo to są najbardziej widoczne zastosowania. Natomiast w rzeczywistości tych elementów jest znacznie więcej i często mają one charakter stricte analityczny lub predykcyjny.
W wielu scenariuszach nie wykorzystujemy chatbotów w ogóle. Zamiast tego stosujemy analizę szeregów czasowych, modele predykcyjne czy mechanizmy identyfikacji anomalii. To są rozwiązania, które działają „pod maską”, ale mają ogromny wpływ na efektywność systemów i jakość podejmowanych decyzji. Dlatego, gdy mówimy o wykorzystaniu AI, warto pamiętać, że to nie jest jeden typ technologii czy jeden konkretny produkt, ale bardzo szerokie spektrum narzędzi i metod, które wspierają różne procesy w praktyce.
Tak, bo dziś bardzo mocno skupiamy się na AI w kontekście modeli językowych, a przecież to tylko jeden fragment znacznie większego obszaru, o którym Pan właśnie wspomniał.
To naturalne, że uwaga skupia się dziś na modelach językowych. Bezpośredni kontakt z chatbotem pozwala nam namacalnie doświadczyć tej technologii, co budzi ogromne uznanie u niemal każdego użytkownika.
Jakie stosujecie konkretne wskaźniki do mierzenia efektywności tych wdrożeń?
Z naszej perspektywy bardzo dużo zależy od poziomu i charakteru współpracy. W przypadku projektów o charakterze stricte biznesowym mierniki są inne niż w projektach infrastrukturalnych czy badawczo-rozwojowych.
W scenariuszach biznesowych kluczowe wskaźniki koncentrują się wokół liczby wdrożeń, skali wykorzystania usług oraz realnego użycia konkretnych rozwiązań. Patrzymy na to, jak często dana usługa jest wykorzystywana i czy faktycznie odpowiada na potrzeby użytkowników lub partnerów.
Z kolei na poziomie infrastrukturalnym skupiamy się na wskaźnikach związanych z wykorzystaniem zasobów. Mierzymy między innymi procent wykorzystania infrastruktury, poziom obciążenia czy kwestie związane z overbookingiem, czyli tym, jak efektywnie jesteśmy w stanie zarządzać dostępnymi zasobami obliczeniowymi i pamięciowymi.
Duże znaczenie ma tu również tryb dostępu do infrastruktury. W przypadku przetwarzania wsadowego, typowego dla zastosowań naukowych czy HPC, zarządzanie wykorzystaniem zasobów jest relatywnie prostsze. Większym wyzwaniem są scenariusze usługowe, gdzie infrastruktura działa w modelu platformowym, a użytkownicy korzystają z niej w sposób ciągły, na przykład poprzez dostęp do modelu językowego lub konkretnej usługi opartej na tym modelu.
Jeśli natomiast spojrzymy na wdrożenia związane bezpośrednio z modelami językowymi, takimi jak Bielik, to w przypadku rozwiązań typu RAG stosujemy również podejścia jakościowe. Jednym z nich jest wykorzystanie modelu językowego jako tzw. sędziego, który pomaga ocenić jakość odpowiedzi, spójność z dokumentacją źródłową czy poprawność merytoryczną. To podejście coraz częściej pojawia się w praktyce i u nas również się sprawdza.
Oczywiście, obok wszystkich tych wskaźników technicznych i jakościowych, bardzo istotnym elementem pozostaje zwrot z inwestycji. ROI jest szczególnie ważny w projektach biznesowych i stanowi jeden z kluczowych argumentów przy dalszym skalowaniu lub podejmowaniu decyzji o rozwoju danego rozwiązania.
Szczególnie w zastosowaniach biznesowych widać dziś ogromny hype i swego rodzaju modę na technologie AI. Ta dynamika w dużej mierze wynika z obawy, że jeśli się w te rozwiązania nie zainwestuje, to zostanie się w tyle. To powoduje, że bardzo wiele organizacji decyduje się na inwestycje w AI, często równolegle testując różne podejścia i scenariusze wykorzystania.
Kluczowe jest to, aby sztuczną inteligencję realnie wbudować w operacyjne działanie firmy. Chodzi o to, żeby dawała rzeczywisty zwrot z inwestycji, a nie tylko poczucie, że „coś mamy”, bez widocznej efektywności biznesowej. Jeśli nie widzimy realnego zwrotu z zainwestowanych środków, to taka inwestycja, niezależnie od skali, traci sens. Ale to oczywiście dygresja.
W naszych realizacjach bardzo dużą wagę przykładamy do relacji z użytkownikami. W wielu projektach pracują u nas całe zespoły zajmujące się projektowaniem zorientowanym na użytkownika, czyli UX i UI. To podejście pozwala nam tworzyć rozwiązania, które są nie tylko technologicznie zaawansowane, ale też realnie odpowiadają na potrzeby użytkowników. Dzięki temu powstają produkty przyjazne w obsłudze, z których użytkownicy chętniej korzystają i w które są bardziej zaangażowani. A to bezpośrednio przekłada się na większe prawdopodobieństwo sukcesu wdrożenia i osiągnięcie zakładanych efektów biznesowych.
Jakie są Wasze dalsze plany dotyczące wykorzystania AI? Skoro sztuczna inteligencja jest trzonem działalności PCSS, to w jakim kierunku będzie się ona rozwijać i czy w tym pipeline’ie widzicie także dalszą współpracę z polskimi modelami językowymi?
Powiedziałbym więcej: nasze plany obejmują nie tylko wykorzystywanie AI, ale też skuteczne tworzenie rozwiązań i narzędzi sztucznej inteligencji. Dokładnie na tym ma polegać Fabryka! A na poważnie, warto zacząć od tego, że w ramach inicjatywy działa obecnie ponad kilkanaście, a w praktyce ponad dwadzieścia zespołów dziedzinowych. Każdy z nich koncentruje się na innym obszarze dziedzin aktywności. Chcemy rozwijać współpracę i oferować nasze kompetencje w ramach usług PIAST-AI. Naszą główną grupą docelową są małe i średnie przedsiębiorstwa i to zarówno w Polsce, jak i szerzej w kontekście europejskim. Jednocześnie PIAST od początku był projektowany do obsługi innych horyzontów, dlatego istotnym partnerem pozostaje dla nas także administracja publiczna, a także sektor nauki i edukacji.
Dalszy rozwój AI w PCSS będzie opierał się na pogłębianiu współpracy, odpowiadaniu na wyzwania, rozwoju scenariuszy będących blisko realnych potrzeb rynku, administracji i obywateli. AI jest tu fundamentem, ale zawsze w połączeniu z wiedzą dziedzinową i praktycznym zastosowaniem.
Jeśli natomiast spojrzeć bardziej konkretnie na współpracę z polskimi modelami językowymi, w tym z Bielikiem czy PLLuMem, to jednym z kluczowych kierunków, o których myślimy, jest rozwój rozwiązań w modelu agentowym. Chodzi o odejście od prostych chatbotów na rzecz wyspecjalizowanych agentów, którzy realizują konkretne zadania, dopasowanych do określonych procesów i łączonych ze sobą w bardziej złożone scenariusze. Modele LLM są tu naturalnym fundamentem, ale ważne jest też to, jak są one wykorzystywane w praktycznych rozwiązaniach.
Bardzo zależy nam na tym, aby nie podążać za chwilową modą czy hype’em na AI. Firmy zgłaszają się do nas z konkretnymi wyzwaniami, potrzebami lub pomysłami i to właśnie na nich chcemy się koncentrować.
Najważniejsze jest dla nas to, aby sztuczna inteligencja była realnie wbudowana w operacyjne funkcjonowanie organizacji. Nie chodzi o kolejne proof of concept, które działa obok głównych procesów, ale o rozwiązania, które są faktycznie wykorzystywane na co dzień i przynoszą mierzalne korzyści. Tylko wtedy AI ma sens i realną wartość dla biznesu.
Co Pana zdaniem najbardziej przyspieszyłoby rozwój i wdrażanie polskich modeli językowych w biznesie? Czy kluczowe byłyby tu regulacje, większa promocja, wsparcie systemowe, a może inne czynniki?
Wydaje mi się, że kluczowe są realne wdrożenia. To właśnie kolejne zastosowania w praktyce najlepiej promują dane rozwiązanie i budują do niego zaufanie. Benchmarki oczywiście mają znaczenie i warto podkreślić, że polskie modele radzą sobie w nich całkiem dobrze, szczególnie z perspektywy technologicznej i specjalistycznej. Ostatecznie jednak najważniejsze jest konsekwentne stawianie na jakość oraz dalsza rozbudowa baz danych i zasobów wiedzy, na których te modele są trenowane i rozwijane. Te aspekty będą decydować o tym, czy polskie modele językowe będą realną alternatywą dla rozwiązań big-techów i czy znajdą swoje trwałe miejsce na rynku.
Dziękujemy za rozmowę!
Cykl rozmów „Start z polskim AI – od pomysłu do wdrożenia” jest realizowany w ramach programu Centrum Kompetencji AI.