Tag: PLLuM

  • IBM i polskie uczelnie budują nowy model AI PLLuM

    IBM i polskie uczelnie budują nowy model AI PLLuM

    IBM, Politechnika Wrocławska i Uniwersytet Łódzki rozpoczynają prace nad nowym wariantem PLLuM, rodziny modeli AI tworzonej z myślą o języku polskim i wykorzystaniu „polskiej AI” w sektorze publicznym i prywatnym. Nowy model z serii PLLuM będzie tworzony przez naukowców z obu uczelni oraz specjalistów Laboratorium Oprogramowania IBM w Krakowie z  wykorzystaniem IBM Granite 4.0 jako otwartego modelu bazowego. Projekt zbiega się z 35-leciem działalności IBM w Polsce.

    PLLuM od samego początku odgrywa szczególne znaczenie dla polskiego ekosystemu cyfrowego. Wynika to z faktu, że dotyczy rozwoju AI zdolnej rozumieć język polski wraz z jego kontekstem, niuansami i specyfiką komunikacji w Polsce. W dotychczasowych pracach nad rozwojem PLLuM Politechnika Wrocławska pełniła rolę jednego z ośrodków wiodących, wyznaczając kierunek merytoryczny i badawczy projektu.

    Obecna współpraca Katedry Sztucznej Inteligencji Politechniki Wrocławskiej oraz Zakładu Językoznawstwa Korpusowego i Komputerowego Uniwersytetu Łódzkiego z IBM to kolejny element przyczyniający się do rozwoju rodziny PLLuM, tworzony z myślą o realnych wdrożeniach i wysokich standardach zarządzania AI, co odgrywa istotne znaczenie w kontekście suwerenności technologicznej. Oba podmioty podkreślają, że przedsięwzięcie ma charakter wzmacniający do działań związanych z rozwojem rodziny PLLuM koordynowanym przez Ministerstwo Cyfryzacji. IBM dostarcza model bazowy i kompetencje technologiczne, natomiast rozwój kompetencji językowych, dostrajanie oraz kierunek prac są po stronie polskich zespołów z uczelni, przy wsparciu krakowskiego laboratorium oprogramowania IBM.

    „PLLuM to przykład, jak można rozwijać AI w sposób ambitny, a jednocześnie pragmatyczny, z myślą o języku i potrzebach użytkowników w Polsce. Wnosimy do rozwoju tej rodziny otwarty model IBM Granite 4.0, który powstał z myślą o zastosowaniach wymagających przewidywalności, bezpieczeństwa i odpowiedzialnego zarządzania. To ważna inicjatywa realizowana w 2026 roku, w którym obchodzimy jubileusz 35-lecia naszej działalności w Polsce” – mówi Marcin Gajdziński, dyrektor generalny IBM w Polsce, krajach bałtyckich i Ukrainie.

    W projekcie wykorzystany zostanie IBM Granite 4.0, otwarty model językowy stworzony z myślą o wydajności i bezpieczeństwie wdrożeń AI. Granite ma ułatwiać budowę rozwiązań, które działają w sposób stabilny i przewidywalny tam, gdzie infrastruktura i koszty mają kluczowe znaczenie. Co istotne, z perspektywy organizacji wdrażających AI, Granite jest rozwijany w podejściu enterprise-ready, zakładającym, że sam model to tylko część większej całości, a nie mniej ważne są zasady jego użycia, możliwość oceny jakości odpowiedzi oraz monitorowanie działania systemu.

    IBM Granite 4.0 jest zgodny z wymaganiami ISO/IEC 42001, normy odnoszącej się do pełnego cyklu życia systemów AI. Dla polskich instytucji publicznych i firm rozważających użycie nowego wariantu PLLuM może to oznaczać łatwiejsze zarządzanie sztuczną inteligencją, od zdefiniowania zasad i odpowiedzialności, przez ocenę ryzyk, po monitorowanie i doskonalenie systemu. W uproszczeniu, zgodność z ISO/IEC 42001 pomaga budować AI w sposób, który jest bardziej audytowalny i przewidywalny, co ma znaczenie szczególnie tam, gdzie liczą się procedury, bezpieczeństwo i zaufanie.

    „Politechnika Wrocławska odegrała kluczową rolę w dotychczasowym rozwoju PLLuM, a teraz idziemy o krok dalej. Korzystając z doświadczeń i technologii IBM będziemy rozwijać wariant modelu PLLuM w oparciu o model Granite 4.0. To nowoczesna, otwarta i dobrze udokumentowana architektura dużego modelu językowego, zgodna ze standardem zarządzania systemami sztucznej inteligencji. Zapewni wysoki poziom bezpieczeństwa, transparentności i możliwości dalszego dostrajania do języka polskiego oraz rozwoju zaufanych krajowych rozwiązań AI” – mówi dr hab. inż. Tomasz Kajdanowicz, prof. uczelni z Politechniki Wrocławskiej.

    „Współtworząc nowy wariant PLLuM, koncentrujemy się na wykorzystaniu dużych, legalnie pozyskanych i odpowiedzialnie opracowanych zasobów językowych. Takich, które nie naruszają praw autorskich i spełniają najwyższe standardy jakości. To właśnie transparentne dane i kompetencje rozwijane w Polsce sprzyjają suwerenności technologicznej. Jeśli chcemy, by PLLuM realnie wzmacniał polski sektor publiczny i prywatny, musimy mieć kontrolę nad tym, na jakich danych i zasadach jest budowany” – wyjaśnia dr hab. Piotr Pęzik, prof. Uniwersytetu Łódzkiego.

    Współpraca IBM z Politechniką Wrocławską i Uniwersytetem Łódzkim jest elementem szerszego zaangażowania firmy w rozwój kompetencji cyfrowych w Polsce. Obecnie IBM współpracuje także z kilkoma innymi ośrodkami akademickimi, m.in. w Gliwicach, Gdańsku, Kielcach, Lublinie czy Poznaniu w zakresie badań i rozwoju AI, cyberbezpieczeństwa oraz technologii kwantowych.


    źródło: IBM

  • Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja jeszcze kilka lat temu była futurystyczną wizją, a dziś stanowi kluczowy element cyfrowej transformacji. Jej rozwój i wdrożenia są w dużej mierze kształtowane przez największe firmy technologiczne – Google, Microsoft, Amazon, Meta czy Apple. To właśnie te korporacje posiadają zarówno kapitał, jak i infrastrukturę, aby trenować i rozwijać zaawansowane modele AI.

    W ostatnich latach wyścig o dominację w dziedzinie AI nabrał tempa. Microsoft strategicznie inwestuje w OpenAI, a ostatnio inwestuje także we własny model, Google rozwija własne modele w ramach DeepMindGemini, a Amazon wzmacnia swoje usługi chmurowe o nowe narzędzia oparte na sztucznej inteligencji, w ostatnim czasie również dołączając do bezpośredniego wyścigu AI dzięki ogłoszeniu Amazon Nova. Z jednej strony oznacza to dynamiczny postęp technologiczny, z drugiej – rodzi pytania o monopolizację tej kluczowej technologii. Czy mniejsze firmy i startupy mają jeszcze szansę na konkurowanie w tej dziedzinie? Jakie są konsekwencje takiego układu sił dla innowacji i dostępności AI?

    Status quo: kto rządzi rynkiem AI?

    Obecny krajobraz sztucznej inteligencji jest zdominowany przez kilka gigantycznych firm technologicznych, które nie tylko posiadają największe zasoby obliczeniowe, ale także inwestują miliardy dolarów w rozwój AI. Google, Microsoft, Amazon, Meta, Apple oraz Nvidia to główni gracze, którzy kontrolują zarówno rozwój modeli AI, jak i infrastrukturę potrzebną do ich działania.

    Najwięksi gracze i ich strategie

    • Microsoft & OpenAI – Microsoft zainwestował już ponad 13 miliardów dolarów w OpenAI i mocno integruje modele AI, takie jak GPT-4, z własnymi produktami (np. Copilot w systemie Windows i pakiecie Office). Ostatnie nieoficjalne doniesienia sugerują, że gigant z Redmond nie poprzestaje na zewnętrzych modelach AI i inwestuje we własne.
    • Google & DeepMind – Google od lat rozwija własne modele AI, a jego jednostka badawcza DeepMind stoi za takimi osiągnięciami jak AlphaFold czy nowa seria modeli Gemini. Firma zintegrowała AI w swoich usługach, od wyszukiwarki po chmurę.
    • Amazon – Jako lider w sektorze chmurowym, Amazon rozwija AI w ramach AWS, oferując własne modele AI, takie jak Bedrock oraz narzędzia do budowy chatbotów i systemów predykcyjnych. Poza tym, w połowie lutego Amazon ogłosił własne modele AI – Amazon Nova.
    • Meta (Facebook) – Meta skupia się na AI generatywnej oraz otwartoźródłowych modelach, jak Llama 2, które mają być alternatywą dla zamkniętych systemów.
    • Apple – Choć Apple wydaje się mniej aktywne w publicznych dyskusjach o AI, to pracuje nad integracją tej technologii w ekosystemie iPhone’ów i Maców, inwestując w rozwój AI-on-device.
    • Nvidia – Nie rozwija własnych modeli, ale ma największy udział w rynku sprzętu dla AI. Jej karty graficzne (GPU) są podstawą dla treningu i działania najnowocześniejszych modeli AI.

    Dominacja Big Tech w AI wynika nie tylko z doświadczenia i zespołów badawczych, ale przede wszystkim z dostępu do gigantycznych zasobów obliczeniowych. Trening zaawansowanego modelu językowego, takiego jak GPT-4 czy Gemini, wymaga tysięcy układów GPU, co sprawia, że tylko najwięksi gracze mogą sobie na to pozwolić.

    Ponadto, wiele startupów AI jest uzależnionych od infrastruktury dostarczanej przez te firmy – od chmury (AWS, Google Cloud, Azure), przez API do modeli AI, aż po narzędzia programistyczne. 

    AI jako nowy monopol – czy grozi nam dominacja kilku firm?

    Coraz częściej pojawiają się obawy, że zamiast szeroko dostępnej technologii, AI staje się domeną kilku gigantycznych firm. Microsoft, Google, Amazon, Meta i Nvidia inwestują miliardy dolarów w rozwój AI i kontrolują kluczowe zasoby: modele, dane i infrastrukturę obliczeniową. Czy grozi nam sytuacja, w której dostęp do najbardziej zaawansowanych systemów AI będzie ściśle kontrolowany przez nielicznych?

    Jednym z największych wyzwań jest to, że startupy i mniejsze firmy są w dużej mierze zależne od infrastruktury dostarczanej przez gigantów. Budowa własnego modelu AI od podstaw wymaga nie tylko ogromnej mocy obliczeniowej, ale także dostępu do wysokiej jakości danych, co często jest poza zasięgiem mniejszych graczy. W rezultacie wiele firm korzysta z gotowych modeli dostarczanych przez OpenAI (GPT-4), Google (Gemini) czy Meta (Llama), co jeszcze bardziej umacnia pozycję tych gigantów.

    Jeśli rozwój sztucznej inteligencji zostanie scentralizowany w rękach kilku firm, mogą pojawić się poważne konsekwencje:

    • Ograniczona konkurencja – mniejsze firmy będą miały utrudniony dostęp do zaawansowanych technologii.
    • Wysokie koszty dostępu – AI może stać się usługą premium, dostępną tylko dla tych, którzy zapłacą.
    • Brak przejrzystości – zamknięte modele AI nie ujawniają, jak są trenowane, co budzi pytania o ich obiektywność i etykę.
    • Potencjalna cenzura i kontrola narracji – AI wykorzystywana w wyszukiwarkach, mediach społecznościowych i generowaniu treści może wpływać na sposób, w jaki konsumujemy informacje.

    Przykładem globalnych napięć jest DeepSeek, chiński projekt AI, który rozwija modele językowe jako alternatywę dla amerykańskich gigantów. DeepSeek AI to open-source’owy model LLM (Large Language Model), który ma uniezależnić Chiny od OpenAI i Google. Rząd w Pekinie od lat inwestuje w sztuczną inteligencję, widząc ją jako kluczowy element przyszłej konkurencyjności. To oznacza, że walka o dominację nad AI nie ogranicza się tylko do korporacji – staje się częścią globalnej rywalizacji gospodarczej.

    Rośnie ruch na rzecz otwartej i zdecentralizowanej sztucznej inteligencji. Inicjatywy takie jak Hugging Face, Stability AI czy Mistral AI rozwijają open-source’owe modele, które mogą być używane bez ograniczeń narzuconych przez Big Tech. Choć modele open-source mają wiele zalet (dostępność, przejrzystość), ich rozwój wciąż wymaga ogromnych zasobów. Kluczowym pytaniem pozostaje, czy rządy i firmy będą wspierać otwarte AI, czy pozwolą na dalszą koncentrację technologii w rękach kilku korporacji.

    Przyszłość AI jeszcze nie jest przesądzona. To, czy stanie się otwartym narzędziem dla wszystkich, czy zamkniętym systemem kontrolowanym przez kilka firm, zależy od decyzji podejmowanych dziś.

    Open-source kontra zamknięte modele – gdzie leży przyszłość?

    Podział na otwarte i zamknięte modele AI nie jest tylko kwestią techniczną – to fundamentalna różnica w podejściu do przyszłości sztucznej inteligencji. Z jednej strony mamy firmy, które traktują AI jako zasób strategiczny, kontrolowany i monetyzowany, z drugiej rosnący ruch open-source, stawiający na dostępność i transparentność. Ta rywalizacja będzie miała kluczowy wpływ na to, kto w przyszłości będzie mógł korzystać z zaawansowanej sztucznej inteligencji i na jakich warunkach.

    Open-source AI zdobywa coraz większą popularność, bo oferuje coś, czego brakuje zamkniętym modelom – elastyczność i niezależność. Deweloperzy mogą dostosowywać modele do własnych potrzeb, bez ograniczeń wynikających z regulaminów OpenAI, Google czy Anthropic. To szczególnie ważne dla sektora naukowego, startupów oraz firm poszukujących tańszych alternatyw.

    Jednak wzrost popularności otwartego AI może zagrozić modelowi biznesowemu Big Tech. Jeśli organizacje będą mogły samodzielnie uruchamiać własne modele, bez potrzeby płacenia za API OpenAI czy Google Cloud, oznacza to mniejsze zyski dla tych firm. W odpowiedzi korporacje próbują balansować między otwartością a kontrolą – Meta udostępniła Llama 2, ale wciąż wymaga zgody na komercyjne użycie, a Google eksperymentuje z częściowo otwartymi modelami.

    Geopolityczny wymiar otwartego AI

    Sztuczna inteligencja staje się też elementem globalnej rywalizacji. Chiny rozwijają alternatywne modele open-source, jak DeepSeek AI, które mają uniezależnić kraj od amerykańskich technologii. DeepSeek jest częścią szerszej strategii Pekinu, zakładającej rozwój suwerennego ekosystemu AI – odpornego na sankcje i kontrolę Zachodu.

    To pokazuje, że otwartość AI to nie tylko kwestia wolności technologicznej, ale też geopolityki i bezpieczeństwa narodowego. Europa również szuka niezależności, wspierając inicjatywy takie jak Mistral AI, ale wciąż jest w tyle za USA i Chinami pod względem inwestycji.

    Nie ma jednoznacznej odpowiedzi, która ścieżka zwycięży. AI rozwija się dynamicznie, na wielu płaszczyznach, pod wpływem różnych czynników, przez co przewidzenie dalszego rozwoju nie jest łatwe. Pewnym jest natomiast, że ktokolwiek może, stara się być jak najbliżej AI, inwestować w nią, rozwijać, ingerować w rozwój, ponieważ w tym momencie jest ona czarnym koniem rozwoju technologicznego. W zależności od ruchów, jakie podejmą firmy tworzące AI, a także od roszad geopolitycznych oraz poziomu regulacji, jakie będą nakładane na AI, możliwe wydają się być trzy scenariusze: wzmocnienie Big Tech – jeśli zamknięte modele okażą się bardziej zaawansowane i kosztowne w utrzymaniu niż ich otwarte odpowiedniki; ekspansja open-source – jeśli rządy i instytucje akademickie zaczną wspierać otwarte AI jako przeciwwagę dla monopolu korporacji lub model hybrydowy – gdzie otwarte modele będą szeroko stosowane, ale najpotężniejsze systemy pozostaną zamknięte.

    Regulacje i polityka – czy rządy mogą ograniczyć wpływ Big Tech na AI?

    Rządy starają się regulować rozwój sztucznej inteligencji, aby ograniczyć monopol Big Tech i zwiększyć kontrolę nad jej wpływem na społeczeństwo. Unia Europejska przyjęła AI Act, który klasyfikuje modele AI według ryzyka i nakłada na firmy obowiązki dotyczące przejrzystości. USA podchodzą ostrożniej, prowadząc rozmowy z technologicznymi gigantami i koncentrując się na rywalizacji z Chinami. Chiny natomiast już teraz wymagają certyfikacji modeli AI i rozwijają własne alternatywy, takie jak DeepSeek AI, by uniezależnić się od amerykańskich firm.

    Choć regulacje mogą zwiększyć nadzór nad AI, mogą też nieoczekiwanie umocnić dominację Big Tech, bo to właśnie największe firmy mają środki na dostosowanie się do nowych wymogów. Aby rzeczywiście zwiększyć konkurencję, konieczne jest wspieranie alternatywnych rozwiązań, takich jak modele open-source i inicjatywy krajowe. Polska, choć nie jest globalnym liderem AI, również rozwija własne technologie, czego przykładem jest PLLuM (Polish Large Language Model), czyli pierwszy duży model językowy stworzony z myślą o języku polskim.

    Przyszłość regulacji AI będzie balansowaniem między kontrolą a innowacją. Zbyt restrykcyjne przepisy mogą spowolnić rozwój technologii, podczas gdy ich brak grozi dominacją kilku korporacji kształtujących AI na własnych zasadach. Wspieranie narodowych inicjatyw, takich jak PLLuM, oraz open-source’owych modeli może stać się kluczowym narzędziem w budowaniu bardziej zdecentralizowanego ekosystemu sztucznej inteligencji.

    Z jednej strony widzimy dynamiczny postęp i integrację AI w codziennym życiu, z drugiej – rosnące obawy o monopolizację i ograniczoną dostępność najpotężniejszych systemów dla mniejszych firm czy niezależnych badaczy.

    Alternatywą dla dominacji Big Tech są modele open-source oraz inicjatywy narodowe, takie jak DeepSeek AI w Chinach czy PLLuM w Polsce. Choć otwarte modele oferują większą przejrzystość i dostępność, ich rozwój jest trudniejszy z powodu ograniczeń sprzętowych i finansowych. Rządy na całym świecie starają się regulować AI, ale ich działania, jak europejski AI Act, mogą paradoksalnie umocnić pozycję największych graczy, jeśli nie zostaną połączone ze wsparciem dla mniejszych podmiotów i inicjatyw open-source.

    Przyszłość sztucznej inteligencji będzie zależała od tego, jak uda się wypracować równowagę między kontrolą a innowacją. Jeśli regulacje i otwarte technologie zostaną odpowiednio rozwinięte, AI może stać się narzędziem dostępnym dla wszystkich, a nie tylko dla kilku globalnych firm.

  • Comarch wdraża polski model AI – PLLuM

    Comarch wdraża polski model AI – PLLuM

    Polska coraz śmielej przyłącza się do globalnego wyścigu technologicznego. Niedawno zaprezentowano PLLuM – polski model językowy, który pozwala generować i przetwarzać teksty w języku polskim, dobrze orientując się w specyfice rodzimej pisowni. Rozwiązanie w swoich systemach zaczął wykorzystywać Comarch, który wdrożył PLLuM-a u siebie lokalnie w aplikacji ChatERP – asystencie AI odpowiedzialnym za płynną komunikację między klientem a systemami do zarządzania firmą ERP.

    PLLuM pojawił się na rynku raptem ponad tydzień temu. Podstawowym celem projektu (który został zrealizowany przez sześć podmiotów naukowych na zlecenie Ministerstwa Cyfryzacji) było zbudowanie rodziny modeli językowych dedykowanych polskiemu językowi i kulturze. Tym samym odróżnia go to od innych popularnych dużych modeli językowych, które wprawdzie umożliwiają komunikację w języku polskim, ale mają problemy z rozumieniem lokalnych kontekstów. PLLuM może być wykorzystywany zarówno w sektorze publicznym, jak i komercyjnym.

    PLLuM ułatwia komunikację klientom Comarch

    Rozwiązanie – ze względu na jego dopasowanie językowe – wykorzystał Comarch, jeden z czołowych polskich dostawców oprogramowania. Firma postanowiła wdrożyć u siebie lokalnie PLLuM-a w aplikacji ChatERP, inteligentnym asystencie użytkownika systemów Comarch ERP, który wspiera klientów w nawigacji po interfejsie, ułatwia wykonywanie zadań, odpowiada w języku naturalnym i automatyzuje powtarzalne obowiązki. Jest to jedno z pierwszych praktycznych wdrożeń PLLuM-a na masową skalę.

    Comarch intensywnie testował różne modele AI – zarówno te dedykowane językowi polskiemu, jak i wielojęzyczne. Ostatecznie to PLLuM okazał się najskuteczniejszy, dlatego właśnie on został wybrany do silnika ChatERP.

    Dlaczego zdecydowano się na taki krok?

    „Na bieżąco śledzimy wszelkie nowości, które mogą znaleźć zastosowanie w rozwijanych przez nas produktach, dlatego natychmiast rozpoczęliśmy weryfikację modeli PLLuM pod kątem przydatności w Comarch ChatERP. Okazało się, że PLLuM znakomicie radzi sobie z generowaniem poprawnych pod względem gramatycznym i naturalnie brzmiących w języku polskim odpowiedzi dla użytkowników. Obecnie jest to pod tym względem niewątpliwie najskuteczniejsze dostępne rozwiązanie.”

    mówi Mariusz Zygmułka, dyrektor AI/ML w Comarch Enterprise Solutions

    Od teraz użytkownicy komunikujący się z ChatERP w systemach Comarch otrzymają jeszcze bardziej zrozumiałe i jasne odpowiedzi w języku polskim. PLLuM ogranicza też wstawki w innych językach (np. angielskim), co ułatwia komunikację. Minimalizuje również pojawianie się niezrozumiałych kalek językowych czy nieistniejących słów. Polski model AI działa w polskim kontekście językowym i ma bogatsze słownictwo, co jest szczególnie ważne dla Comarch, który dostarcza rozwiązanie dla rodzimych klientów, posiadając niemal 25% udziału w polskim rynku ERP.

    „Dodatkowo, PLLuM ma rozsądne wymagania sprzętowe i może być hostowany lokalnie. Cieszy, że wysiłek konsorcjum instytucji badawczych i wyższych uczelni został udostępniony szerokiemu gronu odbiorców. Z pewnością przyczyni się to nie tylko do popularyzacji w naszym kraju rozwiązań opartych na AI, ale również do ogólnie pojętej cyfryzacji polskiej gospodarki.”

    dodaje Mariusz Zygmułka

    „Za tworzeniem polskich modeli przemawiają argumenty strategicznej niezależności, kreowania innowacji, a nie tylko konsumowania, czy opracowania modeli dysponujących większą znajomością polskiej kultury, języka i historii. Warto także dodać, że PLLuM został przetestowany za pomocą narzędzia Polish Linguistic and Cultural Competency Benchmark, które opracowaliśmy w OPI PIB. Osiągnął on bardzo dobre wyniki testów, co świadczy o tym, że rozumie on nie tylko język polski, ale także uwzględnia kontekst kulturalny, z którym mają problem niejednokrotnie anglojęzyczne modele.”

    mówi dr inż. Marek Kozłowski, kierownik AI Labu z Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego (OPI PIB), jednej z instytucji zaangażowanych w tworzenie PLLuM-a

    Projekt realizowało sześć podmiotów: Politechnika Wrocławska, Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukowa i Akademicka Sieć Komputerowa, Ośrodek Przetwarzania Informacji, Uniwersytet Łódzki. Zespół badaczy stworzył całą rodzinę polskich modeli językowych, od 8 do 70 mld parametrów, dostosowanych do różnych wyzwań językowych. To największy polski model językowy, który jako pierwszy objął adaptację językową modeli Mixture of Experts (MoE) i Llama 70B na tak dużą skalę. Podejście łączy pre-trening, dostrajanie na podstawie instrukcji oraz tzw. alignment, by modele lepiej odpowiadały na potrzeby użytkowników. Udostępniono 18 modeli na HuggingFace, obejmujących wersje fundamentalne, instrukcyjne i dialogowe, zabezpieczone przed nieetycznymi zachowaniami.

  • PLLuM – polska alternatywa dla ChatGPT? Ministerstwo Cyfryzacji stawia na AI

    PLLuM – polska alternatywa dla ChatGPT? Ministerstwo Cyfryzacji stawia na AI

    Ministerstwo Cyfryzacji ogłosiło przełomowy krok w dziedzinie sztucznej inteligencji, prezentując PLLuM (Polish Large Language Model) — rodzinę zaawansowanych modeli językowych stworzonych z myślą o języku polskim. W ramach tego projektu przyznano konsorcjum dotację w wysokości 19 mln zł na dalszy rozwój i wdrożenie PLLuM w usługach administracji publicznej.

    Liderem konsorcjum jest HIVE — Ośrodek Badań nad Bezpieczeństwem SI w NASK, który będzie koordynować prace wdrożeniowe. W skład konsorcjum wchodzą również Politechnika Wrocławska, Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Ośrodek Przetwarzania Informacji (OPI-PIB) oraz Uniwersytet Łódzki.

    Wicepremier i minister cyfryzacji Krzysztof Gawkowski podkreślił znaczenie projektu: „PLLuM to dowód na to, że możemy rozwijać nowoczesne technologie na własnych warunkach, w naszym języku, z korzyścią dla obywatelek i obywateli. Tworzymy fundament pod inteligentne usługi publiczne i innowacje, które będą realnym wsparciem zarówno dla administracji, jak i biznesu.”

    PLLuM wyróżnia się na tle innych modeli językowych dzięki dostosowaniu do specyfiki języka polskiego oraz terminologii używanej w administracji publicznej. Proces tworzenia modelu obejmował kompleksowe procedury gromadzenia danych i oceny ich jakości, z naciskiem na dane organiczne opracowywane ręcznie. Dzięki temu PLLuM doskonale radzi sobie z wyzwaniami fleksji i złożonej składni, generując precyzyjne treści.

    Model jest elastyczny i skalowalny, operując na bazie od 8 do 70 miliardów parametrów, co umożliwia precyzyjne generowanie treści w języku polskim. Ważnym aspektem projektu jest etyczne pozyskiwanie danych — wersje komercyjne korzystają z licencjonowanych zasobów tekstowych, a także z materiałów dostępnych zgodnie z ustawą o prawie autorskim i przepisami UE.

    Wiceminister cyfryzacji Dariusz Standerski zaznaczył: „Rozwój PLLuM to inwestycja w cyfrowe państwo. Do tej pory przeznaczyliśmy na ten projekt 14,5 mln zł, a teraz idziemy krok dalej — kolejne 19 mln zł pozwoli na wdrożenie modelu w administracji publicznej i rozszerzenie współpracy o nowych partnerów, takich jak COI i Cyfronet.”

    PLLuM, współpracując z modelem Bielik, ma potencjał promować polską sztuczną inteligencję, wspierając proces trenowania i pozyskiwania danych. Dzięki temu inicjatywa #AIMadeInPoland zyskuje na znaczeniu, oferując korzyści dla administracji publicznej, biznesu i społeczeństwa.

    Dostępność PLLuM dla szerokiego grona użytkowników otwiera nowe możliwości w zakresie cyfryzacji usług publicznych oraz rozwoju krajowego ekosystemu AI, czyniąc Polskę liderem w dziedzinie nowoczesnych technologii językowych.