Kategoria: Polska

  • Eksport usług IT z Polski bije rekordy. Czy boom potrwa?

    Eksport usług IT z Polski bije rekordy. Czy boom potrwa?

    Eksport usług IT stał się jednym z kluczowych elementów polskiego handlu zagranicznego, znacząco wspierając nadwyżkę w obrotach bieżących kraju. Polska od połowy lat 90. utrzymuje dodatnie saldo w handlu usługami, a w ostatnich latach to właśnie usługi stały się głównym motorem nadwyżki w handlu zagranicznym. Choć największy udział w eksporcie usług mają tradycyjnie transport i turystyka, usługi IT (informatyczne) dynamicznie zwiększają swoje znaczenie. Od 2010 r. eksport usług IT rósł średnio o ponad 20% rocznie – ponad dwukrotnie szybciej niż eksport usług ogółem. W efekcie udział usług informatycznych w polskim eksporcie usług wzrósł z ok. 5% dekadę temu do blisko 13% w 2022 r. Polski sektor IT stał się ważnym motorem gospodarki – w ostatniej dekadzie jego przychody wzrosły niemal czterokrotnie, udział branży w PKB się podwoił, a wartość eksportu usług IT zwiększyła się 7,5-krotnie. Jeszcze dobitniej znaczenie branży widać na arenie międzynarodowej: w 2023 r. Polska sprzedała za granicę więcej usług IT niż takie potęgi technologiczne jak Japonia czy Korea Płd.

    Zarówno dane Narodowego Banku Polskiego, jak i GUS, pokazują wyraźny i nieprzerwany wzrost wartości eksportu usług IT w ostatnich latach. Jak ilustruje powyższy wykres, w 2019 r. eksport usług telekomunikacyjnych, informatycznych i informacyjnych (kategoria łączna w statystykach bilansu płatniczego) wyniósł 33,1 mld zł, by w 2020 r. wzrosnąć do 36,7 mld zł. Mimo globalnego szoku związanego z pandemią COVID-19 odnotowano zatem wzrost o ok. 10,9% r/r, choć było to tempo nieco niższe niż we wcześniejszych latach. Już w 2021 r. nastąpiło jednak przyspieszenie – wartość eksportu usług IT osiągnęła 44,8 mld zł, co oznacza +22,1% r/r. Rok 2022 przyniósł prawdziwy skok: eksport tej kategorii zwiększył się do 60,2 mld zł, aż o 34,4% więcej niż rok wcześniej. Był to najwyższy jak dotąd poziom, co potwierdza, że polski sektor ICT znakomicie wykorzystał światowy boom na usługi cyfrowe w czasie pandemii. W 2023 r. dynamika nieco wyhamowała, jednak nadal była imponująca – eksport usług telekomunikacyjnych, informatycznych i informacyjnych osiągnął 70,7 mld zł, rosnąc o 17,5% w stosunku do 2022 r. W tym ostatnim roku same usługi informatyczne (bez telekomunikacji) stanowiły gros tej kwoty – 64,7 mld zł – co podkreśla, że to właśnie stricte usługi IT napędzają tę kategorię. Sumarycznie, w ciągu zaledwie czterech lat eksport usług IT z Polski ponad dwukrotnie się zwiększył (z ~33 mld zł w 2019 do ~71 mld zł w 2023). Warto zauważyć, że wzrosty te występowały równolegle do ogólnego rozwoju eksportu usług, dzięki czemu udział segmentu ICT w całym eksporcie usług systematycznie rósł. Według danych PFR opartych o Eurostat, na koniec 2022 r. eksport usług informatycznych z Polski wyniósł 11,66 mld EUR (ok. 54 mld zł), a import 7,04 mld EUR, co oznacza znaczącą nadwyżkę. Co ważne, od 2010 r. nie zanotowano ani jednego roku spadku – polskie usługi IT cieszą się rosnącym popytem za granicą. Mimo że transport i turystyka generują większe wolumeny, informatyka stała się najszybciej rosnącym segmentem – średnie tempo wzrostu eksportu usług IT w latach 2011–2021 (22,4% rocznie) ponad dwukrotnie przekraczało tempo wzrostu całego eksportu usług (11,2%). To sprawia, że usługi IT odgrywają coraz większą rolę w bilansie płatniczym. Dla kontekstu, w 2022 r. nadwyżka w handlu usługami osiągnęła rekordowe 171,1 mld zł (5,6% PKB), a same usługi stanowiły największy pozytywny składnik salda obrotów bieżących – dynamiczny eksport IT istotnie się do tego przyczynił.

    Geografia eksportu: kluczowe rynki zbytu

    Struktura geograficzna eksportu usług IT z Polski koncentruje się wokół wysoko rozwiniętych gospodarek, zwłaszcza z obszaru Europy Zachodniej i Ameryki Północnej. Najważniejszym pojedynczym odbiorcą od lat pozostają Niemcy – ogółem w 2023 r. polscy rezydenci sprzedali do Niemiec usługi (wszystkich typów) warte 100,9 mld zł, z czego znaczącą część stanowiły usługi biznesowe i IT. W segmencie usług informatycznych również Niemcy zajmują pierwszą pozycję. Kolejne kluczowe rynki to Stany Zjednoczone oraz Wielka Brytania, a w Europie kontynentalnej wyróżniają się także Szwajcaria i Holandia jako istotni nabywcy polskich usług cyfrowych. Według danych PFR i ABSL polskie firmy IT sprzedają swoje usługi głównie do Niemiec, USA, Austrii i Wielkiej Brytanii. Wysoka pozycja Niemiec wynika zarówno z bliskości geograficznej i powiązań w ramach UE, jak i obecności wielu centrów IT obsługujących rynek niemiecki. Z kolei znaczący udział USA świadczy o globalnej konkurencyjności polskiego sektora IT – amerykańskie korporacje chętnie zlecają usługi polskim podmiotom lub lokują w Polsce swoje centra technologiczne. W ujęciu regionalnym kraje Unii Europejskiej pozostają głównymi odbiorcami polskich usług ICT. W 2022 r. ok. 55% wartości eksportu usług z kategorii „pozostałe usługi” (obejmującej m.in. IT i usługi biznesowe) trafiło do państw UE. Poza Niemcami istotnymi partnerami w tym obszarze były Szwajcaria (8,7% tej kategorii) oraz Wielka Brytania. Stany Zjednoczone odpowiadały za ok. 15–16% sprzedaży w grupie pozostałych usług w 2022 r., co wskazuje na ich znaczący udział również w popycie na usługi IT. Warto podkreślić, że polskie firmy technologiczne zyskały dobrą renomę na świecie – polscy programiści od lat plasują się w czołówce globalnych rankingów jakości i innowacyjności, co ułatwia ekspansję na rynki zagraniczne. Pomaga to pozyskiwać klientów m.in. w Austrii, krajach nordyckich czy Kanadzie, choć udział tych rynków jest mniejszy. Niemniej, dywersyfikacja geograficzna jest zauważalna – polskie usługi IT trafiają do klientów w dziesiątkach krajów na kilku kontynentach, co zmniejsza zależność od pojedynczego rynku.

    Uwarunkowania makroekonomiczne: pandemia, kursy walut, koniunktura

    Na trend wzrostowy eksportu usług IT w badanym okresie nałożyły się ważne czynniki makroekonomiczne. Pandemia COVID-19 początkowo wywołała globalną niepewność gospodarczą, lecz sektor IT okazał się relatywnie odporny, a w średnim terminie nawet zyskał na przyspieszeniu cyfryzacji. W 2020 r. wiele przedsiębiorstw na świecie przeniosło działalność do trybu zdalnego i intensywnie inwestowało w rozwiązania IT, co utrzymało popyt na usługi informatyczne z Polski. Rzeczywiście, podczas gdy np. eksport usług turystycznych załamał się w 2020 r., eksport usług IT wciąż wzrósł o ok. 11%. Było to wolniej niż przed pandemią, ale świadczy o odporności branży. Już rok później nastąpiło odbicie – globalna koniunktura IT była bardzo korzystna w latach 2021–2022 z powodu masowych wdrożeń rozwiązań chmurowych, e-commerce, zdalnej pracy czy automatyzacji. Polskie firmy IT, często wyspecjalizowane w tych obszarach, mogły zwiększyć sprzedaż za granicę o wspomniane 22% w 2021 i aż 34% w 2022. Kursy walut odegrały również istotną rolę. Osłabienie złotego wobec dolara i euro w 2022 r. sprawiło, że usługi świadczone w Polsce stały się bardziej konkurencyjne cenowo, a jednocześnie wartość przychodów liczona w złotych wyraźnie wzrosła. Dla przykładu, według NBP eksport usług IT i telekomunikacyjnych w 2022 r. wyniósł 13,4 mld USD (wzrost o ponad 15% r/r w USD), ale po przeliczeniu na złote dynamika przekraczała 30% r/r. Słabszy złoty oznaczał, że za każdego zarobionego dolara firmy otrzymywały więcej PLN, co częściowo tłumaczy rekordowy skok wartości eksportu w tym roku. Z kolei w 2023 r. polska waluta nieco się umocniła i globalny popyt na usługi IT nie rósł już tak gwałtownie, stąd też tempo wzrostu eksportu w PLN ustabilizowało się na niższym poziomie (~17,5% r/r zamiast 34% rok wcześniej).

    Warto wspomnieć, że w skali globalnej rok 2023 był trudniejszy dla branży technologicznej – wzrost stóp procentowych i obawy przed recesją skłoniły wiele firm do cięcia wydatków IT, zaś giganty technologiczne notowały spadki wycen i redukcje zatrudnienia. Ta dekoniunktura odbiła się także na polskich firmach usługowych. Jak zauważa raport PKO BP, w 2023 (a dla wielu firm także 2024) nastąpiło spowolnienie przyrostu sprzedaży, eksportu i zatrudnienia w sektorze IT w Polsce. Rosnące koszty, zwłaszcza płacowe, dodatkowo obniżyły rentowność firm. Mimo tych wyzwań polski eksport IT nadal odnotował solidny wzrost w 2023 r., przewyższając dynamikę większości innych branż – świadczy to o trwałym, strukturalnym zapotrzebowaniu na usługi cyfrowe. Dla porównania, u naszego sąsiada – Ukrainy – eksport usług IT spadł w 2023 o 8,4% wskutek wojny i zawirowań gospodarczych. Polska uniknęła spadku, co po części wynika z bezpieczniejszego otoczenia biznesowego, ale też z dywersyfikacji klientów i specjalizacji w usługach wysokiej jakości.

    Rola outsourcingu i kapitału zagranicznego

    Sukces eksportowy polskiej branży IT jest ściśle powiązany z rolą centrów outsourcingowych oraz inwestycji zagranicznych. Polska od lat jest postrzegana jako atrakcyjna lokalizacja dla outsourcingu IT i usług biznesowych – przyciąga wykwalifikowaną kadrą inżynierską, relatywnie niższymi kosztami pracy w porównaniu z Europą Zachodnią oraz obecnością w UE (co ułatwia kwestie prawne i logistyczne). W praktyce oznacza to, że znaczną część eksportu usług IT generują przedsiębiorstwa powiązane z kapitałem zagranicznym, w tym centra usług wspólnych i oddziały globalnych korporacji technologicznych ulokowane w Polsce. Analizy NBP potwierdzają, że firmy z zagranicznym udziałem kapitałowym dominują w eksporcie większości kategorii usług – w 2022 r. to właśnie podmioty z udziałem inwestorów zagranicznych wypracowały największą nadwyżkę w handlu usługami. Wyjątkiem są nieliczne branże (np. usługi budowlane czy kulturalne) – w sektorze ICT przewaga firm z kapitałem zagranicznym jest wyraźna. Według danych ABSL niemal wszystkie centra usług biznesowych działające w Polsce obsługują klientów zagranicznych. Przykładowo, Capgemini Polska – jeden z największych pracodawców IT – uzyskuje 94% przychodów z obsługi klientów zagranicznych (świadcząc usługi dla odbiorców w 31 krajach), a firma Sii Polska ok. 30% przychodów z eksportu usług. Takie przykłady pokazują, że zagraniczni inwestorzy dostrzegają potencjał Polski i lokują tu zaawansowane procesy. Co istotne, charakter tych inwestycji ewoluuje.

    Coraz większą część wzrostu eksportu napędza zjawisko reshoringu, czyli przenoszenia operacji z powrotem do Europy z bardziej odległych lokalizacji. W ostatnich latach obserwujemy, że nowe centra otwierane w Polsce od początku realizują zaawansowane, wysoko wyspecjalizowane zadania, podczas gdy prostsze procesy są automatyzowane lub przekierowywane do tańszych krajów (np. Indie). Świadczy to o rosnącej wartości dodanej polskich usług – nie są to już tylko proste usługi programistyczne, ale często złożone projekty R&D, konsulting IT, usługi chmurowe, cyberbezpieczeństwo itp. Polski sektor IT staje się zatem integralną częścią globalnych łańcuchów wartości. Z jednej strony obecność kapitału zagranicznego gwarantuje dopływ projektów, know-how i stabilne finansowanie, z drugiej – wyzwaniem może być utrzymanie jak największej części zysków i własności intelektualnej w kraju. Niemniej jednak, obecny model wydaje się korzystny dla polskiej gospodarki: zapewnia miejsca pracy (centra IT zatrudniają w Polsce dziesiątki tysięcy specjalistów) oraz stymuluje transfer wiedzy i najlepszych praktyk. Polska umacnia dzięki temu swoją pozycję na globalnym rynku usług IT, czego dowodem są wysokie miejsca w rankingach atrakcyjności lokalizacji dla outsourcingu oraz rosnąca liczba międzynarodowych kontraktów realizowanych nad Wisłą

    Polski eksport usług IT w latach 2019–2023 cechował się imponującym wzrostem i odpornością na kryzysy, co potwierdza dojrzałość i konkurencyjność tej branży. Trend jest jednoznacznie wzrostowy – sektor korzysta z globalnej transformacji cyfrowej, a jednocześnie sam napędza krajową gospodarkę, zapewniając rosnące wpływy dewizowe i dodatnie saldo obrotów usługowych. Perspektywy na najbliższe lata są ostrożnie optymistyczne. Po przejściowym spowolnieniu w 2023–2024, wielu analityków oczekuje stopniowej poprawy koniunktury. Prognozy makroekonomiczne wskazują, że w 2025 r. tempo wzrostu PKB w kluczowych dla nas gospodarkach (Niemcy, USA, UK) może być wyższe niż w 2023, co przełoży się na większy popyt na usługi IT. Jednocześnie presja płacowa w Polsce ma nieco zelżeć, a kurs złotego powinien utrzymywać się na poziomie sprzyjającym eksporterom. To wszystko tworzy warunki do utrzymania solidnej dynamiki wzrostu, choć zapewne bliższej kilkunastu niż kilkudziesięciu procent rocznie. Potencjał branży pozostaje duży – rosnąca rola sztucznej inteligencji, chmury obliczeniowej, automatyzacji czy cyberbezpieczeństwa generuje nowe nisze, w których polskie firmy już teraz zdobywają kompetencje.

    Według szacunków Polskiego Funduszu Rozwoju wartość polskiego sektora ICT (wliczając usługi informatyczne, telekomunikacyjne i usługi z zakresu bezpieczeństwa IT) może wzrosnąć do 25,2 mld EUR do 2026 roku, co wskazuje na kontynuację pozytywnego trendu. Należy jednak pamiętać o czynnikach ryzyka. Ewentualne pogłębienie dekoniunktury w Europie lub USA, nasilona konkurencja ze strony innych centrów outsourcingowych (np. w Azji czy Ameryce Łacińskiej), czy też trudności z dostępem do talentów IT w kraju – to wszystko może ograniczać tempo wzrostu. Dlatego kluczowe będzie inwestowanie w kapitał ludzki (kształcenie i przyciąganie specjalistów) oraz wspieranie innowacji i własnych produktów IT, aby stopniowo przechodzić od modelu czysto usługowego do modelu opartego również na własnej myśli technologicznej. Na chwilę obecną umiarkowane prognozy zakładają utrzymanie się trendów wzrostowych, choć już nie tak spektakularnych jak w szczycie boomu postpandemicznego. Mimo to, biorąc pod uwagę dotychczasowe osiągnięcia, polski sektor usług IT pozostaje jednym z filarów eksportu o strategicznym znaczeniu dla gospodarki. Jeśli uda się zachować konkurencyjność i dalsze zaufanie zagranicznych zleceniodawców, eksport usług IT powinien nadal rosnąć, umacniając pozycję Polski jako europejskiego lidera w branży technologicznej. Z pewnością będzie to obszar warty uważnego obserwowania w kolejnych latach.

  • Cyberbezpieczeństwo to nie sprint. Firmy muszą przestać gasić pożary i zacząć planować

    Cyberbezpieczeństwo to nie sprint. Firmy muszą przestać gasić pożary i zacząć planować

    Rosnąca liczba cyberataków, nowe obowiązki regulacyjne oraz ograniczone zasoby kadrowe sprawiają, że cyberbezpieczeństwo staje się jednym z kluczowych wyzwań dla polskich firm – niezależnie od ich wielkości czy branży. O tym, jakie zagrożenia dominują dziś w środowisku biznesowym, na ile realną alternatywą stają się usługi typu SOC-as-a-Service oraz z jakimi błędami i barierami organizacyjnymi najczęściej mierzą się firmy przy budowie systemów bezpieczeństwa, mówi Dawid Zięcina, Technical Department Director w DAGMA Bezpieczeństwo IT.

    Klaudia Ciesielska, Brandsit: Jakie cyberzagrożenia dominują obecnie w środowisku polskich firm? Czy rzeczywiście obserwujecie wzrost zaawansowanych ataków (APT), czy nadal przeważają incydenty phishingowe i malware?

    Dawid Zięcina, Dagma Bezpieczeństwo IT: Polskie firmy są wciąż narażone na te same, dobrze znane typy cyberataków. Najczęściej spotykanym zagrożeniem pozostaje klasyczny phishing, oparty na fałszywych stronach internetowych służących do wyłudzania danych. Choć liczba kampanii phishingowych nieznacznie spada w porównaniu z poprzednimi latami, nadal jest to najczęściej wykorzystywana technika przez cyberprzestępców.

    W przypadku złośliwego oprogramowania (malware), nasze obserwacje są spójne z danymi z raportów branżowych – skala jego wykorzystania rośnie, a głównym celem jest kradzież danych.

    Warto również zwrócić uwagę na rosnącą aktywność grup APT (Advanced Persistent Threats), co jest ściśle związane z obecną sytuacją geopolityczną. To zazwyczaj grupy powiązane z obcymi państwami, działające w celach wywiadowczych i dezinformacyjnych. Co istotne, ich działania coraz częściej wykraczają poza sektor publiczny czy duże firmy państwowe – ofiarami ataków stają się także mniejsze przedsiębiorstwa będące częścią łańcucha dostaw. Zdarza się również, że celem ataków są osoby prywatne powiązane z pracownikami lub właścicielami tych firm.

    „Polskie firmy są wciąż narażone na te same, dobrze znane typy cyberataków.”

    Brandsit: Dyrektywa NIS2 oraz nowelizacja ustawy o KSC wprowadzają istotne obowiązki w obszarze cyberbezpieczeństwa. Jakie wyzwania najczęściej napotykają firmy przy próbach wdrożenia zgodności z tymi regulacjami?

    D.Z.: Obecnie największym wyzwaniem dla polskich firm przy wdrażaniu zgodności z NIS2 jest brak jednoznacznej, oficjalnie przyjętej przez Polskę wykładni krajowych przepisów, które mają zostać zawarte w nowelizowanej ustawie o Krajowym Systemie Cyberbezpieczeństwa (KSC). Choć większość wytycznych zawartych w NIS2 ma stosunkowo jasną interpretację, to właśnie szczegóły implementacyjne w ustawie mogą w praktyce wyznaczyć kierunek zmian w obszarze cyberbezpieczeństwa. Z tego względu wiele organizacji przyjmuje postawę wyczekującą.

    Mimo braku ostatecznego kształtu ustawy, obserwujemy znaczący wzrost zainteresowania usługami wspierającymi wdrażanie systemów zarządzania bezpieczeństwem informacji (zgodnych z ISO/IEC 27001) oraz systemów zapewniających ciągłość działania (zgodnych z ISO 22301). To dobry kierunek, który pozwala organizacjom przygotować się w sposób systemowy do nadchodzących wymagań oraz zaplanować konkretne działania.

    Częstym problemem jest brak świadomości, jak głębokiej analizy własnej działalności wymagają te procesy oraz ile czasu i zasobów należy poświęcić, aby skutecznie wdrożyć rozwiązania zwiększające cyberdojrzałość i odporność organizacji — w szczególności na ryzyko przestojów wywołanych np. cyberatakiem.

    Brandsit: Czy outsourcing bezpieczeństwa – np. w formie SOC-as-a-Service – staje się realną alternatywą dla firm bez własnych zespołów bezpieczeństwa?

    D.Z.: Zarządzane usługi cyberbezpieczeństwa zyskują na popularności nie tylko wśród firm, które nie dysponują własnymi zespołami specjalistów, ale również jako wsparcie dla już istniejących działów bezpieczeństwa. W ramach usług takich jak SOC-as-a-Service klient otrzymuje dostęp do sprawnie działającego, wysoko wyspecjalizowanego zespołu, gotowego do działania w środowisku klienta w krótkim czasie od uruchomienia usługi.

    Co istotne, zamawiający zyskuje szeroki zakres kompetencji niezbędnych do obsługi bezpieczeństwa na różnych etapach – bez konieczności zatrudniania wąsko wyspecjalizowanych ekspertów niezależnie od tego, czy incydent wystąpi, a jeśli tak, to jakiego rodzaju.

    Utrzymanie i zarządzanie tak rozbudowanymi zespołami wewnętrznie wymagałoby znacznych zasobów kadrowych i finansowych – w modelu outsourcingowym odpowiedzialność ta przechodzi na dostawcę usługi, co czyni to rozwiązanie szczególnie atrakcyjnym pod względem elastyczności i efektywności kosztowej.

    Brandsit: Jakie błędy strategiczne najczęściej popełniają firmy budujące system zarządzania bezpieczeństwem IT?

    D.Z.: Najczęstsze błędy popełniane przez firmy na etapie wdrażania systemów bezpieczeństwa to brak przygotowanego planu transformacji opartego na rzetelnej analizie ryzyka, fragmentaryczne podejście do zidentyfikowanych problemów oraz niedoszacowanie zasobów – zarówno ludzkich, czasowych, jak i finansowych – niezbędnych do skutecznego wdrożenia.

    „Cyberbezpieczeństwo to ciągły proces, który nie ma punktu końcowego i wymaga stworzenia odpowiedniego środowiska do rozwoju.”

    Bardzo często organizacje podchodzą do tego procesu jak do sprintu, zakładając, że po szybkim osiągnięciu celu projekt zostanie zakończony. Tymczasem cyberbezpieczeństwo to ciągły proces, który nie ma punktu końcowego i wymaga stworzenia odpowiedniego środowiska do rozwoju.

    Takie środowisko można zbudować m.in. poprzez wdrożenie systemu zarządzania bezpieczeństwem informacji oraz systemu zapewniającego ciągłość działania – nawet jeśli organizacja nie planuje formalnej certyfikacji zgodności z wybranym standardem.

    Brandsit: Czy obserwujecie zmianę podejścia zarządów i przesunięcie budżetów w stronę cyberbezpieczeństwa, czy wciąż traktowane jest ono jako obowiązek, a nie realna potrzeba biznesowa?

    D.Z.: W firmach, w których za obszar cyberbezpieczeństwa odpowiadają doświadczeni specjaliści, zarządy wykazują wysoki poziom zrozumienia zarówno odpowiedzialności, jak i pozytywnego wpływu dobrze wdrożonych procesów bezpieczeństwa na cały biznes.

    „Znacznie częściej to właśnie bagatelizowanie zagrożeń lub ignorowanie wcześniej zidentyfikowanych problemów prowadzi do kosztów niewspółmiernie wyższych niż inwestycje, które można było podjąć zawczasu – przed wystąpieniem incydentu.”

    Wciąż jednak spotykamy się z podejściem, w którym cyberbezpieczeństwo postrzegane jest jako zbędne ograniczenie – coś, co utrudnia działalność operacyjną i generuje koszty, nie przynosząc bezpośrednich przychodów.

    Budowanie świadomości zagrożeń, analiza wpływu IT na funkcjonowanie firmy oraz identyfikacja scenariuszy, w których organizacja może zostać sparaliżowana lub ponieść znaczne straty w wyniku zakłócenia działalności, to kluczowe elementy zmiany tej perspektywy.

    Warto podkreślić, że zapewnienie bezpieczeństwa systemów i sieci nie musi wiązać się z ogromnymi wydatkami. Znacznie częściej to właśnie bagatelizowanie zagrożeń lub ignorowanie wcześniej zidentyfikowanych problemów prowadzi do kosztów niewspółmiernie wyższych niż inwestycje, które można było podjąć zawczasu – przed wystąpieniem incydentu.

  • Awaria systemu PAŻP sparaliżowała starty samolotów w całej Polsce

    Awaria systemu PAŻP sparaliżowała starty samolotów w całej Polsce

    W sobotni poranek 19 lipca Polska przestrzeń powietrzna doświadczyła nietypowego kryzysu technologicznego. Awaria systemu zarządzania ruchem lotniczym Polskiej Agencji Żeglugi Powietrznej (PAŻP) sparaliżowała możliwość startów samolotów z większości lotnisk w kraju. Lądowania odbywały się zgodnie z procedurami, jednak brak możliwości wystartowania nawet przez godzinę przypomniał, jak silnie infrastruktura transportowa zależy dziś od stabilnych systemów IT.

    System, który musi działać zawsze

    PAŻP odpowiada za bezpieczeństwo i płynność lotów w polskiej przestrzeni powietrznej. Codziennie zarządza tysiącami operacji lotniczych – zarówno w ramach krajowych połączeń, jak i przelotów międzynarodowych. Kluczowym elementem jest tutaj centralny system zarządzania ruchem lotniczym, który zapewnia synchronizację komunikacji między wieżami kontroli, radarami i pilotami.

    W sobotę ten system przestał działać, zmuszając PAŻP do przełączenia się na tryb awaryjny. Choć ruch został częściowo przywrócony w ciągu kilku godzin, zakłócenia objęły niemal wszystkie większe porty lotnicze – od Warszawy i Krakowa po Katowice i Rzeszów.

    Technologia krytyczna, ale czy odporna?

    Choć PAŻP zapewniła, że bezpieczeństwo lotów nie było zagrożone, a zapasowy system zadziałał zgodnie z procedurą, sytuacja pokazała ograniczoną odporność infrastruktury lotniczej na awarie informatyczne. W Katowicach loty były opóźnione o kilkadziesiąt minut, w Rzeszowie nawet do dwóch godzin. W Gdańsku ruch odbywał się w trybie limitowanym – starty co 10 minut w określonych kierunkach. Wyjątkami były porty w Lublinie, Poznaniu i Szczecinie, gdzie nie odnotowano zakłóceń.

    Z punktu widzenia pasażera problem trwał krótko, ale z perspektywy systemowej to poważne ostrzeżenie. W krajach, gdzie cyfryzacja usług publicznych postępuje szybko, odporność na awarie systemów IT staje się równie ważna jak infrastruktura fizyczna.

    Weryfikacja bezpieczeństwa i pytania o źródło

    Ministerstwo Spraw Wewnętrznych i Administracji poinformowało, że odpowiednie służby – w tym Agencja Bezpieczeństwa Wewnętrznego – analizują awarię również pod kątem sabotażu lub działań zewnętrznych. Choć na tym etapie nie ma potwierdzonych informacji o cyberataku, sama skala incydentu uruchomiła standardowe procedury bezpieczeństwa.

    W praktyce każda poważna awaria systemów sterujących ruchem lotniczym rodzi pytania o jakość infrastruktury IT, kompetencje zespołów reagowania kryzysowego oraz procedury testowania systemów zapasowych. Polska nie jest tu wyjątkiem – podobne zdarzenia miały miejsce w ostatnich latach m.in. w Niemczech i Wielkiej Brytanii. 

    Oficjalnie, Polska Agencja Żeglugi Powietrznej przyznała, że przyczyną awarii była usterka, jednak agencja nie podała szczegółów.

    „Po zastosowaniu wszystkich niezbędnych procedur podstawowy system zarządzania ruchem lotniczym został przywrócony. Powodem przejściowych problemów była usterka, która została niezwłocznie usunięta.
    Podkreślamy, że w czasie działania systemu zapasowego bezpieczeństwo operacji lotniczych w polskiej przestrzeni było zachowane przez cały czas na maksymalnym poziomie.” – podano w komunikacie.

    Wnioski dla branży i administracji

    Sobotni incydent to sygnał alarmowy nie tylko dla PAŻP, ale dla całej administracji publicznej odpowiedzialnej za systemy krytyczne. Wymaga on dokładnej analizy: czy infrastruktura PAŻP jest odpowiednio modernizowana, jak często testowane są scenariusze awaryjne i czy system zapasowy faktycznie może przejąć pełną funkcjonalność bez ręcznego wsparcia.

  • Edge AI nadchodzi szybciej, niż myślisz – co oznacza dla kanału IT?

    Edge AI nadchodzi szybciej, niż myślisz – co oznacza dla kanału IT?

    Jeszcze do niedawna edge computing uchodził za technologię z pogranicza przemysłu, badań i rozwoju. Choć jego potencjał był oczywisty, brakowało impulsu, by stał się powszechnie wdrażanym rozwiązaniem. Dziś sytuacja wygląda inaczej. Skok wydajności chipów przeznaczonych do lokalnych obliczeń oraz coraz większa dostępność sieci 5G sprawiają, że Edge AI – czyli sztuczna inteligencja działająca na urządzeniach końcowych – wchodzi do głównego nurtu cyfrowej transformacji.

    W odróżnieniu od AI rozwijanej w środowiskach chmurowych, edge AI przetwarza dane bezpośrednio tam, gdzie są generowane – na kamerze monitoringu, bramce przemysłowej, wózku magazynowym czy przenośnym urządzeniu diagnostycznym. To rozwiązanie szybsze, tańsze i – co dla wielu branż kluczowe – bezpieczniejsze pod względem regulacyjnym i prywatnościowym. Dla partnerów technologicznych i kanału sprzedaży IT to bardzo konkretna szansa: edge AI tworzy zupełnie nowy segment sprzętu, integracji i usług, który właśnie zaczyna się dynamicznie rozwijać.

    Transformacja, która umożliwiła przyspieszenie edge AI, wynika z kilku równoległych zjawisk. Po pierwsze, producenci układów scalonych wprowadzili do masowej produkcji tanie i energooszczędne chipy z akceleracją AI, które można zainstalować nawet w niewielkich urządzeniach. Po drugie, sieci 5G i nowoczesne Wi-Fi znacząco poprawiły jakość i niezawodność lokalnych połączeń. Po trzecie, wzrosła presja na ograniczanie kosztów operacyjnych związanych z przesyłem danych do chmury. W rezultacie coraz więcej firm dostrzega, że przetwarzanie danych „na miejscu” pozwala uzyskać natychmiastowe efekty, a jednocześnie zminimalizować zużycie łącza i ograniczyć ryzyko związane z transferem danych wrażliwych.

    Edge AI nie jest już koncepcją eksperymentalną. Już teraz działa w realnych warunkach – i to w wielu branżach. W handlu detalicznym kamery analizują zachowania klientów w czasie rzeczywistym, monitorują zatowarowanie półek i informują personel o możliwych brakach. W przemyśle systemy wizyjne montowane przy liniach produkcyjnych wykrywają defekty produktów bez konieczności przesyłania zdjęć do centrum danych. Floty logistyczne korzystają z urządzeń, które analizują dane z czujników i wspierają planowanie tras czy diagnostykę techniczną pojazdów. W ochronie zdrowia przenośne urządzenia medyczne są w stanie lokalnie analizować obraz USG czy dane EKG i wskazywać nieprawidłowości bez połączenia z chmurą. Miasta eksperymentują z lokalną analizą obrazu z kamer monitoringu ulicznego, co pozwala reagować szybciej na zdarzenia drogowe czy akty wandalizmu.

    Wspólnym mianownikiem tych zastosowań jest autonomia i szybkość. Decyzje podejmowane są tam, gdzie powstają dane – bez oczekiwania na analizę w chmurze. Dla kanału IT oznacza to fundamentalną zmianę: rośnie znaczenie urządzeń fizycznych, kompetencji integracyjnych oraz zarządzania infrastrukturą rozproszoną. Edge AI tworzy nową przestrzeń biznesową, w której partnerzy mogą oferować nie tylko sprzęt, ale też wdrożenia, usługi utrzymaniowe i bezpieczeństwo.

    Sprzedaż sprzętu staje się punktem wyjścia. Klienci pytają o mikroserwery, kamery z funkcją AI, sensory z analizą danych na poziomie urządzenia, a także systemy umożliwiające lokalne wdrażanie i aktualizację modeli uczenia maszynowego. Coraz częściej interesuje ich nie tylko to, co dane urządzenie potrafi, ale jak można je zintegrować z istniejącą infrastrukturą – ERP, CRM, BI czy MES. W grę wchodzą również usługi zarządzania cyklem życia modeli AI – ich aktualizacja, testowanie, monitorowanie działania i zapewnienie zgodności z wymaganiami bezpieczeństwa.

    Z perspektywy sprzedażowej edge AI to segment rosnący szybciej niż klasyczne rozwiązania chmurowe. Przede wszystkim dlatego, że liczba punktów końcowych – miejsc, w których klient może wdrożyć urządzenie z AI – jest wielokrotnie większa. Każdy sklep, magazyn, pojazd, hala produkcyjna czy placówka medyczna może mieć osobne potrzeby i osobną infrastrukturę, co przekłada się na więcej okazji do współpracy i sprzedaży usług serwisowych.

    Partnerzy IT, którzy chcą wejść w ten segment, powinni zacząć od wskazania obszarów o największym potencjale. W praktyce są to firmy produkcyjne, centra logistyczne, sieci handlowe offline, samorządy rozwijające projekty typu smart city oraz placówki medyczne wyposażone w diagnostykę na miejscu. W rozmowie z klientem warto skupić się na prostych efektach biznesowych – oszczędnościach, szybszym czasie reakcji, poprawie bezpieczeństwa danych czy autonomii operacyjnej. W wielu przypadkach najlepszym punktem wyjścia będzie lokalny pilotaż – wdrożenie edge AI w jednej placówce, magazynie lub punkcie usługowym, które można potem skalować.

    Z drugiej strony nie warto przeceniać świadomości klientów. Wielu z nich nie rozróżnia jeszcze AI działającej w chmurze od tej osadzonej lokalnie. Tym bardziej istotne jest mówienie językiem korzyści, a nie technologii. Nie chodzi o akceleratory, frameworki i biblioteki ML – chodzi o realny zwrot z inwestycji i poprawę wyników operacyjnych.

    Wejście w edge AI nie wymaga całkowitego przedefiniowania działalności partnera IT. Potrzebne są jednak nowe kompetencje – podstawowa znajomość sposobu wdrażania modeli uczenia maszynowego, doświadczenie w integracji IoT oraz partnerstwa z dostawcami sprzętu i platform edge-ready, takimi jak Nvidia Jetson, Hailo, Intel, AWS Panorama czy Azure Percept. Dobrą praktyką jest też przygotowanie gotowych scenariuszy użycia, które można szybko pokazać klientowi – zorientowanych nie na technologię, lecz na rozwiązanie konkretnego problemu.

    Edge AI to nie eksperyment. To nowy rynek, który właśnie nabiera tempa. Partnerzy, którzy dziś zaczną budować swoje kompetencje i ofertę wokół tej technologii, mają realną szansę zdobyć przewagę konkurencyjną – nie tylko w zakresie przychodów, ale też pozycji doradczej u klientów. Warto działać szybko. Za dwa lata edge może być już standardem – pytanie tylko, kto będzie go wdrażał.

  • Polak awansuje w Iron Mountain. Marcin Skrzypczak zarządza operacjami w 10 krajach Europy

    Polak awansuje w Iron Mountain. Marcin Skrzypczak zarządza operacjami w 10 krajach Europy

    Iron Mountain powierzył Marcinowi Skrzypczakowi nadzór operacyjny nad kluczowym regionem Northern Europe Cluster. Awans Polaka na stanowisko Head of RM Operations – Senior Director to nie tylko dowód zaufania ze strony centrali, ale i potwierdzenie rosnącej roli polskich liderów w globalnych strukturach międzynarodowych firm technologicznych.

    Skrzypczak, związany z firmą od dekady, będzie odpowiadał za operacje w dziesięciu krajach – od Skandynawii po Europę Środkową – w tym m.in. w Niemczech, Holandii i Polsce. Region ten, będący jednym z najważniejszych w europejskim portfolio Iron Mountain, obejmuje ok. 50 centrów logistyczno-magazynowych i flotę 180 pojazdów.

    „To dla mnie ogromna satysfakcja być częścią organizacji, która nie tylko stawia na rozwój procesów związanych z operacjami, ale również konsekwentnie realizuje cele zrównoważonego rozwoju. Obecnie zarządzamy siecią około 50 magazynów, z czego już 25% zasilanych jest energią pochodzącą ze źródeł odnawialnych. Nasza flota liczy 180 pojazdów, przy czym aż 100 to samochody elektryczne – a do 2030 roku planujemy osiągnąć poziom 100% floty zeroemisyjnej. Skala naszych działań to jednak nie tylko liczby – to realny wpływ na środowisko. Rocznie nasze pojazdy pokonują łącznie około 5,5 miliona kilometrów. Dzięki stopniowej elektryfikacji floty jesteśmy w stanie ograniczyć emisję dwutlenku węgla o ponad 520 ton rocznie. To redukcja odpowiadająca zasadzeniu aż 80 tysięcy drzew, co można porównać do stworzenia lasu o powierzchni 26 hektarów. Docelowo, do 2030 roku, chcemy zwiększyć ten efekt do poziomu 1000 ton mniej emisji rocznie – to odpowiednik 150 tysięcy drzew i 50 hektarów zieleni. Są to konkretne działania, które mają znaczenie – zarówno dla naszych Klientów, jak i dla przyszłych pokoleń. Jestem dumny, że razem z zespołem możemy realnie wspierać zrównoważony rozwój poprzez technologie i odpowiedzialne podejście do logistyki” – mówi Marcin Skrzypczak, Head of RM Operations – Senior Director – Northern Europe Cluster w Iron Mountain Polska.

    Przypadek Skrzypczaka to również kolejny przykład globalizacji kompetencji menedżerskich – i rosnącej widoczności polskich liderów w strukturach dużych korporacji. To już jego piąty awans w Iron Mountain, drugi w ramach struktur międzynarodowych – i prawdopodobnie nie ostatni.

  • TP-Link: Małe firmy stawiają na jakość. Wi-Fi 7 i SDN trafiają do sektora SMB

    TP-Link: Małe firmy stawiają na jakość. Wi-Fi 7 i SDN trafiają do sektora SMB

    W ciągu ostatnich kilkunastu miesięcy rynek rozwiązań sieciowych dla sektora SMB i MSP w Polsce oraz w regionie Europy Środkowo-Wschodniej przeszedł zauważalną transformację. Firmy – nawet te najmniejsze – coraz częściej odchodzą od podejścia „tanio i szybko” na rzecz świadomej inwestycji w stabilną, bezpieczną i skalowalną infrastrukturę. Wzrasta znaczenie centralnego zarządzania, jakości usług (QoS), segmentacji sieci czy redundancji – jeszcze niedawno zarezerwowanych dla dużych przedsiębiorstw.

    O technologicznych trendach, stopniowej adopcji modelu Network as a Service, roli sztucznej inteligencji w zarządzaniu siecią oraz wyzwaniach stojących przed integratorami i operatorami mówi Robert Gawroński, B2B Channel Managerem w TP-Link Polska. Ekspert przybliża również trzy kluczowe kierunki rozwoju sieci biznesowych na najbliższe lata: Wi-Fi 7, przełączniki multigigabitowe oraz systemy zarządzania oparte na chmurze i architekturze SDN.

    Klaudia Ciesielska, Brandsit: Jakie zmiany na rynku rozwiązań sieciowych dla SMB i MSP obserwujecie w Polsce i regionie CEE w ostatnich 12–18 miesiącach?

    Robert Gawroński, TP-Link: W ostatnich kilkunastu miesiącach obserwujemy wyraźną zmianę podejścia wśród partnerów z sektora SMB i MSP – coraz częściej kładą oni nacisk na świadomy dobór infrastruktury sieciowej. Zanika podejście, w którym kluczowym kryterium była wyłącznie cena, a w firmach instalowane były konsumenckie access pointy czy routery. Dziś firmy – nawet te najmniejsze – dostrzegają, że sieć to fundament funkcjonowania całej organizacji.

    „Zanika podejście, w którym kluczowym kryterium była wyłącznie cena”

    Rośnie świadomość, że stabilność, bezpieczeństwo oraz skalowalność infrastruktury mają bezpośredni wpływ na wydajność operacyjną. Widzimy też, że coraz częściej partnerzy pytają o kwestie związane z segmentacją sieci, kontrolą dostępu, redundancją czy jakością usług (QoS) – tematy, które jeszcze niedawno były domeną wyłącznie dużych organizacji.

    W Polsce i całym regionie CEE ten wzrost świadomości technicznej bardzo nas cieszy – to przestrzeń, w której jako TP-Link z rozwiązaniami Omada SDN możemy realnie wspierać transformację cyfrową firm, oferując infrastrukturę klasy biznesowej w przystępnej formie.

    K.C.: Czy obserwujecie wzrost zainteresowania modelami usługowymi typu Network as a Service (NaaS)?

    R.G.: Na chwilę obecną nie obserwujemy dużego zainteresowania modelami NaaS w segmencie, w którym działamy – czyli głównie SMB i MSP. Wciąż dominuje tradycyjny model oparty na zakupie urządzeń i wdrożeniu przez lokalnych integratorów.

    Jednak widzimy rosnącą otwartość na usługi zarządzane – szczególnie wśród dostawców IT, którzy szukają możliwości dywersyfikacji oferty i zwiększenia przychodów poprzez stałą obsługę infrastruktury sieciowej. W tej perspektywie NaaS może stać się naturalnym kierunkiem rozwoju w najbliższych latach.

    „Widzimy rosnącą otwartość na usługi zarządzane”

    Jako TP-Link jesteśmy gotowi, by wspierać partnerów w tej transformacji – zarówno przez elastyczne modele licencjonowania, jak i integrację Omada SDN z narzędziami do zdalnego zarządzania (np. RMM/PSA), co pozwala tworzyć własne usługi sieciowe w modelu abonamentowym.

    K.C.: Jakie technologie (np. Wi-Fi 7, sieci mesh, edge computing, SD-WAN) są obecnie na fali wzrostu wśród profesjonalnych klientów i operatorów? Czy któryś trend szczególnie przyspieszył?

    R.G.: W sektorze SMB i MSP nadal dominują technologie bezprzewodowe – przede wszystkim Wi-Fi 6, które stało się standardem w nowych wdrożeniach. Widoczny jest jednak coraz silniejszy trend wzrostowy Wi-Fi 7, szczególnie w środowiskach o dużym zagęszczeniu użytkowników, wykorzystujących aplikacje czasu rzeczywistego czy wymagających wysokiej jakości usług multimedialnych.

    Równolegle rośnie popularność topologii mesh, która doskonale sprawdza się w budynkach wielokondygnacyjnych, rozproszonych lokalizacjach czy obiektach hotelowych, zapewniając płynność roamingu i uproszczoną konfigurację.

    Zwiększa się także znaczenie rozwiązań SDN – centralne zarządzanie siecią z poziomu chmury to dziś coraz częściej wymóg, a nie „wartość dodana”. Omada SDN odpowiada na te potrzeby, umożliwiając łatwe skalowanie infrastruktury, automatyzację zadań administracyjnych i dostęp do danych diagnostycznych w czasie rzeczywistym.

    „Centralne zarządzanie siecią z poziomu chmury to dziś coraz częściej wymóg, a nie 'wartość dodana’.”

    K.C.: Jak wygląda adopcja rozwiązań AI/ML w zarządzaniu siecią (np. automatyczna optymalizacja, detekcja zagrożeń) przez MSP i operatorów?

    R.G.: Rozwiązania wykorzystujące sztuczną inteligencję i uczenie maszynowe coraz częściej stają się integralną częścią systemów zarządzania siecią – i to nie tylko w dużych korporacjach. W przypadku TP-Link, wiele funkcji dostępnych w ramach platformy Omada SDN bazuje na algorytmach AI – np. automatyczna optymalizacja ustawień radiowych, predykcyjne wykrywanie problemów, analiza obciążenia sieci, czy proaktywne ostrzeganie o anomaliach.

    Z perspektywy MSP to ogromna wartość, ponieważ umożliwia świadczenie usług wyższej jakości bez konieczności manualnej interwencji w każdą konfigurację. Dzięki temu jeden administrator może zarządzać dziesiątkami lokalizacji klientów końcowych.

    Jednocześnie zdajemy sobie sprawę, że nie każdy partner czy administrator czuje się pewnie w temacie AI. Dlatego projektujemy nasze narzędzia tak, by funkcje oparte na AI były intuicyjne, przejrzyste i w pełni transparentne – wspierały administratorów, a nie ich zastępowały. To podejście „AI as an assistant” doskonale sprawdza się w sektorze MSP i SMB.

    K.C.: Jakie są największe wyzwania, które pojawiają się przed integratorami i operatorami w tym segmencie rynku, i jak się one zmieniają?

    R.G.: Jednym z głównych wyzwań pozostaje stale rosnąca liczba urządzeń podłączanych do sieci – od komputerów i smartfonów, przez systemy POS, kamery monitoringu, aż po czujniki i urządzenia IoT. Zjawisko BYOD dodatkowo komplikuje kwestie kontroli dostępu, przepustowości i bezpieczeństwa.

    Kolejnym wyzwaniem jest integracja nowych technologii z istniejącą infrastrukturą. Firmy oczekują modernizacji, ale bez konieczności wymiany wszystkiego – dlatego ważne jest, aby rozwiązania sieciowe były skalowalne, modularne i łatwe w rozbudowie. Omada SDN odpowiada na te potrzeby, umożliwiając etapowe wdrożenia z centralnym zarządzaniem i spójną polityką sieciową.

    „Ważne jest, aby rozwiązania sieciowe były skalowalne, modularne i łatwe w rozbudowie”

    Wzrasta również presja na zapewnienie wysokiego poziomu bezpieczeństwa – nawet najmniejsze organizacje stają się dziś celem ataków. Dlatego nasze rozwiązania oferują zaawansowane funkcje ochrony, takie jak ACL, izolacja VLAN, kontrola dostępu gości czy analiza zagrożeń.

    Nie możemy też zapominać o samych integratorach – ci mierzą się z rosnącą złożonością technologii i potrzebą ciągłego podnoszenia kwalifikacji. Dlatego TP-Link inwestuje w programy edukacyjne i techniczne wsparcie partnerów, pomagając im skutecznie wdrażać nasze rozwiązania i doradzać klientom na poziomie strategicznym.

    K.C.: W których obszarach rynku sieciowego dla biznesu spodziewacie się najbardziej intensywnego rozwoju w ciągu najbliższych 2–3 lat?

    R.G.: W najbliższych latach spodziewamy się dynamicznego rozwoju przede wszystkim w trzech obszarach:

    • Wi-Fi 7 – nowy standard oferujący jeszcze większe prędkości, stabilność i niskie opóźnienia. To technologia, która doskonale odpowiada na potrzeby nowoczesnych środowisk pracy, usług opartych na chmurze, wideo 4K/8K, a także AR/VR.
    • Przełączniki multigigabitowe (2,5G/10G) – wraz z rozwojem Wi-Fi 6/7 oraz wzrostem liczby urządzeń wymagających wysokiej przepustowości, rośnie znaczenie infrastruktury przewodowej. Multigigabit staje się dziś niezbędny zarówno na poziomie szkieletu sieci, jak i dostępu do stacji roboczych czy serwerów NAS.
    • Zarządzanie chmurowe i SDN – rośnie znaczenie rozwiązań umożliwiających zdalną konfigurację, monitorowanie i optymalizację całej infrastruktury z poziomu jednej platformy. Dla firm z wieloma lokalizacjami, dostawców usług IT i administratorów systemów to dziś podstawa efektywnego działania.

    Widzimy również rosnące znaczenie integracji sieci przewodowej i bezprzewodowej – administratorzy oczekują spójnego zarządzania politykami QoS, VLAN, bezpieczeństwa i raportowania bez względu na typ połączenia. Omada SDN jest przygotowana na te wyzwania – zarówno pod względem technologicznym, jak i operacyjnym.

  • Fabrity kończy transformację. Co dalej po odejściu Artura Piątka z zarządu?

    Fabrity kończy transformację. Co dalej po odejściu Artura Piątka z zarządu?

    Z końcem lipca z zarządu Fabrity odchodzi Artur Piątek – jeden z głównych architektów zakończonej właśnie transformacji dawnej Grupy K2. To symboliczny moment domykający kilkuletni proces przeobrażania wielobranżowego holdingu w wyspecjalizowaną firmę technologiczną, skupioną na usługach inżynierii oprogramowania.

    Transformacja, która rozpoczęła się w 2020 roku, miała charakter wielowymiarowy: strategiczny, kapitałowy i organizacyjny. Grupa pozbyła się działalności spoza core businessu – sprzedała m.in. Oktawave (kupioną przez Netię) oraz spółki marketingowe (przejęte przez Altavię). Łączna wartość dezinwestycji przekroczyła 55 mln zł. Równolegle przeprowadzono integrację strukturalną – połączono spółkę holdingową z operacyjną, co uprościło zarządzanie i zwiększyło efektywność.

    Ostatnim formalnym krokiem było wykorzystanie tzw. ulgi holdingowej przy zbyciu spółek zależnych i odzyskanie blisko 5 mln zł nadpłaty podatku CIT. Pieniądze te – w części już przekazane, a w części oczekiwane – mogą dodatkowo zasilić wypłaty dla akcjonariuszy. Spółka zadeklarowała bowiem wypłatę 3,30 zł dywidendy na akcję z zysku za 2024 rok, a dodatkowy 1 zł może trafić do inwestorów warunkowo – jeśli urząd skarbowy sfinalizuje zwrot podatku do końca listopada.

    Z perspektywy rynku kapitałowego transformacja okazała się sukcesem. Od stycznia 2020 roku akcje Fabrity (wtedy jeszcze K2) przyniosły inwestorom łączny zwrot na poziomie ok. 450%, przy wzroście szerokiego indeksu WIG o ok. 80%. To efekt nie tylko skutecznych dezinwestycji i restrukturyzacji, ale także wypłat rekordowych dywidend i skupu akcji.

    Odejście Piątka to zamknięcie ważnego etapu, ale nie koniec zmian. Obecny zarząd, kierowany przez Tomasza Burczyńskiego, koncentruje się na ekspansji usług IT i dalszym wzmacnianiu pozycji rynkowej. Pytanie, które stawiają inwestorzy, brzmi: czy Fabrity zdoła utrzymać tempo wzrostu, kiedy na stole nie ma już spektakularnych transakcji, a wycena spółki oparta będzie głównie na potencjale operacyjnym?

    Dla rynku to sprawdzian: czy zreorganizowana Grupa faktycznie stała się nowoczesną firmą technologiczną gotową do skalowania działalności – czy jedynie dobrze zoptymalizowanym aktywem po serii udanych transakcji.

  • Arrow Electronics dystrybutorem Cohesity w Polsce

    Arrow Electronics dystrybutorem Cohesity w Polsce

    Arrow Electronics rozszerza swoje portfolio o rozwiązania Cohesity – amerykańskiego dostawcy platform do ochrony i zarządzania danymi opartych na sztucznej inteligencji. Umowa dystrybucyjna podpisana na polski rynek oznacza, że lokalni partnerzy kanałowi zyskują dostęp do jednej z bardziej zaawansowanych technologicznie platform cyberodporności dostępnych obecnie na rynku.

    Odpowiedź na złożoność środowisk IT

    Wraz ze wzrostem liczby rozproszonych środowisk chmurowych, danych generowanych przez aplikacje i infrastruktury hybrydowe, rośnie zapotrzebowanie na rozwiązania, które integrują backup, odzyskiwanie danych i cyberbezpieczeństwo w jednym ekosystemie. Tę niszę od kilku lat zagospodarowuje Cohesity. Firma zdobyła pozycję lidera m.in. dzięki zastosowaniu architektury natywnie chmurowej, wsparciu dla modelu Zero Trust i rozbudowanym funkcjom opartym na AI, które wspierają analizę danych i automatyzację procesów bezpieczeństwa.

    Cohesity Data Cloud – konsolidacja i automatyzacja

    Flagowe rozwiązanie Cohesity – platforma Data Cloud – to odpowiedź na bolączki wielu organizacji: rozdrobnione silosy danych, wysokie koszty operacyjne i brak spójnego podejścia do zarządzania bezpieczeństwem informacji. Dzięki integracji funkcji backupu, archiwizacji, disaster recovery i przechowywania danych, platforma upraszcza zarządzanie środowiskiem IT. Istotną przewagą jest wykorzystanie sztucznej inteligencji do monitorowania i reagowania na incydenty, a także centralny pulpit zarządzania w czasie rzeczywistym.

    Współpraca z Arrow może ułatwić Cohesity wejście na konkurencyjny, ale wciąż dojrzewający rynek rozwiązań data security w Polsce. Dla partnerów kanałowych oznacza to dostęp do technologii, które mogą być odpowiedzią na coraz częstsze ataki ransomware i rosnące wymagania regulacyjne w zakresie przechowywania danych. Arrow wnosi do współpracy nie tylko infrastrukturę dystrybucyjną, ale i zaplecze doradcze, co może ułatwić partnerom identyfikację i realizację projektów z zakresu bezpieczeństwa danych.

  • Action rośnie szybciej niż rynek. II kwartał 2025 z rekordową sprzedażą

    Action rośnie szybciej niż rynek. II kwartał 2025 z rekordową sprzedażą

    Grupa Action zakończyła II kwartał 2025 roku z imponującą dynamiką sprzedaży. Według szacunkowych danych, przychody spółki w okresie od kwietnia do czerwca wyniosły około 702 mln zł – to wzrost o 32 proc. względem analogicznego okresu ubiegłego roku. Czerwiec zamknął się rekordowymi 244 mln zł, co oznacza niemal 32-procentową poprawę rok do roku.

    Wysokie tempo wzrostu sprzedaży Action utrzymuje się już trzeci miesiąc z rzędu – w maju firma osiągnęła 228 mln zł przychodów (+35 proc. r/r), a w kwietniu 230 mln zł (+28 proc. r/r). Jednocześnie marża brutto na sprzedaży pozostaje stabilna – w czerwcu wyniosła 7,4 proc., niewiele poniżej ubiegłorocznych 7,9 proc.

    Na tle całego półrocza II kwartał wygląda solidnie również względem początku roku. Przychody Action w I kwartale wyniosły 663,6 mln zł, a więc były o prawie 6 proc. niższe niż w kwartale zakończonym w czerwcu.

    Z drugiej strony, przy tak dynamicznej sprzedaży, uwagę zwraca istotny spadek zyskowności. W I kwartale 2025 r. zysk netto dla akcjonariuszy spadł o ponad połowę, do 7,7 mln zł, mimo wzrostu przychodów. Sygnały z drugiego kwartału sugerują, że presja kosztowa może się utrzymywać.

    Dla kanału IT Action pozostaje silnym graczem o dużej skali, ale malejąca rentowność może zwiastować ostrożniejsze podejście inwestorów – zwłaszcza w kontekście globalnej presji na marże w dystrybucji IT.

  • Systemy czasu i bezpieczeństwa IT z polskim wkładem – eksperci z odznaczeniami państwowymi od Ministra Cyfryzacji

    Systemy czasu i bezpieczeństwa IT z polskim wkładem – eksperci z odznaczeniami państwowymi od Ministra Cyfryzacji

    W cieniu wielkich premier technologicznych i globalnych konferencji, w Ministerstwie Cyfryzacji odbyła się uroczystość, która przypomina, że fundamentem cyfrowej transformacji są ludzie – eksperci, których praca z pozoru niewidoczna, stanowi podstawę działania nowoczesnego państwa.

    7 lipca Wicepremier Krzysztof Gawkowski wręczył Odznaki Honorowe za Zasługi dla Komunikacji Elektronicznej dwóm postaciom od lat stojącym na straży precyzji i bezpieczeństwa systemów synchronizacji czasu: dr. inż. Włodzimierzowi Lewandowskiemu i Tomaszowi Widomskiemu. To dopiero drugie i trzecie takie wyróżnienie w historii.

    Czas i częstotliwość to pojęcia, które rzadko pojawiają się w debacie publicznej. A jednak od stabilności i bezpieczeństwa ich pomiarów zależy funkcjonowanie systemów finansowych, energetycznych, telekomunikacyjnych, infrastruktury krytycznej oraz – coraz częściej – nowoczesnych systemów obronnych. W świecie, w którym każda milisekunda może mieć znaczenie strategiczne, Polska ma powody do dumy.

    Dr Lewandowski to metrolog z dorobkiem międzynarodowym, jeden z nielicznych Polaków uczestniczących w pracach redakcyjnych sektorów ITU. Jego doświadczenie było kluczowe m.in. dla rozwoju systemu Galileo, europejskiej alternatywy dla GPS, i reformy Głównego Urzędu Miar.

    Z kolei Tomasz Widomski to przykład udanej synergii nauki i przedsiębiorczości. Od lat zajmuje się technikami bezpiecznej synchronizacji w sieciach komputerowych – w tym odpornych na zakłócenia wersjach Galileo – oraz cyberbezpieczeństwem metrologii. W dobie rozproszonej infrastruktury IT/OT, jego prace stają się fundamentem cyfrowej odporności. Przeczytaj wywiad z Tomaszem Widomskim, opublikowany na naszych łamach, na temat synchronizacji.

    Obaj laureaci reprezentują środowisko, które rzadko trafia na pierwsze strony gazet – a jednocześnie odpowiada za precyzję działania systemów, bez których gospodarka cyfrowa nie miałaby racji bytu. Wręczenie im wyróżnień to nie tylko symboliczny gest – to także sygnał, że Polska zaczyna poważnie traktować technologie czasu i synchronizacji jako strategiczne aktywa państwa.

    Uważam, że jest to wyróżnienie dla całego naszego środowiska pracującego nad zagadnieniami związanymi z czasem, a którego przedstawiciele zgromadzili się na dzisiejszej uroczystości. 

    „Chciałbym również podkreślić to, że władze Rzeczypospolitej coraz bardziej doceniają technologię systemów nawigacji satelitarnej. To bardzo ważne, bo to potężna technologia wpływająca na rozwój gospodarczy naszego kraju i jego bezpieczeństwo w tych burzliwych czasach. Mam nadzieję, że będziemy wspólnie szli coraz szybciej drogą większego udziału Polski w wielkim europejskim systemie Galileo.” powiedział Włodzimierz Lewandowski.

    „To odznaczenie traktuję jako wielkie wyróżnienie oraz zobowiązanie dla polskich naukowców i przedsiębiorców. To co wraz z dr. Lewandowskim osiągnęliśmy przez ostatnie dwie dekady nie jest wyłącznie zasługą nas dwóch. To wspólny sukces naszych zespołów, osób które wspierały nas przez ten czas. Porzuciliśmy wszelkie kompleksy i udało nam się dołączyć do elitarnego grona naukowców, którzy reprezentują gospodarki z grupy G7. Na co dzień dyskutujemy o problemach bardzo poważnych, w tym takich, co do których jeszcze 30 lat temu nie wyobrażaliśmy sobie, że mogą decydować o naszym bezpieczeństwie, a zwłaszcza bezpieczeństwie naszej przyszłości w oparciu o transformację cyfrową.”powiedział Tomasz Widomski.

  • Handel przyszłości: 37% Polaków korzysta z e-commerce i sklepów stacjonarnych równie chętnie

    Handel przyszłości: 37% Polaków korzysta z e-commerce i sklepów stacjonarnych równie chętnie

    Jeszcze niedawno rynek e-commerce i handel tradycyjny postrzegano jako dwa konkurujące światy. W 2025 roku ten podział traci rację bytu – decyzje zakupowe Polaków coraz częściej wynikają z bieżącej potrzeby, a nie preferencji jednego kanału. Jak wynika z najnowszego badania „Adyen Index: Retail Report 2025”, aż 37 proc. konsumentów deklaruje, że równie chętnie korzysta ze sklepów internetowych, jak i stacjonarnych. To wyraźny sygnał: rynek wkracza w erę unified commerce, gdzie kluczowa staje się płynność doświadczeń, a nie dominacja jednego modelu.

    Zakupy na ostatnią chwilę i elastyczność jako norma

    Co trzeci konsument przyznaje, że zakupy zostawia na ostatnią chwilę. Nawet najszybsza dostawa nie zastąpi więc możliwości natychmiastowego zabrania produktu ze sklepu. Jednocześnie fizyczna obecność w sklepie to już za mało – 34 proc. Polaków oczekuje dodatkowych wrażeń, takich jak VR, strefy relaksu czy wydarzenia specjalne. Tradycyjny handel przekształca się w przestrzeń doświadczeń, nie tylko sprzedaży.

    Równolegle e-commerce utrzymuje silną pozycję dzięki wygodzie i przejrzystości. Niższe ceny (42 proc.), łatwość porównywania ofert (41 proc.) oraz oszczędność czasu (39 proc.) to najczęstsze powody, dla których Polacy wybierają zakupy online. Jednak mimo tych atutów, kanał cyfrowy nie wypiera fizycznego – przeciwnie, oba uzupełniają się w zależności od sytuacji.

    Rosnące oczekiwania wobec marek

    Zacieranie się granic między kanałami sprzedaży sprawia, że konsumenci mają coraz wyższe oczekiwania. Aż 55 proc. badanych chciałoby zwracać zakupy online bezpośrednio w sklepach stacjonarnych, a 52 proc. deklaruje większą lojalność wobec marek, które umożliwiają zamówienie brakującego produktu na miejscu z dostawą do domu. Handel hybrydowy to dziś nie przewaga – to fundament konkurencyjności.

    To podejście znajduje odzwierciedlenie w działaniach firm. 32 proc. z nich inwestuje w ekskluzywne doświadczenia zakupowe w sklepach fizycznych, a 24 proc. wdraża technologie takie jak rozszerzona rzeczywistość czy inteligentne lustra, by zwiększyć atrakcyjność wizyt w salonie sprzedaży.

    Technologia, zrównoważony rozwój i dane w czasie rzeczywistym

    Oczekiwania klientów to także ekologia i informacja. 24 proc. konsumentów zwraca uwagę na zrównoważone dostawy i opakowania, a 23 proc. oczekuje danych o dostępności produktów w czasie rzeczywistym – co wymaga sprawnego zaplecza technologicznego. Firmy, które nie zintegrują informacji z różnych kanałów i nie uproszczą procesu zakupowego, pozostaną w tyle.

    Handel 2025: scenariusze, nie kanały

    Wnioski z raportu Adyen są jasne: Polacy nie wybierają już między sklepem a internetem – wybierają scenariusz, który w danej chwili jest dla nich najwygodniejszy. Dlatego zwyciężą ci sprzedawcy, którzy zapewnią spójne, elastyczne i intuicyjne doświadczenie zakupowe niezależnie od punktu styku z marką.

    Dla branży oznacza to nie tylko konieczność integracji kanałów, ale przede wszystkim budowę ekosystemu odpowiadającego na potrzeby konsumenta tu i teraz – od łatwego zwrotu po angażujące doświadczenia offline. W 2025 roku to klient definiuje reguły gry, a technologia ma je umożliwiać, nie narzucać.

  • Polska stawia na jakość w IT. Konkurencyjność już nie opiera się na kosztach

    Polska stawia na jakość w IT. Konkurencyjność już nie opiera się na kosztach

    Jeszcze dekadę temu atutem Polski w sektorze IT były głównie niższe koszty pracy. Dziś ta narracja przestaje być aktualna. Coraz więcej globalnych firm wybiera Polskę nie ze względu na ceny, lecz na jakość – technologiczną dojrzałość zespołów, wyspecjalizowane kompetencje i kulturę operacyjną, która z powodzeniem funkcjonuje w realiach międzynarodowych.

    Jak wynika z najnowszego raportu Grafton Recruitment „Wynagrodzenia i trendy w IT 2025”, rynek IT w Polsce osiągnął etap, w którym decydujące znaczenie ma już nie cena, ale wartość dodana, jaką zespoły potrafią wnieść do realizowanych projektów.

    Zaufanie zamiast stawki

    Polscy specjaliści coraz częściej pracują w strukturach rozproszonych – dla klientów z USA, Skandynawii czy Niemiec – pełniąc funkcje nie tylko wykonawcze, ale doradcze i strategiczne. Dojrzałość operacyjna i umiejętność pracy w kulturze projektowej to kompetencje, które stanowią dziś o wartości rynkowej polskich zespołów.

    Zmienia się też sposób, w jaki firmy zarządzają talentami. Nowoczesne przywództwo – oparte na elastyczności, zaufaniu i empatii – skutecznie wspiera funkcjonowanie zespołów działających ponad granicami i strefami czasowymi. Liderzy stają się integratorami wiedzy, a nie kontrolerami czasu pracy.

    Talent rośnie szybciej niż rynek

    Zgodnie z raportem Graftona, baza talentów IT w Polsce systematycznie się powiększa. Dane GUS pokazują, że liczba studentów kierunków informatycznych rośnie szybciej niż ogólna liczba studiujących. Udział tej grupy w strukturze kształcenia wzrósł o 4,2 punktu procentowego, a województwa takie jak wielkopolskie czy dolnośląskie notują dwucyfrowe wzrosty.

    W czołówce pod względem liczby studentów IT utrzymują się województwa mazowieckie, małopolskie i dolnośląskie – co nie dziwi, biorąc pod uwagę koncentrację firm technologicznych w Warszawie, Krakowie i Wrocławiu. Jednocześnie wzrosty w mniejszych regionach sugerują, że infrastruktura edukacyjna rozprzestrzenia się poza główne ośrodki akademickie, co może mieć strategiczne znaczenie dla decentralizacji branży w najbliższych latach.

    Ewolucja kompetencji

    Wzrost liczby studentów to nie jedyny trend – zmienia się również profil kompetencji. Coraz większą rolę odgrywają specjalizacje związane z AI, inżynierią danych, etyką algorytmów czy inżynierią promptów. Jednocześnie maleje liczba ofert na stanowiskach juniorskich – nie dlatego, że rynek się kurczy, ale dlatego, że automatyzacja prostych zadań (w dużej mierze dzięki AI) zmienia strukturę zapotrzebowania na talenty.

    Nowe role wymagają głębszej specjalizacji, umiejętności analizy biznesowej i strategicznego myślenia. To wyzwanie zarówno dla uczelni, jak i samych firm, które muszą inwestować w rozwój kompetencji bardziej złożonych niż kodowanie czy testowanie.

    Polska jako partner, nie podwykonawca

    Dane Polskiej Agencji Inwestycji i Handlu (PAIH) wskazują, że Polska przyciąga inwestycje technologiczne nie tylko ze względu na koszty, ale również dzięki jakości edukacji, szerokiej dostępności talentów i stabilnemu otoczeniu gospodarczemu. Rocznie studia z zakresu informatyki i telekomunikacji kończy ponad 55 tys. osób, a Polska notuje jeden z najwyższych w UE udziałów kobiet wśród absolwentów kierunków STEM.

    Dodatkowe atuty – jak położenie geograficzne w strefie czasowej dogodnej dla Europy i USA czy rozwinięta infrastruktura logistyczna – sprawiają, że Polska zyskuje pozycję strategicznego hubu technologicznego, a nie jedynie miejsca do zlecania prostych zadań.

    Przyszłość: mniej skali, więcej wartości

    Raport Grafton Recruitment wskazuje jednoznacznie – to nie liczba zatrudnionych czy koszt godzinowy świadczy dziś o sile sektora IT w Polsce. Kluczowe są zdolność do budowania długoterminowych relacji, elastyczność w adaptacji do zmian oraz łączenie kompetencji technologicznych z rozumieniem potrzeb biznesowych.

    Polska ma dziś zasoby, aby nie tylko wspierać globalne projekty, ale także je współtworzyć – od poziomu koncepcji, przez architekturę rozwiązań, po ich wdrożenie. To przesunięcie roli z „wykonawcy” na „partnera” może być najważniejszym trendem w krajowym IT w drugiej połowie dekady.

  • Rynek pracy IT w Polsce 2025: Ofert więcej o 68%, ale brakuje seniorów

    Rynek pracy IT w Polsce 2025: Ofert więcej o 68%, ale brakuje seniorów

    Pierwsze półrocze 2025 roku przyniosło znaczące ożywienie na polskim rynku IT. Po trudniejszym 2023, sektor rekrutacji technologicznej wraca do wzrostów, a liczba ofert pracy wzrosła aż o 68% rok do roku – wynika z danych portalu justjoin.it. Kluczowym motorem tego odbicia jest eksplozja zapotrzebowania na kompetencje z obszaru sztucznej inteligencji i danych.

    Najwięcej ogłoszeń dotyczyło specjalistów w kategoriach Data (9,7%), Java (9,4%) i JavaScript (8,3%). Wysokie zapotrzebowanie odnotowano też w DevOps, Analytics i Python. Wyróżnia się AI/ML – liczba ofert w tej grupie rosła dynamicznie zwłaszcza w drugim kwartale, co odzwierciedla globalny trend wdrażania rozwiązań opartych na sztucznej inteligencji.

    Polska zyskuje na rosnącym popycie jako technologiczny hub w regionie CEE. Średnia pensja w IT wyniosła w pierwszej połowie roku 22 770 zł brutto miesięcznie – o 12% więcej niż rok wcześniej. Seniorzy w kluczowych specjalizacjach, takich jak Java czy Security, osiągają rekordowe wynagrodzenia, sięgające nawet 40 tys. zł na umowie o pracę. Wysokie stawki notują także architekci IT, DevOpsi i specjaliści od danych.

    Paradoksalnie, przy rekordowym popycie na doświadczonych ekspertów (52,3% wszystkich ofert), to juniorzy dominują pod względem liczby aplikacji – są ponad dwukrotnie bardziej aktywni niż ich bardziej doświadczeni koledzy. Choć udział ofert dla początkujących nadal jest niski (5,9%), liczbowo wzrósł o 20% rok do roku. To sygnał, że rynek pracy IT nie jest całkowicie zamknięty dla nowych talentów, ale oczekiwania rosną – od znajomości narzędzi AI po gotowe portfolio i dużą elastyczność.

    Zmienia się też krajobraz pracy zdalnej. Po raz pierwszy model hybrydowy wyprzedził w ofertach w pełni zdalny – odpowiednio 47,1% i 46% ogłoszeń. Tylko 7% pracodawców oczekuje obecności w biurze. To może sugerować, że firmy zaczynają szukać lepszego balansu między elastycznością a efektywnością zespołów.

    Wszystko wskazuje na to, że druga połowa roku przyniesie dalszą konsolidację rynku wokół najbardziej pożądanych kompetencji oraz eskalację rywalizacji o seniorów. Jednocześnie wejście do branży dla juniorów będzie coraz trudniejsze, co może za kilka lat odbić się na dostępności doświadczonych kadr. Polska branża IT stoi więc przed wyzwaniem nie tylko wzrostu, ale też budowy trwałych fundamentów pod przyszły rozwój – w świecie, w którym tempo zmian technologicznych wyprzedza tempo edukacji i adaptacji zawodowej.

  • Cloudflare w portfolio iIT Distribution

    Cloudflare w portfolio iIT Distribution

    iIT Distribution rozszerza ofertę o rozwiązania Cloudflare, globalnego dostawcy usług z zakresu cyberbezpieczeństwa i wydajności sieci. Nowa współpraca obejmuje zarówno Polskę, jak i rynki bałtyckie, wzmacniając pozycję dystrybutora jako regionalnego gracza w segmencie nowoczesnych technologii chmurowych.

    Cloudflare to jeden z liderów światowego rynku w zakresie ochrony przed atakami DDoS, WAF, CDN oraz rozwiązań Zero Trust i SASE. Firma obsługuje już ponad 20% ruchu internetowego, a jej infrastruktura obejmuje setki punktów obecności na całym świecie. Dzięki temu oferuje nie tylko skalowalność, ale też niski czas opóźnień i wysoki poziom ochrony.

    „Współpraca z Cloudflare to dla nas kolejny strategiczny krok w kierunku zapewnienia naszym partnerom i klientom dostępu do najlepszych rozwiązań w zakresie bezpieczeństwa i wydajności sieci. Jako iIT Distribution konsekwentnie rozwijamy nasze portfolio o innowacyjne technologie, które odpowiadają na rosnące wyzwania w obszarze cyberbezpieczeństwa. Dzięki Cloudflare możemy zaoferować kompleksową ochronę oraz optymalizację infrastruktury IT, co ma kluczowe znaczenie dla firm funkcjonujących w dynamicznym środowisku cyfrowym”mówi Mateusz Wepa, General Country Manager w iIT Distribution Polska.

    Dla partnerów iIT Distribution oznacza to dostęp do rozwiązań, które wpisują się w rosnące zapotrzebowanie klientów na usługi zabezpieczające środowiska hybrydowe i aplikacje działające w czasie rzeczywistym. Szczególnie istotna może okazać się możliwość integracji z platformą CrowdStrike Falcon, co pozwala na spójne zarządzanie bezpieczeństwem zarówno na poziomie sieci, jak i endpointów.

    Rynek cyberbezpieczeństwa w Europie Środkowo-Wschodniej rośnie w tempie dwucyfrowym, napędzany rosnącą liczbą incydentów i presją regulacyjną. Dystrybutorzy tacy jak iIT coraz częściej pełnią rolę integratorów usług zabezpieczeń, oferując nie tylko produkty, ale i gotowe scenariusze wdrożeniowe.

  • AB poszerza ofertę CCTV o systemy GANZ

    AB poszerza ofertę CCTV o systemy GANZ

    AB rozszerza swoje portfolio o systemy zabezpieczeń marki GANZ. To kolejny krok w konsekwentnie realizowanej strategii budowy kompetencji w obszarze rozwiązań CCTV dla rynku B2B.

    – GANZ Security to globalna marka należąca do pochodzącej z Japonii firmy CBC Group, która istnieje od 1998 roku. Jej produkty charakteryzują się precyzją i niezawodnością. Rozwiązania marki zabezpieczają dziś m.in. lotniska, banki, centra handlowe i obiekty przemysłowe na całym świeciemówi Paweł Bąk, Deputy Purchasing Director AB S.A.Cieszymy się, że możemy zaoferować produkty GANZ naszym partnerom w Polsce. Rozszerzamy tym samym i tak już największe na rynku portfolio dostawców elementów systemów CCTV o kolejną silną markę, a nasze kompetencje w zakresie wsparcia technicznego i projektowego staje się jeszcze pełniejszedodaje Paweł Bąk.

    Rozszerzenie oferty AB o GANZ wpisuje się w trend rosnącego zapotrzebowania na zaawansowane technologie wizyjne w sektorach takich jak smart city, logistyka i ochrona zdrowia. Kluczowym wyróżnikiem GANZ są inteligentne komponenty – w tym nadajnik AI BOX z ponad 50 aplikacjami opartymi na AI i deep learningu oraz VMS GANZ Cortrol, system do centralnego zarządzania monitoringiem, zaprojektowany z myślą o elastyczności i analizie obrazu w czasie rzeczywistym.

    Współpraca z CBC Group to dla AB nie tylko poszerzenie katalogu produktów, lecz także wzmocnienie pozycji jako dostawcy technologii bezpieczeństwa klasy enterprise. W obliczu rosnących wyzwań w zakresie ochrony infrastruktury i danych, rozwój tej części oferty może okazać się strategicznym ruchem w kierunku dalszej specjalizacji i utrzymania przewagi na wymagającym rynku dystrybucji technologii zabezpieczeń.

  • Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Gdy ceny energii rosną, a AI rozpycha się w szafach serwerowych, efektywność energetyczna przestaje być technicznym detalem. Staje się językiem rozmów z klientami, miernikiem przewagi konkurencyjnej i fundamentem nowoczesnych centrów danych. W czasie śniadania technologicznego, które odbyło się 8 maja 2025 na kampusie Atman DC WAW-1, eksperci AMD, LenovoAtmana pokazali, że oszczędność prądu w data center zaczyna się dużo wcześniej niż przy liczniku – od projektowania procesorów, przez dobór komponentów, aż po architekturę całego obiektu. Spotkanie było nie tylko okazją do zobaczenia z bliska jednego z największych centrum danych w Polsce, ale przede wszystkim praktyczną lekcją z efektywności energetycznej.

    Energia pod kontrolą: dlaczego temat jest palący

    Gdy koszty energii elektrycznej zaczynają decydować o rentowności centrum danych, efektywność energetyczna przestaje być dodatkiem – staje się fundamentem strategii. Podczas śniadania technologicznego w warszawskim kampusie Atmana, przedstawiciele trzech firm: Atman, Lenovo i AMD, zgodnie podkreślali, że dziś każdy wat prądu musi być uzasadniony.

    „Efektywność energetyczna staje się przewagą konkurencyjną – już nie tylko na poziomie PUE, ale przede wszystkim z perspektywy biznesowej klientów, którzy analizują TCO całości infrastruktury. Dla nich to dziś twardy koszt, nie miękka deklaracja ESG” mówił Adam Dzielnicki, Product Manager Data Center, Atman.

    Presja rośnie z kilku stron. Po pierwsze – finansowa. Wzrost cen energii elektrycznej w Polsce i Europie sprawia, że firmy coraz częściej zaczynają kwestionować zasadność utrzymywania przestarzałego sprzętu, nawet jeśli ten technicznie nadal działa. Po drugie – regulacyjna. Komisja Europejska już zapowiedziała wprowadzenie obowiązkowego raportowania efektywności energetycznej dużych centrów danych, a państwa członkowskie szykują się do wdrożenia lokalnych przepisów.

    „Klienci pytają dziś nie tylko o moc, ale też o to, ile serwerów trzeba będzie zasilić i jaką infrastrukturę chłodzącą do tego dobrać. To zupełnie nowe podejście do planowania IT – bardziej przypomina projekt energetyczny niż zakup sprzętu” zauważył Łukasz Borkowski, Technical Channel Country Sales BI & Infrastructure.

    Do tego dochodzi trzeci czynnik – presja klientów końcowych. Coraz więcej organizacji mierzy własny ślad węglowy i oczekuje, że ich dostawcy usług IT zrobią to samo. „Nie chodzi już tylko o KPI w Excelu. Zdarza się, że klienci żądają deklaracji emisyjności infrastruktury, na której działa ich aplikacja”dodał Dzielnicki.

    W takim otoczeniu rozmowa o efektywności schodzi na poziom mikro – od technologii chłodzenia przez dobór dysków SSD po architekturę procesora. Każdy komponent jest potencjalnym źródłem zysków… lub strat. Jak zaznaczali eksperci, nawet różnica 10 watów na jednym module SSD – pomnożona przez setki maszyn – może w skali centrum danych przełożyć się na tysiące złotych rocznie.

    AMD: więcej rdzeni, mniej prądu

    Jeszcze dekadę temu AMD uchodziło za outsidera rynku serwerów – dziś ma 35% udziału globalnego w Data Center (wg Mercury Research), dostarcza procesory największym hiperskalerom i przekonuje, że wydajność i efektywność energetyczna nie muszą się wykluczać. „Dziś wycena firmy AMD jest zdecydowanie wyższa niż naszego największego konkurent w obszarze x86. W pierwszym kwartale bieżącego roku segment Data Centre w AMD urósł aż o 57% w ujęciu rok do roku.” – powiedział podczas spotkania Adam Tomczak, Territory Development Executive CEE w AMD.

    Architektura AMD EPYC, zaprojektowana od podstaw z myślą o serwerach, w każdej generacji zwiększała liczbę rdzeni, co, między innymi, przekłada się na gęstość upakowania mocy oraz zwiększa sprawność energetyczną. Efekt? „Od 2017 roku mamy sześciokrotny wzrost liczby rdzeni, niemal jedenastokrotny wzrost wydajności i czterokrotny wzrost wydajności na wat. To nie jest tylko marketing – to twarde dane z benchmarków” – dodał Tomczak.

    Innym wyróżnikiem AMD jest także oferta na platformach jednoprocesorowych, która pozwala budować tańsze i bardziej energooszczędne konfiguracje bez kompromisów wydajnościowych. „Stosując platformy jednoprocesorowe zamiast dwu, klienci mogą istotnie zmniejszyć TCO – zużywają mniej energii, chłodzą mniej szaf i mają mniej punktów awarii, bez kompromisu wydajności” – tłumaczył Tomczak.

    Krzysztof Łuka, ekspert techniczny AMD, poszedł jeszcze dalej: „W porównaniu do procesorów Intela mamy dziś nawet dwukrotnie lepszą metrykę SPECpower, czyli wydajność obliczeniową przy konkretnym zużyciu energii. A przy tym potrafimy na jednej maszynie osiągnąć do 384 rdzeni.”

    Co to oznacza dla firm? Mniej serwerów, mniej licencji, mniej energii – a więc także mniej emisji CO₂. AMD nie oferuje najtańszych chipów, ale w ujęciu całkowitych kosztów infrastruktury często okazuje się bezkonkurencyjne.

    Lenovo: mniej sprzętu, więcej wydajności

    W czasach, gdy jeden serwer potrafi pobierać nawet 10 kilowatów mocy, pytanie o wydajność nieodłącznie łączy się z pytaniem o zużycie energii. Dla Lenovo kluczem okazuje się optymalizacja całego ekosystemu sprzętowego – od projektowania płyty głównej po selekcję dysków NVMe. „To, co wyróżnia Lenovo, to fakt, że korzystamy teoretycznie z tych samych komponentów co inni – ale nasze własne systemy chłodzenia i autorskie projekty płyt głównych pozwalają wyciągnąć z nich znacznie więcej.”mówił Łukasz Borkowski, Technical Channel Sales w Lenovo.

    Podczas spotkania Borkowski nie szczędził konkretów. Jak wyliczał, dwa dyski NVMe o podobnych parametrach mogą różnić się poborem energii nawet o 10 watów – a przy dziesiątkach serwerów z kilkunastoma dyskami każdy, daje to setki watów możliwych oszczędności. „Na samych dyskach można zaoszczędzić ponad pół kilowata. A to dopiero początek.”

    Lenovo nie tylko koncentruje się na komponentach, ale również na systemach chłodzenia. Firma już od lat rozwija wodne systemy chłodzenia – dziś dostępne nawet w standardowych serwerach rackowych. „W szóstej generacji naszego systemu Liquid-to-Air jesteśmy w stanie zmniejszyć zużycie energii na chłodzenie nawet o 30%, eliminując wentylatory także w zasilaczach.” podkreślał Borkowski.

    Równolegle Lenovo promuje podejście oparte na konsolidacji – mniej serwerów, ale bardziej wydajnych. „Dzięki współczesnym procesorom możemy osiągnąć współczynnik 5 do 1 – czyli zastąpić pięć starszych serwerów jednym nowym. W praktyce, po około 16 miesiącach zaczynamy zarabiać na tej modernizacji.”mówił Borkowski, zachęcając do porzucania nieefektywnego sprzętu.

    Lenovo twierdzi, że benchmarki potwierdzają sześciokrotnie wyższą liczbę rekordów wydajnościowych niż u konkurencji. Przy rosnących kosztach licencji per rdzeń i energii, oznacza to konkretne oszczędności – nie tylko na sprzęcie, ale także na oprogramowaniu.

    Atman: jak wygląda PUE od środka

    Wzrost zapotrzebowania na moc obliczeniową oznacza nie tylko więcej serwerów, ale też więcej energii i ciepła. A to przekłada się bezpośrednio na koszty i parametry infrastruktury. „Efektywność energetyczna jest dziś nie tylko tematem technicznym – to kwestia strategiczna.”mówił podczas wydarzenia Adam Dzielnicki, Product manager w Atmanie.

    Jako operator największego kampusu data center w Polsce – Atman DC WAW-1 – firma znajduje się na styku presji klienta, regulatora i własnej optymalizacji. „Klienci coraz częściej pytają o PUE, a nawet o ślad węglowy. To nie jest już tylko CSR – to wymóg przetargowy.”przyznał Dzielnicki. I dodał:PUE poniżej 1,3 to już nie jest science fiction. Ale wymaga decyzji podejmowanych znacznie wcześniej – od etapu projektowania po dobór sprzętu.”

    Atman inwestuje w monitoring energetyczny na poziomie komponentów i usług, co pozwala klientom precyzyjnie rozliczać się z energii i kontrolować zużycie. W czasie prezentacji podkreślano również znaczenie współpracy z dostawcami infrastruktury – jak Lenovo i AMD – aby minimalizować pobór mocy na poziomie CPU, GPU, chłodzenia i całych szaf rackowych.

    „Nie ma jednej recepty na efektywność. W naszym przypadku kluczowe jest podejście warstwowe: od konstrukcji hali, przez systemy HVAC, po softwarowy nadzór nad obciążeniem. To wszystko wpływa na finalne PUE”tłumaczył Dzielnicki.

    Atman wyraźnie stawia na transparentność i praktykę – uczestnicy spotkania mieli okazję zobaczyć na własne oczy, jak wygląda infrastruktura DC WAW-1 od środka. Widać było, że optymalizacja energetyczna przestała być deklaracją – a stała się integralną częścią architektury usług.

    Energoefektywność jako nowy standard rynku

    W dyskusji o efektywności energetycznej coraz mniej miejsca zostaje na slogany – a coraz więcej na konkretne dane, wskaźniki i decyzje inwestycyjne. Jak pokazało wydarzenie zorganizowane przez Atmana, Lenovo i AMD, technologia i energooszczędność nie tylko się nie wykluczają, ale zaczynają iść w parze.

    „W 2025 roku serwer może pobierać 10 kW, a jego chłodzenie – kolejne kilowaty. Jeśli nie zoptymalizujemy tej infrastruktury, rachunek za energię zaczyna przygniatać biznes.”mówił Łukasz Borkowski z Lenovo, wskazując na coraz większy udział chłodzenia w całkowitym zużyciu energii.

    Z kolei Adam Tomczak z AMD przypomniał, że efektywność nie jest kwestią dopłat czy dodatkowych funkcji. „My nie oferujemy bezpieczeństwa jako płatnego dodatku. Nasz Infinity Guard jest dostępny od pierwszej generacji EPYC – bo tak rozumiemy odpowiedzialną technologię.”

    Dla operatorów takich jak Atman, temat nie jest już tylko kwestią wewnętrznej efektywności, ale mierzalnej przewagi rynkowej. „PUE to nie jest liczba do prezentacji – to metryka, która przesądza o konkurencyjności oferty w oczach klientów korporacyjnych.”tłumaczył Adam Dzielnicki.

    Wydarzenie jasno pokazało, że przyszłość rynku infrastruktury IT w Polsce nie będzie się opierać wyłącznie na mocy obliczeniowej. Równie ważna będzie zdolność do przeliczenia tej mocy na waty, złotówki – i zaufanie klientów. Bo efektywność to dziś nie tylko parametr – to język, w którym rozmawiają liderzy branży.

    Materiał powstał we współpracy z firmą Atman.

  • Segura otwiera pierwsze w Europie Center of Excellence PAM w Katowicach i nawiązuje partnerstwo z Dagmą

    Segura otwiera pierwsze w Europie Center of Excellence PAM w Katowicach i nawiązuje partnerstwo z Dagmą

    Zarządzanie dostępem uprzywilejowanym jest na tyle złożonym zadaniem, że uzyskanie odpowiedniego wsparcia w tym zakresie nie powinno być kolejnym wyzwaniem. Dlatego DAGMA Bezpieczeństwo IT i Segura – globalny lider w zakresie zarządzania tożsamością (PAM) nawiązują strategiczne partnerstwo i otwierają pierwsze w Europie Center of Excellence. Centrum zlokalizowane w Katowicach ma wspierać organizacje w szybszym wdrażaniu rozwiązań PAM oraz w zapewnieniu zgodności z regulacjami takimi jak RODO czy NIS2. To trzecie tego typu miejsce na świecie po USA i Arabii Saudyjskiej. 

    Z raportu Verizon Data Breach Investigations Report 2024 wynika, że aż 86% naruszeń bezpieczeństwa wiązało się ze skradzionymi danymi logowania, phishingiem lub nadużyciem uprawnień. W obliczu rosnących zagrożeń i zaostrzających się wymogów zgodności, Segura i DAGMA Bezpieczeństwo IT dają europejskim zespołom odpowiedzialnym za cyberbezpieczeństwo to, czego potrzebują najbardziej: wsparcie eksperckie, intuicyjne narzędzia i pełną zgodność z regulacjami.

    „Center of Excellence to kolejny krok w naszej misji wspierania organizacji na całym świecie, tym razem z silnym, lokalnym zapleczem w Europie. Wierzymy, że szybki dostęp do wsparcia technicznego, uproszczone wdrożenia i zgodność z europejskimi przepisami to klucz do skutecznego bezpieczeństwa tożsamości.” mówił podczas otwarcia Center of Excellence in Europe Marcus Scharra, CEO Segura.

    Europejska odpowiedź na globalne wyzwania

    Katowice to nie tylko przemysłowe serce Polski, ale również dynamicznie rozwijający się ośrodek nowych technologii i usług IT. To właśnie tutaj Segura stworzyła centrum, które będzie służyć jako regionalne zaplecze technologiczne, wspierając zarówno sektor prywatny, jak i publiczny w całej Europie. 

    „Potrzeba skutecznego zarządzania bezpieczeństwem tożsamości rośnie w bezprecedensowym tempie. Otwarcie CoE jest istotne nie tylko z punktu widzenia naszej ekspansji zagranicznej. Jest ważne również dlatego, że Segura rozbudowuje ofertę poza klasyczne rozwiązania PAM, dodając obszary takie jak IGA (Identity Governance & Administration) czy AM (Access Management). Według raportów branżowych jest to jeden z najdynamiczniej rozwijających się obszarów cyberbezpieczeństwa, na który także mocno stawiamy. Jesteśmy przekonani, że to strategiczne partnerstwo znacząco wzmocni możliwości wdrożeniowe i wsparcie dla naszych klientów w całym regionie.” – tłumaczy Mikołaj Sikorski, Chief Strategy Officer w DAGMA Bezpieczeństwo IT. 

    W ramach Center of Excellence in Europe dostępne są m.in.:

    • wsparcie techniczne oraz eksperckie dla klientów z całej Europy
    • szybkie wdrożenia z dostosowaniem do realiów danego regionu
    • wsparcie w zakresie zgodności z przepisami, w tym RODO, NIS2 i innymi regulacjami obowiązującymi w Europie

    Otwarcie CoE w Katowicach to kolejny krok w rozwoju DAGMA Bezpieczeństwo IT, która od wielu lat stawia na rozwój w obszarze usług cyber security. Wejście spółki na rynki zagraniczne (DACH) w 2022 roku istotnie wzmocniło jej pozycję rynkową oraz przełożyło się na wzrost liczby chronionych organizacji. Wśród wdrożeń przeprowadzonych w ostatnim czasie było dostarczenie rozwiązań Segura do obsługi całego środowiska IT jednej z największych na świecie firm z branży automotive. CoE będzie służyć jako regionalne zaplecze technologiczne, wspierając zarówno sektor prywatny, jak i publiczny w całej Europie. 

  • Boom na naukę AI w Polsce. Microsoft już przeszkolił 500 tys. osób

    Boom na naukę AI w Polsce. Microsoft już przeszkolił 500 tys. osób

    W ciągu zaledwie pół roku Microsoft zaangażował w Polsce 500 tysięcy osób w naukę o sztucznej inteligencji. To efekt szeroko zakrojonego programu edukacyjnego, który zakłada objęcie szkoleniami miliona Polaków do końca 2025 roku. Za tą liczbą stoi nie tylko kampania marketingowa, ale przede wszystkim powstanie kompleksowego ekosystemu edukacyjnego – złożonego z partnerstw publiczno-prywatnych, kursów online, wydarzeń na żywo i materiałów dydaktycznych.

    „Dzięki współpracy z partnerami z różnych sektorów w Polsce udostępniliśmy szkolenia AI dla zróżnicowanej grupy odbiorców, od użytkowników, programistów, nauczycieli czy pracowników organizacji pozarządowych”powiedział Łukasz Foks, dyrektor ds. inicjatywy AI Skills w polskim oddziale Microsoft.

    Działania Microsoftu to nie filantropia, lecz inwestycja w rynek i przyszłych użytkowników technologii opartych na AI. Jak pokazuje raport Work Trend Index 2025, jedynie 30% polskich pracowników potrafi dziś efektywnie korzystać z narzędzi AI, podczas gdy 84% liderów firm spodziewa się, że w ciągu najbliższego roku AI stanie się cyfrowym współpracownikiem zespołów. Luka kompetencyjna rośnie, a presja transformacyjna nie zwalnia.

    Programy takie jak „AI: Przyszłość zaczyna się dziś”, „Biegłość w AI” czy „(A)ktywuj (I)nnowacje” odpowiadają na konkretne potrzeby różnych grup – od nauczycieli i studentów po prawników, osoby z niepełnosprawnościami czy pracowników sektora medycznego. Kluczowy jest tutaj dobór partnerów – Microsoft nie działa sam. Współpraca z Digital University, Fundacją Aktywizacja, FRSI, KIRP czy WSiP pozwala trafiać do odbiorców tam, gdzie faktycznie są – w szkołach, kancelariach, fundacjach, start-upach i urzędach.

    Jednym z ważniejszych kroków było dołączenie do rządowego programu PW eSkills, który łączy sektor publiczny, społeczny, akademicki i biznesowy w budowie kompetencji cyfrowych Polaków. To sygnał, że edukacja technologiczna staje się elementem polityki publicznej, a nie jedynie domeną rynku.

    Inicjatywa Microsoftu wyróżnia się skalą, ale też inkluzywnością. Szkolenia są bezpłatne i dostępne w różnych formatach, również w języku migowym. Edukacja AI przestaje być zarezerwowana dla specjalistów IT – trafia do osób przebranżawiających się, uczniów szkół średnich, a nawet emerytów. To istotne, bo zgodnie z trendami rynkowymi, kompetencje związane z AI wkrótce staną się równie powszechne i oczekiwane jak znajomość Excela dekadę temu.

    Microsoft wzmacnia też obecność w środowiskach branżowych i akademickich – organizując szkolenia z SoDA, wspierając inicjatywy Startup Poland, czy tworząc programy edukacyjne na wydarzeniach typu Women in Tech Summit. Dzięki temu buduje długofalową rozpoznawalność jako dostawca nie tylko narzędzi, ale i kompetencji.

    Na dziś osiągnięcie pół miliona uczestników wygląda imponująco, ale to nadal tylko połowa drogi. Wyzwanie będzie rosło – zwłaszcza gdy trzeba będzie przekraczać bariery cyfrowego wykluczenia, przeciwdziałać wypaleniu szkoleniowemu i dostosowywać materiały do coraz bardziej zróżnicowanych potrzeb. Jeśli jednak Microsoft utrzyma tempo i jakość działań, to program AI Skills może s

  • Piotr Morko awansuje na European Marketing Managera w Newline Interactive

    Piotr Morko awansuje na European Marketing Managera w Newline Interactive

    Związany z Newline Interactive od lipca 2020 Piotr Morko – po raz kolejny awansował w strukturach firmy. W nowej roli – European Marketing Managera – odpowiada obecnie za rozwój i realizację strategii marketingowej w całej Europie.

    Zadania Piotra Morko zyskały bardziej strategiczny charakter i są związane z  budowaniem i wdrażaniem spójnej wizji marketingowej w skali europejskiej. Konieczna jest tu synergiczna współpraca z zespołami marketingu, sprzedaży i wsparcia technicznego, spójna komunikacja i jednolity przekaz. Odpowiedzialność obejmuje koordynację działań lokalnych zespołów, partnerów i dystrybutorów w ramach jednej, spójnej strategii na rynkach europejskich.

    „Jestem dumny, że mogę rozwijać się nie tylko w firmie, ale także razem z firmą. informuje Piotr Morko European Marketing Manager, Newline InteractiveJako Senior Marketing Manager odpowiadałem za realizację strategii marketingowej w Europie Środkowo-Wschodniej ze szczególnym wskazaniem na Polskę. Na ten czas – lata 2023- 2024 przypadł znaczny wzrost sprzedaży i marka Newline stała się numerem jeden wśród monitorów interaktywnych na terenie Polski. Awans jest dla mnie sygnałem, ze moja praca została doceniona, a firma obdarza mnie zaufaniem.”

    Awans dla Piotra Morko oznacza rozszerzenie zakresu geograficznego z wybranych rynków na całą Europę. Wzrost kompetencji związanych z nadzorowaniem strategii europejskich. Koordynacja działań wielu zespołów, a także odpowiedzialność za spójny wizerunek marki na wszystkich rynkach.

    Pasją Piotra Morko jest futbol amerykański, a obowiązki zawodowe będzie łączył z funkcją prezesa drużyny futbolu amerykańskiego,  Lowlanders Białystok, którą zarządza od 2017 roku.

     

  • Brother Polska wzmacnia zespół – Tomasz Szymański nowym Pre-Sales Consultantem

    Brother Polska wzmacnia zespół – Tomasz Szymański nowym Pre-Sales Consultantem

    Brother Polska wzmacnia swoje struktury techniczno-sprzedażowe. Z początkiem czerwca do firmy dołączył Tomasz Szymański, obejmując stanowisko Pre-Sales Consultant. Będzie on odpowiedzialny za wsparcie przedsprzedażowe partnerów handlowych oraz polskiego zespołu sprzedaży.

    Tomasz Szymański to ekspert z ponad 20-letnim doświadczeniem w branży urządzeń drukujących. Swoją wiedzę i kompetencje rozwijał m.in. w takich firmach jak HP, Konica-Minolta oraz Sharp, gdzie odpowiadał za wsparcie przedsprzedażowe, integrację systemów oraz doradztwo techniczne. W Brother Polska będzie pełnił kluczową rolę w obszarze technicznego doradztwa produktowego oraz wsparcia kanału partnerskiego przy projektach wymagających zaawansowanej wiedzy i indywidualnego podejścia do potrzeb klientów.

    – Dołączenie do Brother Polska to dla mnie szansa na dalszy rozwój w dynamicznym i innowacyjnym środowisku. Cieszę się, że mogę wspierać partnerów oraz zespół sprzedaży w dostarczaniu klientom nowoczesnych i dopasowanych rozwiązań. Zależy mi na tym, by doświadczenie zdobyte przez lata pracy w branży przełożyło się na realną wartość dodaną dla naszych klientówmówi Tomasz Szymański, Pre-Sales Consultant w Brother Polska.

    Pojawienie się Tomasza w strukturach Brother Polska spotkało się z ciepłym przyjęciem i jest kolejnym krokiem w rozwoju kompetencji technicznych firmy.

    – Tomasz wnosi do naszego zespołu nie tylko ogromne doświadczenie, ale również doskonałe zrozumienie potrzeb rynku i umiejętność budowania relacji z partnerami. Jesteśmy przekonani, że jego wiedza i zaangażowanie będą stanowić istotne wsparcie zarówno dla naszych klientów, jak i dla całego zespołu sprzedażykomentuje Paweł Wośko, CEE Pre-Sales & Technical Service Manager w Brother.

    Zatrudnienie Tomasza Szymańskiego to kolejny element strategii Brother Polska, która zakłada rozwój eksperckich kompetencji oraz bliską współpracę z partnerami w całym kraju. Ma to na celu zapewnienie najwyższego poziomu obsługi klientów oraz dostarczanie im rozwiązań idealnie dopasowanych do ich potrzeb.

  • Chmura w administracji publicznej: rośnie adopcja, kuleje strategia i bezpieczeństwo

    Chmura w administracji publicznej: rośnie adopcja, kuleje strategia i bezpieczeństwo

    Ponad 70 proc. polskich jednostek administracji publicznej korzysta już z rozwiązań chmurowych – wynika z najnowszego raportu o stanie wdrożeń cloud computingu w sektorze publicznym. Samorządy lokalne są w tym zakresie bardziej otwarte niż administracja centralna, która wciąż podchodzi do chmury dość ostrożnie. Z raportu płyną jednak niepokojące wnioski dotyczące jakości i świadomości wdrożeń: zdecydowana większość instytucji publicznych korzystających z chmury opiera się na usługach jednego dostawcy, co budzi obawy o zjawisko vendor lock-in, czyli uzależnienia od pojedynczego partnera technologicznego. Co więcej, eksperci zwracają uwagę na brak długofalowych strategii chmurowych w administracji.

    Raport został przygotowany wspólnymi siłami ekspertów Związku Cyfrowa Polska i kancelarii Andersen Tax & Legal. – Poddaliśmy szczegółowej analizie kryteria wyboru dostawców przez organy administracji publicznej oraz struktury kosztów związanych z przechowywaniem danych w chmurze. Wszystko po to, aby zdiagnozować obecny poziom uchmurowienia polskiej administracji publicznej oraz zidentyfikować najważniejsze wyzwania stojące na drodze wdrażania technologii cloud w sektorze publicznym mówi Mikołaj Śniatała, ekspert w kancelarii Andersen Tax & Legal.

    Jak wynika z raportu, choć skala adopcji technologii w instytucjach publicznych rośnie, to widoczne są  poważne luki w planowaniu, zabezpieczeniach i zarządzaniu środowiskami chmurowymi w tych jednostkach. Eksperci Cyfrowej Polski wskazują na powszechny brak przejrzystej strategii wdrażania chmury – większość jednostek administracji nie planuje migracji, nie analizuje ryzyk ani nie bada nowych rozwiązań.  Nie planuje też zmiany dostawcy ani dywersyfikacji usług. Według ekspertów, ten brak strategii ogranicza elastyczność i odporność systemu. – Cyfryzacja sektora publicznego w Polsce, mimo widocznych postępów, wciąż zbyt często sprowadza się do jednostkowych wdrożeń usług chmurowych. Takie działania, choć same w sobie wartościowe, nie są częścią spójnej strategii. W efekcie brakuje całościowego podejścia do monitorowania kosztów i mierzenia efektywności wdrażanych rozwiązań, co znacząco utrudnia ocenę ich realnego wpływumówi Michał Kanownik, prezes Cyfrowej Polski.

    Vendor lock-in realnym zagrożeniem

    Jednym z najważniejszych wniosków z raportu jest skala uzależnienia polskiej administracji od jednego dostawcy. 78 proc. wszystkich jednostek korzystających z chmury używa rozwiązań tylko jednej firmy. Wskazuje to na ryzyko tzw. vendor lock-in, czyli trwałego związania z jednym podmiotem technologicznym. Co więcej, aż 7 na 10 instytucji przy wyborze usług chmurowych kieruje się dotychczasowymi umowami licencyjnymi, a nie oceną bezpieczeństwa, innowacyjności czy opłacalności.

    Tymczasem, jak oceniają w raporcie eksperci, w przypadku usług chmurowych niezbędne jest zagwarantowanie, że nie dojdzie do uzależnienia się od jednego dostawcy. – Istotne jest zwłaszcza to, aby warunki umowne określające prawa i obowiązki obu stron umowy obejmowały procedurę migracji i wyjścia z chmuryuważa Michał Kanownik.

    Niezwykle ważna jest też kwestia cyberbezpieczeństwa – podkreślono w raporcie. Tylko 7 proc. badanych przez Cyfrową Polskę i kancelarię Andersen Tax & Legal jednostek publicznych uznało bezpieczeństwo za główne kryterium wyboru dostawcy usług chmurowych. To może budzić uzasadnione obawy – szczególnie w kontekście przechowywania danych wrażliwych, przetwarzanych przez instytucje publiczne.

    Niewykorzystany potencjał rozwiązań krajowych

    Eksperci, którzy brali udział w przygotowaniu opracowania, wskazują ponadto na niewykorzystane możliwości rodzimych rozwiązań chmurowych, a zwłaszcza na ograniczenia projektów takich jak Rządowa Chmura Obliczeniowa (RCO) czy system Zapewniania Usług Chmurowych (ZUCH). Jak wynika z raportu, ich niska adopcja przez podmioty administracji wynika z braku zaufania, nieczytelności instytucjonalnej, słabej oferty technicznej oraz braku wsparcia wdrożeniowego. W praktyce sektor publiczny nie traktuje ZUCH jako realnej alternatywy wobec globalnych dostawców.
    – Obserwację rażąco niskiej popularności tych dostawców potwierdza także Najwyższa Izba Kontroli, która w wystąpieniu pokontrolnym z 16 marca 2025 r. wskazała, że w latach 2020-2022 w bazie ZUCH było zaledwie 9 podmiotów, które podjęły aktywność w systemiedodaje Mikołaj Śniatała z kancelarii Andersen Tax & Legal.

    Polska w chmurze, czyli polityka Cloud-First

    Zdaniem Michała Kanownika rozwiązaniem niektórych z tych problemów mogłoby być wprowadzenie w Polsce polityki Cloud-First, zachęcającej administrację do priorytetowego wykorzystywania rozwiązań chmurowych przy jasnym określeniu zasad, standardów i wymagań wobec dostawców. – Taka polityka wyznaczyłaby kierunki rozwoju, zwiększyłaby przewidywalność projektów IT w administracji i ułatwiła współpracę z sektorem technologicznymwskazuje prezes Cyfrowej Polski.

    W ramach promowania polityki Cloud-First rząd miałby wydawać rekomendacje dotyczące wykorzystania chmury. W ocenie ekspertów Cyfrowej Polski, określenie zasad i warunków, które będą musiały zostać spełnione przez dostawców usług, usprawniłoby nabywanie rozwiązań chmurowych przez jednostki administracji. Podmioty publiczne oraz zewnętrzni dostawcy musieliby znać warunki brzegowe oraz wymagania dotyczące produktów i usług, które mają zostać wdrożone. Jednocześnie zespoły IT działające w administracji mogłyby skutecznie i z wyprzedzeniem planować i opracowywać przyszłe rozwiązania – wyjaśniono w raporcie.

    – Opracowanie, który właśnie opublikowaliśmy, wskazuje na brak spójnej strategii, niski poziom dbałości o bezpieczeństwo i brak dywersyfikacji dostawców w dziedzinie rozwiązań chmurowych. Dlatego wspólnie z ekspertami z różnych środowisk apelujemy o wypracowanie spójnej krajowej polityki rozwoju chmury, zwiększenie kompetencji w administracji oraz stworzenie warunków dla większej konkurencji na rynku usług cloud computing – podsumowuje Michał Kanownik.

    Odpowiedzi na pytania dotyczące m.in. typu danych przechowywanych w chmurze, preferowanych przez administrację dostawców, czynników wpływających na ich wybór oraz kosztów korzystania z usług chmurowych zebrane zostały od 82 jednostek administracji publicznej w okresie od stycznia do maja 2025 b.r.