Tag: Przemysł

  • 14 tysięcy cyberataków w trzy miesiące: Dlaczego protokół z lat 70. to wciąż wielkie ryzyko dla przemysłu?

    14 tysięcy cyberataków w trzy miesiące: Dlaczego protokół z lat 70. to wciąż wielkie ryzyko dla przemysłu?

    Bezpieczeństwo nowoczesnych fabryk i elektrowni wciąż opiera się na technologii sprzed niemal pół wieku, co staje się coraz większym problemem dla globalnego biznesu. Najnowszy raport ekspertów z Cato Networks ostrzega przed falą cyberataków wymierzonych w sterowniki przemysłowe (PLC). Hakerzy wykorzystują fakt, że powszechnie używany protokół Modbus powstał w latach 70. i nie posiada żadnych zabezpieczeń – dla kogoś, kto potrafi go obsługiwać, przejęcie kontroli nad maszyną podłączoną do sieci jest dziś niepokojąco proste.

    W centrum uwagi znajduje się Modbus – protokół komunikacyjny opracowany w 1979 roku. W czasach, gdy powstawał, nikt nie zakładał, że sterowniki przemysłowe (PLC) będą kiedykolwiek podłączone do publicznego internetu. Modbus projektowano z myślą o zaufanych, odizolowanych sieciach wewnętrznych. W efekcie całkowicie pozbawiono go mechanizmów, które dziś uznajemy za elementarne: szyfrowania oraz uwierzytelniania. Ta otwartość, niegdyś będąca zaletą ułatwiającą integrację systemów, stała się zaproszeniem dla hakerów.

    Skalę problemu obrazują dane zebrane przez zespół pod kierownictwem dr Guya Waizela i Jakuba Osmaniego. Przez zaledwie trzy miesiące jesieni 2025 roku zidentyfikowali oni skoordynowaną aktywność wymierzoną w sterowniki PLC, obejmującą ponad 14 tysięcy zaatakowanych adresów IP w 70 krajach. To nie są odosobnione incydenty, lecz systematyczne mapowanie słabych punktów światowego przemysłu.

    Strategia napastników jest wielowarstwowa i precyzyjna. Większość zidentyfikowanych interakcji – ponad 235 tysięcy żądań – dotyczyła tzw. ekstrakcji danych. Hakerzy nie próbują od razu niszczyć maszyn; zamiast tego cicho odczytują zawartość rejestrów, poznając parametry procesów i konfigurację urządzeń. Kolejnym krokiem jest „pobieranie odcisków palców” sprzętu. Znając producenta i wersję oprogramowania, przestępcy mogą dopasować konkretne luki bezpieczeństwa do konkretnej maszyny.

    To, co zaczyna się od niewinnego zbierania informacji, może szybko przeistoczyć się w scenariusz katastroficzny. Aby zrozumieć realne ryzyko, eksperci Cato Networks przeprowadzili symulację na projekcie Wildcat-Dam. Wykazali, że dysponując jedynie laptopem i dostępem do niezabezpieczonego protokołu Modbus, są w stanie przejąć kontrolę nad cyfrową logiką zapory wodnej. Manipulując wartościami rejestrów, badacze wywołali sztuczną powódź, unieważniając limity bezpieczeństwa i zdalnie otwierając bramy tamy. 

    Geografia ataków pokrywa się z mapą globalnych potęg przemysłowych. Na celowniku znalazły się przede wszystkim Stany Zjednoczone, Francja i Japonia, które łącznie odpowiadają za 61 procent incydentów. Niepokojący jest również fakt, że napastnicy nie ograniczają się do jednej branży. Choć sektor wytwórczy jest najczęstszą ofiarą, ślady ingerencji odnaleziono w placówkach opieki zdrowotnej, budownictwie, a nawet w systemach zarządzania infrastrukturą miejską. Wyłania się z tego obraz hakerstwa oportunistycznego: atakujący szukają jakiegokolwiek dostępnego sterownika, który został lekkomyślnie wystawiony na działanie publicznej sieci.

    Analiza techniczna sugeruje, że część tej aktywności pochodzi z infrastruktury zlokalizowanej w Chinach, choć tożsamość aktorów pozostaje ukryta za systemami serwerów pośredniczących. Dla decydentów biznesowych kluczowym wnioskiem nie jest jednak wskazanie konkretnego winnego, lecz uświadomienie sobie strukturalnej wady własnych systemów.

  • Nowy realizm w automatyce: ABB i Nvidia chcą wyeliminować „szok halowy” robotów

    Nowy realizm w automatyce: ABB i Nvidia chcą wyeliminować „szok halowy” robotów

    Przemysł od lat zmaga się z tzw. luką „sim-to-real” – zjawiskiem, w którym drobne zmienne fizyczne, takie jak oświetlenie czy wibracje maszyn, paraliżują systemy przeszkolone wyłącznie wirtualnie. Partnerstwo szwajcarskiego giganta ABB z Nvidią, ogłoszone jako kluczowy element strategii cyfryzacji, ma ostatecznie ten problem rozwiązać.

    Współpraca opiera się na integracji platformy Nvidia Omniverse z oprogramowaniem sterującym ABB. Zamiast operować na uproszczonych modelach matematycznych, inżynierowie otrzymają dostęp do symulacji o wysokiej wierności fizycznej. Marc Segura, prezes ABB Robotics, słusznie zauważa, że dzisiejsze roboty są często „ślepe” na kontekst. Przykładem są choćby wibracje potężnych pras hydraulicznych, które w tradycyjnym modelu programowania wymagają tygodni kalibracji na miejscu. Dzięki technologii Nvidii robot ma „wiedzieć”, jak radzić sobie z tymi zakłóceniami, zanim jeszcze zostanie przykręcony do posadzki.

    Możliwość rezygnacji z kosztownych fizycznych prototypów i linii testowych na rzecz wirtualnej weryfikacji to oszczędności idące w miliony dolarów. Dobrym przykładem jest pilotaż realizowany przez Foxconn. Montaż drobnych komponentów, takich jak przyciski w smartfonach, był dotychczas zmorą automatyzacji ze względu na cienie, które myliły systemy wizyjne. Fotorealistyczne symulacje pozwalają przeszkolić algorytmy AI na tysiącach wariantów oświetlenia w ułamku sekundy.

    Ruch ten potwierdza szerszy trend: Nvidia przestaje być postrzegana jedynie jako dostawca krzemu, a staje się fundamentem „systemu operacyjnego” dla fizycznego świata. Choć komercyjne wdrożenie rozwiązania planowane jest na drugą połowę 2026 roku, sygnał dla rynku jest jasny. Fabryka przyszłości nie będzie już miejscem, gdzie uczy się maszyny pracy – będzie miejscem, do którego trafiają maszyny, które już wszystko potrafią. W erze presji na efektywność i personalizację produkcji, ta zmiana paradygmatu może okazać się kluczowa dla utrzymania konkurencyjności zachodniego przemysłu.

  • Cyfryzacja przyspiesza, kompetencje hamują – paradoks Przemysłu 5.0

    Cyfryzacja przyspiesza, kompetencje hamują – paradoks Przemysłu 5.0

    Polski biznes coraz śmielej inwestuje w technologie, ale wciąż nie jest gotowy na niespodziewane zakłócenia – taki wniosek płynie z raportu SAPBiznes napędzany cyfrowo. Rozwój w obliczu Przemysłu 5.0„. Dane z badania niemal 500 menedżerów potwierdzają, że cyfryzacja stała się standardem, a sztuczna inteligencja i ESG – tematami strategicznymi. Problem w tym, że pod warstwą deklaracji kryją się luki kompetencyjne, brak gotowości operacyjnej i obawy zespołów.

    Technologie są, gotowości brak

    Firmy deklarują, że korzystają z rozwiązań cyfrowych średnio w 10 obszarach działalności – od obsługi klienta, przez zarządzanie danymi, po płatności. Chmura stała się podstawą modernizacji: już 63% organizacji wykorzystuje ją w relacjach z klientami, a w ciągu dwóch lat skala wdrożeń w CRM, e-commerce i HR ma jeszcze wzrosnąć. Mimo tego, tylko 49% menedżerów twierdzi, że ich organizacje są w stanie szybko reagować na nagłe zmiany, np. w łańcuchach dostaw. To sygnał, że infrastruktura rośnie szybciej niż zdolność adaptacji.

    AI – od hype’u do rzeczywistości

    Sztuczna inteligencja nie jest już traktowana jako futurystyczny trend. W marketingu korzysta z niej 45% firm, w obsłudze klienta 42%, a w e-commerce 38%. Co istotne, aż 42% menedżerów deklaruje użycie AI do wspierania decyzji strategicznych. Mimo to, największą barierą pozostają ludzkie obawy – 39% respondentów wskazuje na opór pracowników. Rynek jest więc w punkcie, w którym narzędzia są dostępne, ale kultura organizacyjna dopiero uczy się je przyjąć.

    ESG – świadomość rośnie, dane milczą

    Ponad połowa firm (58%) dostrzega konieczność opracowania strategii ESG. Jednocześnie mniej niż połowa ma w systemach dane, które pozwalają realnie mierzyć ślad węglowy czy raportować postępy. To może stać się jednym z największych zaskoczeń dla biznesu – nie brak technologii, lecz brak informacji i procesów. ESG nie przejdzie bez cyfrowej dojrzałości.

    Przemysł 5.0: człowiek wraca do centrum

    Era Przemysłu 4.0 zdominowana była przez automatyzację. Przemysł 5.0 – jak podkreślają autorzy raportu – redefiniuje tę perspektywę, podkreślając konieczność współpracy człowieka i technologii. 60% menedżerów uważa, że dalsza cyfryzacja wymaga podniesienia kompetencji pracowników. To już nie transformacja systemów, lecz transformacja organizacji.

    Dojrzałość cyfrowa jako przewaga

    61% liderów IT zgadza się, że kluczowa jest długoterminowa wartość wdrożeń, a nie tylko koszt. Firmy zaczynają rozumieć, że technologia bez strategii jest tylko kosztem. Paradoks polskiego rynku polega dziś na tym, że narzędzia są dostępne, ale przewagę zbudują ci, którzy potrafią je osadzić w kulturze, decyzjach i procesach.

    Transformacja nie polega już na zakupie rozwiązań. Chodzi o to, czy w momencie kryzysu organizacja potrafi działać szybciej niż konkurencja. I tu – jak pokazuje raport SAP – polski biznes wciąż nadrabia.

  • Cyberataki na przemysł rosną o 30% rocznie. Firmy muszą działać strategicznie

    Cyberataki na przemysł rosną o 30% rocznie. Firmy muszą działać strategicznie

    Jeszcze kilka lat temu hakerzy koncentrowali się głównie na sektorach, gdzie wrażliwe dane były najcenniejszym zasobem – finansach, ochronie zdrowia czy usługach cyfrowych. Dziś to przemysł wytwórczy staje się jednym z najbardziej pożądanych celów cyberprzestępców. W 2025 roku przeciętny zakład produkcyjny był narażony na 1585 ataków tygodniowo, co oznacza wzrost o 30% względem roku poprzedniego. W Europie dynamika zagrożeń była najwyższa, a w takich krajach jak Holandia, Hiszpania czy Turcja liczba incydentów rosła szybciej niż gdziekolwiek indziej.

    To przesunięcie w krajobrazie cyberataków sprawia, że bezpieczeństwo cyfrowe nie jest już kwestią technologiczną, którą można oddelegować do CIO. To strategiczne ryzyko biznesowe, z którym musi mierzyć się całe kierownictwo.

    Koszt przestoju – kiedy każda godzina kosztuje miliony

    Ransomware w produkcji działa inaczej niż w wielu innych branżach. Tu nie chodzi wyłącznie o kradzież danych czy szantaż związany z ich upublicznieniem. Atakujący doskonale wiedzą, że największą wartością zakładu jest ciągłość działania. Zatrzymanie linii produkcyjnej, nawet na kilka godzin, potrafi przełożyć się na straty liczone w milionach euro.

    Co gorsza, skutki nie kończą się na bilansie finansowym. Przestoje wywołane przez cyberatak mogą zerwać łańcuch dostaw, zablokować realizację umów, a nawet spowolnić innowacje, jeśli dotkną działów badawczo-rozwojowych. Dla firm produkcyjnych to cios w konkurencyjność, reputację i relacje z klientami.

    Łańcuch dostaw – pięta achillesowa cyfrowej fabryki

    Jedną z głównych przyczyn, dla których sektor produkcyjny stał się celem numer jeden, jest jego rozległa i złożona sieć partnerów. Fabryki nie funkcjonują w izolacji – polegają na setkach dostawców, kontrahentów i partnerów technologicznych. Każde takie połączenie to potencjalne wejście dla atakującego.

    Na celowniku są zwłaszcza systemy IoT i OT, często wdrażane szybko i bez odpowiednich zabezpieczeń. Wystarczy jedno niechronione urządzenie, aby otworzyć drzwi do całej infrastruktury. Co więcej, przestępcy zaczęli handlować skradzionymi danymi dostępowymi do sieci przemysłowych, co obniża barierę wejścia dla kolejnych grup ransomware.

    Efekt domina jest tu szczególnie groźny. Kompromitacja jednego małego dostawcy może zakłócić nie tylko działalność dużej fabryki, ale także całej branży, zwłaszcza tam, gdzie króluje model just-in-time.

    Geopolityka wchodzi do fabryk

    Cyberprzestępczość w przemyśle nie ogranicza się już do grup nastawionych na szybki zysk. Coraz większą rolę odgrywają aktorzy wspierani przez państwa. Ich cele są strategiczne: kradzież własności intelektualnej, sabotaż produkcji czy zakłócanie łańcuchów dostaw w sektorach obronnych i energetycznych.

    Przykłady z ostatnich lat obejmują wycieki projektów dronów, nowoczesnych pojazdów czy technologii militarnych. W takich przypadkach straty nie ograniczają się do pojedynczej firmy. To cios w całe gospodarki i narodową konkurencyjność.

    Rosnące napięcia geopolityczne – od sporów handlowych po konflikty regionalne – tylko wzmacniają ten trend. Fabryki stają się pionkami w globalnej grze, a zarządy muszą brać pod uwagę ryzyka, które wykraczają daleko poza tradycyjne problemy biznesowe.

    Cyberbezpieczeństwo jako priorytet zarządów

    W takim środowisku działanie reaktywne nie wystarczy. Cyberodporność musi być traktowana jako element strategii biznesowej. Co to oznacza w praktyce?

    • Integracja odporności w działaniu – plany ciągłości biznesowej muszą być testowane, a czas odtworzenia systemów liczony w godzinach, nie w tygodniach.
    • Zabezpieczanie łańcuchów dostaw – firmy powinny wymagać od partnerów i dostawców spełniania określonych standardów bezpieczeństwa, a nie jedynie zakładać, że „to nie nasz problem”.
    • Ochrona własności intelektualnej – monitorowanie i zapobieganie utracie danych staje się kluczowe, zwłaszcza w branżach wrażliwych na kradzież technologii.
    • Wzmocnienie obrony prewencyjnej – zamiast działać dopiero po incydencie, przedsiębiorstwa powinny inwestować w detekcję i analizę zagrożeń w czasie rzeczywistym.

    Dla wielu firm będzie to oznaczać konieczność zaangażowania całego zarządu – od CFO po COO – w procesy związane z cyberbezpieczeństwem.

    Od kosztu do przewagi konkurencyjnej

    Najciekawsza zmiana polega na tym, że cyberbezpieczeństwo przestaje być traktowane jako „konieczny koszt”. W świecie globalnej konkurencji i niestabilności geopolitycznej to właśnie cyberodporność może decydować o przewadze rynkowej.

    Firmy, które potrafią zagwarantować klientom ciągłość działania i bezpieczeństwo wrażliwych procesów, zyskują nie tylko kontrakty, ale też lojalność partnerów i lepszą pozycję w przetargach międzynarodowych. Z kolei te, które zaniedbają temat, ryzykują nie tylko atak, ale też utratę wiarygodności na lata.

    Przemysł wytwórczy stoi dziś w samym centrum nowej ery cyberzagrożeń. Złożone łańcuchy dostaw, przestarzałe systemy i niska tolerancja na przestoje czynią go idealnym celem. Skala problemu rośnie, a wraz z nią świadomość, że cyberbezpieczeństwo to nie tylko domena działów IT, lecz element strategii biznesowej i geopolitycznej.

    W praktyce oznacza to, że zarządy muszą traktować cyberodporność jako fundament swojej przewagi konkurencyjnej. W branży, gdzie liczy się niezawodność i tempo działania, to właśnie odporność na ataki stanie się walutą przyszłości.

  • Siemens i Snowflake łączą dane z fabryki i biura w chmurze AI

    Siemens i Snowflake łączą dane z fabryki i biura w chmurze AI

    Koncern technologiczny Siemens i chmurowy gigant Snowflake ogłosiły strategiczną współpracę. Jej celem jest ułatwienie firmom produkcyjnym integracji danych operacyjnych (OT) z hali fabrycznej z danymi biznesowymi (IT) w jednym środowisku analitycznym.

    Partnerstwo ma zlikwidować tradycyjne silosy informacyjne i otworzyć drogę do zaawansowanych analiz oraz zastosowań generatywnej sztucznej inteligencji w przemyśle.

    Istotą integracji jest połączenie platformy Siemens Industrial Edge, działającej na urządzeniach brzegowych w fabrykach, z chmurą danych Snowflake AI Data Cloud. Rozwiązanie Siemensa zbiera i wstępnie przetwarza dane bezpośrednio z maszyn, sterowników PLC i czujników.

    Następnie, za pomocą dedykowanych aplikacji, informacje te są w ustandaryzowany sposób przesyłane do platformy Snowflake.

    Tam dane z linii produkcyjnych mogą być łączone z danymi pochodzącymi z systemów IT, takich jak ERP, logistyka czy finanse.

    Stworzenie takiego ujednoliconego zbioru danych jest kluczowe dla uzyskania pełnego obrazu działalności operacyjnej. Firmy mogą w ten sposób analizować, jak parametry maszyn wpływają na koszty logistyki lub jak jakość surowców przekłada się na wydajność produkcji i potrzeby serwisowe.

    Celem współpracy jest dostarczenie producentom gotowego narzędzia do poprawy efektywności operacyjnej w oparciu o dane. Analityka oparta na AI może być wykorzystywana do optymalizacji wydajności maszyn, podnoszenia jakości produktów czy wdrażania konserwacji predykcyjnej.

    Możliwość trenowania modeli AI na połączonych danych IT/OT otwiera również drogę do budowy bardziej zaawansowanych agentów AI, zdolnych do autonomicznej optymalizacji procesów.

    Rozwiązanie jest już wykorzystywane komercyjnie. Firma FFT, dostawca systemów produkcyjnych dla branży motoryzacyjnej, wdrożyła integrację w swoich zakładach. Wykorzystuje ekosystem Siemens Industrial Edge do transferu danych produkcyjnych do chmury Snowflake, gdzie poddawane są one dalszej analizie w celu optymalizacji procesów.

    Partnerstwo to wpisuje się w szerszy trend ułatwiania firmom przemysłowym dostępu do zaawansowanych narzędzi analitycznych, które do tej pory były domeną głównie sektora cyfrowego.

  • Zero Trust w OT: Jak rośnie adopcja zabezpieczeń przemysłowych

    Zero Trust w OT: Jak rośnie adopcja zabezpieczeń przemysłowych

    Współczesny przemysł i infrastruktura krytyczna opierają się na zaawansowanych technologiach, które na co dzień pozostają niewidoczne, a mimo to są fundamentem globalnej gospodarki i bezpieczeństwa publicznego. Chodzi o systemy Technologii Operacyjnych (OT) oraz Przemysłowych Systemów Sterowania (ICS).

    OT to zbiór technologii służących do monitorowania i zarządzania fizycznymi procesami przemysłowymi. W jego skład wchodzą systemy ICS, takie jak SCADA (Supervisory Control and Data Acquisition), które zbierają dane w czasie rzeczywistym i kontrolują procesy na dużą skalę – m.in. w energetyce, transporcie czy wodociągach. Bezpieczeństwo i ciągłość działania tych systemów mają bezpośredni wpływ na funkcjonowanie usług publicznych i fizyczne bezpieczeństwo społeczeństwa.

    Tradycyjnie systemy OT działały w izolacji od internetu, w tzw. środowiskach „air-gapped”. Fizyczna separacja przez lata uchodziła za skuteczną barierę ochronną, a cyberzagrożenia wydawały się odległe. Priorytetem była niezawodność i bezpieczeństwo operacyjne, nie zaś ochrona danych.

    Ten paradygmat uległ jednak gwałtownej zmianie. Cyfryzacja, rozwój Przemysłowego Internetu Rzeczy (IIoT) oraz dążenie do automatyzacji i efektywności doprowadziły do połączenia systemów IT i OT. Integracja ta zwiększyła możliwości operacyjne, ale jednocześnie znacznie poszerzyła powierzchnię ataku i ujawniła podatności wcześniej ukryte przed światem zewnętrznym.

    W efekcie „niewidzialne” cyberbezpieczeństwo OT stało się jednym z najpilniejszych wyzwań. Koncepcja izolacji jako skutecznej ochrony jest dziś w dużej mierze mitem. Systemy projektowane z myślą o odseparowaniu od sieci zewnętrznych coraz częściej stają się elementem połączonego środowiska operacyjnego, które wymaga nowego podejścia do ochrony.

    Bezpieczeństwo nie może już opierać się na pasywnym modelu. Potrzebne są aktywne, zintegrowane strategie cyberochrony, które uwzględniają wzajemne powiązania między systemami i umożliwiają ciągłe zarządzanie ryzykiem. To zasadnicza zmiana w myśleniu o ochronie środowisk przemysłowych — i jeden z powodów, dla których cyberbezpieczeństwo OT przestaje być niewidoczne.

    OT i ICS: specyfika, wyzwania i konwergencja z IT

    Cyberbezpieczeństwo w środowiskach OT i ICS różni się zasadniczo od tego w IT. Wynika to z odmiennych priorytetów, długiego cyklu życia systemów oraz specyfiki stosowanych technologii.

    W systemach IT kluczowa jest poufność, integralność i dostępność danych. OT koncentruje się natomiast na bezpieczeństwie fizycznym, ciągłości działania i dostępności procesów. Ich awaria może prowadzić do uszkodzeń maszyn, zagrożeń dla życia, a nawet katastrof środowiskowych. Podczas gdy IT opiera się na częstych aktualizacjach i krótkim cyklu życia sprzętu, systemy OT projektowane są na dekady działania, często bez możliwości łatwego uaktualnienia — każda przerwa może skutkować poważnymi konsekwencjami.

    Różnice dotyczą też komunikacji. IT korzysta ze standardowych protokołów sieciowych, OT – z własnościowych, często pozbawionych podstawowych mechanizmów bezpieczeństwa, takich jak szyfrowanie czy uwierzytelnianie. Starsze urządzenia OT zwykle nie były projektowane z myślą o połączeniu z internetem i nie posiadają wbudowanych zabezpieczeń. Dodatkowo, systemy OT działają w czasie rzeczywistym i nie tolerują opóźnień — standardowe narzędzia bezpieczeństwa IT mogą więc powodować zakłócenia, a nawet awarie.

    Środowiska OT/ICS niosą ze sobą wiele unikalnych wyzwań. Często opierają się na przestarzałych, niewspieranych już systemach, które zawierają znane i łatwe do wykorzystania luki bezpieczeństwa. Niewłaściwa segmentacja sieci sprawia, że uzyskanie dostępu do jednej części infrastruktury otwiera drogę do całego środowiska operacyjnego. Powszechny jest również brak pełnej widoczności aktywów — starsze urządzenia i niestandardowe protokoły utrudniają inwentaryzację, co uniemożliwia ocenę ryzyka, wykrywanie podatności (CVEs) i dopasowanie odpowiednich środków zaradczych. Utrudniony lub niekontrolowany zdalny dostęp oraz słaba higiena haseł — np. używanie domyślnych loginów — dodatkowo zwiększają zagrożenia.

    Ta „niewidzialność” infrastruktury OT oznacza, że organizacje często funkcjonują bez pełnej świadomości poziomu zagrożeń. Skuteczna obrona wymaga więc specjalistycznych narzędzi do wykrywania i monitorowania aktywów OT, które nie zakłócają pracy operacyjnej.

    Konwergencja systemów IT i OT przynosi realne korzyści, jak możliwość bieżącego monitorowania procesów przemysłowych, eliminacja zbędnych systemów, poprawa efektywności operacyjnej i lepsza widoczność bezpieczeństwa. Jednak wraz z integracją rośnie powierzchnia ataku. OT, które pierwotnie działało w izolacji, staje się dziś dostępne dla cyberprzestępców przez połączenia IT, co drastycznie zwiększa ryzyko incydentów.

    Konwergencja ujawnia także tarcia organizacyjne — różnice kulturowe między zespołami, problemy z kompatybilnością rozwiązań oraz trudności we wdrażaniu spójnych polityk bezpieczeństwa. Paradoks polega na tym, że dążenie do zwiększenia efektywności operacyjnej prowadzi do wyższej interkonektowności systemów, która — w połączeniu z niepewnością starszych technologii OT — nieuchronnie poszerza pole do ataku.

    Aby sprostać tym wyzwaniom, organizacje muszą przejść od reaktywnego podejścia do modelu proaktywnego, w którym bezpieczeństwo jest integralną częścią projektowania systemów — od początku, a nie jako dodatek. Konieczne jest strategiczne podejście do równoważenia zysków z konwergencji z nowym poziomem ryzyka, jaki ona generuje.

    Krajobraz zagrożeń: ewolucja ataków na systemy OT/ICS

    Wraz z postępującą konwergencją IT i OT, środowiska przemysłowe stały się bardziej narażone na cyberataki. Nowe wektory i techniki pozwalają atakującym przedostawać się do wcześniej izolowanych systemów, czyniąc ich ochronę coraz trudniejszą.

    Obecnie najczęstszym punktem wejścia do środowisk OT jest kompromitacja systemów IT. Według danych SANS Research Program, aż 45,8% incydentów miało swój początek właśnie w infrastrukturze IT, a inne źródła wskazują nawet na 58% powiązanych naruszeń. Przestępcy wykorzystują te podatności jako bramę do słabiej zabezpieczonych sieci OT.

    Istotnym zagrożeniem są również urządzenia podłączone bezpośrednio do internetu. W styczniu 2024 r. Shodan zidentyfikował blisko 110 tys. urządzeń ICS dostępnych online, w tym ponad 6,5 tys. sterowników PLC. Brak podstawowych zabezpieczeń w wielu czujnikach i licznikach IIoT sprawia, że łatwo stają się celem. Równie poważne ryzyko stanowią urządzenia przejściowe – laptopy serwisowe, dyski USB czy narzędzia diagnostyczne – które mogą omijać zabezpieczenia „air-gapped” i wprowadzać złośliwe oprogramowanie bez wiedzy operatorów.

    Czynnik ludzki nadal pozostaje jednym z głównych źródeł incydentów. Kampanie phishingowe odpowiadają za 41% przypadków przenikania do środowisk przemysłowych, a błędy personelu – za 39%. Mimo to inwestycje w szkolenia i rozwój świadomości są wciąż marginalne w porównaniu do wydatków na technologię.

    W ostatnich latach gwałtownie wzrosła liczba ataków typu ransomware. IndustryARC podaje, że aż 80% ataków na OT jest powiązanych z tym typem zagrożenia, a w Polsce liczba takich incydentów wzrosła sześciokrotnie. Głośne przypadki z drugiej połowy 2023 roku objęły m.in. firmy Clorox, Boeing, Johnson Controls i Port Nagoya.

    Coraz większą uwagę budzą również ataki na łańcuchy dostaw, takie jak ten na Polyfill.io w czerwcu 2024 r., który dotknął ponad 100 tys. witryn. Według HP, co piąta firma doświadczyła naruszeń związanych z dostawami sprzętu.

    Równolegle nasila się cyberaktywizm. W Polsce widoczny jest wzrost działań grup prorosyjskich, takich jak NoName057(16), które przeprowadzały skoordynowane ataki DDoS na firmy transportowe. Globalnie, Cyber Av3ngers atakowali sterowniki PLC Unitronics, zakłócając dostawy wody w USA i Irlandii. Kluczowe incydenty – takie jak Stuxnet, atak na sieć energetyczną Ukrainy czy Colonial Pipeline – pokazały, że cyberataki mogą mieć realne konsekwencje fizyczne. Potwierdzają to też dane z drugiej połowy 2023 roku, gdzie według Kaspersky aż 37,5% incydentów miało materialne skutki – od strat finansowych (356 mln USD w przypadku Clorox), po całkowite zawieszenie działalności (KNP Logistics, port w Nagoi).

    Tradycyjne ataki IT koncentrują się głównie na danych. Jednak w przypadku OT stawką są procesy fizyczne, bezpieczeństwo ludzi i ciągłość działania krytycznej infrastruktury. Raporty coraz częściej dokumentują szkody wywołane bezpośrednio w zautomatyzowanych systemach, takie jak awarie stacji paliw czy wodociągów. To przesuwa cyberbezpieczeństwo OT z obszaru IT do domeny bezpieczeństwa narodowego i operacyjnego.

    W Polsce sytuacja jest szczególnie wymagająca. CERT Polska zarejestrował w 2023 roku ponad 80 tys. unikalnych incydentów – ponad dwa razy więcej niż rok wcześniej. Według raportu Microsoftu nasz kraj był trzecim najczęściej atakowanym państwem w Europie przez państwowe grupy cyberprzestępcze. Celami były m.in. administracja publiczna (atak ransomware na Powiat Jędrzejowski), sektor medyczny, a także firmy AIUT i Atende, które straciły łącznie ponad 6 TB danych.

    Głośne były także wycieki z POLADA (250 GB wrażliwych danych sportowców) oraz atak dezinformacyjny na PAP w maju 2024 r., który wywołał spekulacje o rosyjskim zaangażowaniu. W lipcu 2024 r. Polska stała się celem zmasowanych ataków DDoS w odpowiedzi na propozycję zestrzeliwania rosyjskich rakiet nad Ukrainą.

    Szczególnie niepokojący jest wzrost ataków na urządzenia OT podłączone do internetu – zwłaszcza w kontekście krytycznej infrastruktury. Położenie geopolityczne Polski oraz wsparcie dla Ukrainy czynią ją celem operacji zakłócających, które uderzają w systemy OT/ICS bez potrzeby konfrontacji militarnej. To pokazuje, że bezpieczeństwo OT to już nie tylko kwestia techniczna, lecz strategiczna. Wymaga skoordynowanych działań rządu, biznesu i międzynarodowych partnerów, by skutecznie bronić się przed nowym typem zagrożeń. 

    Rynek ochrony systemów OT i ICS: wartość, prognozy i czynniki wzrostu

    Cyberbezpieczeństwo systemów OT i ICS, jeszcze do niedawna traktowane jako niszowy segment rynku, dziś znajduje się w fazie dynamicznego wzrostu. Jest to efekt rosnącej skali zagrożeń, cyfryzacji przemysłu oraz strategicznego znaczenia infrastruktury operacyjnej.

    W 2024 roku globalna wartość rynku zabezpieczeń OT waha się w zależności od źródła – NextMSC szacuje ją na 24,67 mld USD, Business Research Insights na 20,7 mld USD, Precedence Research na 22,86 mld USD, a IndustryARC na 10,24 mld USD. Różnice wynikają z odmiennych metodologii i zakresów analiz, jednak wspólny mianownik pozostaje niezmienny: rynek jest znaczący i stale rośnie.

    W Polsce wartość rynku cyberbezpieczeństwa szacowana jest na około 2,5–3 mld zł w 2024 roku, przy czym cały ekosystem rozwiązań – obejmujący m.in. usługi chmurowe, centra danych i backup – może osiągnąć nawet 12 mld zł.

    Prognozy wzrostu są równie imponujące. Do 2030 roku rynek globalny ma osiągnąć od 82 do nawet 122 mld USD, w zależności od raportu, przy rocznej stopie wzrostu (CAGR) mieszczącej się w przedziale od 15% do 25%. Gartner prognozuje 18,5% CAGR do 2027 roku, McKinsey – 15% rocznie do 2030. Polska notuje dwucyfrowe tempo wzrostu od 2021 roku.

    Rozbieżności w szacunkach – zarówno wartości rynku, jak i tempa wzrostu – pokazują, że rynek cyberbezpieczeństwa OT wciąż dojrzewa. Brakuje jednolitej definicji i standardów pomiaru, co utrudnia porównywanie ofert i analiz. Dla organizacji oznacza to konieczność ostrożnej interpretacji danych rynkowych, a dla dostawców – potrzebę klarownego komunikowania swojej propozycji wartości w złożonym i ewoluującym środowisku.

    Głównym czynnikiem wzrostu pozostaje rosnąca liczba i złożoność ataków – wydarzenia takie jak atak ransomware na Colonial Pipeline pokazały, jak poważne mogą być konsekwencje dla infrastruktury krytycznej. Wzrost inwestycji napędza także rozwój IIoT i Przemysłu 4.0, który zwiększa liczbę połączeń w środowiskach OT i tym samym rozszerza powierzchnię ataku.

    Konwergencja IT i OT, choć podnosi efektywność operacyjną, wymaga bardziej zaawansowanych strategii bezpieczeństwa, zdolnych do zarządzania ryzykiem w obu środowiskach. Dodatkowym czynnikiem przyspieszającym wdrożenia są regulacje – takie jak dyrektywa NIS2 w UE, standardy ISA/IEC 62443, NIST czy NERC CIP. W przeciwieństwie do inwestycji motywowanych skutkami ataków lub optymalizacją operacyjną, regulacje prawne tworzą obowiązek inwestycji niezależnie od świadomości zagrożeń czy gotowości budżetowej. W ten sposób zapewniają one stabilną podstawę wzrostu rynku, niezależną od cykli koniunkturalnych.

    Mimo dynamicznego wzrostu, sektor cyberbezpieczeństwa OT/ICS wciąż mierzy się z istotnymi barierami. Wysokie koszty wdrożenia zniechęcają zwłaszcza mniejsze firmy, a chroniczny brak specjalistów ogranicza zdolność organizacji do zabezpieczenia infrastruktury. Tylko 9% profesjonalistów z obszaru cyberbezpieczeństwa i automatyzacji koncentruje się dziś wyłącznie na ochronie ICS/OT.

    Dodatkowym wyzwaniem pozostaje integracja nowoczesnych zabezpieczeń z przestarzałymi systemami, które dominują w środowiskach OT. Konieczność kosztownego retrofittingu i zastosowania niestandardowych rozwiązań sprawia, że wiele firm odkłada inwestycje mimo rosnących zagrożeń.

    Wszystko to pokazuje, że mimo silnego impetu rozwojowego, rynek ochrony systemów OT/ICS nadal wymaga doprecyzowania standardów, rozbudowy kompetencji i lepszego wsparcia dla wdrożeń – szczególnie w sektorze MŚP i w krajach rozwijających się.

    Trendy i innowacje technologiczne w cyberbezpieczeństwie OT/ICS

    Rynek ochrony systemów OT i ICS dynamicznie się rozwija, a nowe technologie i podejścia są odpowiedzią na rosnącą złożoność i skalę zagrożeń. Kluczowe innowacje zmieniają sposób, w jaki organizacje chronią krytyczną infrastrukturę operacyjną.

    Na znaczeniu zyskuje architektura Zero Trust, oparta na zasadzie „nigdy nie ufaj, zawsze weryfikuj”. W 2024 roku już 58% organizacji wdraża to podejście w środowiskach OT, co stanowi duży wzrost względem 21% w 2022 roku. W modelu tym każda jednostka – użytkownik, urządzenie, czy sieć – traktowana jest jako potencjalne zagrożenie, dopóki nie zostanie zweryfikowana. Szczególną rolę odgrywają tu takie mechanizmy jak uwierzytelnianie wieloskładnikowe, kontrola dostępu, zarządzanie tożsamością oraz podatnościami.

    Tradycyjny model bezpieczeństwa, oparty na fizycznej izolacji i ochronie perymetrycznej, traci na znaczeniu w zintegrowanym krajobrazie IT/OT. W jego miejsce pojawia się mikrosegmentacja, która pozwala tworzyć „mikroperymetry” wokół poszczególnych zasobów. To podejście ogranicza lateralny ruch zagrożeń i minimalizuje skutki ewentualnego ataku. Gartner prognozuje, że do 2027 roku jedna czwarta firm wdrażających Zero Trust będzie korzystać z więcej niż jednej formy mikrosegmentacji – w porównaniu do zaledwie 5% w 2025 roku.

    adopcja zero trust ot poziomo

    Równolegle coraz większą rolę odgrywa sztuczna inteligencja i uczenie maszynowe. Technologie AI/ML są w stanie analizować miliony zdarzeń w czasie rzeczywistym, wykrywając anomalie znacznie szybciej niż tradycyjne, oparte na sygnaturach metody. Pozwalają na automatyczne reagowanie na nowe zagrożenia, bez konieczności ręcznej interwencji. Wykorzystanie AI w systemach wykrywania wzrosło o 76% rok do roku, a wartość globalnego rynku AI w cyberbezpieczeństwie ma wzrosnąć z 15 mld USD w 2021 roku do 135 mld USD w 2030. Dzięki temu „niewidzialne” wcześniej zagrożenia w środowiskach OT stają się wykrywalne i możliwe do zneutralizowania zanim zakłócą procesy krytyczne.

    Coraz więcej organizacji sięga także po rozwiązania chmurowe i zarządzane usługi bezpieczeństwa (MSS). Chmura oferuje elastyczność, skalowalność i efektywność kosztową, szczególnie istotną dla małych i średnich firm. Z kolei MSS zapewniają ciągłe monitorowanie zagrożeń, reagowanie na incydenty i zdalną ochronę systemów OT – bez konieczności budowania wewnętrznych zespołów ekspertów.

    Wraz z dojrzewaniem rynku, organizacje coraz częściej przyjmują podejście „Secure by Design”, czyli projektowania systemów OT z wbudowanymi mechanizmami bezpieczeństwa od samego początku. To odejście od modelu, w którym zabezpieczenia dodawane są dopiero po wdrożeniu. Równocześnie rozwija się koncepcja odporności operacyjnej – integracja cyberbezpieczeństwa z kluczowymi procesami, szybkie reagowanie na incydenty i skuteczne strategie odzyskiwania stają się standardem w zarządzaniu ryzykiem przemysłowym.

    Razem te podejścia wyznaczają nową erę w ochronie OT/ICS – od reaktywności do proaktywności, od izolacji do integracji, od zabezpieczeń punktowych do architektur kompleksowych i odpornych na zakłócenia.

  • Cyberbezpieczeństwo AI: Dlaczego polskie fabryki ignorują zagrożenia?

    Cyberbezpieczeństwo AI: Dlaczego polskie fabryki ignorują zagrożenia?

    Raport EY ujawnia niepokojący rozdźwięk w polskim przemyśle, gdzie intensywne wdrażanie sztucznej inteligencji odbywa się przy alarmująco niskich inwestycjach w cyberbezpieczeństwo AI.

    W obliczu rosnących zagrożeń cybernetycznych, kwestia cyberbezpieczeństwa AI staje się kluczowa dla polskich przedsiębiorstw produkcyjnych, które mimo deklaracji, wciąż niedostatecznie zabezpieczają swoje systemy.

    Polskie przedsiębiorstwa produkcyjne przodują we wdrażaniu sztucznej inteligencji, ale alarmujące dane z badania EY ujawniają niepokojący rozdźwięk między deklaracjami a realnymi inwestycjami w cyberbezpieczeństwo. Podczas gdy 30% firm z tego sektora zakończyło już pierwsze implementacje AI, a aż 94% deklaruje analizę kwestii bezpieczeństwa, zaledwie 34% przeznacza na to realne środki.

    Najnowsza edycja badania EY „Jak polskie firmy wdrażają AI” wskazuje na dynamiczny rozwój adopcji AI w polskim biznesie. W ciągu roku odsetek firm, które zakończyły pierwsze wdrożenia, wzrósł z 20% do 25%, a 78% z nich raportuje pozytywne efekty. Sektor produkcyjny wyróżnia się na tym tle, osiągając 30% ukończonych wdrożeń, co czyni go liderem w skali kraju.

    Cyberbezpieczeństwo AI – tylko z pozoru?

    Jednak optymistyczny obraz wdrażania AI zaciemniają dane dotyczące cyberbezpieczeństwa. Badanie EY ujawnia, że choć 94% firm produkcyjnych twierdzi, że analizuje aspekty cyberbezpieczeństwa przy implementacji AI, to realne inwestycje w tym obszarze są znacznie niższe. Tylko 34% firm z tego sektora zainwestowało w zabezpieczenia systemów AI, w porównaniu do 49% w branży handlowej. Co więcej, zaledwie 18% podmiotów produkcyjnych wdrożyło kompleksowe zabezpieczenia, łącząc rozwiązania proceduralne (np. szkolenia pracowników) z narzędziowymi.

    „Postępująca digitalizacja sprawia, że w firmach pojawiają się nowe obszary, które trzeba zabezpieczyć. Branża produkcyjna jest szczególnie narażona, ponieważ zazwyczaj pamiętamy o zabezpieczeniu naszych komputerów czy telefonów, ale mało kto myśli o tym, że hakerzy mogą wedrzeć się nawet przez telewizor, drukarkę czy niezaktualizowany sterownik w fabryce”ostrzega Piotr Ciepiela, Partner EY, Lider obszaru cyberbezpieczeństwa w regionie EMEIA.

    cyberbezpieczestwo, nis 2, Cyfrowa transformacja
    źródło: Adobe Stock

    OT w ogniu

    Szczególnym zagrożeniem jest strefa OT (Operational Technology), obejmująca systemy sterowania automatyką przemysłową, czujniki IoT i narzędzia do kontroli maszyn w czasie rzeczywistym. Naruszenie bezpieczeństwa w tym obszarze może prowadzić do poważnych konsekwencji, od przestojów produkcyjnych i uszkodzeń maszyn po ingerencję w skład produktów. W zakładach, gdzie AI steruje robotami na liniach produkcyjnych, skutki ataku mogą być katastrofalne, zagrażając nie tylko biznesowi, ale i bezpieczeństwu konsumentów.

    „O obszarze bezpieczeństwa OT wciąż mówi się zdecydowanie za mało, podczas gdy zachowanie ciągłości produkcji w kluczowych dla gospodarki obszarach jest bardzo ważne, tym bardziej, że jesteśmy krajem przyfrontowym”podkreśla Leszek Mróz, Partner EY w centrum kompetencji EY dla usług bezpieczeństwa OT/IoT.

    Analiza danych pokazuje niepokojący rozdźwięk między świadomością zagrożeń cybernetycznych a faktycznymi inwestycjami w zabezpieczenia. Firmy często lekceważą znaczenie ochrony strefy OT, która jest kluczowa dla ciągłości produkcji. Konieczne jest wdrożenie holistycznego podejścia do cyberbezpieczeństwa, łączącego szkolenia pracowników i narzędzia ochronne. Rosnąca liczba ataków cybernetycznych wskazuje na pilną potrzebę zwiększenia inwestycji w tym obszarze, szczególnie w sektorze produkcyjnym, który ma kluczowe znaczenie dla gospodarki. Ignorowanie zagrożeń może prowadzić do poważnych konsekwencji, nie tylko dla przedsiębiorstw, ale również dla konsumentów.

    Polski sektor produkcyjny stoi w obliczu wyzwania. Aby w pełni wykorzystać potencjał AI, firmy muszą priorytetowo traktować cyberbezpieczeństwo i inwestować w kompleksowe rozwiązania, chroniące zarówno systemy IT, jak i OT. Ignorowanie tego aspektu może prowadzić do poważnych strat finansowych, uszkodzeń reputacji, a nawet zagrożenia dla bezpieczeństwa publicznego.

  • Jak low-code przekształca branżę produkcyjną?

    Jak low-code przekształca branżę produkcyjną?

    Przemysł produkcyjny znajduje się na progu rewolucji technologicznej, która może radykalnie zmienić sposób, w jaki funkcjonują firmy. Kluczowym graczem w tej transformacji są technologie low-code, które obiecują uproszczenie i przyspieszenie wielu procesów, od zarządzania danymi po automatyzację złożonych operacji. W dynamicznym środowisku produkcyjnym, gdzie płynność operacji jest kluczowa, technologie te mogą stanowić przewagę konkurencyjną, jakiej branża potrzebuje, aby sprostać wyzwaniom przyszłości.

    Low-code jako narzędzie integracji danych

    Low-code to technologia umożliwiająca szybkie i łatwe tworzenie aplikacji przy minimalnym kodowaniu. W świecie produkcji, gdzie dane są rozproszone w różnych systemach i silosach, low-code oferuje unikalne możliwości integracji. Tradycyjne metody często wymagają skomplikowanego programowania i długotrwałych procesów wdrożeniowych, co może opóźniać działania i zwiększać koszty.

    Dzięki low-code firmy mogą szybko tworzyć aplikacje, które łączą dane z różnych źródeł, umożliwiając lepszą koordynację przepływów pracy. Integracja danych z różnych działów – od produkcji, przez logistykę, po sprzedaż – pozwala na bardziej skoordynowane działania i szybsze reagowanie na zmieniające się warunki rynkowe.

    Automatyzacja procesów za pomocą low-code

    Low-code nie tylko upraszcza integrację danych, ale również wspiera automatyzację procesów, które do tej pory były wykonywane ręcznie. Jednym z przykładów jest automatyczne aktualizowanie podręczników technicznych w hali fabrycznej. Maszyny w produkcji często wymagają szczegółowych instrukcji obsługi, które muszą być regularnie aktualizowane w miarę zmian technologicznych.

    Zamiast ręcznego aktualizowania i dystrybucji dokumentów, aplikacje low-code mogą zarządzać tym procesem automatycznie. Pozwala to na szybkie wprowadzanie zmian i ich natychmiastowe udostępnianie pracownikom. Automatyzacja ta nie tylko oszczędza czas, ale również minimalizuje ryzyko błędów, co przekłada się na zwiększenie bezpieczeństwa i efektywności pracy.

    Zwiększenie efektywności pracy z low-code

    Wiele firm produkcyjnych nadal zarządza zmianami pracowników za pomocą tradycyjnych metod, takich jak pióro i schowek. Powoduje to, że informacje o nieobecnościach i dostępności pracowników mogą być niedokładne lub zagubione, co wpływa na planowanie personelu i produktywność.

    Technologie low-code pozwalają na cyfryzację tego procesu. Firmy mogą tworzyć aplikacje, które automatyzują logowanie i wylogowywanie się pracowników na początku i końcu zmiany. Dzięki temu wszystkie dane są precyzyjnie rejestrowane, co prowadzi do lepszego zarządzania personelem, mniejszej liczby przestojów oraz poprawy bezpieczeństwa pracy. Pracownicy dokładnie wiedzą, co mają robić od początku zmiany, co zwiększa ich satysfakcję i efektywność.

    Zarządzanie bezpieczeństwem dostępu

    Bezpieczeństwo jest kluczowym aspektem w każdej firmie produkcyjnej, szczególnie gdy chodzi o zarządzanie dostępem do różnych obszarów zakładu i systemów IT. Tradycyjne metody, polegające na e-mailach i arkuszach kalkulacyjnych, są często nieefektywne i mogą prowadzić do poważnych zagrożeń bezpieczeństwa.

    Dzięki aplikacjom low-code firmy mogą zautomatyzować procesy zarządzania dostępem. Takie aplikacje mogą automatycznie obsługiwać żądania dostępu i powiadamiać odpowiednie osoby, gdy autoryzacja wygasa. To nie tylko przyspiesza cały proces, ale również minimalizuje ryzyko błędów i zwiększa bezpieczeństwo w firmie. Szybsze przyznawanie dostępu prowadzi do mniejszej liczby przerw w działalności i większej satysfakcji pracowników.

    Wykorzystanie AI i IoT w połączeniu z low-code

    Integracja technologii low-code z Internetem Rzeczy (IoT) i Generative AI (GenAI) otwiera przed firmami produkcyjnymi nowe możliwości. Czujniki IoT zbierają ogromne ilości danych w czasie rzeczywistym, ale ich analiza może być wyzwaniem. Low-code umożliwia szybkie tworzenie aplikacji, które zbierają i analizują te dane, przekształcając je w użyteczne informacje.

    Dzięki integracji z modelami uczenia maszynowego (ML), firmy mogą przewidywać problemy z maszynami, optymalizować zużycie energii i poprawiać efektywność produkcji. Low-code pozwala na szybkie i elastyczne dostosowywanie tych rozwiązań do specyficznych potrzeb firmy, co jest kluczowe w dynamicznie zmieniającym się środowisku produkcyjnym.

    Wyzwania i przyszłość low-code w produkcji

    Pomimo licznych korzyści, wdrażanie technologii low-code może napotykać na pewne wyzwania. Jednym z nich jest potrzeba odpowiedniego szkolenia pracowników, aby mogli oni efektywnie korzystać z nowych narzędzi. Ponadto, integracja z istniejącymi systemami IT może wymagać dodatkowego wsparcia technicznego.

    Jednak przyszłość low-code w przemyśle wytwórczym wygląda obiecująco. Z coraz większym zapotrzebowaniem na szybkie i elastyczne rozwiązania, low-code może stać się kluczowym elementem strategii cyfryzacji firm produkcyjnych. Dzięki możliwościom tworzenia aplikacji bez potrzeby zaawansowanego programowania, low-code może przyspieszyć tempo innowacji i zwiększyć konkurencyjność na rynku.

    Technologie low-code oferują firmom produkcyjnym niespotykane dotąd możliwości. Integracja danych, automatyzacja procesów, poprawa zarządzania personelem i bezpieczeństwem – to tylko niektóre z korzyści, jakie niosą ze sobą aplikacje low-code. W świecie, gdzie tempo zmian jest coraz szybsze, low-code może stać się kluczem do sukcesu i przetrwania na rynku.

  • Jak cyfrowe bliźniaki przekształcają przemysł naftowy i gazowy

    Jak cyfrowe bliźniaki przekształcają przemysł naftowy i gazowy

    W ostatnich latach branża naftowa i gazowa znalazła się pod ciągłą presją optymalizacji wydajności, minimalizacji przestojów oraz poprawy bezpieczeństwa i ekologiczności swoich operacji. Rozwiązaniem, które zdaje się rewolucjonizować te aspekty, jest technologia cyfrowych bliźniaków – cyfrowe repliki fizycznych aktywów, które integrują sztuczną inteligencję, analitykę w czasie rzeczywistym i narzędzia symulacyjne.

    Co to jest cyfrowy bliźniak?

    Cyfrowy bliźniak to zaawansowana forma modelowania, która tworzy dokładną cyfrową replikę fizycznego obiektu, procesu lub systemu. W praktyce oznacza to, że firmy naftowe i gazowe mogą tworzyć modele swoich urządzeń, rafinerii czy całych sieci dostaw w środowisku cyfrowym, co umożliwia głęboką analizę i symulację różnych scenariuszy operacyjnych.

    Jak cyfrowe bliźniaki zmieniają branżę?

    • Poprawa wydajności i bezpieczeństwa: Cyfrowe bliźniaki umożliwiają monitorowanie stanu technicznego aktywów i przewidywanie potencjalnych awarii przed ich wystąpieniem. Dzięki temu firmy mogą lepiej planować konserwacje, unikać nieplanowanych przestojów i zapewnić większe bezpieczeństwo pracownikom oraz procesom.
    • Zmniejszenie śladu węglowego: Optymalizacja operacji i efektywniejsze zarządzanie energią przyczynia się do obniżenia emisji dwutlenku węgla i innych gazów cieplarnianych. Cyfrowe bliźniaki wspierają inicjatywy związane z ekologią poprzez efektywniejsze wykorzystanie zasobów i lepsze planowanie logistyczne.
    • Szkolenie i rozwój personelu: Symulacje oferowane przez cyfrowe bliźniaki pozwalają na bezpieczne przeprowadzanie szkoleń dla pracowników, co jest szczególnie ważne w wysoko specjalizowanych i niebezpiecznych sektorach, jakim jest wydobycie ropy i gazu.
    • Rozszerzenie na nowe obszary: Poza tradycyjnymi zastosowaniami w przemyśle naftowym i gazowym, cyfrowe bliźniaki zaczynają znajdować zastosowanie w projektach związanych z wychwytywaniem i składowaniem dwutlenku węgla oraz w produkcji energii odnawialnej. Przykładowo, mogą one poprawić efektywność projektów związanych z farmami wiatrowymi czy solarnymi poprzez lepsze przewidywanie wydajności i zarządzanie utrzymaniem.

    Mimo wielu korzyści, implementacja cyfrowych bliźniaków wiąże się z wyzwaniami, takimi jak wysokie koszty wdrożenia, potrzeba zaawansowanej analizy danych oraz zabezpieczenia cyfrowe. Niemniej jednak, potencjał tej technologii do transformacji operacji naftowych i gazowych jest ogromny, a jej rozwój i ulepszanie w najbliższych latach będą prawdopodobnie kontynuowane.

    Cyfrowe bliźniaki stanowią przełom w sposób, w jaki firmy naftowe i gazowe podchodzą do wyzwań operacyjnych i środowiskowych, otwierając nowe możliwości dla przyszłości sektora.

  • AI albo przepaść – sztuczna inteligencja w przemyśle wywoła rewolucję w 2024 roku?

    AI albo przepaść – sztuczna inteligencja w przemyśle wywoła rewolucję w 2024 roku?

    Znaczenie GenAI w przemyśle, która zajmuje czołowe miejsce na liście technologicznych priorytetów, rośnie. Z najnowszego raportu „State of Smart Manufacturing” wynika, że aż 83 proc. firm z sektora wytwórczego planuje inwestycje w sztuczną inteligencję (AI) w tym roku. Jednak wyzwaniem jest właściwe wykorzystanie danych, z których żyje AI. Efektywnie wykorzystuje je zaledwie 2 na 5 firm. 

    Masowa inwestycja w AI przez przemysł w 2024

    Świat od ponad roku przeżywa fascynację technologią AI, zwłaszcza jej generatywnymi zdolnościami, a przemysł nie pozostaje w tyle. Wyniki, przedstawione w raporcie „State of Smart Manufacturing” firmy Rockwell Automation, mówią same za siebie: aż 83% liderów branży przemysłowej deklaruje, że już w 2024 roku zamierzają pełnymi garściami czerpać z dobrodziejstw sztucznej inteligencji.

     — “AI albo nic”, taki jest dzisiaj trend. Symbolizuje on przejście od eksperymentalnego stosowania AI do uznania jej jako fundamentalnego komponentu strategii biznesowej — mówi Paweł Rutkowski, Director, Product Development & Research z BPSC. 

    Słowa eksperta pokrywają się z wnioskami z raportu „State of Smart Manufacturing Report”, w którym czytamy, że AI zajmuje centralne miejsce w strategiach technologicznych oraz roadmapach rozwoju. Zdaniem respondentów, większy zwrot z inwestycji niż oferowany przez ogólne rozwiązania AI zapewniają jedynie technologie chmury obliczeniowej oraz oprogramowanie dostarczane jako usługa (Cloud / SaaS). 

    AI podkręci wydatki 

    W obliczu zewnętrznych wyzwań, takich jak inflacja i rosnące koszty energii, mogłoby się wydawać, że przedsiębiorstwa produkcyjne będą zmuszone do redukcji wydatków, w tym inwestycji w nowe technologie. Jednak rzeczywistość jest odmienna. Deklaracje ankietowanych wskazują na przeciwny kierunek – wydatki na technologię wzrosną; z 23% budżetu operacyjnego w 2023 do 30% w 2024. Takie zwiększenie inwestycji podkreśla determinację producentów do wykorzystania nowych technologii. Czy jest coś, co może zburzyć, ten niemal idealny scenariusz? Owszem i są to same firmy. Jak się okazuje, dane, z których sztuczna inteligencja żyje, są przez firmy marnotrawione. O co dokładnie chodzi? Wspomniany już raport Rockwell Automation obnaża surową prawdę: badane firmy marnują aż 56% danych przemysłowych, nie wykorzystując ich potencjału. — Nieefektywne wykorzystanie danych jest poważnym problemem, prowadzącym do utraty potencjału optymalizacyjnego. Nie jest to nowy problem, ale w przypadku AI może mieć bardzo kosztowne konsekwencje i manifestować się na wielu poziomach w organizacji — mówi Paweł Rutkowski i dodaje: — Kluczowa jest centralizacja i integracja danych z różnych działów, co jest fundamentem dla skutecznego wykorzystania AI. Nieefektywne wykorzystanie danych może być istotnym hamulcem rozwoju i innowacyjności. W ekstremalnych przypadkach sprawi, że wdrożenie będzie porażką i alokowane środki zostaną zmarnowane kwituje ekspert z BPSC. 

    źródło: BPSC

  • Dekarbonizacja polskiego przemysłu: wyzwania i perspektywy

    Dekarbonizacja polskiego przemysłu: wyzwania i perspektywy

    Jest motywacja – wszyscy badani chcą się dekarbonizować – ale tylko 30 proc. przeszło do etapu wprowadzania zmian lub ma opracowaną strategię i wybranych dostawców. Firma DUON właśnie udostępniła raport, opracowany wraz z Instytutem badawczym Keralla Research, który pokazuje, jak z wyzwaniem dekarbonizacji radzą sobie polskie firmy przemysłowe – co je zachęca do zmiany, a co skutecznie hamuje na tej ścieżce?

    Filar się kruszy

    Skala wyzwania jest ogromna, bo Polska nadal stoi na węglu. Oficjalne dane Europejskiej Sieci Operatorów Systemów Przesyłowych (ENTSO-E) pokazują, że w 2023 r. dominującymi źródłami energii były węgiel kamienny i brunatny, które w sumie aż w 63 proc. wypełniły nasz miks energetyczny. Ale już słychać, jak ten filar pęka. Sektor jest coraz mniej rentowny: w 2023 r. wydobycie w polskich kopalniach spadło do poziomu sprzed I wojny światowej, a koszty obsługi kopalń oraz utrzymania wysokich pensji kadr górniczych tylko rosną. Odchodzenie od produkcji własnego węgla nie przekłada się na malejące zużycie tego paliwa. W związku z tym nie dość, że dopłacamy do nierentownego sektora, to jeszcze jesteśmy skazani na import surowca, który zaczyna być paliwem coraz mniej uzasadnionym ekonomicznie (choćby ze względu na system EU ETS i całą politykę klimatyczną UE).

    W przypadku Polski dekarbonizacja jest więc trudnym, złożonym wyzwaniem, choć jednocześnie nieuniknionym.

    Dekarbonizacja się opłaca

    Według prawie 80 proc. firm badanych przez DUON dekarbonizacja oznacza dla nich odczuwalne zmiany. Dzięki niej przede wszystkim: poprawią swój wizerunek (51 proc.), podniosą swoją konkurencyjność na rynku (32 proc.), uproszczą produkcję (25,5 proc.).

    Okazuje się, że odejście od węgla zaprocentuje też w dłuższej perspektywie w skali całego kraju. Kiedy Polski Instytut Ekonomiczny (PIE) wziął pod lupę trzy scenariusze rozwoju polskiego miksu energetycznego do 2040 r. scenariusz zakładający pozostanie przy węglu jako filarze energetyki wypadł najdrożej. I to pomimo tego, że mamy infrastrukturę. Koszt utrzymania obecnego poziomu zużycia węgla w energetyce wyniesie w rezultacie ponad 1,3 bln zł przez następnych kilkanaście lat. Według PIE najtaniej będzie szybko i zdecydowanie odejść od węgla, bo wtedy Polska gospodarka będzie musiała zainwestować niecałe 900 mld zł.

    Plany polskich firm przemysłowych pokrywają się z zaleceniami PIE: badanie pokazuje, że zakłady chciałyby dekarbonizować się bez półśrodków. Najwięcej firm (40 proc.) chce od razu odejść od węgla i zmienić całą instalację wewnętrzną w zakładzie. Co ciekawe w porównaniu z badaniem, które DUON i Keralla Research prowadziły w 2021 r., zmalała liczba firm optujących jedynie za modernizacją dotychczasowych rozwiązań. Pokazuje to, że coraz więcej przedsiębiorstw dostrzega potrzebę zmiany.

    Czego najbardziej boją się polskie firmy przemysłowe?

    Aż 97 proc. zakładów konfrontuje się z minimum ośmioma różnymi wyzwaniami. Największym spośród nich jest finansowanie – zarówno samej budowy nowej kotłowni (67 proc.), jak i jej eksploatacji (45 proc.). Firmy czują też na sobie ciężar wyzwań procesowych, ponieważ widzą, że znalezienie zastępstwa dla węgla nie jest łatwe. Zmagają się również z brakiem czasu potrzebnego na przygotowanie i przeprowadzenie procedur.

    DUON_wykres 1
    Źródło: Badanie firmy DUON i Instytutu Keralla Research, sierpień 2023 r.

    Paradoksalnie na największe obawy, czyli te finansowe, można dość łatwo znaleźć remedium. Fundusze europejskie oferują różne opcje dofinansowania np. do gazu ziemnego, funkcjonują też premie kogeneracyjne. Poza tym rezygnacja z węgla pozwala uniknąć wysokich kosztów emisji CO2. Pamiętajmy, że bezpłatne uprawnienia emisyjne będą stopniowo wycofywane z przemysłu do 2034 r.  

    Z pewnością jednak nastroje naszych firm przemysłowych uspokoiłoby sformułowanie klarownej, ponadpartyjnej ścieżki dekarbonizacji dla Polski. Raport dobitnie pokazuje, że przedsiębiorstwa czują się zdezorientowane, pozbawione prawnego i merytorycznego wsparcia ze strony władz.

    Biznes future-proof: jeśli nie węgiel, to co?

    W pierwszej kolejności gaz ziemny – 65 proc. firm wymienia go jako rozważaną alternatywę dla węgla. Co ciekawe ¼ rozważa biomasę. Co prawda błękitne paliwo postrzegane jest jako drogie, ale doceniane są jego zalety.

    – Korzyści wymieniane przez badanych pokazują, że gaz ziemny to paliwo, dzięki któremu firma może być dobrze zakorzeniona w teraźniejszości, a jednocześnie odporna na nadchodzące zmiany, zwłaszcza jeśli chodzi o LNG. Korzystanie z LNG gwarantuje dostęp do gazu ziemnego niezależnie od dostępu do sieci dystrybucyjnej. Może stanowić alternatywę dla sieci lub też element przejściowy w oczekiwaniu na podłączenie do gazu sieciowego. Otwiera również drogę do dalszej, opłacalnej transformacji energetycznej firmy. W przyszłości można je zastąpić bioLNG bez dodatkowych, obciążających inwestycji w przebudowę infrastruktury. Cieszy nas więc, że prawie 72 proc. badanych zna i analizowało rozwiązanie polegające na dostarczaniu gazu ziemnego w postaci skroplonejzaznacza Kamil Kapusta, starszy specjalista ds. marketingu z DUON Dystrybucja.

    Zgubi nas myślenie zero-jedynkowe

    Dekarbonizacja energetyki przy użyciu jednej technologii nie spełni swojego zadania. Biorąc pod uwagę specyfikę państw UE nie ma też jednego właściwego miksu energetycznego. Nawet Dania, praktycznie zdekarbonizowana, jeszcze w niewielkim procencie korzysta z paliw kopalnych. Wiatr, fotowoltaika, biometan, gaz, a w przyszłości atom – to realne opcje dla Polski. Tylko że potencjał to jedno, a mocna państwowa strategia to drugie. Raport firmy DUON i instytutu Keralla Research potwierdza, że brak długofalowej wizji dekarbonizacji daje się polskim firmom we znaki. Tymczasem zegar tyka: po pierwsze Polska zgodziła się na realizację ambitnych celów Zielonego Ładu. Po drugie chodzi o globalny megatrend – konkurencyjne będą tylko te gospodarki, które zabiegają o niskoemisyjność. 

  • Cyfrowy bliźniak – Technologia, która zmienia przemysł

    Cyfrowy bliźniak – Technologia, która zmienia przemysł

    Cyfrowy bliźniak to wirtualna reprezentacja fizycznego produktu lub systemu, wykorzystująca dane i algorytmy do symulacji jego zachowań w różnych scenariuszach. Jest to narzędzie, które nie tylko umożliwia lepszą integrację z klientami, ale również skraca czas realizacji produktu i ułatwia zarządzanie danymi.

    Kluczowe zalety

    Wykrywanie błędów i analizy
    Jednym z największych atutów cyfrowych bliźniaków jest ich zdolność do wczesnego wykrywania błędów i przewidywania problemów, co jest kluczowe dla predyktywnego utrzymania.

    Elastyczność i mobilność
    Cyfrowe bliźniaki umożliwiają zdalne zarządzanie i monitorowanie, co jest niezbędne w środowisku, gdzie producenci i klienci są rozproszeni geograficznie.

    Centralizacja danych
    Zarządzanie danymi w jednym centralnym miejscu ułatwia koordynację i współpracę, co jest kluczowe dla skomplikowanych procesów produkcyjnych.

    Wyzwania i ograniczenia

    Gotowość technologiczna
    Nie każda firma jest gotowa do pełnej transformacji cyfrowej. Wymaga to nie tylko inwestycji w technologię, ale również zmian w strukturach korporacyjnych.

    Kompleksowość implementacji
    Wdrożenie cyfrowego bliźniaka to nie tylko kwestia technologii, ale również zrozumienia, jak można go efektywnie wykorzystać w całym cyklu życia produktu.

    Kierunek na Przemysł 4.0
    Wprowadzenie cyfrowego bliźniaka jest krokiem w kierunku Przemysłu 4.0, gdzie digitalizacja i automatyzacja stają się kluczowymi elementami. Firmy, które chcą być na czele tej rewolucji, muszą zacząć od zrozumienia wartości, jaką mogą przynieść cyfrowe bliźniaki, i jak mogą one wpłynąć na ich operacje.

    Cyfrowe bliźniaki są więcej niż tylko modnym terminem; są one katalizatorem zmian w przemyśle i zarządzaniu danymi. Oferują one nie tylko możliwości związane z efektywnością i oszczędnościami, ale również otwierają drzwi do nowych sposobów myślenia o produkcji, zarządzaniu danymi i relacjach z klientami. Kluczem do sukcesu jest zrozumienie i wykorzystanie tej technologii w sposób, który przyniesie rzeczywistą wartość dodaną dla firmy.

  • Czas to pieniądz – przemysł liczy na technologie

    Czas to pieniądz – przemysł liczy na technologie

    W dzisiejszych zakładach produkcyjnych niezwykle istotną rolę odgrywa efektywność obsługi, a szczególnie szybkość reagowania na awarie. Standardem stało się podejmowanie działań już w ciągu 15 minut od zgłoszenia problemu, co podkreśla nieustannie rosnącą wagę czasu w tym sektorze.

    Wobec ciągle rosnących kosztów mediów, firmy usługowe dla obiektów (FM) są coraz częściej zobligowane przez klientów przemysłowych do ciągłego poszukiwania oszczędności. Często jest to nawet wymuszone odpowiednimi zapisami w kontraktach, które składają się na formalną strukturę tej współpracy.

    Jednym ze sposobów na osiągnięcie wymaganych oszczędności jest przeprowadzanie cyklicznych audytów szczelności instalacji. Są one realizowane za pomocą detekcji ultradźwiękowej, która umożliwia precyzyjne lokalizowanie ewentualnych problemów. Wsparciem w tym procesie jest zaawansowana analityka, która wskazuje możliwe przyczyny problemu i sugeruje odpowiednie rozwiązania.

    Czas postoju liczony w minutach

    Łączna produktywność czynników produkcji (total factor productivity – TFP) w całej gospodarce rosła w latach 2009–2019 średnio o 3% rocznie. W całym tym okresie wzrosła o 31%. Pozostajemy jednak w tyle za wieloma krajami UE. Przeciętna polska firma przemysłowa potrzebuje 3 razy więcej pracowników, aby wytworzyć taki sam produkt jak firma w Niemczech i 2 razy więcej pracowników niż przeciętna firma unijna*. Żeby w dalszym ciągu móc zmniejszać dystans do najlepszych, niezbędna jest znacząca poprawa produktywności polskich przedsiębiorstw i polskiej gospodarki jako całości.

    „Jednym z najważniejszych wyzwań w kontekście produktywności i efektywności zakładów przemysłowych jest utrzymanie ciągłości produkcji, niezależnie od tego, czy jest to duży zakład produkcyjny, mała fabryka czy też kilkuosobowa wytwórnia w parku magazynowym. Kilkunastominutowa przerwa w dostawie mediów to przerwa w procesie produkcyjnym, a co za tym idzie wymierne straty finansowe dla firmy. W tych największych mogące iść w miliony złotych. Dlatego normą w umowach na obsługę FM takich obiektów są zapisy obligujące nas do reakcji w czasie 15 minut od zgłoszenia problemu w godzinach funkcjonowanie serwisu FM na obiekcie, czyli zazwyczaj pomiędzy 6-22. W innych porach działanie musi być podjęte w ciągu 1-2 godzin. Takie czasy reakcji są skrupulatnie przestrzegane, a ich niedotrzymanie grozi karami.”

    mówi Michał Oleszczyk ze SPIE Building Solutions

    Jednym z kluczowych mediów, które jest najbardziej wrażliwe i najmocniej wpływające na bezpośredni proces produkcji jest sprężone powietrze wykorzystywane w różnego typu siłownikach. Najważniejszymi urządzeniami w procesie wytwarzania tego medium są sprężarki powietrza. Zazwyczaj stosowane są rozwiązania redundantne, czyli zakład ma zamontowanych kilka sprężarek i w przypadku awarii lub konieczności przerwy serwisowej jednego z urządzeń pozostałe mogą je zastępować. Świadome firmy mają plany określające priorytety poszczególnych procesów produkcyjnych, co w przypadku awarii pozwala zredukować zapotrzebowanie na sprężone powietrze i utrzymać ciągłość kluczowych procesów kosztem tych mniej istotnych. 

    Co roku wyższe normy

    Obsługa zakładów przemysłowych polega na ciągłej optymalizacji. Kontrakty z największymi producentami, są sformułowane w taki sposób, żeby obsługująca firma FM co roku zapewniała dodatkowe oszczędności. Z roku na rok plany na oszczędności są bardziej wymagające. Jak je osiągnąć?

    „W przypadku sprężonego powietrza przeprowadzane są cykliczne audyty szczelności instalacji. Do tego celu są wykorzystywane najczęściej detektory ultradźwiękowe. Każda zlokalizowana i usunięta nieszczelność, to realne zmniejszenie dociążenia sprężarki. Optymalizacja ciśnienia w układzie pozwalająca na zmniejszenie go tylko o 0,1 bara może dać wymierne oszczędności w czasie kilku lat trwania kontraktu. Analizowane są również inne aspekty mogące dawać oszczędności, takie jak na przykład infrastruktura sieciowa. Połączenie orurowania w okrąg powoduje wyrównanie ciśnienia w całej instalacji, a co za tym idzie, redukuje spadki w najbardziej odległych odbiornikach. Finalnie pozwala to na zmniejszenie ciśnienia na wyjściu ze sprężarki.”

    dodaje Michał Oleszczyk ze SPIE

    Sztuczna inteligencja w przemyśle

    Rosnące koszty energii zwieszają presję na stosowanie automatyki, podnoszącej efektywność energetyczną. Dokładne opomiarowanie urządzeń, monitoring, zdalny odczyt i kontrola mediów pozwalają wyłapać nieprawidłowości natychmiast po ich powstaniu. 

    „Zaawansowana analityka alarmuje, wskazuje na możliwe przyczyny problemu i podpowiada rozwiązania. Zarządzanie danymi przez zaawansowaną technologię pozwala przewidywać możliwe scenariusze wydarzeń, a dzięki temu przeciwdziałać tym negatywnym. Oprogramowanie opierające się na sztucznej inteligencji pozwala identyfikować możliwe oszczędności.”

    podkreśla Michał Oleszczyk ze SPIE Building Solutions

    To teraźniejszość, w niedalekiej przyszłości w przypadku awarii technik z goglami obecny w zakładzie będzie łączył się ze specjalistą nawet z drugiego końca świata, który będzie diagnozował problem i instruował, jak przeprowadzić naprawę. Takie rozwiązanie jest bardzo przydatne w przypadku skomplikowanych urządzeń produkowanych szczególnie – z naszego punktu widzenia – poza Europą. Sprowadzenia eksperta np. z Japonii czy Tajwanu trwałoby bardzo długo i było zdecydowanie bardziej kosztowne. Jest to rozwiązanie podobne do stosowanego już w przypadku operacji chirurgicznych. 


    * Dane ”Ścieżki wzrostu produktywności w Polsce: perspektywa firm”, przygotowanego przez Bank Światowy przy współudziale Głównego Urzędu Statystycznego. 

  • Jakość czy cena? Co jest przewagą rynkową w przemyśle wg MŚP?

    Jakość czy cena? Co jest przewagą rynkową w przemyśle wg MŚP?

    Według firm przemysłowych z sektora MŚP głównymi czynnikami, które decydują o osiągnięciu przewagi rynkowej jest wysoka jakość produktów końcowych (44,3 proc.), najniższe ceny (31,3 proc.) oraz wykwalifikowana kadra (25,7 proc.). W porównaniu do badania przeprowadzonego w 2021 spadło znaczenie terminowości, a wzrosło dobrych relacji z kontrahentami.

    Jak wynika z badania Siemens Financial Services w Polsce, co drugi ankietowany (44,3 proc.) uważa, że przewagę konkurencyjną daje wysoka jakość produktów. Na drugim miejscu przedsiębiorcy z branży obróbki metali, przetwórstwa tworzyw sztucznych i spożywczej najczęściej wskazują na najniższe ceny – 31,3 proc.

    Z kolei co czwarty badany wymienia wykwalifikowany zespół pracowników oraz terminowość. Podobny odsetek respondentów uważa, że istotne są również dobre relacje z kontrahentami.

    – Zdobycie przewagi nad konkurencją wymaga pracy i zaangażowania. Przedsiębiorca w tym celu powinien  skupić się m.in. na budowaniu dobrych relacji z kontrahentami czy tworzeniu profesjonalnego zespołu. Wiąże się to również z inwestycjami w maszyny i urządzenia, które zapewniają wysoką jakość produkcji i są dużo mniej energochłonne niż starsze sprzęty. To szczególnie ważne, ponieważ co druga firma przemysłowa z sektora MŚP uważa, że największym wyzwaniem w najbliższym czasie będą właśnie wysokie ceny energii. Według danych z raportu Siemens Financial Services „Financing Decarbonization: Manufacturing” opublikowanego w drugiej połowie 2021 roku, dzięki zwiększeniu efektywności energetycznej swoich zakładów przedstawiciele europejskiego sektora przemysłowego w perspektywie 5 lat mogliby zaoszczędzić ponad 40 miliardów dolarów. Gdyby dziś oszacować skalę takich oszczędności, kwoty z pewnością byłyby znacznie wyższe – mówi Katarzyna Kaczmarek, CEO w Siemens Financial Services w Polsce.

    Wysoka jakość produktów decyduje o konkurencyjności 

    Warto zauważyć, że w porównaniu do wcześniejszego badania wzrosła liczba przewag, które przedstawiciele ankietowanych branż uważają za kluczowe. W 2021 roku wskazywali trzy główne wyróżniki, a obecnie jest ich już aż sześć. Jest to wynik między innymi niepewności makroekonomicznej, która sprawia, że przedsiębiorcy aktywnie poszukują elementów, które pozwoliłyby im wyróżnić się na tle konkurencji i zwiększyć swoją przewagę rynkową.

    – Aby wzmocnić swoją pozycję na rynku, przedsiębiorcy szukają często sposobów na redukcję kosztów. Najlepiej jednak, żeby nie oznaczało to rezygnacji z dobrej jakości produktu. Rozwiązaniem mogą być inwestycje w odpowiednie MiU – mówi Grzegorz Jarzębski, Country Head of Sales w Siemens Financial Services w Polsce. –  Nowoczesne maszyny i urządzenia wspierają budowanie długotrwałej rentowności przedsiębiorstwa, przy zachowaniu wysokiego standardu jakości produkcji. Ponadto takie przedsięwzięcia można realizować bez obciążania własnego budżetu, przy wsparciu wyspecjalizowanych podmiotów. Oferowane przez takie instytucje finansowanie jest dopasowane do potrzeb danego przedsiębiorstwa, co pozwala elastycznie zarządzać płynnością finansową i umacniać swoją pozycję biznesową. Na koniec warto wspomnieć, że przy tak zmieniającym się otoczeniu rynkowym należy stale poszukiwać nowych wyróżników, które mogą decydować o przewadze rynkowej – podsumowuje.

  • Bezradne przeciwko cyberzagrożeniom – polski przemysł i jego brak polityki bezpieczeństwa ICT

    Bezradne przeciwko cyberzagrożeniom – polski przemysł i jego brak polityki bezpieczeństwa ICT

    Ponad połowa polskich firm przemysłowych nie prowadzi dokumentacji praktyk, środków i procedur związanych z bezpieczeństwem systemów teleinformatycznych – wynika z najnowszych danych Głównego Urzędu Statystycznego. To niepokojąca wiadomość, gdyż ataków hakerskich na cele przemysłowe jest coraz więcej. 

    Z badania firmy Capgemini “Cybersecurity in Smart Factories” wynika, że w 2022 roku 7 na 10 firm produkcyjnych padło ofiarą działań cyberprzestępców. Przestrogą mogą być też koszty cyberataków. Jak wyliczyli eksperci, czterogodzinny przestój może kosztować firmę przemysłową nawet 2 mln dolarów. Jest to też ogromna odpowiedzialność – w przypadku ataku na infrastrukturę krytyczną, stawką są nie tylko dotkliwe straty finansowe, ale też zagrożenie dla ludzkiego życia i zdrowia.

    Mimo, że niemal każdy zakład przemysłowy wyposażony jest w urządzenia podłączone do sieci i komunikujące się strumieniem danych, nie każdy prowadzi politykę bezpieczeństwa ICT, rozumianą jako udokumentowaną, wdrożoną i zaakceptowaną przez zarząd dokumentację zawierającą ocenę ryzyka utraty bezpieczeństwa i ewentualnego wpływu na działanie przedsiębiorstwa. 

    Statystyki GUS pokazują, że tylko 41,9 proc. firm zajmujących się produkcją dóbr i przetwórstwem prowadzi zorganizowaną politykę ICT. Jeszcze gorzej wygląda dbałość o stosowane procedury – zaledwie co piąta fabryka (19,1 proc.) zaktualizowała lub utworzyła politykę bezpieczeństwa w ciągu ostatnich miesięcy. Co trzecia firma (28,3 proc.) nie prowadzi w ogóle kontroli dostępu do sieci przedsiębiorstwa, a tylko 31,4 proc. zakładów posiada sondy monitorujące ruch sieciowy pod kątem nietypowych zdarzeń. Jeszcze mniej, bo zaledwie jedna piąta organizacji (20 proc.) prowadzi ocenę ryzyka teleinformatycznego. 

    „Te dane sygnalizują jak sporo jest do zrobienia, jeśli chodzi o świadomość u decydentów w polskim przemyśle. Dzisiaj furtką dla hakera może być dla hakerów zwykła kamera przemysłowa, podłączona do sieci a z naszych doświadczeń wynika, że w firmach produkcyjnych liczba urządzeń sięga zazwyczaj kilkuset. Każde z nich może być potencjalnie słabym ogniwem w architekturze cyberbezpieczeństwa.”

    Krzysztof Wójtowicz z ICsec, dostawcy usług z dziedziny cyberbezpieczeństwa dla przemysłu

    Sporo do poprawy mają też operatorzy infrastruktury krytycznej. Tylko ⅔ (57,9 proc.) dostawców energii elektrycznej, gazu. wody oraz spółek wodno-kanalizacyjnych prowadzi własną politykę bezpieczeństwa ICT. Mniej niż jedna trzecia (27 proc.) dokonało aktualizacji bądź wprowadziło nowe procedury w ciągu ostatniego roku. 76,6 proc. operatorów dba o kontrolę dostępu do sieci, ale tylko 39,8 proc. posiada system informujący o niebezpiecznych anomaliach w ruchu sieciowym. Nieco więcej niż ⅓ (35,8 proc.) dostawców prowadzi regularną ocenę ryzyka ICT. 

    „Bez procedur, które pozwalają zidentyfikować i rozpoznać zagrożenie, trudno o skuteczną odpowiedź na takie zachowania, a z naszych obserwacji wynika, że ogromnym problemem jest brak wiedzy firm, jakie urządzenia własne są w ogóle podłączone do sieci i ile ich de facto w tej sieci jest. Trudno w takiej sytuacji reagować na zagrożenia.”

    Krzysztof Wójtowicz z ICsec
  • Czy niskowęglowy wodór pomoże przemysłowi osiągnąć cele zrównoważonego rozwoju?

    Czy niskowęglowy wodór pomoże przemysłowi osiągnąć cele zrównoważonego rozwoju?

    Niskowęglowy wodór[1] ma szansę stać się kluczowym elementem na drodze do ekologicznej przyszłości świata. Obecnie aż 62% firm przemysłu ciężkiego[2] zastanawia się nad wykorzystaniem go jako alternatywy dla rozwiązań wysokoemisyjnych. Inwestycje w tym zakresie nie są jednak pozbawione ograniczeń związanych z wysokimi kosztami produkcji czy choćby brakiem kluczowych kompetencji na rynku pracy. Mimo to firmy z branży energetycznej przewidują, że do 2050 roku niskowęglowy wodór będzie stanowił aż 18% całkowitej konsumpcji energii, a jego cena będzie sukcesywnie spadać.

    Zgodnie z raportem „Niskowęglowy wodór – droga do zielonej przyszłości” przygotowanym przez Capgemini większość firm uważa, że niskowęglowy wodór może być sposobem na osiągnięcie długoterminowych celów w zakresie emisji i zrównoważonego rozwoju. 63% organizacji z sektora energetycznego sądzi, że wodór ten będzie kluczowy dla dekarbonizacji gospodarek. 62% twierdzi z kolei, że może on pomóc krajom zmniejszyć uzależnienie od paliw kopalnych. Według ankietowanych, niskoemisyjny wodór może stanowić w 2050 roku nawet 55% całego produkowanego wodoru. Średnio 0,4% całkowitych rocznych przychodów firm z sektora energetycznego zostanie przez nie przeznaczone na inwestycje w ten rodzaj wodoru do 2030 roku, w szczególności w obszarze transportu i dystrybucji energii wodorowej (53%), produkcji (52%) oraz badań i rozwoju (45%), przy czym niemal jedna czwarta (24%) z firm objętych badaniem planuje przeznaczać na ten cel jeszcze więcej, bo między 0,5 a 1% swoich przychodów.

    Niskoemisyjny wodór w istocie może odegrać kluczową rolę w walce o zieloną przyszłość, jednak z jego produkcją wiąże się wiele wyzwań. Potrzebne są inwestycje, które pozwolą obniżyć koszty produkcji tego paliwa oraz innowacyjne rozwiązania. Branża wodorowa powinna zapewnić sobie stabilny dopływ kompetencji w tym zakresie, a to oznacza nie tylko inwestowanie w wykwalifikowanych pracowników, lecz także stworzenie sieci partnerów i współpracę z zarówno dużymi graczami, jak i start-upami.

    Szerokie perspektywy dla niskowęglowego wodoru

    Tylko w ciągu ostatnich trzech lat popyt na wodór wzrósł średnio o ponad 10%, jeśli uwzględnimy wszystkie branże i spojrzymy na nie globalnie. Oczekuje się, że popyt nadal będzie rósł, zwłaszcza tam, gdzie wodór stosowany jest od dawna, a więc w procesie rafinacji ropy naftowej czy produkcji chemikaliów i nawozów. Nie dziwi zatem, że aż 94% rafinerii przewiduje, że zastosowanie niskowęglowego wodoru będzie mieć już w ciągu najbliższych siedmiu lat znaczący wpływ na ich branżę. Podobnego zdania jest 83% producentów chemikaliów i nawozów.

    Do wzrostu zapotrzebowania na wodór przyczynią się najpewniej też takie branże, jak transport lądowy, morski i lotniczy. Chociaż proces ten będzie w ich przypadku mniej dynamiczny, organizacje działające w tych sektorach widzą w niskoemisyjnym wodorze olbrzymi potencjał, pokazuje raport. Poszukują więc innowacyjnych modeli biznesowych oraz strategii, które pozwolą na redukcję kosztów i tym samym na skalowanie inwestycji w obszarze niskowęglowego wodoru.  

    Niemal nieograniczony potencjał dla tego źródła energii tkwić może jednak jeszcze w innym miejscu. Prawie trzy czwarte (71%) organizacji z sektora energetycznego uważa, że niskoemisyjny wodór może pomóc przechowywać energię pochodzącą z odnawialnych źródeł. Innymi słowy, może on stać się akumulatorem, który pozwoli znaleźć dla tego rodzaju energii jeszcze więcej zastosowań i uczynić ją jeszcze bardziej dostępną.

    Wyzwania dla producentów

    Większość rozwiązań związanych z niskoemisyjnym wodorem znajduje się na etapie pilotażowym. Dotychczas jedynie 11% organizacji E&U w pełni wdrożyło tego typu projekty. Branże, w których wodór znajduje zastosowanie, z pewnością chętnie w większym zakresie sięgałyby po to źródło energii. Problem polega jednak na tym, że produkcja niskowęglowego wodoru – choć przyjazna środowisku – jest na razie dość kosztowna (od dwóch do trzech razy droższa niż produkcja wodoru z węgla), co przekłada się na jego cenę.

    Aby rozwiązać ten problem i zwiększyć podaż niskoemisyjnego wodoru w odpowiedzi na rosnące zapotrzebowanie, potrzebne są szeroko zakrojone inwestycje. A te możliwe będą dzięki budowaniu partnerstw już nie tylko między kluczowymi graczami na wodorowym rynku, lecz także z jego nowymi uczestnikami, jak start-upy, które mogą zapewnić przełomowe rozwiązania. Sektor energetyczny wierzy, że uda się sprostać temu wyzwaniu. Prawie połowa z firm z tej branży (49%) spodziewa się w związku z tym, że koszt niskoemisyjnego wodoru będzie do 2040 roku nieustannie spadać.

    Rozwój inwestycji w obszarze produkcji niskoemisyjnego wodoru może hamować również brak kluczowych kompetencji na rynku pracy. Twierdzi tak ponad połowa (60%) zapytanych organizacji.

    Kolejnym ograniczeniem dla zwiększenia udziału niskowęglowego wodoru są wyzwania związane z infrastrukturą czy rozwiązaniami inżynieryjnymi. 65% firm końcowych działających w transporcie ciężkim wskazuje, że największym wyzwaniem inżynieryjnym jest w tym zakresie skalowanie produkcji wodorowych ogniw paliwowych. Z kolei 58% respondentów z branży lotniczej wskazuje na konieczność zmodyfikowania konstrukcji samolotów, by możliwe było wykorzystywanie niskowęglowego wodoru jako paliwa. 72% respondentów w branży stalowej twierdzi natomiast, że do szerokiej produkcji stali w oparciu o wodór niezbędna jest znaczna modernizacja infrastruktury.

    Choć zielona przyszłość napędzana niskoemisyjnym wodorem wydaje się być na wyciągnięcie ręki, podążanie tą drogą będzie wiązać się z wieloma wyzwaniami. Większość z nich udało się już zidentyfikować, lecz z pewnością pojawią się nowe. W obliczu wyzwań klimatycznych niemal pewne jest jednak, że zwiększanie roli zielonego wodoru w gospodarce nie jest już tylko wyborem, stało się koniecznością.

  • 5 barier na drodze do transformacji w inteligentnych fabrykach

    5 barier na drodze do transformacji w inteligentnych fabrykach

    Inteligentne operacje fabryczne mają ogromny potencjał dla przemysłu, oferując szereg korzyści dla liderów łańcucha dostaw, takich jak zwiększenie możliwości produkcyjnych, poprawa jakości i rozwiązanie problemów związanych z pracą. Niemniej jednak, według badań firmy Gartner, Inc., wprowadzenie inteligentnych fabryk wiąże się z poważnymi wyzwaniami, które wymagają transformacji kulturowych, operacyjnych i organizacyjnych. W badaniach Gartnera zidentyfikowano pięć głównych zagrożeń, które należy unikać podczas wdrażania inicjatyw inteligentnej fabryki.

    1. Mylenie optymalizacji fabryki z transformacją modelu biznesowego

    Korzyści optymalizacyjne inteligentnej fabryki mogą być ograniczone do pojedynczego zakładu, jeśli nie są one zintegrowane z resztą łańcucha dostaw. Aby uniknąć tego ryzyka, należy zapewnić synchronizację celów fabryki z modelami operacyjnymi łańcucha dostaw i cyfrowymi ambicjami przedsiębiorstwa, elastycznością i możliwościami automatyzacji.

    2. Przyjrzenie się zakresowi zarządzania zmianą

    Niedoszacowanie zmian wynikających z wdrożenia nowych technologii w istniejących procesach, integracjach i celach wydajnościowych może prowadzić do wyższych kosztów i opóźnień. Ryzyko to można ograniczyć, traktując zarządzanie zmianą jako część inicjatywy obejmującej całe przedsiębiorstwo i angażując kierownictwo wyższego szczebla oraz zespoły ciągłego doskonalenia.

    3. Niedocenianie złożoności dostosowania i konwergencji IT, OT i ET

    Zarządzanie inteligentnymi fabrykami wiąże się ze złożonością konwergencji i dostosowania IT, technologii operacyjnej (OT) i technologii inżynierskiej (ET). Aby złagodzić to ryzyko, liderzy łańcucha dostaw powinni rozważyć alternatywne modele organizacyjne w zakresie dostosowania IT/OT oraz rozwijać zarządzanie i struktury organizacyjne zgodnie z nowymi modelami produkcji.

    4. Niewystarczające fundusze na podnoszenie kwalifikacji, przekwalifikowywanie się i rozwój talentów

    Modernizacja programów uczenia się i rozwoju (L&D) jest niezbędna, aby pomóc pracownikom przystosować się do nowych doświadczeń oraz zdobywać i utrzymywać wiedzę. Inwestowanie w dodatkowe kształcenie i podnoszenie kwalifikacji pracowników jest kluczowe dla osiągnięcia sukcesu w inteligentnych fabrykach. Liderzy przedsiębiorstw powinni zadbać o wystarczające fundusze na rozwój talentów i przekwalifikowanie pracowników, aby umożliwić im efektywne wykonywanie swojej pracy w nowym środowisku.

    5. Zawężone skupienie się na pojedynczym przypadku użycia i technologii

    Zbytnie skupienie się na technologiach wspomagających i „sztuce możliwości” może narazić organizacje na znaczne zaległości informatyczne i dług techniczny. Środowisko technologiczne inteligentnych fabryk jest złożone, a brak jednego dominującego dostawcy spełniającego wszystkie wymagania utrudnia wybór odpowiedniej technologii. Zakupy technologii muszą być zrównoważone między względami strategicznymi, takimi jak możliwość skalowania, a pragmatycznymi, takimi jak odpowiednie planowanie na wypadek zakłóceń operacyjnych.

    Wdrożenie inteligentnych fabryk ma ogromny potencjał dla przemysłu, ale wiąże się z wyzwaniami, które wymagają kompleksowej strategii i przemyślanego zarządzania zmianami. Aby osiągnąć sukces, liderzy łańcucha dostaw powinni unikać pięciu głównych zagrożeń opisanych w badaniach Gartnera i podejść do procesu transformacji w sposób holistyczny, uwzględniając zarówno aspekty technologiczne, jak i ludzkie. Dzięki odpowiednim działaniom, inwestycjom w rozwój talentów i elastyczności organizacyjnej, inteligentne fabryki mogą przyczynić się do znaczącej poprawy efektywności i konkurencyjności przedsiębiorstw na rynku.

  • Jak sztuczna inteligencja może wesprzeć produkcję i przemysł?

    – Oczekiwania wobec sztucznej inteligencji jako jednej z technologii Przemysłu 4.0 są bardzo wysokie. Wszyscy w przemyśle poznali już i najpewniej stosują inne technologie takie jak robotyka, automatyzacja produkcji, blockchain czy przemysłowy internet rzeczy. Na produkcji są już one widoczne. Samo AI dopiero jednak powoli znajduje zastosowanie, przede wszystkim w analityce danych i systemach optymalizacji produkcji – zwraca uwagę Tomasz Haiduk, wykładowca w Szkole Biznesu Politechniki Warszawskiej i Prezes Forum Automatyki i Robotyki Polskiej.

    Analityka danych jest kluczowa do uzyskania odpowiedniej bazy dla podejmowania decyzji w szybko zmieniającym się świecie. Musimy stworzyć podstawy, aby szybciej prognozować i podejmować właściwe decyzje. Obecnie ten proces jest bardzo długi, szczególnie w obszarze produkcyjnym. Jesteśmy w takiej sytuacji, że dane, które otrzymujemy do analiz, są danymi wyłącznie historycznymi. Wynika to z wielu rzeczy, przede wszystkim z tego, że linie technologiczne nie są w odpowiedni sposób opomiarowane. Także monitoring mediów w większości firm w Polsce nie jest wystarczający.

    Konsolidacja danych jest kluczowa

    Dopiero w ostatnim czasie, po fali podwyżek cen energii, zaczęto przywiązywać właściwą wagę do opomiarowania produkcji i mediów tak, aby odpowiedzieć na pytanie – czy opłaca mi się w ogóle produkować, a jeśli tak – to za jaką cenę?

    Obszar produkcyjny moim zdaniem jest jeszcze bardzo zaniedbany i pierwszym krokiem do wykonania jest oczywiście pozyskanie rzetelnych danych. Trafiamy tutaj na pierwszą barierę – część zakładów już dysponuje czujnikami zainstalowanymi w obszarach produkcyjnych, ale obecnie każdy z systemów typu SCADA, MES czy ERP jest systemem izolowanym, pracującym na własnym opomiarowaniu i własnej bazie danych. Jako rozwiązania wyspowe rzadko współpracują ze sobą, co prowadzi do tego, że raporty z różnych systemów są ze sobą niespójne. Pierwszym krokiem do optymalizacji jest konsolidacja danych w jednym miejscu. 

    Jezioro danych

    Tu z pomocą przychodzi przemysłowy internet rzeczy jako jedna z technologii Przemysłu 4.0. Ze względu na ograniczenia w infrastrukturze oraz czas potrzebny do instalacji, do opomiarowania produkcji coraz częściej wykorzystuje się inteligentne, bezprzewodowe czujniki pomiarowe.  Przesyłają one wstępnie przetworzone dane (edge computing – przetwarzanie brzegowe) do jednego miejsca, jednej bazy danych. Nazywana jest ona data lake (jezioro danych) i stanowi uwspólnioną bazę informacyjną dla wszystkich systemów produkcyjnych.

    Jeżeli stworzymy wspólne jezioro danych, takie miejsce, w którym będziemy mieli do dyspozycji wszystkie dane z obszaru produkcyjnego, to każdy systemów będzie je pobierał do swoich potrzeb. Wyeliminuje to ryzyko rozbieżności zarówno dla systemów wizualizacji typu SCADA, systemów sterowania produkcją typu MES czy systemów zarządzania produkcją typu ERP. Wejście do produkcji algorytmów sztucznej inteligencji odbywa się głównie przez przemysłowy IoT.

    Od danych do informacji

    Mamy już dane – tylko co dalej nimi możemy zrobić? Jak szybciej przetwarzać dane w informacje?

    Jak spowodować, aby raporty nie odnosiły się do sytuacji historycznych tylko wsparłby zarządzanie w krótszym horyzoncie czasowym?

    Niestety budowa klasycznych algorytmów typu Business Intelligence trafia na barierę znalezienia właściwej korelacji między danymi, ich przygotowaniem, filtracją i konsolidacją. Przejście od danych do użytecznej informacji jest kluczowym problemem stojącym przed systemami informatycznymi wsparcia biznesowego. Tu z pomocą idą algorytmy oparte o sztuczną inteligencję. Przejście z klasycznego Business Intelligence na modele oparte na AI będą stanowić dobrą podstawę do nowoczesnej analityki biznesowej, optymalizacji procesów produkcyjnych i podejmowania decyzji w czasie rzeczywistym. Korelacje pomiędzy poszczególnymi danymi będą analizowane w trybie online w nowych algorytmach wspieranych przez sztuczną inteligencję. Przemysł 4 0 zakłada interakcje pomiędzy ludźmi, maszynami i systemami IT i to w oparciu o dane aktualizowane online. Algorytmy optymalizujące znajdują albo wskazują optymalną metodę prowadzenia procesu produkcyjnego, ukierunkowaną na założoną ścieżkę docelową oraz na określone scenariusze sytuacji zewnętrznej. Na przykład pozwalają na modelowanie produkcji przy szybko zmiennym otoczeniu przy dynamicznych zmianach cen energii czy przy ograniczeniach w łańcuchu dostaw, dostępie do personelu czy komponentów niezbędnych w produkcji. Dzięki temu odpowiadają na pytanie – w jaki sposób, kiedy i co należy produkować tak, aby było to optymalne dla przedsiębiorstwa przy określonych założeniach brzegowych. 

    Sztuczna inteligencja – skazani na własne doświadczenie i wykształcenie

    Oczywiście obecnie tego typu pytania to głównie zmartwienie kadry zarządzającej. Na razie jest ona skazana na własne doświadczenie i wykształcenie. Systemy decyzyjnego wsparcia produkcji i jej optymalizacji, oparte o AI pozwolą na prowadzenie procesu online tak, aby wybrać optymalne rozwiązanie dla zakładu.

    Następnym krokiem jest przejście od systemów wsparcia decyzyjnego do w pełni zautomatyzowanego sterowania produkcją. W takim modelu system zarządzania oparty o sztuczna inteligencje, mając dane z procesu oraz oczekiwane założenia biznesowe steruje procesem technologicznym bezpośrednio komunikując się z maszynami i zmieniając ich nastawy on-line. To właśnie prawdziwe sedno Przemysłu 4.0, w którym systemy cyberfizyczne komunikują się ze sobą i ludźmi w czasie rzeczywistym i sterują produkcją w cyfrowym świecie. 

    To przyszłość i główna koncepcja zastosowania algorytmów AI w przemyśle. Można to porównać do zaawansowanych algorytmów regulacyjnych, które w oparciu o dane pozyskiwane z produkcji potrafią odpowiedzieć na pytanie – co, kiedy i jak produkować, jak sterować linią technologiczną, w jaki sposób dostosować jej obciążenie i jak zmienić dynamicznie layout produkcyjny przy określonych założeniach wyjściowych.

  • Polski przemysł w 2022 – mało optymizmu, sporo zmian

    Polski przemysł w 2022 – mało optymizmu, sporo zmian

    Rok 2022 zakończył się mało optymistycznie dla polskiego przemysłu. Z miesiąca na miesiąc odnotowywaliśmy spadki, zarówno w produkcji, jak i liczbie nowych zamówień. Również zatrudnienie oraz aktywność zakupowa uległy zmniejszeniu. Co takie tendencje oznaczają dla polskiego przemysłu? Jakie będą kluczowe wyzwania dla branży w najbliższych miesiącach i na czym firmy produkcyjne powinny się skupić?

    Wskaźnik PMI (ang. Purchasing Managers’ Index) dla przemysłu w Polsce w grudniu 2022 wyniósł 45,6 pkt. Jak podają analitycy z S&P Global, odczyt był wyższy od prognozy (44 pkt) oraz od odczytu listopadowego (43,4 pkt). Mimo że to najwyższy poziom wskaźnika od maja 2022 r., to cały czas pozostawał on poniżej neutralnego progu 50 pkt. Analitycy z S&P Global zwracają uwagę, że zarówno produkcja przemysłowa, jak i nowe zamówienia spadły na koniec roku 2022. To skutek niesprzyjających warunków rynkowych, niestabilności gospodarczej i wysokiej inflacji. Nieciekawą sytuację potwierdzają dane z GUS, według których produkcja przemysłowa w grudniu 2022 r. była o zaledwie 1 proc. większa niż w analogicznym okresie poprzedniego roku, a z miesiąca na miesiąc spadła o ponad 6 proc. Produkcja przemysłowa na początku 2022 r. rosła w tempie prawie 20 proc. rok do roku, a na koniec roku 2022 dynamika jej wzrostu spadła niemal do zera. W kluczowym dla gospodarki sektorze produkcji przemysłowej wyraźnie widać skutki spowolnienia, a dane płynące z GUS są jeszcze bardziej niepokojące niż spodziewali się ekonomiści.

    Przemysł musi być gotowy na wszystko

    W stosunku do grudnia 2021 r. wzrost produkcji sprzedanej (w cenach stałych) odnotowano w 17 (spośród 34) działach przemysłu, m.in.: w produkcji pojazdów samochodowych, przyczep i naczep – o 18,2 proc., maszyn i urządzeń – o 18,1 proc. oraz urządzeń elektrycznych – o 12,6 proc. Reszta działów przemysłu odnotowała spadki w stosunku do grudnia 2021 r. 

    „Próbując prognozować to, co nas czeka w 2023 r., musimy bazować na danych dotyczących dynamiki produkcji, której tendencja niestety nie napawa optymizmem. Przemysł musi być gotowy na wszystko, zwłaszcza, że dopiero zaczęliśmy odbijać się od dna po perturbacjach związanych z totalnym rozerwaniem łańcuchów dostaw. Cały czas borykamy się z zatrważającymi cenami energii czy niedoborami surowców. W 2022 r. musieliśmy całkowicie zmienić podejście biznesowe i liczymy się z tym, że będzie trzeba je weryfikować co jakiś czas.”

    Aleksandra Banaś, prezes zarządu spółki ifm electronic, zajmującej się produkcją specjalistycznych czujników dla przemysłu

    Czas na działania w trybie akcja-reakcja

    Rok 2022 był trudny z biznesowego punktu widzenia, jednak trudności miały inny charakter niż w poprzednich latach, upływających z misją przetrwania w kryzysie. Zdaniem Aleksandry Banaś: – W 2022 roku klienci ostatecznie zużyli zapasy materiałów i produktów, które zdołaliśmy zgromadzić w związku z przerwaniem łańcuchów dostaw po pandemii COVID-19. Konieczne było przewartościowanie priorytetów oraz przejście w tryb akcja-reakcja. Musieliśmy zacząć reagować nie tylko na zapytania klientów o zamienniki naszej produkcji do produktów innych dostawców, którzy podobnie jak my borykają się z brakiem części, ale również na zapytania o to, czym zamienić nasze produkty, których czas dostawy się wydłużył. 

    Innowacyjność tak, ale z nową motywacją

    W 2022 r. produkcja przemysłowa musiała szukać rozwiązań, aby wesprzeć swoich partnerów i klientów w tym trudnym dla nich czasie. Wielu producentów powróciło do aktywnego poszukiwania rozwiązań innowacyjnych i szytych na miarę, choć z lekko zmienioną motywacją.

    „Opracowywaliśmy odmienne sposoby detekcji czy też nowe rodzaje wykorzystywanego w czujnikach sygnału głównie po to, żeby klienci mieli poczucie, że nasze wsparcie techniczne jest realną wartością. Pomagając klientom dostosować się do braków elementowych na rynku, pokazaliśmy, że mogą na nas liczyć, oczekując na lepsze czasy. I że my sami oczekujemy na lepsze czasy, robiąc wszystko, co w naszej mocy, aby spełnić ich oczekiwania.”

    Aleksandra Banaś

    Digitalizacja przebiega dwutorowo

    Flagowym produktem firmy ifm jest platforma moneo, która przetwarza dane z systemów informatycznych, wspomagając w ten sposób decyzje biznesowe i produkcyjne. moneo ma strukturę modułową i składa się z oprogramowania podstawowego oraz aplikacji przeznaczonych np. do monitorowania stanu lub do ustawiania parametrów czujników IO-Link.

    „W 2022 r. zakup masterów IO-Link stało się trudne, często wręcz niemożliwe, a bez nich nie ma mowy o kontroli nad procesami produkcyjnymi, która byłaby w pełni zgodna z filozofią naszej firmy. Stanęliśmy przed ogromnym wyzwaniem – opracowaniem rozwiązań na czas oczekiwania na dostępność czujników przy jednoczesnym uwzględnieniu potrzeb klientów pracujących bez przerwy na systemie moneo.”

    Aleksandra Banaś

    Priorytetem muszą być optymalizacje i oszczędności

    W obliczu stale rosnących kosztów energii liczy się każda oszczędność. Pokazał to rok 2022, a skutki zawirowań na rynku energii będą jeszcze bardziej odczuwalne w 2023, tym bardziej, że czuć coraz większą presję, aby firmy uwzględniały w swoim raportowaniu zrównoważony rozwój. Wszystko za sprawą Dyrektywy CSRD przyjętej przez Parlament Europejski 10 listopada 2022 r., która jest jednym z fundamentów Europejskiego Zielonego Ładu i programu zrównoważonego finansowania. Dyrektywa rozszerza grupę firm zobowiązanych do raportowania aspektów ekologicznych, społecznych oraz ładu korporacyjnego i w kolejnych latach zacznie obejmować coraz większą liczbę polskich przedsiębiorstw. To, jakie będą wyniki w raportach niefinansowych, zależy w dużej mierze od tego, jakie firma wdroży środki i podejmie kroki już teraz. Odpowiedzią na potrzeby optymalizacyjne, niezależnie od ich motywu, są z pewnością nowoczesne urządzenia wspierające konserwacje „just-in-time”. Przy użyciu oprogramowania moneo i monitorowania stanu (RTM), jak również IO-Key (połączenie z chmurą) opracowanego przez ifm możliwe jest zdalne monitorowanie zakładów oraz wykorzystywanie informacji do lepszego planowania i projektowania procesów oszczędzających zasoby. Taka konserwacja „just-in-time” pozwala na wczesne wykrywanie poważnych uszkodzeń i ograniczenie niepotrzebnych procesów lub ich części. To nie tylko optymalizacja produkcyjna, ale znacząca redukcja kosztów w całym łańcuchu produkcyjnym. 

    Przykładem konkretnego procesu do optymalizacji może być korzystanie w zakładzie produkcyjnym ze sprężonego powietrza. Warto sięgnąć po liczniki sprężonego powietrza serii SD firmy ifm pomagające wykryć wszelkie odstępstwa od normy w korzystaniu ze sprężonego powietrza, takie jak nieszczelności, wahania i spadki ciśnienia. Pozwala to trwale zmniejszyć zapotrzebowanie na energię bez dodatkowych kosztów.

    Zmienność to nowa normalność

    Z pewnością rok 2023 r. nie będzie rokiem powrotu do normalności ani czasem, kiedy ściśle wytyczone zostaną priorytety i kierunki rozwoju. Z jednej strony firmy produkcyjne muszą iść z duchem czasu i walczyć o zachowanie konkurencyjności. Z drugiej strony muszą się liczyć z koniecznością wykonania swego rodzaju „kroku w tył”, aby móc na bieżąco reagować na stale doskwierające braki elementowe i surowcowe na rynku. Zmiana sposobu funkcjonowania oznacza też konieczność zmiany narzędzi wspierających procesy przemysłowe. Jak podkreśla Aleksandra Banaś:

    „Cały czas odbudowujemy to, co straciliśmy w wyniku przerwania łańcuchów dostaw, niezmiennie wspieramy naszych klientów w powrocie na właściwe tory. Sami też musimy na nie wrócić, mając z tyłu głowy konieczność generowania ogromnych oszczędności i wprowadzania optymalizacji, które w obliczu galopujących cen, inflacji i niepewności gospodarczej mogą warunkować przetrwanie na rynku. Innowacje? Jak najbardziej – ale z głową i innym celem niż jeszcze dwa lata temu. „

    Aleksandra Banaś
  • Jak usprawnić działanie linii produkcyjnej?

    Jak usprawnić działanie linii produkcyjnej?

    Za sukces firmy produkcyjnej w dużej mierze odpowiada to, w jaki sposób realizowane są w niej procesy wytwórcze. Hala produkcyjna to serce i mózg całego zakładu, dlatego tak ważne jest, aby pochylać się nie tylko nad jakością wytwarzanych produktów, ale także wydajnością linii. Podpowiadamy, jakie możliwości otwiera przed zakładem automatyzacja procesów produkcji i komu warto zlecić to złożone i odpowiedzialne zadanie.

    Do czego służy automatyzacja produkcji?

    Obecnie trudno wyobrazić sobie prężnie działającą firmę produkcyjną bez maszyn, które wspierają człowieka w pracy, a czasem całkowicie go zastępują. Automatyzacja linii produkcyjnej to nic innego jak wykorzystanie dedykowanych urządzeń i maszyn, które sprawiają, że proces wytwórstwa można przyśpieszyć, sprawić, aby był bardziej precyzyjny oraz mógł generować oszczędności w firmie, np. poprzez zmniejszenie potrzeby zatrudnienia czy mniejszy odsetek produktów niepełnowartościowych, które psują renomę firmy oraz zwiększają koszty generowane przez przedsiębiorstwo. Automatyzacja produkcji, o ile jest odpowiednio przeprowadzona, będzie również podnosić bezpieczeństwo w zakładzie, a wiele trudnych lub szkodliwych czynności, które dotychczas były obowiązkiem pracowników produkcji, dzięki złożonym procesom można powierzyć maszynom.

    Jakie działania wchodzą w skład automatyzacji procesów produkcji?

    Automatyzacja produkcji to szereg procesów, które należy zlecić profesjonalnemu zespołowi, który kompleksowo podejdzie do tematu nie tylko od strony teoretycznej, ale przede wszystkim praktycznej. Bez znajomości potrzeb przedsiębiorstwa i solidnego researchu nie da się rozpocząć działań związanych z szeroko pojętą robotyzacją procesu. Po wykonaniu szczegółowego planu i określeniu budżetu firma wdrażającą automatyzację procesów produkcji powinna przystąpić do opracowania maszyny czy stanowiska zrobotyzowanego, a następnie nie tylko przeprowadzić montaż, ale i szczegółowe testy. Niezawodność maszyny oraz jej bezpieczeństwo to kluczowe cechy, do których powinna dążyć firma realizująca automatyzację produkcji.

    Komu powierzyć automatyzację procesów produkcji?

    Nie da się ukryć, że automatyzacja procesów produkcji to ważny krok w stronę rozwoju przedsiębiorstwa, który może zaważyć nawet o dalszym losie firmy. To odpowiedzialne zadanie należy powierzyć specjalistom, którzy mają doświadczenie w tego typu wdrożeniach, znają potrzeby i problemy podobnych firm jak Twoja i koniecznie dysponują wszechstronną wiedzą i umiejętnościami. Taką firmą niewątpliwie jest ESOX Industrial Automation z Łodygowic koło Bielska-Białej, która od 2009 roku z powodzeniem realizuje projekty związane z automatyzacją produkcji, relokacją maszyn, całych linii przemysłowych oraz tworzeniem instalacji przemysłowych. Te technicznie trudne zadania wymagają precyzji i zaangażowania, a na korzyść ESOX Industrial Automation przemawia również fakt, że specjaliści z tej firmy działają szybko, szanując czas klientów i wiedząc, że w większości przypadków nie mogą oni pozwolić sobie na zahamowanie czy opóźnienie produkcji. Właśnie utrata wydajności i przedłużające się prace związane ze wdrożeniem to główne obawy osób zarządzających firmą produkcyjną przed podjęciem decyzji o automatyzacji. Wiedząc o tym, firma ESOX Industrial Automation stara się przeprowadzić przedsiębiorstwo przez te złożone procesy całkowicie bezboleśnie.

    Jeśli wahasz się, czy automatyzacja procesów produkcji to rozwiązanie dla Twojego przedsiębiorstwa, koniecznie skontaktuj się ze specjalistami z firmy ESOX Industrial Automation.

  • Cyfrowy bliźniak – czyli jak stworzyć nowy cykl życia maszyn

    Cyfrowy bliźniak – czyli jak stworzyć nowy cykl życia maszyn

    Rozwój czwartej rewolucji przemysłowej i zmiany zapotrzebowania rynku na inteligentne maszyny spowodowały, że tradycyjny proces projektowania i budowy urządzeń staje się nieefektywny. Jako że użytkownicy końcowi oczekują, aby maszyny oddane do użytku były gotowe do produkcji szybciej, z większą niezawodnością i mniejszym ryzykiem przestojów, producenci szukają nowych sposobów projektowania, budowania i konserwacji maszyn, aby przezwyciężyć opóźnienia w ich rozwoju i oddawaniu do użytku. Dlatego też coraz chętniej wykorzystują technologię cyfrowego bliźniaka we wszystkich fazach życia inteligentnych maszyn.

    Producenci urządzeń przemysłowych, jak i klienci końcowi, stoją dziś przed nowymi wyzwaniami. Konsumenci oczekują wysokiego stopnia personalizacji kupowanych produktów, firmy produkcyjne borykają się z niedoborem umiejętności, a dzisiejsi pracownicy mają inne potrzeby i oczekiwania. Dodatkowo piętrzą się wyzwania związane z łańcuchami dostaw, globalnym kryzysem niedoboru komponentów oraz wszechobecna presja na wyniki finansowe. Z pomocą przychodzą „cyfrowe bliźniaki”, przynosząc korzyści w całym cyklu życia maszyny. Mogą pomóc osiągnąć elastyczność operacyjną, rentowność i odpowiedni poziom wydajności we wszystkich fazach budowania maszyn: od projektu, przez sprzedaż, po optymalizację wykorzystania. Nowe narzędzia 3D typu digital twin, takie jak m.in. platforma EcoStruxure Machine Expert Twin od Schneider Electric, przynoszą korzyści na wszystkich poziomach interakcji w cyklu życia maszyny między producentem a użytkownikiem końcowym.

    Projektowanie, weryfikacja koncepcji i sprzedaż: wykorzystanie odpowiednich narzędzi cyfrowych pomoże zaoszczędzić 20-50 proc. czasu potrzebnego do wprowadzania rozwiązań na rynek i 10-20 proc. na kosztach jakości:

    • Cyfrowe techniki projektowania i wizualizacji pozwalają na wyraźne zademonstrowanie potencjalnym klientom możliwości maszyny jeszcze przed jej zakupem. Efektywne kosztowo, dokładne i przekonujące demonstracje możliwości konstruktora maszyny pomagają zwiększyć skuteczność sprzedaży i wyeliminować późniejsze niespodzianki związane z jej wydajnością.
    • Maszyny i związane z nimi systemy przenoszenia materiałów mogą być projektowane i demonstrowane wirtualnie. Działanie i przepustowość mogą być zademonstrowane z niemal 100-proc. dokładnością, co pomaga wyeliminować błędy projektowe i koszty. Wszystko to może być zrobione jeszcze zanim rozpocznie się fizyczna budowa urządzenia.
    • Jest to skuteczne narzędzie do wzbudzania zainteresowania klientów i ustalania wspólnych oczekiwań. Takie działania sprzedażowe typu „proof of concept” pozwalają na lepszą współpracę z potencjalnymi klientami i wczesną walidację koncepcji projektowych maszyn.

    Budowa i uruchomienie maszyny: optymalizacja czasu uruchomienia na poziomie 60 proc. i 30 proc., poprawienie jakości projektowania dzięki cyfryzacji:

    • 60 proc. czasu rozruchu urządzeń poświęcane jest na rozwiązywanie problemów związanych z oprogramowaniem sterującym, protokołami i integracją. Jednak wielu z tych opóźnień można uniknąć, stosując narzędzia do tworzenia modeli cyfrowych. Inżynierowie nie muszą już czekać, aż maszyna zostanie zbudowana, aby wykonać zadania związane z uruchomieniem. Testy mogą odbywać się przy użyciu jedynie sterownika PLC i modelu wirtualnego. Wirtualne testy sterowania oprogramowaniem, wirtualne fabryczne testy akceptacji (FAT) oraz wirtualny rozruch ułatwiają integrację systemów i ocenę jakości oprogramowania, ponieważ testy te nie muszą być już szczegółowo wykonywane na miejscu. Szybka, skuteczna, odporna na błędy konfiguracja/budowa maszyn i związanych z nimi systemów przenoszenia materiałów możliwa jest dzięki modułowym, praktycznie zweryfikowanym konstrukcjom z innowacyjnym system transportowym nowej generacji Lexium™ MC12.
    • Wirtualne uruchomienie pozwala na wcześniejsze przygotowanie testów odbiorczych w fabryce lub zakładzie, redukując tym samym czas i wysiłek. Działanie to zmniejsza liczbę błędów projektowych oraz kosztowny czas usuwania usterek na miejscu.
    • Wymagania klienta dotyczące wielkości produkcji i jakości są spełnione szybciej, co skraca również czas osiągnięcia zysku przez użytkownika końcowego i pomaga konstruktorom maszyn zrealizować ten kluczowy etap projektu w krótszym czasie.
    • Wykorzystanie wstępnie skonstruowanych obiektów ułatwia inżynierom uzyskanie spójności jakościowej maszyny i zapewnia elastyczność w zakresie łatwiejszego modyfikowania i zatwierdzania pomysłów projektowych, nawet w przypadku bardzo złożonych systemów automatyki. Na etapie projektowania i rozwoju maszyny, wirtualna inżynieria otwiera drzwi do zróżnicowanych, szybkich projektów maszyn z nawet 30-proc. poprawą jakości projektu.

    Faza operacyjna w zakładzie użytkownika końcowego: zwiększenie sprzedaży i wykorzystanie nowych możliwości biznesowych:

    • Narzędzia z zakresu digital twin umożliwiają producentom OEM oferowanie klientom usług serwisowych, które mogą generować nowe źródła przychodów. Usługi takie jak szkolenie operatorów, testowanie aktualizacji oprogramowania, zapobieganie przestojom oraz ocena wydajności pomagają producentom nawiązać szersze relacje z klientami. Zdalne usługi świadczone przez cyfrowego bliźniaka działającego na miejscu, równolegle do prawdziwej maszyny w zakładzie produkcyjnym klienta, pozwalają producentom, inżynierom zakładowym i operatorom określić, gdzie należy zwiększyć wydajność. Skutkuje to mniejszą liczbą przypadków nieplanowanych przestojów maszyn i 50-proc. poprawą ogólnej efektywności sprzętu.
    • Technologię cyfrowych bliźniaków można wykorzystać do identyfikacji rzeczywistych działań w zakresie poprawy procesu i nieprawidłowych operacji przed wystąpieniem przestoju. Dodatkowo operatorzy mogą być szkoleni w bezpiecznym środowisku offline.
    • Producenci maszyn mogą oferować cyfrowo zdalne usługi w fazie eksploatacji, aby zidentyfikować możliwości poprawy i zapewnić rozwiązywanie problemów. Poprawia to wskaźnik całkowitej efektywności energetycznej (ang. OEE), mierzący efektywność wykorzystania maszyn i urządzeń, i zmniejsza nieplanowane czasy przestoju.
    • Aktualizacje oprogramowania mogą być testowane i weryfikowane w trybie offline, aby zapewnić optymalne korzyści w zakresie wydajności w świecie rzeczywistym.

    Obecnie cyfrowe podejście do projektowania maszyn pozwala na wizualizację, symulację i „budowę” wielu złożonych aspektów maszyn produkcyjnych w świecie wirtualnym, zamiast uciekać się do budowania, testowania i weryfikacji, a następnie przeprojektowywania i ponownego budowania w świecie rzeczywistym. Rezultatem jest bardziej efektywne, wydajne i opłacalne projektowanie, budowa, uruchomienie i eksploatacja maszyn produkcyjnych.

    Takie podejście generuje cyfrową ścieżkę, która przebiega przez wszystkie fazy cyklu życia maszyny. Wirtualny model jest zawsze dostępny, aby usprawnić działania związane z konserwacją, szkoleniem i ciągłym doskonaleniem.

    Co więcej, nowe cyfrowe możliwości serwisowe pozwalają producentom maszyn na utrzymanie kontaktu z klientami końcowymi w fazie eksploatacji procesów (na okres powyżej 10 lat). Producenci mogą wykorzystać swoją wiedzę, aby zapewnić klientom końcowym nowe poziomy diagnostyki i doradztwa w zakresie usprawnień, a wszystko to zrobić zdalnie, oszczędzając czas i koszty podróży.

    Oprogramowanie cyfrowego bliźniaka EcoStruxure Machine Expert Twin umożliwia inżynierom skrócenie czasu wprowadzania na rynek opracowywanych przez nich maszyn o 20-50 proc. Mogą oni korzystać z platformy EcoStruxure Machine Expert Twin, aby uruchomić kombinacje komponentów maszyny i zobaczyć, jak różne opcje wpływają na zachowanie maszyny. Takie narzędzia umożliwiają odważniejsze i bardziej kreatywne planowanie, poprawę czasu sprawności dzięki lepszej konserwacji maszyn, zwiększenie rentowności i skuteczniejszą zgodność ze zmieniającymi się przepisami.

    Inteligentne maszyny i urządzenia mogą pomóc w realizacji obietnicy cyfrowej transformacji – zarówno dla użytkowników końcowych, jak i producentów. Dostarczanie inteligentnych maszyn i urządzeń wraz ze skalowalnymi usługami może pomóc producentom w tworzeniu nowych strumieni przychodów, rozwijaniu relacji z klientami, pomaganiu klientom w prosperowaniu oraz utrzymaniu konkurencyjności firm przemysłowych i ich dostawców maszyn produkcyjnych.