Tag: Zero Trust

  • Luka w cyfrowej tarczy. Firmy przeceniają swoją gotowość na chmurę i AI

    Luka w cyfrowej tarczy. Firmy przeceniają swoją gotowość na chmurę i AI

    W korporacyjnych kuluarach panuje powszechne przekonanie o wysokiej gotowości na wyzwania, jakie niesie ze sobą adopcja chmury i sztucznej inteligencji. Aż 76 procent organizacji deklaruje pewność siebie w zakresie zabezpieczania nowoczesnych środowisk hybrydowych. Jednak najnowsze dane CyberArk, oparte na badaniu przeprowadzonym wśród 500 profesjonalistów IT pod koniec 2025 roku, brutalnie weryfikują ten optymizm. Okazuje się, że za fasadą deklaracji kryje się architektura bezpieczeństwa, która wciąż tkwi w epoce „stałego dostępu”.

    Rozdźwięk między percepcją a rzeczywistością najlepiej ilustruje jeden, kluczowy wskaźnik: zaledwie jeden procent organizacji wdrożył model dostępu Just-in-Time dla swoich najbardziej wrażliwych systemów. Mimo że paradygmat Zero Trust jest odmieniany przez wszystkie przypadki na każdej konferencji branżowej, w praktyce firmy wybierają wygodę kosztem bezpieczeństwa. W 91 procentach badanych podmiotów co najmniej połowa uprzywilejowanych dostępów pozostaje stale aktywna. W erze, w której tożsamość stała się nowym obwodem ochronnym, pozostawianie na stałe otwartych drzwi jest zaproszeniem do ataku.

    Sytuację drastycznie komplikuje rosnąca autonomia sztucznej inteligencji. Tożsamości nie są już przypisane wyłącznie do ludzi; coraz częściej krytyczne i wrażliwe zadania wykonują agenci AI. Tymczasem polityki bezpieczeństwa nie nadążają za technologiczną rzeczywistością. Niepokojąca liczba firm albo stosuje dla maszyn te same, statyczne reguły co dla pracowników, albo – co gorsza – nie posiada dla tożsamości AI żadnych specyficznych ram kontroli. W efekcie powstaje zjawisko „cienia przywilejów”, gdzie nieużywane lub nieznane uprawnienia piętrzą się w systemach. Ponad połowa respondentów przyznaje, że co tydzień odkrywa niesprawdzone konta i niezaopiekowane dane poufne.

    Paradoksalnie, problemem często okazuje się nadmiar rozwiązań, a nie ich brak. Zdecydowana większość firm korzysta z wielu odseparowanych narzędzi bezpieczeństwa tożsamości, co prowadzi do fragmentacji, opóźnień w kontroli i powstawania martwych pól w monitoringu. Wnioski płynące z analizy CyberArk są jasne: droga do wyjścia z tego impasu nie prowadzi przez dokładanie kolejnych cegieł, ale przez modernizację fundamentów. Bez przejścia na dynamiczne, oparte na kontekście zarządzanie dostępem – zarówno dla ludzi, jak i maszyn – organizacje ryzykują, że ich gotowość na rewolucję AI pozostanie jedynie w sferze deklaracji w plikach PowerPoint.

  • Koniec ery fortecy. Dlaczego cyberodporność to przyszłość IT?

    Koniec ery fortecy. Dlaczego cyberodporność to przyszłość IT?

    Krajobraz cyfrowych zagrożeń w Polsce przestał być domeną teoretycznych rozważań, a stał się codziennym wyzwaniem biznesowym. Oficjalne statystyki, jak te publikowane przez CERT Polska, co roku biją rekordy liczby zarejestrowanych incydentów.

    Firmy, niezależnie od skali działalności, konfrontują się z nieustanną presją – od masowych kampanii phishingowych po precyzyjnie targetowane ataki z użyciem ransomware. Stawką nie są już tylko dane czy straty finansowe, ale fundamentalna zdolność do prowadzenia działalności.

    Przez lata w branży IT dominował paradygmat budowania cyfrowej fortecy. Inwestycje koncentrowały się na wzmacnianiu murów obronnych: wdrażaniu zaawansowanych zapór sieciowych, systemów antywirusowych i coraz popularniejszych architektur opartych na zasadzie zerowego zaufania (Zero Trust).

    To solidne fundamenty, jednak branża zgodnie przyznaje, że nawet najszczelniejszy system obronny nie gwarantuje stuprocentowej ochrony. Pytanie przestało brzmieć „czy zostaniemy zaatakowani?”, a zaczęło „kiedy to nastąpi i jak szybko wrócimy do działania?”.

    W odpowiedzi na tę zmianę, na pierwszy plan wysuwa się koncepcja cyberodporności (cyber resilience). To strategiczne rozszerzenie klasycznego pojęcia bezpieczeństwa. O ile bezpieczeństwo skupia się na prewencji i blokowaniu ataków, o tyle odporność zakłada, że incydent w końcu nastąpi.

    Jej celem jest więc minimalizacja szkód, przetrwanie zakłócenia i jak najszybsze przywrócenie pełnej operacyjności. Odporność to zdolność organizacji do absorpcji ciosu i kontynuowania misji.

    Realizacja tej koncepcji wymaga zintegrowanego, holistycznego podejścia, które można oprzeć na kilku uzupełniających się filarach. Pierwszym jest nieustanna analiza i zapobieganie. Obejmuje to regularną ocenę wektorów zagrożeń, identyfikację słabych punktów w infrastrukturze oraz dbałość o zgodność z regulacjami i standardami. To proaktywne działanie, które zmniejsza powierzchnię ataku.

    Drugim elementem, wzmacniającym prewencję, jest wspomniana architektura Zero Trust. Jej filozofia odrzuca ideę bezpiecznej sieci wewnętrznej, traktując każdą próbę dostępu do zasobów – niezależnie od pochodzenia – jako potencjalnie wrogą.

    Uwierzytelnianie i autoryzacja stają się granularne, co znacząco utrudnia napastnikom poruszanie się po sieci, nawet jeśli uda im się sforsować pierwszą linię obrony.

    Kolejne dwa filary aktywują się, gdy prewencja okaże się niewystarczająca. Mowa o zdolności do wykrywania i reagowania. Kluczowy jest tu ciągły monitoring systemów w poszukiwaniu anomalii, które mogą świadczyć o incydencie. Szybkie wykrycie pozwala uruchomić zdefiniowane wcześniej procedury reagowania, izolując zagrożenie, zanim spowoduje ono kaskadowe szkody.

    Ostatnim, kluczowym elementem jest odzyskiwanie. To proces przywracania systemów, danych i procesów biznesowych do stanu sprzed ataku. Nowoczesne strategie odzyskiwania danych (disaster recovery) kładą nacisk na automatyzację i minimalizację wskaźników RTO (Recovery Time Objective) oraz RPO (Recovery Point Objective), aby przerwa w działaniu firmy była jak najkrótsza.

    Budowanie prawdziwej cyberodporności wykracza jednak poza technologię. To proces, który musi integrować ludzi, procedury i narzędzia. Wymaga jasno zdefiniowanych ról na wypadek kryzysu, regularnych testów i ćwiczeń awaryjnych oraz budowania kultury świadomości bezpieczeństwa wśród wszystkich pracowników. Bezpieczeństwo przestało być produktem, który można kupić i wdrożyć. Stało się ciągłym procesem adaptacji, który decyduje o zdolności firmy do przetrwania w coraz bardziej niepewnym cyfrowym świecie.

  • Cyberbezpieczeństwo 2025: Ile firm naprawdę wdrożyło Zero Trust?

    Cyberbezpieczeństwo 2025: Ile firm naprawdę wdrożyło Zero Trust?

    W krajobrazie cyberbezpieczeństwa roku 2025 obserwujemy uderzający paradoks. Z jednej strony, rynek rozwiązań opartych na filozofii Zero Trust (Zerowego Zaufania) przeżywa bezprecedensowy rozkwit, a prognozy wskazują na wzrost jego wartości do niemal 92 miliardów dolarów do 2030 roku.

    Z drugiej strony, nagłówki portali technologicznych wciąż donoszą o spektakularnych naruszeniach danych. Rodzi to fundamentalne pytanie: skoro tak wiele firm deklaruje wdrożenie Zero Trust, dlaczego wciąż jesteśmy tak podatni na ataki? Odpowiedź leży w rosnącej przepaści między deklaratywną adopcją a głęboką, architektoniczną implementacją tej strategii.   

    Anatomia Zerowego Zaufania: Co kryje się za hasłem?

    Aby zrozumieć ten rozdźwięk, należy precyzyjnie zdefiniować, czym jest architektura Zero Trust (ZTA). To nie produkt, który można kupić i zainstalować, ale kompleksowa strategia bezpieczeństwa oparta na prostej zasadzie: „nigdy nie ufaj, zawsze weryfikuj”.

    Model ten zrywa z archaicznym założeniem, że wszystko wewnątrz sieci korporacyjnej jest godne zaufania. Zamiast tego zakłada, że sieć jest stale skompromitowana, a każda próba dostępu, niezależnie od pochodzenia, jest potencjalnie wroga.   

    Filozofia ta opiera się na trzech nierozerwalnie związanych ze sobą filarach.

    Po pierwsze, jawna weryfikacja, co oznacza, że każde żądanie dostępu jest uwierzytelniane i autoryzowane w oparciu o wszystkie dostępne dane, takie jak tożsamość użytkownika, lokalizacja czy stan urządzenia.

    Po drugie, stosowanie dostępu o minimalnych uprawnieniach, co radykalnie ogranicza potencjalne szkody w przypadku naruszenia, przyznając użytkownikom tylko te uprawnienia, które są absolutnie niezbędne do wykonania zadania. Po trzecie,    

    założenie, że doszło do naruszenia, co przesuwa ciężar z zapobiegania włamaniom na rzecz szybkiego wykrywania, izolowania i reagowania na incydenty, m.in. poprzez mikrosegmentację sieci.   

    Deklaracje kontra rzeczywistość: Wielki podział Zero Trust

    Na pierwszy rzut oka dane rynkowe malują obraz rewolucji. Badania wskazują, że 81% firm już wdrożyło model Zero Trust lub aktywnie nad nim pracuje. Ten entuzjazm jest napędzany przez realne potrzeby: zanikający tradycyjny „mur obronny” sieci w dobie pracy zdalnej i chmury, rosnąca sofistykacja zagrożeń oraz presja regulacyjna, jak choćby nakaz wdrożenia ZT w amerykańskich agencjach federalnych do końca 2024 roku.   

    Jednak głębsza analiza ujawnia, że adopcja jest szeroka, ale wciąż bardzo płytka. Wiele organizacji myli wdrożenie strategii z zakupem pojedynczego narzędzia, np. rozwiązania klasy Zero Trust Network Access (ZTNA), które posiada zaledwie 34% firm.

    Twarde dane pokazują, że tylko 29% firm opiera swoją politykę dostępu głównie na tożsamości, co jest absolutną podstawą ZTA, a zaledwie 26% wdrożyło zasadę najmniejszych uprawnień.

    Badanie przeprowadzone przez Instytut Ponemon wykazało, że chociaż 61% respondentów twierdzi, że ich organizacje zaadaptowały Zero Trust, to tylko 18% wdrożyło wszystkie jego kluczowe zasady. To pokazuje, że większość firm jest dopiero na początku drogi.   

    Bariery na drodze do dojrzałości

    Ta przepaść wynika z faktu, że prawdziwa implementacja Zero Trust jest zadaniem niezwykle trudnym. Główne bariery to przestarzałe systemy i dług technologiczny, których modernizacja jest kosztowna i ryzykowna.

    Do tego dochodzą ograniczenia budżetowe i brak wewnętrznych kompetencji – aż 47% firm wskazuje brak wiedzy eksperckiej jako największe wyzwanie. Nie można też ignorować oporu kulturowego; przejście od mentalności „ufaj, ale weryfikuj” do „nigdy nie ufaj” wymaga zaangażowania całej organizacji, od zarządu po pracowników.   

    Praktyczna wartość i spojrzenie w przyszłość

    Mimo tych wyzwań, wartość dojrzałej architektury ZT jest nie do przecenienia. W tradycyjnym modelu skompromitowane poświadczenia pracownika stają się dla atakującego „złotym kluczem” do całej sieci.

    W modelu Zero Trust ta sama próba logowania uruchamia serię weryfikacji kontekstowych, a nawet jeśli atakujący uzyska dostęp, jego ruchy są drastycznie ograniczone przez mikrosegmentację i zasadę najmniejszych uprawnień, co minimalizuje „promień rażenia” ataku.   

    Przyszłość Zero Trust leży w dalszej ewolucji i integracji z nowymi technologiami. Sztuczna inteligencja stanie się mózgiem operacyjnym ZTA, automatyzując analizę ryzyka w czasie rzeczywistym. Obserwujemy również postępującą konwergencję z modelem SASE (Secure Access Service Edge), który łączy funkcje sieciowe i bezpieczeństwa w jedną usługę chmurową.   

    Dla liderów IT i biznesu kluczowe jest przyjęcie pragmatycznego podejścia. Zamiast rzucać się na zakup nowych technologii, należy zacząć od uczciwej oceny stanu dojrzałości i zidentyfikowania największych luk.

    Fundamentem każdej strategii powinno być wzmocnienie tożsamości poprzez bezkompromisowe wdrożenie uwierzytelniania wieloskładnikowego (MFA). Wdrożenie ZT to maraton, a nie sprint – należy planować je w przemyślanych, realistycznych fazach.

    Co najważniejsze, transformacja ta wymaga jednoznacznego wsparcia ze strony kierownictwa, które musi postrzegać ją nie jako koszt, ale jako strategiczną inwestycję w odporność i ciągłość działania całego biznesu. Zero Trust nie jest celem, który można osiągnąć, ale nieustannym zobowiązaniem, które w dzisiejszej erze cyfrowej staje się warunkiem przetrwania. 

  • Dlaczego każdy kabel w fabryce jest dziś potencjalnym punktem wejścia dla hakera

    Dlaczego każdy kabel w fabryce jest dziś potencjalnym punktem wejścia dla hakera

    Jeszcze dekadę temu przemysłowa linia produkcyjna była światem zamkniętym. Maszyny pracowały w odizolowanych sieciach, a kontakt z internetem był minimalny lub żaden. Bezpieczeństwo opierało się na prostym założeniu: jeśli ktoś nie przekroczy bramy fabryki, nie dostanie się też do systemów sterujących.

    Dziś ta logika jest równie aktualna, co zamek z fosą w epoce dronów.

    Nowoczesna produkcja to środowisko, w którym każde urządzenie jest połączone z siecią, dane przepływają pomiędzy działami, a decyzje podejmowane są w czasie rzeczywistym przez algorytmy.

    To ogromny postęp dla efektywności, ale też otwarcie setek nowych punktów wejścia dla atakujących. I nie chodzi tu tylko o cyberprzestępców szukających danych – w przypadku systemów OT skutki ataku bywają fizyczne, kosztowne i natychmiastowe.

    Model tzw. perimeter security działał przez lata: wszystko, co było wewnątrz sieci, uznawano za bezpieczne. Problem w tym, że przemysł 4.0 nie ma już „wewnątrz” w klasycznym znaczeniu.

    W każdej nowoczesnej fabryce działa dziś gęsta sieć urządzeń IoT – od czujników temperatury i ciśnienia, po kamery wizyjne i programowalne sterowniki PLC. Do tego dochodzą systemy chmurowe, cyfrowe bliźniaki, zdalne serwisy dostawców i aplikacje do monitoringu produkcji.

    W praktyce oznacza to, że linia produkcyjna jest dostępna z wielu stron – przez internet, przez sieci dostawców, a nawet przez prywatne urządzenia serwisowe. Wystarczy jedno słabe ogniwo, by haker uzyskał dostęp do całej infrastruktury.

    Przemysłowe IoT zrewolucjonizowało sposób, w jaki zbieramy i analizujemy dane.

    Czujniki przesyłają w czasie rzeczywistym informacje o stanie maszyn, a algorytmy AI przewidują moment awarii i optymalizują pracę linii. Cyfrowe bliźniaki – wirtualne modele fabryk – pozwalają testować scenariusze bez zatrzymywania produkcji.

    To ogromne korzyści, ale każde takie połączenie jest potencjalnym punktem wejścia. Jeśli dostawca oprogramowania zdalnego monitoringu zostanie zhakowany, jego konto serwisowe może posłużyć do ingerencji w linie produkcyjne. Jeśli czujnik IoT nie ma aktualizacji bezpieczeństwa, może stać się furtką do sieci OT.

    Według danych Check Point Research, w 2025 roku sektor produkcyjny jest najczęstszym celem ataków ransomware – odpowiada za 29% wszystkich zgłoszonych incydentów. To więcej niż w finansach czy opiece zdrowotnej.

    Problem w tym, że w przeciwieństwie do czysto cyfrowych środowisk, atak na OT ma skutki fizyczne. Zatrzymana linia produkcyjna to nie tylko strata czasu – to przerwanie łańcuchów dostaw, opóźnienia w realizacji kontraktów, a w przypadku krytycznej infrastruktury – zakłócenia w funkcjonowaniu całych miast.

    W kwietniu 2025 roku awaria sieci energetycznej w Hiszpanii i Portugalii sparaliżowała ruch pociągów, działanie szpitali i pracę wielu fabryk. Choć nie było dowodów na cyberatak, sytuacja pokazała, jak jeden punkt awarii może rozlać się na całe państwa.

    Cyberprzestępcy rzadko zaczynają od frontalnego ataku na najważniejsze systemy.

    Zamiast tego szukają najsłabszych punktów – np. nieaktualizowanej kamery monitoringu. Przez nią dostają się do segmentu sieci, w którym działa sterownik PLC. Następnie wykorzystują brak segmentacji i słabe uwierzytelnianie, by przenieść się głębiej – aż do systemu SCADA, który kontroluje produkcję.

    Scenariusz bywa równie prosty, co skuteczny: zainfekowanie urządzenia zdalnego serwisu, wykorzystanie domyślnych haseł w czujnikach IoT, albo podszycie się pod dostawcę aktualizacji. W każdym z tych przypadków efekt może być ten sam – pełna kontrola nad krytycznymi procesami.

    Odpowiedzią na to ryzyko jest model Zero Trust. Jego zasada jest prosta: nigdy nie ufaj, zawsze weryfikuj – i to zarówno w przypadku ludzi, jak i maszyn. W praktyce oznacza to:

    • Uwierzytelnianie urządzeń – każdy sterownik, czujnik i aplikacja musi udowodnić swoją tożsamość przed uzyskaniem dostępu.
    • Mikrosegmentacja sieci – podział infrastruktury na mniejsze strefy, tak aby w razie naruszenia atakujący nie mógł swobodnie się przemieszczać.
    • Minimalne uprawnienia – użytkownicy i maszyny mogą działać tylko w obrębie tego, co jest im absolutnie potrzebne.
    • Audyt i rejestrowanie działań – każda operacja jest zapisywana, co ułatwia wykrywanie incydentów i reakcję.

    Zero Trust wymaga zmiany myślenia – fabryka nie jest już zamkniętą twierdzą, lecz dynamicznym ekosystemem, w którym każde połączenie wymaga kontroli.

    Pierwsze kroki dla producentów

    1. Mapowanie połączeń – dokładna inwentaryzacja wszystkich urządzeń i kanałów dostępu.

    2. Segmentacja sieci – oddzielenie OT od IT i podział OT na strefy funkcjonalne.

    3. Aktualizacje oprogramowania – regularne łatanie luk w czujnikach IoT i sterownikach PLC.

    4. Kontrola zdalnego dostępu – wdrożenie wielopoziomowego uwierzytelniania i ograniczeń czasowych.

    5. Szkolenia zespołów IT i OT – uświadamianie, że bezpieczeństwo nie kończy się na firewalu.

    Dziś granica bezpieczeństwa nie przebiega na firewallu ani na bramie fabryki. Przesuwa się w głąb sieci – do każdego urządzenia, każdego kabla, każdego pakietu danych.

    Hakerzy wiedzą, że wystarczy jeden słaby punkt, by przejąć kontrolę nad całą operacją.

    Dlatego w świecie hiperpołączonej produkcji ochrona zaczyna się od świadomości, że każdy element infrastruktury może być celem.

  • Inwestycja, która się zwraca, czyli wdrożenie architektury Zero Trust

    Inwestycja, która się zwraca, czyli wdrożenie architektury Zero Trust

    Tradycyjne modele bezpieczeństwa przestają być skuteczne. Koncepcja „zamku i fosy” – zakładająca, że wszystko wewnątrz sieci firmowej jest bezpieczne, a zagrożenia czają się wyłącznie na zewnątrz – stała się przestarzała i nieadekwatna do współczesnych realiów. W świecie, w którym dane i aplikacje opuszczają fizyczne granice organizacji, a użytkownicy łączą się z zasobami z dowolnego miejsca na świecie, rola firewalla jako głównej linii obrony traci znaczenie.

    Właśnie dlatego powstała koncepcja Zero Trust – nie tyle nowa technologia, co całkowita zmiana sposobu myślenia o bezpieczeństwie. Jej fundamentem jest zasada: „nigdy nie ufaj, zawsze weryfikuj”. W praktyce oznacza to, że każda próba dostępu do zasobów, niezależnie od tego, czy pochodzi z wewnętrznej, czy zewnętrznej sieci, jest traktowana jako potencjalne zagrożenie i wymaga dokładnej weryfikacji.

    Od koncepcji do ustandaryzowanej architektury

    Termin „Zero Trust” został po raz pierwszy użyty przez Johna Kindervaga z Forrester Research w 2010 roku. Jego zdaniem budowanie zaufania wyłącznie na podstawie lokalizacji w sieci jest błędne z założenia. Jednak dopiero publikacja dokumentu NIST SP 800-207 nadała koncepcji formalny kształt i przekształciła ją w precyzyjnie zdefiniowaną architekturę bezpieczeństwa.

    Zero Trust zgodnie z NIST opiera się na kilku kluczowych założeniach. Wszystkie dane i usługi traktowane są jako zasoby wymagające ochrony, niezależnie od ich lokalizacji. Każda komunikacja musi być odpowiednio zabezpieczona, a dostęp przyznawany jest indywidualnie dla każdej sesji. Decyzje o przyznaniu dostępu są dynamiczne i uzależnione od wielu czynników – m.in. tożsamości użytkownika, stanu urządzenia, kontekstu operacji. Co więcej, organizacje muszą monitorować integralność zasobów, stosować ciągłą weryfikację tożsamości oraz dążyć do automatyzacji i doskonalenia mechanizmów zabezpieczeń.

    W centrum tej koncepcji leży założenie, że naruszenia bezpieczeństwa są nieuniknione – mogą pochodzić zarówno z zewnątrz, jak i z wewnątrz organizacji. Model ten całkowicie odrzuca ideę zaufanej sieci wewnętrznej.

    Wartość biznesowa: bezpieczeństwo, efektywność i oszczędności

    Zero Trust to nie tylko odpowiedź na zmieniające się zagrożenia – to również racjonalna decyzja biznesowa. Wartość rynku rozwiązań Zero Trust rośnie w szybkim tempie i prognozuje się, że do 2030 roku osiągnie ponad 85 miliardów dolarów, niemal trzykrotnie więcej niż w 2023 roku.

    Realne korzyści z wdrożenia tej strategii potwierdzają analizy, takie jak raport Total Economic Impact™ przygotowany przez Forrester dla Microsoft. Wynika z niego, że wdrożenie Zero Trust może zmniejszyć ryzyko naruszenia danych nawet o połowę, zapewnić zwrot z inwestycji na poziomie 92% w ciągu trzech lat i istotnie zwiększyć wydajność zespołów odpowiedzialnych za bezpieczeństwo. Dodatkowo organizacje oszczędzają miliony dolarów dzięki konsolidacji narzędzi i uproszczeniu infrastruktury IT. Jednocześnie firmy wdrażające Zero Trust rzadziej padają ofiarą skutecznych cyberataków, a także łatwiej spełniają wymogi regulacyjne wynikające z przepisów takich jak RODO, NIS2 czy DORA.

    Technologiczne fundamenty Zero Trust

    Aby strategia Zero Trust mogła funkcjonować efektywnie, musi opierać się na kilku ściśle ze sobą powiązanych filarach technologicznych. Pierwszym z nich jest **tożsamość** – w nowoczesnym środowisku IT to właśnie użytkownik i jego tożsamość stają się nowym perymetrem bezpieczeństwa. Kluczowe są tu rozwiązania takie jak uwierzytelnianie wieloskładnikowe, logowanie jednokrotne oraz mechanizmy uwzględniające kontekst dostępu, które pozwalają dynamicznie oceniać poziom ryzyka.

    Kolejnym elementem są urządzenia końcowe. Każdy laptop, smartfon czy serwer może stać się punktem wejścia dla zagrożeń, dlatego ich stan musi być stale monitorowany. Technologie takie jak zarządzanie punktami końcowymi (UEM) czy systemy wykrywania i reagowania na incydenty (EDR) umożliwiają utrzymanie urządzeń w zgodzie z politykami bezpieczeństwa.

    Sieć z kolei powinna być segmentowana w sposób, który uniemożliwia nieautoryzowanym użytkownikom swobodne przemieszczanie się między zasobami. Nowoczesne podejście do łączności opiera się na rozwiązaniach typu ZTNA, które umożliwiają bezpieczne, indywidualne połączenia użytkownika z konkretną aplikacją, ukrywając pozostałą część infrastruktury.

    Na równie dużą uwagę zasługują aplikacje i dane – to one są ostatecznym celem cyberataków. Ich skuteczna ochrona wymaga klasyfikacji danych, stosowania mechanizmów zapobiegania wyciekom (DLP) oraz szyfrowania informacji zarówno w spoczynku, jak i w trakcie transmisji.

    Ostatnim, lecz nie mniej istotnym filarem jest widoczność i automatyzacja. Zintegrowane systemy analityczne, takie jak SIEM i SOAR, zbierają dane z całego środowiska IT i umożliwiają szybkie wykrywanie zagrożeń. Wykorzystanie uczenia maszynowego w analizie zachowań użytkowników (UEBA) pozwala natomiast identyfikować nietypowe działania mogące świadczyć o naruszeniu bezpieczeństwa.

    Wdrożenie jako ewolucja, a nie rewolucja

    Zero Trust nie jest projektem, który można zakończyć w konkretnym terminie. To ciągła, strategiczna podróż, która wymaga konsekwencji, zaangażowania i adaptacyjnego podejścia. Kluczem do sukcesu jest rozpoczęcie od obszarów, które mogą przynieść szybkie i mierzalne rezultaty, takich jak wdrożenie SSO i MFA czy zastąpienie przestarzałych rozwiązań VPN przez ZTNA. Konieczne jest również przeprowadzenie inwentaryzacji zasobów oraz identyfikacja kluczowych danych i systemów – tzw. „klejnotów koronnych”.

    Sztuczna inteligencja i konwergencja z SASE

    Architektura Zero Trust stale się rozwija. Coraz większą rolę odgrywają tu sztuczna inteligencja i uczenie maszynowe, które wspomagają wykrywanie anomalii, analizę ryzyka oraz automatyzację reakcji na incydenty. Zintegrowane podejście do bezpieczeństwa znajduje także swoje odzwierciedlenie w koncepcji SASE – czyli architekturze, która łączy funkcje sieciowe z usługami bezpieczeństwa i dostarcza je jako jedną, chmurową usługę.

    Zero Trust definiuje „co” i „dlaczego” zabezpieczamy. SASE odpowiada na pytanie „jak” to realizujemy. Obserwując rynek, można zauważyć wyraźny trend konsolidacji – do 2029 roku większość firm będzie korzystać z rozwiązań SASE od jednego dostawcy, co znacząco uprości zarządzanie bezpieczeństwem.

  • Zero Trust w OT: Jak rośnie adopcja zabezpieczeń przemysłowych

    Zero Trust w OT: Jak rośnie adopcja zabezpieczeń przemysłowych

    Współczesny przemysł i infrastruktura krytyczna opierają się na zaawansowanych technologiach, które na co dzień pozostają niewidoczne, a mimo to są fundamentem globalnej gospodarki i bezpieczeństwa publicznego. Chodzi o systemy Technologii Operacyjnych (OT) oraz Przemysłowych Systemów Sterowania (ICS).

    OT to zbiór technologii służących do monitorowania i zarządzania fizycznymi procesami przemysłowymi. W jego skład wchodzą systemy ICS, takie jak SCADA (Supervisory Control and Data Acquisition), które zbierają dane w czasie rzeczywistym i kontrolują procesy na dużą skalę – m.in. w energetyce, transporcie czy wodociągach. Bezpieczeństwo i ciągłość działania tych systemów mają bezpośredni wpływ na funkcjonowanie usług publicznych i fizyczne bezpieczeństwo społeczeństwa.

    Tradycyjnie systemy OT działały w izolacji od internetu, w tzw. środowiskach „air-gapped”. Fizyczna separacja przez lata uchodziła za skuteczną barierę ochronną, a cyberzagrożenia wydawały się odległe. Priorytetem była niezawodność i bezpieczeństwo operacyjne, nie zaś ochrona danych.

    Ten paradygmat uległ jednak gwałtownej zmianie. Cyfryzacja, rozwój Przemysłowego Internetu Rzeczy (IIoT) oraz dążenie do automatyzacji i efektywności doprowadziły do połączenia systemów IT i OT. Integracja ta zwiększyła możliwości operacyjne, ale jednocześnie znacznie poszerzyła powierzchnię ataku i ujawniła podatności wcześniej ukryte przed światem zewnętrznym.

    W efekcie „niewidzialne” cyberbezpieczeństwo OT stało się jednym z najpilniejszych wyzwań. Koncepcja izolacji jako skutecznej ochrony jest dziś w dużej mierze mitem. Systemy projektowane z myślą o odseparowaniu od sieci zewnętrznych coraz częściej stają się elementem połączonego środowiska operacyjnego, które wymaga nowego podejścia do ochrony.

    Bezpieczeństwo nie może już opierać się na pasywnym modelu. Potrzebne są aktywne, zintegrowane strategie cyberochrony, które uwzględniają wzajemne powiązania między systemami i umożliwiają ciągłe zarządzanie ryzykiem. To zasadnicza zmiana w myśleniu o ochronie środowisk przemysłowych — i jeden z powodów, dla których cyberbezpieczeństwo OT przestaje być niewidoczne.

    OT i ICS: specyfika, wyzwania i konwergencja z IT

    Cyberbezpieczeństwo w środowiskach OT i ICS różni się zasadniczo od tego w IT. Wynika to z odmiennych priorytetów, długiego cyklu życia systemów oraz specyfiki stosowanych technologii.

    W systemach IT kluczowa jest poufność, integralność i dostępność danych. OT koncentruje się natomiast na bezpieczeństwie fizycznym, ciągłości działania i dostępności procesów. Ich awaria może prowadzić do uszkodzeń maszyn, zagrożeń dla życia, a nawet katastrof środowiskowych. Podczas gdy IT opiera się na częstych aktualizacjach i krótkim cyklu życia sprzętu, systemy OT projektowane są na dekady działania, często bez możliwości łatwego uaktualnienia — każda przerwa może skutkować poważnymi konsekwencjami.

    Różnice dotyczą też komunikacji. IT korzysta ze standardowych protokołów sieciowych, OT – z własnościowych, często pozbawionych podstawowych mechanizmów bezpieczeństwa, takich jak szyfrowanie czy uwierzytelnianie. Starsze urządzenia OT zwykle nie były projektowane z myślą o połączeniu z internetem i nie posiadają wbudowanych zabezpieczeń. Dodatkowo, systemy OT działają w czasie rzeczywistym i nie tolerują opóźnień — standardowe narzędzia bezpieczeństwa IT mogą więc powodować zakłócenia, a nawet awarie.

    Środowiska OT/ICS niosą ze sobą wiele unikalnych wyzwań. Często opierają się na przestarzałych, niewspieranych już systemach, które zawierają znane i łatwe do wykorzystania luki bezpieczeństwa. Niewłaściwa segmentacja sieci sprawia, że uzyskanie dostępu do jednej części infrastruktury otwiera drogę do całego środowiska operacyjnego. Powszechny jest również brak pełnej widoczności aktywów — starsze urządzenia i niestandardowe protokoły utrudniają inwentaryzację, co uniemożliwia ocenę ryzyka, wykrywanie podatności (CVEs) i dopasowanie odpowiednich środków zaradczych. Utrudniony lub niekontrolowany zdalny dostęp oraz słaba higiena haseł — np. używanie domyślnych loginów — dodatkowo zwiększają zagrożenia.

    Ta „niewidzialność” infrastruktury OT oznacza, że organizacje często funkcjonują bez pełnej świadomości poziomu zagrożeń. Skuteczna obrona wymaga więc specjalistycznych narzędzi do wykrywania i monitorowania aktywów OT, które nie zakłócają pracy operacyjnej.

    Konwergencja systemów IT i OT przynosi realne korzyści, jak możliwość bieżącego monitorowania procesów przemysłowych, eliminacja zbędnych systemów, poprawa efektywności operacyjnej i lepsza widoczność bezpieczeństwa. Jednak wraz z integracją rośnie powierzchnia ataku. OT, które pierwotnie działało w izolacji, staje się dziś dostępne dla cyberprzestępców przez połączenia IT, co drastycznie zwiększa ryzyko incydentów.

    Konwergencja ujawnia także tarcia organizacyjne — różnice kulturowe między zespołami, problemy z kompatybilnością rozwiązań oraz trudności we wdrażaniu spójnych polityk bezpieczeństwa. Paradoks polega na tym, że dążenie do zwiększenia efektywności operacyjnej prowadzi do wyższej interkonektowności systemów, która — w połączeniu z niepewnością starszych technologii OT — nieuchronnie poszerza pole do ataku.

    Aby sprostać tym wyzwaniom, organizacje muszą przejść od reaktywnego podejścia do modelu proaktywnego, w którym bezpieczeństwo jest integralną częścią projektowania systemów — od początku, a nie jako dodatek. Konieczne jest strategiczne podejście do równoważenia zysków z konwergencji z nowym poziomem ryzyka, jaki ona generuje.

    Krajobraz zagrożeń: ewolucja ataków na systemy OT/ICS

    Wraz z postępującą konwergencją IT i OT, środowiska przemysłowe stały się bardziej narażone na cyberataki. Nowe wektory i techniki pozwalają atakującym przedostawać się do wcześniej izolowanych systemów, czyniąc ich ochronę coraz trudniejszą.

    Obecnie najczęstszym punktem wejścia do środowisk OT jest kompromitacja systemów IT. Według danych SANS Research Program, aż 45,8% incydentów miało swój początek właśnie w infrastrukturze IT, a inne źródła wskazują nawet na 58% powiązanych naruszeń. Przestępcy wykorzystują te podatności jako bramę do słabiej zabezpieczonych sieci OT.

    Istotnym zagrożeniem są również urządzenia podłączone bezpośrednio do internetu. W styczniu 2024 r. Shodan zidentyfikował blisko 110 tys. urządzeń ICS dostępnych online, w tym ponad 6,5 tys. sterowników PLC. Brak podstawowych zabezpieczeń w wielu czujnikach i licznikach IIoT sprawia, że łatwo stają się celem. Równie poważne ryzyko stanowią urządzenia przejściowe – laptopy serwisowe, dyski USB czy narzędzia diagnostyczne – które mogą omijać zabezpieczenia „air-gapped” i wprowadzać złośliwe oprogramowanie bez wiedzy operatorów.

    Czynnik ludzki nadal pozostaje jednym z głównych źródeł incydentów. Kampanie phishingowe odpowiadają za 41% przypadków przenikania do środowisk przemysłowych, a błędy personelu – za 39%. Mimo to inwestycje w szkolenia i rozwój świadomości są wciąż marginalne w porównaniu do wydatków na technologię.

    W ostatnich latach gwałtownie wzrosła liczba ataków typu ransomware. IndustryARC podaje, że aż 80% ataków na OT jest powiązanych z tym typem zagrożenia, a w Polsce liczba takich incydentów wzrosła sześciokrotnie. Głośne przypadki z drugiej połowy 2023 roku objęły m.in. firmy Clorox, Boeing, Johnson Controls i Port Nagoya.

    Coraz większą uwagę budzą również ataki na łańcuchy dostaw, takie jak ten na Polyfill.io w czerwcu 2024 r., który dotknął ponad 100 tys. witryn. Według HP, co piąta firma doświadczyła naruszeń związanych z dostawami sprzętu.

    Równolegle nasila się cyberaktywizm. W Polsce widoczny jest wzrost działań grup prorosyjskich, takich jak NoName057(16), które przeprowadzały skoordynowane ataki DDoS na firmy transportowe. Globalnie, Cyber Av3ngers atakowali sterowniki PLC Unitronics, zakłócając dostawy wody w USA i Irlandii. Kluczowe incydenty – takie jak Stuxnet, atak na sieć energetyczną Ukrainy czy Colonial Pipeline – pokazały, że cyberataki mogą mieć realne konsekwencje fizyczne. Potwierdzają to też dane z drugiej połowy 2023 roku, gdzie według Kaspersky aż 37,5% incydentów miało materialne skutki – od strat finansowych (356 mln USD w przypadku Clorox), po całkowite zawieszenie działalności (KNP Logistics, port w Nagoi).

    Tradycyjne ataki IT koncentrują się głównie na danych. Jednak w przypadku OT stawką są procesy fizyczne, bezpieczeństwo ludzi i ciągłość działania krytycznej infrastruktury. Raporty coraz częściej dokumentują szkody wywołane bezpośrednio w zautomatyzowanych systemach, takie jak awarie stacji paliw czy wodociągów. To przesuwa cyberbezpieczeństwo OT z obszaru IT do domeny bezpieczeństwa narodowego i operacyjnego.

    W Polsce sytuacja jest szczególnie wymagająca. CERT Polska zarejestrował w 2023 roku ponad 80 tys. unikalnych incydentów – ponad dwa razy więcej niż rok wcześniej. Według raportu Microsoftu nasz kraj był trzecim najczęściej atakowanym państwem w Europie przez państwowe grupy cyberprzestępcze. Celami były m.in. administracja publiczna (atak ransomware na Powiat Jędrzejowski), sektor medyczny, a także firmy AIUT i Atende, które straciły łącznie ponad 6 TB danych.

    Głośne były także wycieki z POLADA (250 GB wrażliwych danych sportowców) oraz atak dezinformacyjny na PAP w maju 2024 r., który wywołał spekulacje o rosyjskim zaangażowaniu. W lipcu 2024 r. Polska stała się celem zmasowanych ataków DDoS w odpowiedzi na propozycję zestrzeliwania rosyjskich rakiet nad Ukrainą.

    Szczególnie niepokojący jest wzrost ataków na urządzenia OT podłączone do internetu – zwłaszcza w kontekście krytycznej infrastruktury. Położenie geopolityczne Polski oraz wsparcie dla Ukrainy czynią ją celem operacji zakłócających, które uderzają w systemy OT/ICS bez potrzeby konfrontacji militarnej. To pokazuje, że bezpieczeństwo OT to już nie tylko kwestia techniczna, lecz strategiczna. Wymaga skoordynowanych działań rządu, biznesu i międzynarodowych partnerów, by skutecznie bronić się przed nowym typem zagrożeń. 

    Rynek ochrony systemów OT i ICS: wartość, prognozy i czynniki wzrostu

    Cyberbezpieczeństwo systemów OT i ICS, jeszcze do niedawna traktowane jako niszowy segment rynku, dziś znajduje się w fazie dynamicznego wzrostu. Jest to efekt rosnącej skali zagrożeń, cyfryzacji przemysłu oraz strategicznego znaczenia infrastruktury operacyjnej.

    W 2024 roku globalna wartość rynku zabezpieczeń OT waha się w zależności od źródła – NextMSC szacuje ją na 24,67 mld USD, Business Research Insights na 20,7 mld USD, Precedence Research na 22,86 mld USD, a IndustryARC na 10,24 mld USD. Różnice wynikają z odmiennych metodologii i zakresów analiz, jednak wspólny mianownik pozostaje niezmienny: rynek jest znaczący i stale rośnie.

    W Polsce wartość rynku cyberbezpieczeństwa szacowana jest na około 2,5–3 mld zł w 2024 roku, przy czym cały ekosystem rozwiązań – obejmujący m.in. usługi chmurowe, centra danych i backup – może osiągnąć nawet 12 mld zł.

    Prognozy wzrostu są równie imponujące. Do 2030 roku rynek globalny ma osiągnąć od 82 do nawet 122 mld USD, w zależności od raportu, przy rocznej stopie wzrostu (CAGR) mieszczącej się w przedziale od 15% do 25%. Gartner prognozuje 18,5% CAGR do 2027 roku, McKinsey – 15% rocznie do 2030. Polska notuje dwucyfrowe tempo wzrostu od 2021 roku.

    Rozbieżności w szacunkach – zarówno wartości rynku, jak i tempa wzrostu – pokazują, że rynek cyberbezpieczeństwa OT wciąż dojrzewa. Brakuje jednolitej definicji i standardów pomiaru, co utrudnia porównywanie ofert i analiz. Dla organizacji oznacza to konieczność ostrożnej interpretacji danych rynkowych, a dla dostawców – potrzebę klarownego komunikowania swojej propozycji wartości w złożonym i ewoluującym środowisku.

    Głównym czynnikiem wzrostu pozostaje rosnąca liczba i złożoność ataków – wydarzenia takie jak atak ransomware na Colonial Pipeline pokazały, jak poważne mogą być konsekwencje dla infrastruktury krytycznej. Wzrost inwestycji napędza także rozwój IIoT i Przemysłu 4.0, który zwiększa liczbę połączeń w środowiskach OT i tym samym rozszerza powierzchnię ataku.

    Konwergencja IT i OT, choć podnosi efektywność operacyjną, wymaga bardziej zaawansowanych strategii bezpieczeństwa, zdolnych do zarządzania ryzykiem w obu środowiskach. Dodatkowym czynnikiem przyspieszającym wdrożenia są regulacje – takie jak dyrektywa NIS2 w UE, standardy ISA/IEC 62443, NIST czy NERC CIP. W przeciwieństwie do inwestycji motywowanych skutkami ataków lub optymalizacją operacyjną, regulacje prawne tworzą obowiązek inwestycji niezależnie od świadomości zagrożeń czy gotowości budżetowej. W ten sposób zapewniają one stabilną podstawę wzrostu rynku, niezależną od cykli koniunkturalnych.

    Mimo dynamicznego wzrostu, sektor cyberbezpieczeństwa OT/ICS wciąż mierzy się z istotnymi barierami. Wysokie koszty wdrożenia zniechęcają zwłaszcza mniejsze firmy, a chroniczny brak specjalistów ogranicza zdolność organizacji do zabezpieczenia infrastruktury. Tylko 9% profesjonalistów z obszaru cyberbezpieczeństwa i automatyzacji koncentruje się dziś wyłącznie na ochronie ICS/OT.

    Dodatkowym wyzwaniem pozostaje integracja nowoczesnych zabezpieczeń z przestarzałymi systemami, które dominują w środowiskach OT. Konieczność kosztownego retrofittingu i zastosowania niestandardowych rozwiązań sprawia, że wiele firm odkłada inwestycje mimo rosnących zagrożeń.

    Wszystko to pokazuje, że mimo silnego impetu rozwojowego, rynek ochrony systemów OT/ICS nadal wymaga doprecyzowania standardów, rozbudowy kompetencji i lepszego wsparcia dla wdrożeń – szczególnie w sektorze MŚP i w krajach rozwijających się.

    Trendy i innowacje technologiczne w cyberbezpieczeństwie OT/ICS

    Rynek ochrony systemów OT i ICS dynamicznie się rozwija, a nowe technologie i podejścia są odpowiedzią na rosnącą złożoność i skalę zagrożeń. Kluczowe innowacje zmieniają sposób, w jaki organizacje chronią krytyczną infrastrukturę operacyjną.

    Na znaczeniu zyskuje architektura Zero Trust, oparta na zasadzie „nigdy nie ufaj, zawsze weryfikuj”. W 2024 roku już 58% organizacji wdraża to podejście w środowiskach OT, co stanowi duży wzrost względem 21% w 2022 roku. W modelu tym każda jednostka – użytkownik, urządzenie, czy sieć – traktowana jest jako potencjalne zagrożenie, dopóki nie zostanie zweryfikowana. Szczególną rolę odgrywają tu takie mechanizmy jak uwierzytelnianie wieloskładnikowe, kontrola dostępu, zarządzanie tożsamością oraz podatnościami.

    Tradycyjny model bezpieczeństwa, oparty na fizycznej izolacji i ochronie perymetrycznej, traci na znaczeniu w zintegrowanym krajobrazie IT/OT. W jego miejsce pojawia się mikrosegmentacja, która pozwala tworzyć „mikroperymetry” wokół poszczególnych zasobów. To podejście ogranicza lateralny ruch zagrożeń i minimalizuje skutki ewentualnego ataku. Gartner prognozuje, że do 2027 roku jedna czwarta firm wdrażających Zero Trust będzie korzystać z więcej niż jednej formy mikrosegmentacji – w porównaniu do zaledwie 5% w 2025 roku.

    adopcja zero trust ot poziomo

    Równolegle coraz większą rolę odgrywa sztuczna inteligencja i uczenie maszynowe. Technologie AI/ML są w stanie analizować miliony zdarzeń w czasie rzeczywistym, wykrywając anomalie znacznie szybciej niż tradycyjne, oparte na sygnaturach metody. Pozwalają na automatyczne reagowanie na nowe zagrożenia, bez konieczności ręcznej interwencji. Wykorzystanie AI w systemach wykrywania wzrosło o 76% rok do roku, a wartość globalnego rynku AI w cyberbezpieczeństwie ma wzrosnąć z 15 mld USD w 2021 roku do 135 mld USD w 2030. Dzięki temu „niewidzialne” wcześniej zagrożenia w środowiskach OT stają się wykrywalne i możliwe do zneutralizowania zanim zakłócą procesy krytyczne.

    Coraz więcej organizacji sięga także po rozwiązania chmurowe i zarządzane usługi bezpieczeństwa (MSS). Chmura oferuje elastyczność, skalowalność i efektywność kosztową, szczególnie istotną dla małych i średnich firm. Z kolei MSS zapewniają ciągłe monitorowanie zagrożeń, reagowanie na incydenty i zdalną ochronę systemów OT – bez konieczności budowania wewnętrznych zespołów ekspertów.

    Wraz z dojrzewaniem rynku, organizacje coraz częściej przyjmują podejście „Secure by Design”, czyli projektowania systemów OT z wbudowanymi mechanizmami bezpieczeństwa od samego początku. To odejście od modelu, w którym zabezpieczenia dodawane są dopiero po wdrożeniu. Równocześnie rozwija się koncepcja odporności operacyjnej – integracja cyberbezpieczeństwa z kluczowymi procesami, szybkie reagowanie na incydenty i skuteczne strategie odzyskiwania stają się standardem w zarządzaniu ryzykiem przemysłowym.

    Razem te podejścia wyznaczają nową erę w ochronie OT/ICS – od reaktywności do proaktywności, od izolacji do integracji, od zabezpieczeń punktowych do architektur kompleksowych i odpornych na zakłócenia.

  • Błąd w Intune podważa kontrolę administratorów nad wdrożeniem Windows 11

    Błąd w Intune podważa kontrolę administratorów nad wdrożeniem Windows 11

    W ekosystemie zarządzania urządzeniami Microsoft Intune pojawiła się nieoczekiwana luka: od 12 kwietnia część administratorów zgłasza, że polityki blokujące instalację Windows 11 na komputerach z Windows 10 są ignorowane. Choć skala problemu nie jest do końca znana, sam fakt jego wystąpienia pokazuje szerszy problem: jak cienka bywa granica między automatyzacją a rzeczywistą kontrolą nad procesami IT w organizacjach.

    Microsoft potwierdził istnienie błędu za pośrednictwem Centrum Administratorów Microsoft 365, choć nadal nie wiadomo, co jest jego przyczyną. Jednocześnie firma podkreśla, że aktualizacja nie była intencjonalnym działaniem wymuszającym przejście na Windows 11.

    Dla wielu organizacji moment wdrożenia nowego systemu operacyjnego nie jest kwestią przypadkowej decyzji. Starsze aplikacje, procesy produkcyjne, czy potrzeba dodatkowego szkolenia użytkowników — to realne powody, dla których Windows 11 wciąż nie jest priorytetem. Administratorzy z premedytacją konfigurują polityki w Intune, aby zachować pełną kontrolę nad momentem migracji. Tym bardziej niepokojące jest, że błąd w zarządzanym narzędziu obchodzi te ustawienia.

    W praktyce oznacza to, że organizacje, które nie chcą ryzykować przedwczesnej aktualizacji, powinny tymczasowo zablokować wszystkie aktualizacje funkcji przez Intune. Jest to aktualnie jedyny skuteczny sposób na powstrzymanie nieautoryzowanych instalacji Windows 11. Urządzenia, które już zostały zaktualizowane, będą wymagały ręcznej interwencji, co dla większych środowisk IT może oznaczać znaczne nakłady pracy.

    Z perspektywy branży IT ten incydent może mieć szersze konsekwencje. Intune od lat pozycjonowany jest jako kluczowy element strategii zarządzania urządzeniami w modelu „zero trust” i jako fundament dla organizacji stawiających na automatyzację i bezpieczeństwo. Błąd, który w praktyce odbiera administratorom kontrolę, podważa zaufanie do narzędzia — nawet jeśli problem jest ograniczony i tymczasowy.

    W tle rysuje się też większe napięcie: Microsoft coraz wyraźniej dąży do przyspieszenia adopcji Windows 11, zwłaszcza że koniec wsparcia dla Windows 10 (planowany na październik 2025 r.) zbliża się nieuchronnie. Jednak balansowanie pomiędzy strategicznymi celami firmy a rzeczywistymi potrzebami klientów wymaga ogromnej precyzji. Tego rodzaju incydenty pokazują, jak łatwo można ją zachwiać.

    Na dziś organizacjom pozostaje zwiększona czujność, zabezpieczenie polityk aktualizacji i stałe monitorowanie kanałów komunikacyjnych Microsoftu. W dłuższej perspektywie warto jednak zadać sobie pytanie, jaką odporność na błędy tego typu powinny mieć procesy zarządzania w erze automatyzacji i ciągłych aktualizacji.

  • Cyfrowa obsługa klienta – AI, bezpieczeństwo i emocje na pierwszym planie

    Cyfrowa obsługa klienta – AI, bezpieczeństwo i emocje na pierwszym planie

    Polska firma doradcza Flying Bisons zidentyfikowała kluczowe trendy, które w 2025 roku będą kształtować cyfrową obsługę klienta. W raporcie „Trendbook 2025” eksperci wyróżnili cztery filary przyszłości: automatyzację opartą na sztucznej inteligencji, transparentność, bezpieczeństwo danych zgodne z modelem „Zero Trust” oraz humanizację cyfrowych doświadczeń.

    Sztuczna inteligencja: automatyzacja na najwyższym poziomie

    Nowoczesne systemy oparte na AI już teraz rewolucjonizują obsługę klienta, a według prognoz Flying Bisons ich znaczenie będzie rosło. Dzięki dynamicznemu dostosowywaniu się do potrzeb użytkowników i minimalizacji błędów, takie rozwiązania jak chatboty czy algorytmy uczące się w czasie rzeczywistym mogą zapewnić jeszcze większą personalizację i efektywność procesów. Kluczowe będzie monitorowanie ich działania poprzez wskaźniki KPI, co pozwoli firmom optymalizować obsługę w sposób ciągły.

    „Jako firma działająca w obszarze digitalu, zdajemy sobie sprawę, jak szybko zmieniają się trendy i jak ważną umiejętnością jest ich dokładne prognozowanie. Taka wiedza pozwala na zrozumienie kierunku zmian, jednocześnie umożliwiając dostosowanie działań dowolnej organizacji w celu wzmocnienia pozycji na rynku. Mamy jednak świadomość, że nie wszystkie przedsiębiorstwa potrafią rozpoznawać kierunki zmian, a tym bardziej wdrażać je w swoje struktury.”

    Sonia Przybył, Insight Managerka we Flying Bisons

    Zero Trust: nowe podejście do bezpieczeństwa

    Bezpieczeństwo danych staje się jednym z filarów zaufania klientów. Model „Zero Trust” zakłada brak domniemania bezpieczeństwa – każda interakcja w systemie musi być zweryfikowana. Wdrożenie wieloetapowego uwierzytelniania, biometrii i dynamicznego monitorowania ryzyka to nie tylko ochrona danych, ale także budowanie transparentności, która wzmacnia lojalność użytkowników.

    Transparentność: budowanie zaufania

    Klienci coraz częściej oczekują wglądu w sposób, w jaki firmy zarządzają ich danymi. Transparentne praktyki, takie jak panele umożliwiające monitorowanie wykorzystania danych osobowych, oraz projektowanie zgodne z zasadą „privacy by design” są fundamentem budowania trwałych relacji z klientami. Zgodnie z raportem, organizacje stawiające na transparentność będą cieszyć się większym zaufaniem i lojalnością użytkowników.

    Emocje w cyfrowym świecie

    Humanizacja cyfrowych doświadczeń to kolejny kluczowy trend. Technologia rozpoznająca emocje – analiza głosu czy mimiki twarzy – pozwala firmom lepiej dostosowywać swoje usługi do potrzeb klientów. Personalizacja oparta na emocjach znajduje zastosowanie szczególnie w branżach takich jak opieka zdrowotna, edukacja czy usługi premium, gdzie emocjonalne zaangażowanie klientów ma szczególne znaczenie.

    Strategiczne podejście do przyszłości

    Raport Flying Bisons podkreśla, że organizacje, które zrozumieją i wdrożą te cztery kluczowe trendy, nie tylko zaspokoją oczekiwania klientów, ale również wzmocnią swoją pozycję na rynku. To połączenie zaawansowanej technologii z ludzkimi potrzebami i wartościami stanie się fundamentem sukcesu w nadchodzących latach.

    źródło: Flying Bisons

     

  • AI w cyberbezpieczeństwie: Sojusznik czy wróg?

    AI w cyberbezpieczeństwie: Sojusznik czy wróg?

    Sztuczna inteligencja (AI) jest jednym z najczęściej poruszanych tematów technologicznych ostatnich lat, a jej potencjał jest porównywany do rewolucji, jaką przyniósł silnik parowy czy elektryczność. AI nie tylko zmienia nasze codzienne życie, ale także przekształca kluczowe sektory, w tym obszar cyberbezpieczeństwa. Z jednej strony otwiera nowe możliwości w obronie przed zagrożeniami, z drugiej – w rękach cyberprzestępców – może stać się narzędziem do prowadzenia bardziej wyrafinowanych i trudnych do wykrycia ataków.

    Ataki oparte na AI – nowe zagrożenie

    Ataki wykorzystujące sztuczną inteligencję są coraz bardziej zaawansowane, celowane i trwałe. W przeciwieństwie do tradycyjnych metod, te nowoczesne formy zagrożeń charakteryzują się zdolnością do adaptacji i uczenia się, co sprawia, że są trudniejsze do wykrycia i neutralizacji. Napastnicy, posługujący się AI, mogą penetrować sieci korporacyjne, pozostając niewidocznymi przez dłuższy czas, co zwiększa ryzyko wycieku danych czy zakłócenia operacji.

    Jasnym jest, że AI w rękach przestępców potęguje ryzyko cybernetyczne. Jednak odpowiedź na pytanie, jak skutecznie przeciwdziałać tym zagrożeniom, wciąż pozostaje niejednoznaczna. Choć wielu ekspertów sugeruje, że najlepszą obroną przed atakami opartymi na AI jest stosowanie analogicznych narzędzi, strategia „walka z ogniem ogniem” może nie być zawsze najbardziej efektywna.

    Zero Trust – strategia przyszłości

    Kluczowym podejściem do przeciwdziałania zagrożeniom opartym na AI jest zmniejszenie powierzchni ataku, z której sztuczna inteligencja może się uczyć i adaptować. W tym kontekście strategia Zero Trust, oparta na zasadzie „nigdy nie ufaj, zawsze weryfikuj”, staje się coraz bardziej popularna. Zero Trust zakłada, że żadna jednostka, wewnętrzna czy zewnętrzna, nie jest godna zaufania bez odpowiedniej weryfikacji, co znacznie ogranicza możliwość przeprowadzenia skutecznego ataku.

    Dla wielu firm wdrożenie Zero Trust może być jednak wyzwaniem. I tutaj z pomocą przychodzi sztuczna inteligencja. AI może uprościć i przyspieszyć implementację zasad Zero Trust, czyniąc ten proces mniej skomplikowanym i bardziej przyjaznym dla użytkownika. W ten sposób przedsiębiorstwa mogą wzmocnić swoją odporność cybernetyczną przy mniejszym nakładzie pracy i zasobów.

    AI jako wsparcie, a nie zastępstwo

    Warto podkreślić, że sztuczna inteligencja nie powinna być traktowana jako narzędzie, które zastąpi człowieka w procesie obrony przed cyberatakami. Zamiast tego, AI powinna być postrzegana jako wsparcie, które umożliwia ludziom skupienie się na bardziej strategicznych i wartościowych zadaniach. AI ma potencjał do demokratyzacji cyberbezpieczeństwa, czyniąc je bardziej dostępnym i zrozumiałym nawet dla mniejszych zespołów. W ten sposób, nawet małe firmy mogą skutecznie zwiększyć swoją odporność na cyberzagrożenia, pokrywając szeroką powierzchnię ataku.

    Podsumowując, sztuczna inteligencja w dziedzinie cyberbezpieczeństwa otwiera nowe perspektywy, ale także stawia przed nami szereg wyzwań. Kluczem do sukcesu jest umiejętne wykorzystanie AI jako narzędzia wspierającego, a nie zastępującego ludzką interwencję, oraz wdrożenie strategii takich jak Zero Trust, które mogą znacząco podnieść poziom ochrony przed zaawansowanymi atakami.

  • Lenovo wprowadza ThinkShield Firmware Assurance dla głębokiej ochrony powyżej i poniżej poziomu systemu operacyjnego

    Lenovo wprowadza ThinkShield Firmware Assurance dla głębokiej ochrony powyżej i poniżej poziomu systemu operacyjnego

    Lenovo ogłosiło wprowadzenie ThinkShield Firmware Assurance, które dołączyło do bogatego portfolio rozwiązań klasy korporacyjnej firmy w zakresie cyberbezpieczeństwa. ThinkShield Firmware Assurance to jedno z niewielu istniejących rozwiązań OEM dla komputerów, które umożliwia głęboką widoczność i ochronę poniżej poziomu systemu operacyjnego. Jest to możliwe dzięki zastosowaniu widoczności komponentów na poziomie architektury o zerowym zaufaniu (Zero Trust Architecture, ZTA) w celu generowania dokładniejszych i praktycznych informacji na temat zarządzania ryzykiem. ZTA w wyraźny sposób identyfikuje użytkowników i urządzenia, umożliwia przyznawanie odpowiedniego poziomu dostępu, dzięki czemu firma może działać z mniejszym ryzykiem i minimalnymi zakłóceniami. ZTA jest istotną strategią minimalizacji ryzyka szczególnie dla organizacji zmagających się z wdrożeniem rozwiązań o zerowym zaufaniu.

    Widoczność i ochrona

    Według firmy analityczno-badawczej Gartner 2026 roku zaledwie 10% dużych przedsiębiorstw będzie miało wdrożony sprawnie działający program Zero-Trust, którego efekty będzie można mierzyć i analizować. W 2023 roku był to mniej niż 1% firm. Ze względu na brak widoczności komponentów urządzeń, który może stać się jeszcze większym problemem w hybrydowych środowiskach pracy, organizacje często mają trudności z określeniem poziomu ryzyka związanego z ich sprzętem i używanym oprogramowaniem. Rozwiązanie ThinkShield Firmware Assurance zapewnia komputerom i sieciom, należącym do organizacji większe bezpieczeństwo i pomaga osiągnąć cele z zakresu ZTA.

    ThinkShield Firmware Assurance zapewnia zarządzanie krytycznymi komponentami dzięki szczegółowym pomiarom atestacyjnym, które można analizować i oceniać pod kątem ryzyka. Pozwala to na przypisanie poziomu zaufania każdemu urządzeniu. W odróżnieniu od opartych na oprogramowaniu innych firm rozwiązań w zakresie bezpieczeństwa punktów końcowych ThinkShield Firmware Assurance wykorzystuje specjalny wbudowany kontroler, który dokonuje atestacji krytycznych komponentów i konfiguracji podczas uruchamiania, aby zapewnić platformę opartą na koncepcji root of trust.

    ThinkShield Firmware Assurance można szybko wdrożyć, dzięki czemu zespoły IT mogą uzyskać dokładny ogląd swoich flot komputerów i sieci nawet w ciągu kilku godzin, co jest znakomitym wynikiem w porównaniu do dni i tygodni, jakich wymagają rozwiązania innych firm. Dzięki ThinkShield Firmware Assurance organizacje mogą uniemożliwić instalację oprogramowania i komponentów oprogramowania sprzętowego, chyba że są one opatrzone uznanymi i zatwierdzonymi certyfikatami. Ponadto można zapobiec nieautoryzowanym zmianom w systemie BIOS, a jednocześnie zapewnić automatyczne przywracanie systemu.

    „Ciągłe innowacje Lenovo w sektorze komputerów są odpowiedzią na zobowiązanie do zapewnienia wszystkim inteligentniejszej technologii opartej na sztucznej inteligencji poprzez ochronę zasobów IT i danych. Cyberbezpieczeństwo jest jednym z najważniejszych elementów wpływających na to, w jakich obszarach i w jaki sposób sztuczna inteligencja jest wdrażana. Jest kluczowym czynnikiem, dla którego skupiliśmy się na łańcuchu dostaw, bezpieczeństwie poniżej i powyżej poziomu systemu operacyjnego”wyjaśnia Nima Baiati, dyrektor wykonawczy i dyrektor generalny ds. komercyjnych rozwiązań w zakresie cyberbezpieczeństwa w Lenovo. „ThinkShield Firmware Assurance to unikalne rozwiązanie zaprojektowane, aby pomóc klientom lepiej zarządzać ryzykiem i ograniczać je z większym rozeznaniem oraz pewnością”.

    Secure by Design

    ThinkShield stanowi portfolio rozwiązań bezpieczeństwa Lenovo obejmujące sprzęt, oprogramowanie i usługi. Jest to system kompleksowych zabezpieczeń end-to-end, który zapewnia zaawansowane rozwiązania w postaci wbudowanych zabezpieczeń platformy, ochrony urządzeń i danych przed zagrożeniami, jak również narzędzia do zarządzania bezpieczeństwem, które pomagają chronić krytyczne dla firmy informacje. Od hali produkcyjnej po dostawę do klientów, ThinkShield zapewnia najwyższy poziom bezpieczeństwa urządzeń na każdym etapie.
    ThinkShield zapewnia ochronę na każdym poziomie, w tym:

    • zabezpieczenie łańcucha dostaw: Lenovo jest jednym z pierwszych producentów OEM komputerów PC z rozwiązaniem zapewniającym bezpieczeństwo łańcucha dostaw opracowanym we współpracy z firmami Intel i AMD, które umożliwia klientom weryfikację komponentów sprzętowych w urządzeniach pod kątem manipulacji: od hali produkcyjnej do ich dostawy do rąk pracowników.
    • zabezpieczenia poniżej poziomu systemu operacyjnego: wbudowane rozwiązania ThinkShield obejmują sprzęt, oprogramowanie sprzętowe, system operacyjny i rozwiązania chmurowe, chroniące przed atakami sprzętowymi, które pomagają w zapewnieniu integralności oprogramowania sprzętowego i przesyłają alerty o wszelkich próbach ataków w czasie rzeczywistym.
    • operacje w systemie i w chmurze: ThinkShield oferuje system zarządzania bezpieczeństwem, obejmujący ochronę punktów końcowych dzięki sztucznej inteligencji, który pozwala na pracę z dowolnego miejsca, zdalne zarządzanie, tworzenie kopii zapasowych w chmurze, uwierzytelnianie bez hasła i ochronę danych. Jest to opatentowane rozwiązanie zwiększające bezpieczeństwo przeglądarki, poczty e-mail i eksploratora plików oraz zautomatyzowane rozwiązanie do naprawy systemu BIOS.

    Rozwiązanie Lenovo ThinkShield Firmware Assurance jest już dostępne na rynkach na całym świecie. Więcej informacji na temat rozwiązań w zakresie cyberbezpieczeństwa Lenovo można znaleźć na stronie Lenovo ThinkShield.

  • CrowdStrike i Cloudflare wspólnie wzmacniają cyberbezpieczeństwo

    CrowdStrike i Cloudflare wspólnie wzmacniają cyberbezpieczeństwo

    Firmy CrowdStrikeCloudflare ogłosiły rozbudowę swojego strategicznego partnerstwa, co ma na celu poprawę bezpieczeństwa sieci oraz przyspieszenie transformacji operacyjnych centrów bezpieczeństwa (SOC). Nowa współpraca ma odpowiedzieć na rosnące wyzwania cyberbezpieczeństwa, z jakimi zmierzyć się muszą współczesne organizacje.

    Podstawą tego partnerstwa jest integracja ochrony natywnej „zero trust” w chmurze Cloudflare One z zaawansowanymi rozwiązaniami opartymi na sztucznej inteligencji od CrowdStrike, które noszą nazwę Falcon. W obliczu coraz szybszych i bardziej zaawansowanych ataków cyberprzestępców, te nowoczesne narzędzia mają za zadanie zapewnić kompleksową ochronę i usprawnienie procesów bezpieczeństwa w firmach.

    Jak podkreślają eksperci, kluczową cechą współczesnego cyberbezpieczeństwa jest zdolność do integracji różnorodnych narzędzi w celu stworzenia spójnej i efektywnej obrony. Platforma CrowdStrike Falcon współpracuje bezpośrednio z infrastrukturą Cloudflare poprzez jednolity interfejs API, co umożliwia ochronę sieci, urządzeń, danych i aplikacji w sposób bardziej zintegrowany niż kiedykolwiek wcześniej.

    Ekspansja Cloudflare w obszarze bezpieczeństwa „Zero Trust”

    Cloudflare niedawno ogłosiło również przejęcie firmy BastionZero, co stanowi kolejny krok w rozszerzaniu ich oferty bezpieczeństwa „zero trust”. Integracja tej technologii pozwoli Cloudflare lepiej chronić serwery, klastry Kubernetes, bazy danych i inną infrastrukturę przed cyberzagrożeniami.

    To strategiczne przejęcie ma za zadanie uzupełnić wcześniejsze nabycie firmy BaseLime, co z kolei otworzyło Cloudflare drogę na rynek obserwowalności IT. Jak wyjaśnia Rita Kozlov, VP Product w Cloudflare, te działania są częścią większego planu, który ma na celu centralizację zarządzania bezpieczeństwem w hybrydowych środowiskach IT.

    Rozwój technologii „zero trust” i integracja z narzędziami sztucznej inteligencji stanowią fundament nowoczesnego cyberbezpieczeństwa, które ma sprostać rosnącym wymaganiom rynku. Zarówno Cloudflare, jak i CrowdStrike demonstrują, że ich współpraca jest odpowiedzią na te potrzeby, oferując klientom zaawansowane rozwiązania gotowe na wyzwania przyszłości.

  • Zero Trust – zero problemów? Jak zerowe zaufanie kształtuje przyszłość bezpieczeństwa IT

    Zero Trust – zero problemów? Jak zerowe zaufanie kształtuje przyszłość bezpieczeństwa IT

    W dzisiejszym zglobalizowanym i dynamicznie rozwijającym się świecie technologii, firmy na całym świecie są coraz bardziej narażone na złożone cyberzagrożenia, które mają potencjał do destabilizacji ich operacji oraz naruszenia poufności danych. Z najnowszych badań przeprowadzonych przez Gartnera wynika, że do 2025 roku niemal połowa globalnych firm stanie w obliczu ataków na swoje łańcuchy dostaw oprogramowania. Ta rosnąca tendencja do atakowania kluczowych punktów dostaw wskazuje na konieczność przemyślanej obrony i adaptacji do nowych realiów bezpieczeństwa cyfrowego.

    Cyberatataki obnażyły wrażliwość firm na wykorzystywanie dostępu zewnętrznego, często z uprzywilejowanymi prawami. W odpowiedzi na te nowe wyzwania, coraz więcej organizacji zwraca się ku strategii Zero Trust, która zakłada, że zaufanie jest największym słabym punktem w infrastrukturze IT. Przyjęcie tej filozofii ma na celu minimalizację ryzyka poprzez ciągłą weryfikację tożsamości i uprawnienia dostępu na każdym kroku interakcji wewnątrz systemów informatycznych.

    Zrozumienie zagrożeń dla łańcuchów dostaw oprogramowania

    W obliczu rosnącej zależności od technologii cyfrowych, globalne firmy stają przed wyzwaniem zabezpieczenia swoich łańcuchów dostaw oprogramowania przed coraz bardziej wyrafinowanymi atakami cybernetycznymi. Analizując ataki można zrozumieć, jak cyberprzestępcy celują w kluczowe elementy infrastruktury technologicznej firm, wykorzystując słabości w zabezpieczeniach dostawców zewnętrznych.

    Dostawcy zewnętrzni, tacy jak ci, którzy zarządzają bazami danych, tworzą strony internetowe czy dostarczają rozwiązania oparte na chmurze, są nieodzownym elementem operacyjnym większości nowoczesnych przedsiębiorstw. Jednakże ich integracja z wewnętrznymi systemami IT niesie ze sobą zwiększone ryzyko. Nie rzadko, zewnętrzni dostawcy posiadają uprzywilejowane prawa dostępu, co w przypadku naruszenia ich systemów, otwiera drzwi do rozległych i trudnych do wykrycia ataków.

    Naruszenie bezpieczeństwa łańcuchów dostaw nie tylko naraża na szwank poufne dane klientów i wewnętrzne operacje, ale także może prowadzić do długotrwałych przerw w działalności, utraty zaufania klientów i znacznych strat finansowych. Ponadto, naruszenia te mogą wywołać szereg skomplikowanych problemów prawnych i regulacyjnych, zwłaszcza w kontekście rosnących wymagań dotyczących zgodności i ochrony danych na świecie.

    Zrozumienie i właściwe adresowanie zagrożeń związanych z zewnętrznymi dostawcami staje się kluczowym elementem strategii cyberbezpieczeństwa każdej firmy. Przeanalizowanie sposobów, w jakie ataki te są przeprowadzane, pozwala na lepsze przygotowanie do obrony przed potencjalnymi przyszłymi incydentami i minimalizację ryzyka związanego z kluczowymi łańcuchami dostaw.

    Strategia Zero Trust jako odpowiedź na nowoczesne zagrożenia

    W odpowiedzi na rosnące ryzyko cyberataku i wyrafinowane metody wykorzystywane przez cyberprzestępców, coraz więcej firm przyjmuje strategię Zero Trust. Ta strategia zakłada, że zaufanie jest potencjalnym słabym ogniwem w systemie bezpieczeństwa i proponuje zamiast tego ciągłą weryfikację każdego elementu wewnątrz sieci korporacyjnej.

    Kluczowe założenia strategii Zero Trust:

    • Niezawodność tożsamości: W erze cyfrowej, gdzie tradycyjne granice korporacyjne się rozmywają, Zero Trust skupia się na tożsamości jako kluczowym elemencie bezpieczeństwa. Każda próba dostępu do zasobów firmy, niezależnie od położenia użytkownika, jest weryfikowana, a tożsamość jest potwierdzana za każdym razem, gdy użytkownik próbuje uzyskać dostęp.
    • Zminimalizowanie przywilejów: Zasada „Least Privilege” polega na przyznawaniu użytkownikom tylko tych uprawnień, które są niezbędne do wykonania ich zadań. Ogranicza to możliwości nadużyć i minimalizuje potencjalne szkody w przypadku naruszenia bezpieczeństwa.
    • Weryfikacja just-in-time: Dostęp jest udzielany tymczasowo i tylko wtedy, gdy jest to absolutnie konieczne. Takie podejście zmniejsza ryzyko, że nieautoryzowane osoby uzyskają długotrwały dostęp do wrażliwych zasobów.

    Dlaczego Zero Trust jest efektywne w nowoczesnym środowisku IT?

    • Kompleksowość infrastruktury IT: W obecnych czasach, gdzie dominuje chmura, Internet Rzeczy (IoT) i praca zdalna, konwencjonalne zabezpieczenia obwodowe nie są już wystarczające. Infrastruktura IT jest coraz bardziej rozproszona, co wymaga bardziej elastycznych i dynamicznych metod zarządzania bezpieczeństwem.
    • Stała weryfikacja: Zero Trust nie zakłada, że wnętrze sieci jest bezpieczne, co jest odwróceniem tradycyjnej logiki zabezpieczeń. Weryfikacja tożsamości i uprawnień odbywa się nieustannie, nie tylko przy pierwszym logowaniu.

    Implementacja Zero Trust w praktyce:

    • Silne uwierzytelnianie: Wdrażanie wieloskładnikowego uwierzytelniania (MFA) dla każdego dostępu do systemów i danych firmy.
    • Segmentacja sieci: Dzielenie sieci na mniejsze, łatwiejsze do zarządzania segmenty, co pozwala na lepsze monitorowanie i kontrolę ruchu wewnątrz sieci.
    • Automatyzacja i analiza: Wykorzystanie narzędzi automatyzujących procesy bezpieczeństwa i analizujących zachowania w sieci, co pozwala na szybką reakcję na anomalie.

    Strategia Zero Trust jest odpowiedzią na rosnącą złożoność środowiska IT i ewoluujące zagrożenia cybernetyczne. Zapewnia ona skuteczną obronę poprzez eliminację założenia zaufania jako punktu wyjścia, skupiając się na ciągłej weryfikacji i minimalizacji przywilejów, co jest kluczowe dla ochrony współczesnych organizacji przed atakami.

    Kluczowe technologie w modelu Zero Trust

    Strategia Zero Trust opiera się na zastosowaniu szeregu kluczowych technologii, które umożliwiają skuteczne wdrażanie jej założeń w praktyce. Te technologie są niezbędne do tworzenia, monitorowania i utrzymywania środowiska, które nie zakłada zaufania na żadnym etapie dostępu do systemów i danych.

    Zarządzanie dostępem uprzywilejowanym (PAM) i zarządzanie dostępem uprzywilejowanym dostawców (VPAM):

    • PAM (Privileged Access Management) odnosi się do kontroli i monitorowania dostępu uprzywilejowanego w organizacji. PAM pomaga w ograniczeniu potencjalnych uszkodzeń, które mogą wyniknąć z nadużycia uprawnień przez wewnętrznych użytkowników lub zewnętrznych intruzów.
    • VPAM (Vendor Privileged Access Management) rozszerza zasady PAM na dostawców zewnętrznych, co jest szczególnie istotne w kontekście łańcuchów dostaw, gdzie dostawcy często mają dostęp do kluczowych systemów organizacji.

    Logowanie jednokrotne (SSO) i uwierzytelnianie wieloskładnikowe (MFA):

    • SSO (Single Sign-On) pozwala użytkownikom na dostęp do wielu systemów i aplikacji za pomocą jednego zestawu poświadczeń. SSO ułatwia zarządzanie dostępem, jednocześnie zwiększając bezpieczeństwo, gdyż użytkownicy nie muszą pamiętać wielu haseł.
    • MFA (Multi-Factor Authentication) jest kluczowym elementem w procesie uwierzytelniania w strategii Zero Trust, dodając dodatkową warstwę zabezpieczeń poprzez wymaganie od użytkowników potwierdzenia swojej tożsamości za pomocą co najmniej dwóch metod.

    Segmentacja sieci i mikrosegmentacja:

    • Segmentacja sieci polega na podziale sieci na mniejsze, łatwiejsze do zarządzania i monitorowania części. To zmniejsza ryzyko rozprzestrzeniania się ataków wewnątrz sieci.
    • Mikrosegmentacja pozwala na jeszcze bardziej szczegółowe kontrolowanie ruchu sieciowego i dostępu do zasobów, co jest istotne w dużych, złożonych środowiskach sieciowych.

    Automatyzacja zarządzania tożsamościami i bezpieczeństwem:

    • Narzędzia do automatyzacji są używane do zarządzania cyklem życia tożsamości, od przyznawania dostępu po jego odbieranie. Automatyzacja pomaga eliminować błędy ludzkie i zapewnia szybką reakcję na zagrożenia.
    • Analiza zachowań użytkowników i urządzeń (UBA i UEBA) pozwala na wykrywanie nietypowych lub potencjalnie szkodliwych działań, co umożliwia natychmiastowe reagowanie na potencjalne zagrożenia.

    Implementując te technologie, organizacje mogą stworzyć bardziej odporną i elastyczną architekturę bezpieczeństwa, która jest w stanie efektywnie przeciwdziałać próbom naruszenia oraz zarządzać skomplikowaną i dynamicznie zmieniającą się przestrzenią cybernetyczną. Kluczowym aspektem jest ciągłe monitorowanie i dostosowywanie strategii Zero Trust do ewoluującego krajobrazu zagrożeń, co pozwala na utrzymanie wysokiego poziomu bezpieczeństwa w każdych warunkach.

    Uzupełniające technologie wspierające strategię Zero Trust

    Aby w pełni zaimplementować i wzmocnić strategię Zero Trust, organizacje muszą zintegrować szereg uzupełniających technologii. Te technologie wspierają fundamenty Zero Trust poprzez dodatkowe warstwy zabezpieczeń i ułatwienia w zarządzaniu dostępem.

    SSO jest technologią, która umożliwia użytkownikom dostęp do wielu aplikacji i usług za pomocą jednego zestawu poświadczeń. SSO nie tylko zwiększa wygodę użytkowników, ale także redukuje ryzyko wycieku poświadczeń, ponieważ użytkownicy są mniej skłonni do powtarzania tych samych haseł w wielu miejscach. System SSO może być również wyposażony w zaawansowane funkcje uwierzytelniania, w tym uwierzytelnianie biometryczne, które dodatkowo zwiększa poziom bezpieczeństwa.

    MFA zabezpiecza proces logowania poprzez wymaganie od użytkowników potwierdzenia tożsamości za pomocą co najmniej dwóch różnych metod, takich jak hasło, kod z aplikacji uwierzytelniającej, odcisk palca, czy inne dane biometryczne. MFA jest kluczowym składnikiem w strategii Zero Trust, ponieważ znacznie utrudnia nieautoryzowany dostęp nawet w przypadku skompromitowania jednego z elementów uwierzytelniających.

    IAM obejmuje narzędzia i procesy służące do zarządzania tożsamościami użytkowników i ich uprawnieniami w całej organizacji. Automatyzacja zarządzania cyklem życia tożsamości, w tym tworzenie, modyfikacja i deaktywacja kont użytkowników, jest kluczowa dla minimalizacji ryzyka związanego z nadmiernymi lub przestarzałymi uprawnieniami. Dzięki IAM, organizacje mogą zapewnić, że prawa dostępu są przydzielane zgodnie z aktualnymi potrzebami i polityką bezpieczeństwa.

    Narzędzia do automatyzacji zasad bezpieczeństwa mogą dynamicznie dostosowywać uprawnienia i zabezpieczenia w zależności od kontekstu, takiego jak zmiany w środowisku sieciowym, zachowanie użytkownika lub innych czynników ryzyka. Automatyzacja tych procesów pomaga w szybkim reagowaniu na potencjalne zagrożenia i utrzymaniu zgodności z wewnętrznymi oraz zewnętrznymi regulacjami dotyczącymi bezpieczeństwa.

    Narzędzia UBA (User Behavior Analytics) i UEBA (User and Entity Behavior Analytics) analizują zachowania użytkowników i urządzeń w sieci w celu wykrywania anomalii i potencjalnych zagrożeń. Poprzez stosowanie algorytmów uczenia maszynowego, te systemy mogą identyfikować działania, które odbiegają od normy i mogą wskazywać na próbę naruszenia bezpieczeństwa.

    Co dalej?

    W świetle coraz bardziej złożonych i wyrafinowanych cyberataków, które coraz częściej dotykają globalne firmy, adaptacja modelu Zero Trust nie jest już tylko opcją, ale koniecznością. Strategia ta, rekomendowana przez ekspertów cyberbezpieczeństwa, zdaje się być odpowiedzią na wyzwania nowoczesnej przestrzeni cyfrowej, gdzie tradycyjne metody bezpieczeństwa już nie wystarczają.

    Adoptowanie Zero Trust jest bardziej niż kiedykolwiek niezbędne w kontekście rosnącej liczby urządzeń podłączonych do internetu oraz trendów takich jak praca zdalna, które rozmywają granice korporacyjnych sieci. Organizacje, które zdecydowały się na wdrożenie tej strategii, już doświadczają wzrostu bezpieczeństwa przez ograniczenie liczby naruszeń i zmniejszenie potencjalnych szkód wynikających z ataków.

    Z perspektywy przyszłości, Zero Trust zdaje się być kierunkiem, który będzie kształtować strategie bezpieczeństwa IT na najbliższe lata. Coraz więcej technologii, od sztucznej inteligencji po uczenie maszynowe, będzie integrowanych z modelami Zero Trust, co może jeszcze bardziej zwiększyć ich skuteczność i automatyzację.

    Jednakże, dla pełnej efektywności, kluczowe będzie nie tylko wdrażanie nowych rozwiązań technologicznych, ale także edukacja i podnoszenie świadomości pracowników na temat zasad bezpieczeństwa i higieny cyfrowej. Wiedza na temat potencjalnych zagrożeń i odpowiedzialne korzystanie z zasobów cyfrowych staje się równie ważne, jak sama technologia.

    Nie można również ignorować wyzwań, jakie niesie wdrożenie Zero Trust, w tym konieczność restrukturyzacji istniejących systemów i potencjalnych kosztów. Jednakże, korzyści wynikające z lepszej ochrony danych i infrastruktury są argumentem przemawiającym za inwestycją w ten model. Firmy, które podejmą to wyzwanie, nie tylko zabezpieczą swoje operacje, ale także zyskają przewagę konkurencyjną dzięki pokazaniu, że są godne zaufania w oczach swoich klientów i partnerów.

    Zero Trust nie jest tylko trendem, ale przede wszystkim strategiczną koniecznością, adaptującą środowisko cybernetyczne do bieżących i przyszłych zagrożeń. W miarę rozwoju technologii cyfrowych, takie podejście stanie się fundamentem dla każdej firmy, która stawia na innowacyjność i bezpieczeństwo w coraz bardziej cyfrowym świecie.

  • Tego NIE rób – 4 błędy przy wdrażaniu strategii Zero Trust

    Tego NIE rób – 4 błędy przy wdrażaniu strategii Zero Trust

    W erze rozprzestrzeniania się pracy zdalnej, rosnącej popularności usług chmurowych i skomplikowanych sieci zewnętrznych, tradycyjne podejścia do ochrony obwodowej przestają być wystarczające. W tym kontekście, strategie Zero Trust stają się kluczowe, oferując obiecującą ochronę danych i systemów. Jednak ich skuteczne wdrożenie wymaga zrozumienia, że nie jest to proces trywialny.

    Nie tylko technologia

    Wdrażanie strategii Zero Trust to nie tylko kwestia wyboru odpowiednich narzędzi technologicznych, ale również przemyślanej adaptacji procesów biznesowych i operacyjnych w organizacji. Ten dwutorowy wyzwanie obejmuje zarówno złożoność technologiczną, jak i wyzwania związane z zarządzaniem zmianą.

    Po pierwsze, wybór technologii nie powinien być dokonywany w próżni. Firmy często popełniają błąd, skupiając się wyłącznie na najnowszych lub najbardziej zaawansowanych narzędziach bezpieczeństwa, nie biorąc pod uwagę, jak te technologie wpasują się w istniejące systemy i procesy. Ważne jest, aby rozważyć, jak nowe rozwiązania będą współdziałać z aktualnymi aplikacjami, infrastrukturą sieciową oraz procedurami bezpieczeństwa. Optymalizacja i integracja różnych systemów technologicznych wymaga zrozumienia nie tylko samych narzędzi, ale również ich wpływu na ogólną architekturę IT.

    Po drugie, równie ważna jest adaptacja i ewolucja procesów biznesowych. Wdrożenie zasad Zero Trust może wymagać istotnych zmian w sposobie, w jaki dane są przetwarzane, przechowywane i udostępniane w organizacji. To z kolei może wymagać przeszkolenia pracowników, zmiany procedur operacyjnych oraz dostosowania polityk bezpieczeństwa. Wyzwanie polega na zapewnieniu, że te zmiany są skuteczne, ale jednocześnie nie ograniczają produktywności czy nie wprowadzają niepotrzebnej złożoności.

    Priorytety, a raczej ich brak

    Odpowiednie ustalanie priorytetów w ramach strategii Zero Trust jest kluczowe dla jej skutecznego wdrożenia. To wyzwanie wymaga od firm zrównoważonego podejścia, które uwzględnia zarówno krótkoterminowe sukcesy, jak i długofalowe cele bezpieczeństwa.

    Pierwszym krokiem w efektywnej priorytetyzacji jest dokładna analiza ryzyka i zrozumienie najważniejszych aktywów organizacji. Firmy muszą zidentyfikować, które dane i systemy są najbardziej krytyczne dla ich działalności i wymagają najwyższego poziomu ochrony. Ta ocena powinna uwzględniać nie tylko wartość finansową danych, ale także ich znaczenie dla operacji biznesowych, wpływ na reputację firmy oraz potencjalne konsekwencje prawne i regulacyjne w przypadku naruszenia bezpieczeństwa.

    Następnie, ważne jest ustalenie, które obszary wymagają natychmiastowej uwagi, a które mogą być rozwijane w dłuższej perspektywie. Działania o wysokim priorytecie mogą obejmować wzmocnienie zabezpieczeń dla najbardziej wrażliwych danych, wdrożenie wielopoziomowego uwierzytelniania dla krytycznych systemów, czy szybkie rozwiązanie znanych luk w zabezpieczeniach. Z drugiej strony, długoterminowe inicjatywy mogą skupiać się na rozwijaniu kultury bezpieczeństwa w organizacji, szkoleniu pracowników, czy wprowadzaniu bardziej zaawansowanych technologii, takich jak sztuczna inteligencja do monitorowania i analizy zachowań w sieci.

    Ważne jest również, aby priorytetyzacja była elastyczna i dostosowana do zmieniającego się środowiska. W miarę jak firmy rozwijają się i zmieniają, również ich potrzeby w zakresie bezpieczeństwa mogą ewoluować. Regularna ocena i dostosowywanie priorytetów pozwala na reagowanie na nowe zagrożenia, zmiany w technologii i ewoluujące ramy regulacyjne.

    Kolejnym aspektem jest zbalansowanie między innowacyjnością a ryzykiem. Podczas gdy nowe technologie mogą oferować zaawansowane możliwości ochrony, mogą również wprowadzać nowe warianty zagrożeń. Odpowiednia ocena ryzyka i potencjalnych korzyści jest niezbędna do podejmowania świadomych decyzji dotyczących wdrażania nowych rozwiązań.

    Zmiany? Nie, dziękuję

    W kontekście wdrażania strategii Zero Trust, adaptacyjność i elastyczność organizacji stają się kluczowymi czynnikami sukcesu. Te cechy wymagają nie tylko technologicznej gotowości do wprowadzania zmian, ale także kulturowej i proceduralnej elastyczności w całej firmie.

    Kluczowym elementem adaptacyjności jest efektywne zarządzanie zmianą. Wprowadzanie zasad Zero Trust często wymaga od organizacji przeformułowania istniejących procesów, co może wywoływać opór wśród pracowników przyzwyczajonych do ustalonych metod pracy. Ważne jest, aby zarządzanie zmianą obejmowało komunikację z pracownikami na wszystkich poziomach, wyjaśniając korzyści płynące z nowego podejścia i angażując ich w proces zmiany. Szkolenia i warsztaty mogą pomóc w zrozumieniu nowych procesów i polityk, co z kolei może przyczynić się do łagodniejszego przejścia i większego zaangażowania pracowników.

    Organizacje muszą również wykazać elastyczność w swoich procesach i technologiach. To oznacza gotowość do przeglądania i dostosowywania procedur w odpowiedzi na zmieniające się warunki zewnętrzne, takie jak nowe zagrożenia bezpieczeństwa lub rozwój technologiczny. Elastyczność w wykorzystaniu technologii oznacza adaptowanie się do nowych narzędzi i rozwiązań, które mogą lepiej służyć celom bezpieczeństwa. Organizacje, które są sztywne w swoich procesach i wykorzystaniu technologii, mogą nie być w stanie skutecznie reagować na nowe wyzwania bezpieczeństwa.

    Zrobione – odhaczone

    Wdrożenie strategii Zero Trust nie jest zadaniem, które można zrealizować raz i zapomnieć. W przeciwieństwie, powinno być postrzegane jako ciągły proces, wymagający stałej uwagi, przeglądu i dostosowania. To podejście wymaga zrozumienia, że bezpieczeństwo IT jest dynamiczną dziedziną, w której zmiany są stałym elementem.

    Jednym z kluczowych aspektów, który czyni Zero Trust procesem ciągłym, jest nieustanna ewolucja zagrożeń bezpieczeństwa. W miarę jak technologie rozwijają się, rosną również umiejętności i metody cyberprzestępców. To wymaga od organizacji ciągłego monitorowania zagrożeń i odpowiedniego dostosowywania swoich strategii bezpieczeństwa. Nowe typy ataków czy luki w zabezpieczeniach wymagają szybkiej reakcji i ewentualnych zmian w politykach bezpieczeństwa.

    Skuteczne wdrożenie Zero Trust wymaga holistycznego podejścia, łączącego technologię z adaptacją procesów biznesowych, elastyczności organizacyjnej oraz ciągłego doskonalenia. To podejście nie tylko wzmacnia bezpieczeństwo danych i systemów, ale także wspiera dynamiczny rozwój i innowacyjność w organizacji.

  • Trzy, dwa, jeden, Zero Trust!

    Trzy, dwa, jeden, Zero Trust!

    Zero to ciekawa liczba. Jest odporna na dzielenie i bywa często źródłem błędów obliczeniowych. Jakakolwiek bowiem próba określenia wyniku operacji 0/0 zawsze wywołuje sprzeczność z którymś z praw arytmetyki. 

    Mnie osobiście zero kojarzy się z bezpieczeństwem. I nie dlatego, że ma ono okrągły i zamknięty kształt. W cybersecurity zero automatycznie łączy się z zaufaniem. A zero zaufania, czyli polityka Zero Trust, jest aktualnie jednym z najskuteczniejszych podejść do budowania strategii bezpieczeństwa w firmach i organizacjach.

    W Barracuda intensywnie pracujemy nad zwiększeniem świadomości na temat Zero Trust. Edukujemy, że w realiach, kiedy naruszenia bezpieczeństwa przynoszą coraz większe straty finansowe i wizerunkowe, niezbędna jest natychmiastowa zmiana podejścia do bezpieczeństwa IT. Przekonujemy, że nie wrócą już czasy, kiedy można było polegać na rozwiązaniach tymczasowych. Tłumaczymy, że przyszła pora, by prowizoryczne poprawki bezpieczeństwa zostały zastąpione trwałymi, skalowalnymi metodami ochrony.

    Co to oznacza w praktyce i jak zacząć wdrażanie polityki Zero Trust w firmie?

    Myślę, że warto zacząć od VPN-ów, bo to właśnie kwestia odpowiedniego zabezpieczenia dostępu zdalnego z ich pomocą wciąż pozostaje dla działów IT wyzwaniem. Źle zabezpieczony i skonfigurowany może działać zarówno, jako drzwi wejściowe, jak i tylne do krytycznych danych i aplikacji. W takiej sytuacji organizacja staje się łatwym celem dla hakerów.

    W czasach powszechnej pracy zdalnej potrzebujemy rozwiązań, które dają bezpieczny i uprzywilejowany dostęp do sieci korporacyjnej wielu zdalnym użytkownikom. Takich, które podchodzą do tematu całościowo i nie ignorują żadnych grup w łańcuchu zabezpieczeń. Celem intruzów bowiem stają się nie tylko tzw. łakome kąski, czyli administratorzy IT posiadający często niemal nieograniczony dostęp do zasobów. Przestępcy wiedzą doskonale, że najłatwiej kradnie się dane uwierzytelniające osób nietechnicznych lub pracowników zdalnych, które mają słabe mechanizmy kontrolne lub nie mają ich wcale.

    Nie ufaj i sprawdzaj wszystko

    Odpowiedzią na te problemy jest polityka Zero Trust, która zakłada ciągłą weryfikację tego, kto, skąd, kiedy, do czego i dlaczego posiada dostęp. Aby dobrze to wytłumaczyć, lubię wykorzystywać analogię lotniska, bo prawie każdy może sobie taką sytuację łatwo wyobrazić.

    Kiedy pasażer przychodzi do stanowiska odprawy, potwierdza swoją tożsamość za pomocą paszportu. Można uznać, że jest to zaliczenie pierwszego etapu podróży. Jednak, aby mógł wejść na pokład samolotu, musi mieć jeszcze kartę pokładową oraz za każdym razem musi przejść szczegółową kontrolę bezpieczeństwa. Bez tych elementów nie będzie mógł kontynuować podróży. 

    Jednak aby w ogóle ją zacząć, trzeba się dobrze do niej przygotować.

    Zawsze więc zachęcam, by każda firma  przed “podróżą do Zero Trust” zadała sobie trzy kluczowe pytania.

    1. Co chcę chronić? Tutaj należy pomyśleć o ważnych dla organizacji danych, krytycznych aplikacjach i usługach, aktywach, urządzeniach i własności intelektualnej.

    2. Kto, w jakim stopniu i na jak długi okres potrzebuje pozwolenia na dostęp do wyżej wymienionych elementów?

    3. Co trzeba zrobić, żeby na każdym etapie mieć pewność, że użytkownicy, urządzenia i wszelkie działania w sieci są prawdziwe i stale monitorowane?

    Później liczą się już tylko dobre wybory wpływające na łatwość i szybkość wdrożenia. To one pozwolą wejść organizacji na nowy poziom stałej – podlegającej weryfikacji i monitoringowi kontroli dostępu do wszystkich firmowych zasobów. Ja zachęcam do sprawdzenia darmowej wersji próbnej Barracuda CloudGen Access, która jest według mnie dobrym początkiem do wdrożenia polityki Zero Trust. 

  • Zero trust: nowa norma cyfrowego bezpieczeństwa

    Zero trust: nowa norma cyfrowego bezpieczeństwa

    Zero trust staje się nową normą myślenia o bezpieczeństwie, przejmując rolę, którą kiedyś pełniła bariera ogniowa. Zdaniem Christiana Putza, eksperta ds. cyberbezpieczeństwa w Vectra AI, podejście zakładające bardziej kontekstową ocenę ryzyka – dla wszystkich wniosków o dostęp – spełnia wszystkie podstawowe kryteria nowoczesnej technologii bezpieczeństwa.

    Sieci VPN nie są już wystarczające

    COVID-19 niejako wymusił przyjęcie zasad zero trust, co wynikało z potrzeby modernizacji sposobu działania systemów bezpieczeństwa informacji. Firmowa sieć przestała być gwarantem bezpiecznego i kontrolowanego środowiska. Uświadomiono sobie, że tradycyjny model bezpieczeństwa, oparty na punktowej kontroli dostępu na obrzeżu sieci firmowej, nie jest kompatybilny ze sposobem w jaki działają nowoczesne przedsiębiorstwa.

    W sytuacji, gdy istotna część danych jest przetwarzana w zewnętrznych aplikacjach i systemach, a jedocześnie rośnie liczba pracowników i partnerów, którzy potrzebują do nich dostępu spoza firmy, organizacje coraz bardziej skłaniają się ku zero trust.

    – Dostęp do sieci oparty na zasadach zero trust zasadniczo zastępuje tradycyjne metody dostępu i VPN. Choć nie da się z dnia na dzień przejść z VPN na zero trust, to po przeanalizowaniu kosztów utrzymania starszych systemów i ich działania w nowym modelu oraz uwzględnieniu dodatkowych kosztów skalowania sieci VPN, wiele firm próbuje znaleźć lepsze rozwiązaniemówi Christian Putz, Country Manager w Vectra AI.

    Skuteczne wdrożenie zero trust wymaga jednak czasu, zaangażowania i zmian kulturowych. Konieczne jest przyjrzenie się środowisku firmy i zlokalizowanie największych zagrożeń, by stworzyć plan przeciwdziałania kryzysom, dobrać odpowiednie narzędzia i przeprowadzić wdrożenie. Odpowiednia kultura pozwala monitorować te działania, aby sprawdzić, czy są skuteczne i ewentualnie przygotować się na następne kroki.

    Przyjęcie modelu zero trust jest nieuniknione

    Jak wynika z raportu firmy Okta, opartego o dane zebrane jeszcze przed pandemią, liczba organizacji północnoamerykańskich, które oświadczyły, że wprowadziły lub planują wprowadzić inicjatywę zerowego zaufania w ciągu najbliższych 12-18 miesięcy wzrosła o 275% rok do roku. Aż 60% organizacji deklarowało, że podejmuje inicjatywy zero trust. W przypadku Australii i Nowej Zelandii zainteresowanie to wynosiło 50%. Nieco mniej entuzjastyczna jest na razie Europa i Bliski Wschód z 18%.

    Na pewno sposób w jaki uzyskuje się dostęp do danych i miejsce ich przechowywania są za sobą ściśle powiązane. Ku polityce zerowego zaufania bardziej skłaniają się branże, które wiążą się z koniecznością przechowywania dużej ilości poufnych danych – finanse czy opieka zdrowotna. Firmy świadczące profesjonalne usługi rzadziej rozpoznają swoje poziomy ryzyka.

    Podejścia do bezpieczeństwa oparte na danych i użytkownikach znajdujących się za zaporą sieciową nie są jednak w stanie sprostać potrzebom dzisiejszych organizacji, które zwykle nie przechowują już danych samodzielnie. Firmy korzystają z różnych platform i usług, które znajdują się zarówno w siedzibie, jak i poza nią. Tradycyjne modele bezpieczeństwa zwykle traktują wszystkie elementy „wewnątrz” konkretnej sieci jako zaufane. Modele bezpieczeństwa typu zero-trust zakładają, że domyślnie nie można ufać żadnemu użytkownikowi sieci – wewnętrznemu ani zewnętrznemu – dostęp użytkowników jest uwarunkowany na podstawie ich tożsamości, poświadczeń, autoryzacji, lokalizacji i urządzenia. To nowa granica bezpieczeństwa.

    – Model zero trust pozwala organizacji na przypisanie dokładniejszego kontekstu zarówno użytkownikom, jak i zasobom próbującym połączyć się z aplikacją lub bazą danych. Ten kontekst jest potrzebny nie tylko ze względu na pracę zdalną, ale także dlatego, że złożone środowiska IT mogą teraz obsługiwać urządzenia niezarządzane, np. z Internetu rzeczymówi przedstawiciel Vectra AI.

    Polityka zero trust umożliwia znacznie bardziej elastyczny i sprawny sposób pracy oraz dostęp do zasobów korporacyjnych dla użytkowników. Ułatwia operacje związane z migracją do chmury i przebudowę firmowego szkieletu IT.

    Już nie jakość sieci, a jakość urządzenia jest najważniejsza

    Do tej pory to sieć była używana do ustanowienia kontekstu dostępu do zasobów. Jeśli urządzenie lub użytkownik był w sieci, dostęp został przyznany. Zero trust zakłada, że najważniejszym czynnikiem decydującym o dostępie jest urządzenie.

    Kondycja urządzenia pozwala organizacji mieć większą pewność co do stanu urządzeń końcowych. Sam fakt, że pracownik korzysta z laptopa, który jest częścią zinwentaryzowanej floty firmowych urządzeń, nie oznacza, że należy przyznawać mu niekwestionowany dostęp do sieci. Największym zagrożeniem są złośliwe programy przechwytujące naciśnięcia klawiszy i próbujące wprowadzić oprogramowanie ransomware lub przejąć sesję logowania.

    Uwierzytelnienie użytkownika niesie za sobą określony poziom zaufania i musi choć częściowo opierać na kondycji urządzenia użytkownika. Organizacje potrzebują więc możliwości wykrywania zagrożeń zarówno w konfiguracji, jak i zachowaniu urządzeń firmy.

    Rosnące wykorzystanie API

    Na początku istnienia mikroserwisów dostęp miał każdy, a interfejsy API były jawne. W zero trust, każda interakcja z interfejsem API powinna zostać zweryfikowana i tak jak w przypadku każdego zasobu przedsiębiorstwa, dostęp do interfejsów API powinien być kontrolowany.

    Zdolność do podejmowania decyzji i automatycznego interweniowania w sytuacji potencjalnej słabości lub wprowadzania zmian w kontroli dostępu jest podstawową funkcjonalnością zerowego zaufania, która jest potrzebna do obsługi automatyzacji i orkiestracji.  Jako że ich działanie zależy od interfejsów API, jedynym sposobem włączenia automatyzacji i orkiestracji w stosie zabezpieczeń jest możliwość integracji różnych technologii za pomocą interfejsów API.

    Tworząc organizację opartą na w pełni wdrożonej polityce zero trust należy jednak zwrócić uwagę na to, by nie tworzyć zbyt wielu reguł własności, co skutkuje odgórną kontrolą i spowolnieniem przepływów pracy. Według Christiana Putza transparentność zapewnia tworzenie odizolowanych działów bezpieczeństwa i centrów danych. Wciąż jest to jednak wyzwaniem dla firm, tym bardziej, że organizacje, bez względu na wielkość, wciąż starają się zaoszczędzić i korzystają z outsourcingu zabezpieczeń.

  • W branży kosmicznej cyberbezpieczeństwo jest potrzebne na wczoraj

    W nowo opublikowanym raporcie NSR, Cyberbezpieczeństwo przestrzeni kosmicznej — obecny stan i przyszłe potrzeby, stwierdza się, że praktyki bezpieczeństwa związane z rozwijającą się branżą satelitarną są niewystarczające, a przejście na architekturę zero trust w projektowaniu oprogramowania i zarządzaniu systemami jest koniecznością, aby stawić czoła pojawiającym się zagrożeniom.

    Raport NSR wzywa do przejścia na architekturę zero trust w kosmosie

    NSR prognozuje, że w latach 2020-2030 sektor satelitarny i kosmiczny przyniesie 1,2 biliona dolarów przychodów ze sprzedaży detalicznej i ponad 24850 satelitów wystrzelonych w kosmos. Wygenerują ponad 504 000 petabajtów objętości danych.

    Artykuł analizuje, co napędza wielką migrację tradycyjnych pionowych łańcuchów wartości przestrzeni kosmicznej do rozproszonych architektur hybrydowych, badając wprowadzenie komercyjnych dostawców usług i ich niezamierzone konsekwencje. Operatorzy komercyjni rozszerzają swoje modele biznesowe oparte na usługach, odzwierciedlając oferty stacji naziemnych jako usługi. Skalowanie tych modeli biznesowych w obliczu rosnących zagrożeń cybernetycznych wymaga nowych rozwiązań wykorzystujących możliwości oparte na zero trust w celu zwiększenia odporności wzajemnie połączonych sieci.

    NSR przygląda się kilku firmom z czołówki nowej domeny cyberbezpieczeństwa kosmicznego. Platforma OrbitSecure SpiderOak Mission Systems z siedzibą w Waszyngtonie  jest oprogramowaniem opartym na zero trust, zaprojektowanym specjalnie dla platform naziemnych i kosmicznych, które wymagają wysokiego poziomu bezpieczeństwa. OrbitSecure zapewnia bezpieczeństwo, gdy właściciele aplikacji różnią się od właścicieli infrastruktury, zarządzając uprawnieniami przy użyciu technologii blockchain. TriSept Corporation z Chantilly w stanie Wirginia opracowała oprogramowanie zabezpieczające satelity o nazwie TriSept Security Enhanced Layer (TSEL), oparty na systemie Linux system operacyjny dla urządzeń wbudowanych, z początkowym naciskiem na zapewnienie ogólnego systemu operacyjnego do zabezpieczania i utrzymywania integralności satelitów wszystkich rozmiarów.

    W artykule argumentuje się, że tradycyjne podejście do cyberbezpieczeństwa nie spełni wymagań nowej przestrzeni. Tradycyjne cyberbezpieczeństwo obejmuje zasady obrony obwodowej oraz kontroli dostępu i odpowiedzialności.

    Historycznie rzecz biorąc, podmioty niezależnie budują ściany ochronne wokół swojej infrastruktury, aby chronić systemy i dane przed kradzieżą i manipulacją. Zarówno w zastosowaniach naziemnych, jak i kosmicznych, wraz z postępem technologicznym zachodzącym w coraz bardziej heterogenicznym i multidyscyplinarnym środowisku, te tradycyjne metody cyberbezpieczeństwa nie są już wystarczające, aby zapobiegać cybernaruszeniom. Branża musi odejść od środków i technologii bezpieczeństwa obwodowego na rzecz kompleksowej i ewoluującej strategii cyberbezpieczeństwa.

    W Białej księdze rozważa się przejście na holistyczne, zintegrowane podejście do bezpieczeństwa i projektowania. Następna era produktów i usług związanych z przestrzenią kosmiczną musi wykraczać poza nieskalowalne modele infrastruktury kontroli naziemnej na zamówienie, niestandardowych pokładowych systemów przetwarzania/operacyjnych, a zamiast tego działać w erze, w której zaufanie jest stale kwestionowane – w architekturze zerowego zaufania.


    O białej księdze

    Cyberbezpieczeństwo przestrzeni kosmicznej NRS – obecny stan i przyszłe potrzeby to najnowsza w branży ocena tego kluczowego elementu rozwijającego się przemysłu kosmicznego. Ponieważ globalna gospodarka jest bardziej uzależniona od zasobów kosmicznych, urządzeń i wzajemnie połączonych sieci, wzrasta potrzeba proaktywnego reagowania na nowe zagrożenia cybernetyczne. Najnowsza biała księga NSR bada unikalne potrzeby sektora kosmicznego i sieci satelitarnych, wyzwania związane z nowymi zakłóceniami oraz dostępne rozwiązania wokół kluczowej koncepcji Zero Trust Cybersecurity.

  • Raport HP: cyberprzestępcy są ekspertami w oszukiwaniu użytkowników

    Raport HP: cyberprzestępcy są ekspertami w oszukiwaniu użytkowników

    Firma HP opublikowała kolejną wersję raportu HP Wolf Security Threat Insights, zawierającego analizę ataków cybernetycznych. Dzięki wyodrębnieniu zagrożeń, które doprowadziły do ataków, HP Wolf Security może mieć szczegółowy wgląd w najnowsze metody wykorzystywane przez cyberprzestępców.

    Zespół badań HP Wolf Security zidentyfikował falę ataków do rozprzestrzeniania złośliwego oprogramowania, które wykorzystują rozszerzenia znane z programu Microsoft Excel. Narażają one firmy i osoby prywatne na kradzież danych oraz ataki typu ransomware. W porównaniu z ubiegłym kwartałem odnotowano sześciokrotny wzrost (+588%) liczby ataków wykorzystujących złośliwe rozszerzenia plików .xll do infekowania systemów – metoda ta okazała się szczególnie niebezpieczna, ponieważ do uruchomienia złośliwego oprogramowania wystarczy jedno kliknięcie. Zespół znalazł na platformach handlu niebezpiecznym oprogramowaniem reklamy dropperów .xll i pakietów do tworzenia złośliwego oprogramowania, które ułatwiają prowadzenie kampanii poczatkującym hakerom.

    Niedawna kampania spamowa QakBot wykorzystywała pliki Excela do oszukiwania celów, używając przejęte konta e-mail do przechwytywania wątków i wysyłania w odpowiedzi wiadomości ze złośliwym plikiem Excel (.xlsb) w załączniku. Po zainfekowaniu systemu, QakBot dopisuje się do listy procesów systemowych Windows (w celu uniknięcia wykrycia). Złośliwe pliki .xls były również wykorzystywane do rozprzestrzeniania trojana bankowego Ursnif we włoskich firmach i organizacjach sektora publicznego, gdzie przy pomocy spamu atakujący podawali się za włoską firmę kurierską BRT. Nowe kampanie rozprzestrzeniające szkodliwe oprogramowanie Emotet również wykorzystują pliki Excel zamiast plików JavaScript lub Word.

    Warto zwrócić uwagę na inne zagrożenia zidentyfikowane przez zespół HP Wolf Security w raporcie:

    • Powrót TA505? Firma HP zidentyfikowała kampanię phishingową MirrorBlast, która dzieli wiele taktyk, technik i procedur (TTP) z TA505. To grupa znana z masowych kampanii spamowych zawierających złośliwe oprogramowanie oraz zarabiająca na przywracaniu dostępu do zainfekowanych oprogramowaniem ransomware systemów. Urządzenia były infekowane trojanem FlawedGrace Remote Access Trojan (RAT).
    • Fałszywa platforma gamingowa infekuje ofiary wirusem RedLine: Odkryto podrobioną stronę instalatora platformy Discord, podstępnie nakłaniającą odwiedzających do pobrania infostealera RedLine, który wykradał ich dane uwierzytelniające.
    • Podmienianie nietypowych typów plików wciąż nie jest skutecznie wykrywane: Grupa cyberprzestępcza Aggah zaatakowała koreańskie organizacje za pomocą złośliwych rozszerzeń plików PowerPoint (.ppa) udających potwierdzenia zamówień, infekując systemy trojanami zdalnego dostępu. Złośliwe oprogramowanie wykorzystujące PowerPointa jest nietypowe – stanowi 1% złośliwych programów.

    Używanie prawidłowo działających funkcji w celu ukrycia się przed narzędziami wykrywającymi złośliwe oprogramowanie jest powszechną praktyką atakujących, podobnie jak wykorzystywanie nietypowych dla złośliwego oprogramowania typów plików, które mogą być przepuszczane przez filtry poczty elektronicznej. Zespoły ds. bezpieczeństwa muszą upewnić się, że nie polegają wyłącznie na automatycznej detekcji oraz że są na bieżąco z najnowszymi zagrożeniami i odpowiednio aktualizują swoje procedury bezpieczeństwa. Na przykład, w oparciu o gwałtowny wzrost liczby złośliwych plików .xll, który obserwujemy, zachęcam administratorów sieci do skonfigurowania filtrów poczty elektronicznej w taki sposób, aby blokowały przychodzące załączniki .xll, zezwalały na korzystanie tylko z dodatków podpisanych przez zaufanych partnerów lub całkowicie wyłączały obsługę rozszerzeń Excelawyjaśnia Alex Holland, Starszy Analityk Szkodliwego Oprogramowania z Zespołu badań Zagrożeń HP Wolf Security, HP Inc.

    Atakujący nieustannie wprowadzają nowe metody pozwalające uniknąć wykrycia, dlatego tak ważne jest, aby przedsiębiorstwa planowały i dostosowywały swoją obronę w oparciu o krajobraz zagrożeń i potrzeby biznesowe swoich użytkowników. Podmioty stanowiące zagrożenie zainwestowały w techniki takie, jak przejmowanie wątków wiadomości e-mail, co sprawia, że odróżnienie przyjaciela od wroga jest dla użytkowników trudniejsze niż kiedykolwiekdodaje Alex Holland.

    Wyniki raportu oparte są na danych pochodzących z milionów urządzeń, na których działa HP Wolf Security. Śledzi on złośliwe oprogramowanie poprzez otwieranie ryzykownych procesów w odizolowanych mikro maszynach wirtualnych (micro-VM), aby zrozumieć i uchwycić cały łańcuch infekcji, pomagając w ograniczaniu zagrożeń, które ominęły inne narzędzia zabezpieczające. Dzięki temu klienci mogli kliknąć ponad 10 miliardów załączników do wiadomości e-mail, stron internetowych i plików do pobrania pozostając niezainfekowanymi. Poprzez lepsze zrozumienie zachowania złośliwego oprogramowania w środowisku naturalnym, badacze i inżynierowie HP Wolf Security mogą wzmocnić ochronę urządzeń końcowych i ogólną odporność systemu.

    Pozostałe wnioski z raportu, na które również warto zwrócić uwagę:

    • 13% wyizolowanego złośliwego oprogramowania pocztowego ominęło co najmniej jeden filtr poczty elektronicznej.
    • Podczas prób infekowania organizacji i firm przestępcy wykorzystywali 136 różnych rozszerzeń plików.
    • 77% wykrytego złośliwego oprogramowania zostało dostarczone za pośrednictwem poczty elektronicznej, natomiast 13% stanowiły pliki pobrane z Internetu.
    • Najczęstszymi załącznikami wykorzystywanymi do dostarczania złośliwego oprogramowania były dokumenty (29%), archiwa (28%), pliki wykonywalne (21%) oraz arkusze kalkulacyjne (20%).
    • Najczęściej spotykane przynęty phishingowe były związane z Nowym Rokiem lub transakcjami, np. „Zamówienie”, „2021/2022”, „Płatność”, „Zakup”, „Zapytanie” oraz „Faktura”.

    Dzisiaj, niezależni cyberprzestępcy mogą przeprowadzać ataki z ukrycia i sprzedawać dostęp zorganizowanym grupom oprogramowania ransomware, co prowadzi do naruszeń na dużą skalę, które mogą sparaliżować systemy IT i wstrzymać działalność operacyjnąkomentuje dr Ian Pratt, Globalny Kierownik ds. Bezpieczeństwa Systemów Osobistych, HP Inc.

    Organizacje powinny skupić się na ograniczeniu liczby możliwych wektorów ataku i umożliwieniu szybkiego odzyskania danych w przypadku naruszenia bezpieczeństwa. Oznacza to przestrzeganie zasad Zero Trust i stosowanie silnego systemu zarządzania tożsamością, minimalnych uprawnień dla użytkowników oraz izolacji na poziomie sprzętowym. Dla przykładu, izolując powszechne wektory ataku, takie jak poczta elektroniczna, przeglądarki lub pliki do pobrania za pomocą mikrowirtualizacji, wszelkie potencjalne złośliwe oprogramowanie lub exploity czające się wewnątrz są mocno ograniczone i nieszkodliwepodsumowuje Pratt.


    Informacje na temat danych
    Dane zostały zebrane w wirtualnych maszynach klientów korzystających z HP Wolf Security w okresie od października do grudnia 2021 roku.

  • Cisco prezentuje innowacje w obszarze Wi-Fi 6E i 5G

    Cisco prezentuje innowacje w obszarze Wi-Fi 6E i 5G

    Cisco ogłosiło innowacje produktowe, które ułatwiają organizacjom obsługę hybrydowego modelu pracy, w którym ludzie wykonują swoje obowiązki w domu, biurze lub gdziekolwiek indziej.

    Przedsiębiorstwa każdej wielkości dostosowują się do najważniejszych cyfrowych trendów, które wpłynęły na krajobraz IT w ostatnich dwóch latach, takich jak chmura hybrydowa łącząca chmury prywatne i publiczne, wykorzystywanie AI (sztucznej inteligencji), ML (uczenia maszynowego) i IoT (Internetu rzeczy), czy wreszcie wzrost popularności pracy hybrydowej i konieczność bezpiecznego połączenia pracowników, niezależnie od tego, skąd pracują. Sukces tego modelu to nie tylko zdolność do wspierania pracowników zdalnych. Jest to również możliwość płynnej adaptacji do zmian w miarę, gdy się pojawiają. A to w przypadku technologii często zaczyna się od sieci.

    Sieć kluczowa w środowisku hybrydowym

    Sieć jest podstawowym czynnikiem zwiększającym produktywność w hybrydowym świecie, pomagając firmom, szkołom i uczelniom, a także rządom i jednostkom administracji publicznej pracować lepiej. Ponieważ coraz więcej użytkowników wymaga elastyczności, aby móc pracować na własnych warunkach, organizacje muszą szybko skalować swoje działania cyfrowe, chcąc umożliwić łączność z dowolnego miejsca.

    Aby praca hybrydowa mogła sprawnie funkcjonować, konieczna jest fundamentalna zmiana w sposobie, w jaki organizacje korzystają z technologii i polegają na niej. Połączenie większej liczby osób i urządzeń w większej liczbie miejsc wymaga powszechnej łączności bezprzewodowej, zwiększonej wytrzymałości i odporności sieci oraz niezawodnych zabezpieczeń działających w myśl zasady Zero Trust.

    „Praca hybrydowa nie jest możliwa bez sieci”powiedział Todd Nightingale, starszy wiceprezes i dyrektor generalny Cisco ds. sieci dla przedsiębiorstw i chmury. „To właśnie sieć jest podstawą wszystkich rozwiązań wykorzystywanych w nowych modelach pracy. Jej możliwości i wydajność zwiększają potencjał pracowników. Nowe rozwiązania dla sieci bezprzewodowych Cisco wraz z przełącznikami Catalyst zasilanymi przez Silicon One będą wspierać ambicje naszych klientów w zakresie pracy hybrydowej, umożliwiając wyższą produktywność, odporność i sprawność poprzez łączenie wszystkich użytkowników, urządzeń i zasobów z dowolnego miejsca.”

    Cisco
    Catalyst Switching

    Cisco
    Cisco Meraki MR57

    Ogłoszone przez Cisco innowacje w zakresie sieci bezprzewodowych i dostępu do sieci obejmują:

    ·       Wi-Fi 6E (Catalyst 9136 i Meraki MR57): technologia Wi-Fi 6E zwiększa przepustowość, aby przekroczyć gigabitową wydajność sieci. Nowe produkty Cisco Wi-Fi 6E od Catalyst i Meraki to pierwsze w branży wysokiej klasy punkty dostępowe 6E, które spełniają wymagania najbardziej złożonych hybrydowych środowisk biznesowych.
    ·       Cisco Private 5G: prywatna usługa zarządzana Cisco 5G dostarczana we współpracy z globalnymi dostawcami i partnerami technologicznymi w obszarze sieci bezprzewodowych. Jest prosta do uruchomienia, intuicyjna w obsłudze i stanowi zaufane narzędzie w cyfrowym świecie pracy hybrydowej oraz wykorzystania Internetu rzeczy.
    ·       Przełączniki Catalyst 9000X: nowe modele Catalyst 9000X rozszerzają rodzinę produktów Catalyst i stanowią szkielet, który zapewnia szybkość, przepustowość i skalę potrzebną do obsługi dostępu do sieci 100G/400G. Umożliwia przejście w tryb pracy hybrydowej w sieci kampusowej i rozbudowę poszczególnych oddziałów zapewniając poziom bezpieczeństwa zgodny z polityką ograniczonego zaufania (Zero Trust) oraz wydajność energetyczną.
    ·       Wprowadzenie Cisco Silicon One do portfolio przełączników Catalyst: Cisco Silicon One, pierwotnie wdrożony w sieciach największych dostawców usług i operatorów internetowych, zapewnia nowe możliwości i elastyczność programowania w celu wspierania innowacji w sieciach przedsiębiorstw. Nowe przełączniki Catalyst 9500X i 9600X Series są zasilane przez Cisco Silicon One Q200.

    „W ostatnich latach organizacje przyspieszyły swoje plany wspierania hybrydowych modeli pracy. Podstawowym elementem tych planów jest bezpieczna i wydajna sieć, która jest w stanie połączyć się z dowolnym użytkownikiem w dowolnym momencie” — powiedział Brandon Butler, menedżer IDC ds. badań w obszarze sieci dla przedsiębiorstw. „IDC wierzy, że sieć przyszłości będzie musiała sprostać rosnącym wymaganiom w zakresie wydajności i niezawodności, aby ostatecznie zapewnić większą sprawność biznesową i produktywność”.

  • Badanie Fortinet – trudności firm podczas wdrożeń rozwiązań typu Zero Trust

    Badanie Fortinet – trudności firm podczas wdrożeń rozwiązań typu Zero Trust

    Fortinet zaprezentował dokument Global State of Zero Trust Report zawierający wyniki badania dotyczącego aktualnego stanu wdrażania modelu Zero Trust w przedsiębiorstwach. Ujawniają one, że chociaż większość firm ma wizję dotyczącą zastosowania tego podejścia we własnej infrastrukturze lub wręcz jest w trakcie jego wdrażania, ponad połowa nie jest w stanie przekuć tej wizji na proces implementacji, ponieważ brakuje im podstawowej wiedzy dotyczącej tego zagadnienia. Poniżej znajduje się podsumowanie najważniejszych punktów raportu, a jego pełne opracowanie można przeczytać na blogu.

    W raporcie dotyczącym krajobrazu cyberzagrożeń jego autorzy – eksperci z FortiGuard Labs – wykazali wzrost liczby i stopnia wyrafinowania ataków skierowanych przeciwko osobom prywatnym, przedsiębiorstwom oraz krytycznej infrastrukturze. Firmy poszukują rozwiązań chroniących przed tymi nieustannie rozwijanymi zagrożeniami, a model Zero Trust staje się dla nich najważniejszy z wielu powodów. Dodatkowo, masowe przechodzenie na pracę zdalną z dowolnego miejsca wymusiło konieczność położenia szczególnego nacisku na objęcie tym modelem także sieci (Zero Trust Network Access, ZTNA), ponieważ przedsiębiorstwa muszą chronić ważne zasoby przed pracownikami łączącymi się z firmową infrastrukturą za pośrednictwem słabo chronionych sieci domowych.

    Niejasności wokół definicji strategii Zero-Trust

    Wyniki badania wykazały często występujące nieporozumienia dotyczące zakresu strategii uwzględniającej model Zero Trust. Respondenci wskazali, że znają założenia modelu Zero Trust (77%) i ZTNA (75%), a ponad 80% stwierdziło, że ma już strategię uwzględniającą jeden lub oba te modele, albo jest w trakcie jej opracowywania. Jednak ponad 50% ankietowanych przyznało, że nie jest w stanie wdrożyć kluczowych funkcji składających się na model Zero Trust. Blisko 60% twierdzi, że nie ma możliwości ciągłego uwierzytelniania użytkowników i urządzeń, a 54% ma trudności z monitorowaniem działalności użytkowników po uwierzytelnieniu.

    Obecność tak dużej luki jest niepokojąca, ponieważ wymienione przez ankietowanych funkcje, z których implementacją mają problemy, są kluczowymi w kontekście przyjęcia modelu Zero Trust i ich brak stawia pod znakiem zapytania rzeczywistą możliwość ich wdrożenia. Dodatkowym powodem zamieszania jest fakt używania zamiennie terminów „Zero Trust Access” i „Zero Trust Network Access”, których znaczenie jest zbliżone, ale różne.

    Fortinet

    Fortinet

    Priorytety dotyczące wdrażania modelu Zero Trust są zróżnicowane

    Najważniejszym priorytetem podczas wdrażania modelu Zero Trust jest „zminimalizowanie skutków naruszenia systemu bezpieczeństwa”, a zaraz za nim „zabezpieczenie zdalnego dostępu” i „zapewnienie ciągłości działania”. „Poprawa komfortu pracy użytkowników” oraz „uzyskanie elastyczności umożliwiającej zapewnienie bezpieczeństwa w dowolnym miejscu” również znalazły się w czołówce.

    Fortinet

    „Zabezpieczenie wszystkich potencjalnych celów ataku” było najważniejszą korzyścią wymienianą przez respondentów, kolejną zaś „większy komfort pracy użytkowników podczas pracy zdalnej (VPN)”.

    Fortinet

    Zdecydowana większość respondentów uważa, że rozwiązania ochronne typu Zero Trust powinny być zintegrowane z istniejącą infrastrukturą, działać w środowiskach chmurowych i lokalnych oraz zabezpieczać warstwę aplikacyjną. Jednak ponad 80% ankietowanych stwierdziło, że wdrożenie strategii Zero Trust w całej rozległej sieci jest wyzwaniem. W przypadku firm, które nie mają zaimplementowanej lub wdrażanej strategii, przeszkodą jest brak wykwalifikowanych zasobów, zaś 35% przedsiębiorstw stosuje inne strategie IT w celu rozwiązania problemów związanych z uwierzytelnianiem.


    Raport powstał na podstawie globalnego badania, przeprowadzonego wśród decydentów IT. Jego celem jest lepsze zrozumienie, na jakim etapie rozwoju jest implementacja modelu Zero Trust w firmach. Badanie miało na celu lepsze zrozumienie następujących kwestii:
    ·       Jak dobrze rozumiane są pojęcia Zero Trust i ZTNA
    ·       Dostrzegane korzyści i wyzwania związane z wdrażaniem strategii Zero Trust
    ·       Przyjmowanie strategii zerowego zaufania oraz elementy w niej zawarte
    Badanie zostało przeprowadzone we wrześniu 2021 roku wśród 472 menedżerów odpowiedzialnych za IT i bezpieczeństwo z 24 różnych krajów, którzy reprezentowali niemal wszystkie branże, w tym sektor publiczny.

    „Przejście od stosowania domniemanego zaufania do modelu Zero Trust jest dla przedsiębiorstw kwestią najwyższej wagi w kontekście nieustannie rosnącej liczby rodzajów zagrożeń, popularyzacji modelu pracy z dowolnego miejsca oraz potrzeby bezpiecznego zarządzania aplikacjami w chmurze. Nasze badanie pokazuje, że chociaż większość firm korzysta w jakimś stopniu z modelu Zero Trust, to brakuje im całościowej strategii i z trudem przychodzi im zaimplementowanie kilku podstawowych zasad bezpieczeństwa. Aby jej wdrożenie było skuteczne, konieczne jest zastosowanie siatkowej platformy cyberochronnej, która ułatwi wprowadzenie podstawowych zasad modelu Zero Trust w całej infrastrukturze, w tym na urządzeniach końcowych, w chmurze i w środowisku serwerowym w siedzibie firmy. Konsekwencją jej braku będzie przymus korzystania z fragmentarycznych, niezintegrowanych rozwiązań, które nie zapewniają szerokiej widzialności.”mówi John Maddison, EVP of Products and CMO, Fortinet

  • Podwójna czujność, czyli dlaczego firmy powinny inwestować w MFA?

    Podwójna czujność, czyli dlaczego firmy powinny inwestować w MFA?

    Coraz częściej zdarza się, że do systemów różnych organizacji – firm czy urzędów – zamiast osoby uprawnionej dostaje się złodziej, który ukradł cyfrową tożsamość. Stale też dochodzą do nas wieści o wycieku ważnych i poufnych danych ze skrzynek e-mail czy niezabezpieczonych odpowiednio aplikacji. Przyczyną jest brak edukacji pracowników oraz stosowanie hasła jako jedynego elementu zabezpieczania i potwierdzania tożsamości w Internecie. Jak słabość haseł wykorzystują przestępcy? Jak firmy i ich pracownicy mogą się przed tym obronić?

    Jedno jest pewne – wszyscy, a szczególnie pracownicy banków, firm posiadających unikalne know-how, ale również osoby piastujące odpowiedzialne stanowiska państwowe, powinni natychmiast zrezygnować z hasła jako jedynego elementu zabezpieczania i potwierdzania tożsamości online. To ono bowiem – niestety bardzo często słabe, przewidywalne i używane w takiej samej formie w wielu serwisach – narażone jest na łatwą kradzież, która w następstwie doprowadzić może do trudnych do rozwiązania kryzysów. Na przykład wycieków poufnych danych klientów, wyników specjalistycznych badań czy bankructw spowodowanych żądaniami zapłacenia wysokich kwot okupu (ataki ransomware).

    Nie ma mocnych na phishing

    Najczęściej cyberprzestępcy kradną tożsamość użytkowników, wykorzystując do tego maile phishingowe. Stosując socjotechnikę, sprytnie podszywają się pod partnerów biznesowych lub stałych współpracowników. I tak, jest to prawdą, że w fałszywe maile klikają nawet ci najostrożniejsi. W pośpiechu, podczas pracy zdalnej, na przypadkowych urządzeniach i w różnych sieciach tracą wcześniej wypracowaną czujność. Wtedy – często bez świadomości właściciela – loginy i hasła wpadają w ręce niepowołanych osób, które z ich pomocą kradną firmowe dane. Aby złodzieje nie mogli zrobić ze skradzionych informacji użytku, każdy powinien podczas logowania stosować tzw. dodatkowy składnik, którego zadaniem jest potwierdzenie uprawnień i tożsamości osoby siedzącej po drugiej stronie komputera.

    MFA… tylko globalnie

    Używanie dodatkowego składnika, czyli wieloskładnikowe uwierzytelnianie (MFA – Multi-factor authentication) uznawane jest dziś za najskuteczniejszą ochronę przed wyłudzaniem informacji. Trzeba jednak pamiętać, że tylko właściwie zaprojektowana ochrona MFA, czyli ustawiona nie tylko w najważniejszych systemach i aplikacjach, ale globalnie – potrafi ochronić przed m.in. kradzieżą sesji zalogowanych użytkowników, phishingiem i atakami man-in-the-middle.

    Niestety, dla wielu firm z rozbudowaną infrastrukturą kompleksowe wdrożenie MFA jest zbyt trudne, za drogie, a najczęściej po prostu niemożliwe do zrealizowania. Powstały jednak metody, które pozwalają zaimplementować silne uwierzytelnianie na dużą skalę. Jakie? Takie, które koncentrują się na modelu zabezpieczeń Zero Trust (zakładającym stałe ryzyko naruszeń bezpieczeństwa) oraz wykorzystują technologie w pełni automatyzujące proces adopcji silnego uwierzytelniania (np. User Access Security Broker). Co istotne, robią to na dowolnej liczbie aplikacji bez żadnej ingerencji w ich kod, nie wymagając zaawansowanej obsługi informatycznej i serwisu. Mogą też być dowolnie skalowane, np. w razie rozrostu przedsiębiorstwa.

    Przyszłość bez haseł

    Szerokie zabezpieczanie wieloskładnikowe użytkowników powinno już dziś być standardem w firmach i instytucjach, a także w każdym indywidualnym przypadku – na kontach wpuszczających nas do aplikacji czy skrzynek e-mail. W przyszłości jednak – miejmy nadzieję niedalekiej – w organizacjach normą będzie logowanie bez wykorzystania hasła, czyli polityka Passwordless. O co w tym chodzi?

    Użytkownik nie musi się już martwić o zapamiętywanie, przechowywanie i strzeżenie swojego sekretu. Specjalny mechanizm eliminuje hasło, w jego miejsce wprowadzając bezpieczne i wygodne uwierzytelnianie wsparte kryptografią klucza publicznego. Zamiast hasła wybierany jest dowolny sposób silnego uwierzytelniania – można wpisać nadany indywidualnie dla konkretnego komputera PIN, użyć klucza kryptograficznego lub skorzystać z telefonu jako zewnętrznego autentykatora i pokazać do kamerki twarz lub użyć odcisku palca. Proste i znane większości z nas z codziennego życia, prawda? Już teraz przecież wielu z nas odblokowuje palcem lub twarzą telefon czy aplikację bankowości mobilnej. Części z nas weszło to w nawyk, dlatego jeśli ten schemat uda się przenieść do firm, znacznie podniesiony zostanie nie tylko poziom zabezpieczeń ich aplikacji, ale też wygoda pracowników, którzy będą logować się łatwiej i szybciej.

    Aktualne warunki pracy i życia powodują, że stajemy się coraz łatwiejszym kąskiem dla intruzów, którzy tylko czekają na nasze potknięcie w sieci – kliknięcie phishingowego maila, słabe lub przewidywalne hasło lub zwyczajne roztargnienie. Każdy z nas może paść ofiarą złośliwego oprogramowania i utraty danych uwierzytelniających. Aby chronić firmy i instytucje, w strategiach bezpieczeństwa należy położyć nacisk nie na obrzeża organizacji, a na poziom użytkownika i zadbać o instalację wieloskładnikowego uwierzytelniania na wszystkich kontach pracowników, najlepiej eliminując przy tym zupełnie wykorzystanie hasła.


    Tomasz_Kowalski_CEO_Secfense_zdjęcie
    Tomasz Kowalski – CEO Secfense

    Tomasz Kowalski – współzałożyciel i CEO Secfense. Posiada ponad 20-letnie doświadczenie w sprzedaży technologii IT, brał udział w setkach wdrożeń sprzętu i oprogramowania w dużych i średnich firmach z sektora finansowego, telekomunikacyjnego, przemysłowego i wojskowego. Razem z Marcinem Szarym, współtworzą Secfense, firmę skupiającą się na masowej adopcji silnego uwierzytelniania w dużych organizacjach i dostosowaniu ich do rewolucji passwordless.

  • W jaki sposób zwiększyć bezpieczeństwo i stabilność serwisów internetowych ?

    W jaki sposób zwiększyć bezpieczeństwo i stabilność serwisów internetowych ?

    LPP to jedna z największych polskich firm odzieżowych i modowych, która jest właścicielem marek Reserved, Cropp, Mohito, House i Sinsay. Po trzydziestu latach rozwoju, ta rodzinna firma działa już w prawie 40 krajach Europy, Azji i Bliskiego Wschodu, od Londynu po Dubaj i sprzedaje swoje wyroby w ponad 2000 salonów. Do tego oferta jej marek dostępna jest na 31 rynkach online. Skala i zasięg prowadzonej działalności to dla firmy ogromne wyzwania m.in. w kontekście bezpieczeństwa zasobów informatycznych czy stabilności serwisów internetowych.

    Marek Maciejewski, Silky Coders, LPP, Advatech
    Marek Maciejewski, Silky Coders

    – LPP od lat zwiększa wolumen sprzedaży w kanale internetowym. Sklepy online stały się dla nas nie mniej ważne biznesowo i wizerunkowo niż najlepsze salony stacjonarne. Jednak za tym sukcesem stoją także bardzo konkretne wymagania klientów, których nie możemy zawieść – mówi Marek Maciejewski, Director IT operations w Silky Coders, spółce zależnej LPP. Chociażby ze względu na naszą reputację, nie możemy sobie pozwolić na przerwy w dostępie internetowym do produktów z najnowszych kolekcji, zakłócenia w realizacji dostaw, zakłócenia w obsłudze zwrotów lub – co gorsze – usterki w procesach płatności czy wyciek danych osobowych. Mobilny dostęp w trybie „always on” traktujemy bardzo poważnie, dlatego bezpieczeństwo zasobów i infrastruktury IT jest dla nas zagadnieniem o najwyższym prioryteciedodaje Marek Maciejewski.

    LPP wraz ze swoją spółką IT – Silky Coders nie szukały dróg na skróty – zapewnienie stałego bezpieczeństwa firmowej platformie sprzedażowej powierzono duetowi firm: Akamai Technologies oraz Advatech. Pierwsza z nich jest w absolutnej czołówce wśród dostawców rozwiązań zapewniających bezpieczeństwo w komunikacji internetowej, a druga jest jednym z największych integratorów rozwiązań informatycznych w Polsce.

    Michał Nycz, Akamai Technologies, LPP, Akamai, Advatech
    Michał Nycz, Akamai Technologies

    – Istniejące zagrożenia dla ciągłości biznesowej LPP zostały zminimalizowane dzięki naszej platformie Akamai Edge. Koncepcja jest relatywnie prosta – jeśli serwery LPP z najcenniejszymi danymi będą mogły komunikować się wyłącznie z naszymi serwerami, to pozostały ruch będzie można zablokować. W ten sposób do sklepów internetowych LPP trafią tylko zapytania przefiltrowane przez Akamai, a reszta będąca potencjalnym zagrożeniem, zostanie odrzucona – do firmowych aplikacji trafią bezpieczne requesty, a sklepy zostaną wyłączone z innego ruchu sieciowegoopowiada Michał Nycz, Account Executive  z Akamai.

    Dzięki olbrzymiej bazie danych nt. charakteru ruchu rejestrowanego w jednej trzeciej całego internetu, Akamai zbudowało własne narzędzia, wspierane algorytmami uczenia maszynowego i sztucznej inteligencji, do sprawdzania, które strony są podejrzane, a które niebezpieczne, do kategoryzowania adresów URL oraz do inspekcji payloadu. Pozwala to na pełne zabezpieczenie przed jakimikolwiek zagrożeniami, bo cały ruch sieciowy przechodzi przez maszyny Akamai, które decydują i filtrują, co może zostać skierowane w dalszą podróż.

    Jednym z kluczowych kryteriów wyboru konkretnego rozwiązania były referencje oraz dostępność zespołu ekspertów. Dzięki temu, że Akamai posiada w Krakowie swoje SOC (Security Operation Center), a cały zespół inżynierów, deweloperów, dział R&D, menedżerowie projektów liczą łącznie ponad 700 osób, LPP razem z Silky Coders mogli liczyć na solidne wsparcie. Nie bez znaczenia było także zaangażowanie firmy Advatech, która prowadziła projekt. Zapewniło to prawidłowe rozpoznanie i analizę potrzeb biznesowych oraz co ważne w tego typu wdrożeniach – płynną komunikację między zespołami.

    Weryfikację skuteczności wdrożonych rozwiązań przyniósł Black Friday, będący początkiem gorączki okołoświątecznej każdego e-commerce. Wykorzystanie platformy Akamai zdecydowanie pomogło pomyślnie przejść przez ten okres bez zakłóceń czy incydentów bezpieczeństwa, notując nawet kilkukrotne zwiększenie ruchu w porównaniu z rokiem ubiegłym. Dzięki temu zespoły mogły skoncentrować się na zapewnieniu sprawnej obsługi i satysfakcji klientów marek należących do LPP w całym procesie zakupowym.

    Anna Błażejczak, Advatech, LPP, Akamai
    Anna Błażejczak, Advatech

    – Dzięki operowaniu na poziomie serwerów DNS, zgodna z koncepcją Zero Trust aplikacja Akamai Enterprise Threat Protector chroni przed atakami typu phishing. Uruchomiono także aplikacje przyśpieszające ruch www, działanie interfejsów API, aplikacji mobilnych oraz ogólnie podnoszące poziom zabezpieczeń zasobów sieciowych. Dzięki Web Application Protector, LPP chroni swoje strony internetowe, API i zasoby sieciowe przed atakami typu DDos (Distributed Denial-of-Service), a Bot Manager zarządza botami, w sposób dla nich niewidoczny – wylicza Anna Błażejczak z Advatech, lider projektu.

    Akamai CDN (Content Delivery Network) ma wielką przewagę związaną z automatyzacją zarządzania obciążeniami serwerów, która wykorzystuje sztuczną inteligencję (AI), uczenie maszynowe (ML) oraz bazy wiedzy z zakresu Threat Intelligence. Platforma CDN Akamai odgrywa istotną rolę w sferze wydajności platform e-commerce LPP – szybka transmisja wysokiej jakości obrazu wspiera proces sprzedaży i ugruntowuje wizerunek firmy zaawansowanej technologicznie. Z kolei bezpieczeństwo transakcji i danych oraz niczym niezakłócone zakupy, znacząco poprawiają satysfakcję klientów i ich przywiązanie do marek, co przekłada się na przychody całej firmy.

    – Dla LPP uruchomienie Akamai Edge to nie tylko zapewnienie bezpieczeństwa i dostępności w internetowym kanale sprzedaży. To także praktycznie nieograniczona skalowalność oraz szybkość dostarczania treści dla użytkowników niezależnie od ich położenia geograficznegoocenia Marek Maciejewski, Director IT operations w Silky Coders powered by LPP.