Tag: Kingston

  • Jak skutecznie chronić dane firmowe? Porady na Światowy Dzień Backupu

    Jak skutecznie chronić dane firmowe? Porady na Światowy Dzień Backupu

    Według opublikowanego w 2025 przez IBM Security badania „Cost of a Data Breach Report”, jeszcze 20 lat temu aż 45% wycieków danych wynikało z utraty urządzeń takich jak laptopy czy pendrive’y. Obecnie skala tego zjawiska jest mniejsza, ale incydenty tego typu nadal występują i są odnotowywane w raportach bezpieczeństwa. Jak zatem zabezpieczyć swoje dane przed ich wyciekiem? Z okazji przypadającego 31 marca Światowego Dnia Backupu ekspert Kingston radzi jak skutecznie chronić informacje przed trafieniem w niepowołane ręce, a firmę przed utratą reputacji i konsekwencjami prawnymi.

    We współczesnych czasach dane niewątpliwie są jednym z najważniejszych aktywów, jakie posiadają przedsiębiorstwa. Jednocześnie, wraz ze wzrostem ilości przechowywanych informacji, rośnie skala konsekwencji, gdy dojdzie do ich utraty w wyniku awarii sprzętu, cyberataku czy ludzkiego błędu. Dlatego tworzenie kopii zapasowych nie jest już kwestią wyboru ani opcjonalnym działaniem, ale koniecznością. 

    – Wykonywanie backupu to bardzo newralgiczny proces, ponieważ w kopiach zazwyczaj znajdują się wszystkie najważniejsze i najbardziej wrażliwe dane przedsiębiorstwa. Dlatego w strategii ich ochronny powinien znaleźć się zapis dotyczący sposobu zabezpieczania nośników z kopiami. Takie podejście zapewni spokojny sen zarządowi firmy i informatykom, ponieważ eliminuje ryzyko naruszenia prawa, a szczególnie Rozporządzenia o Ochronie Danych Osobowych – mówi Robert Sepeta, Business Development Manager w firmie Kingston.

    Najważniejsze dane, największa ochrona

    Pierwszym krokiem w stronę zapewnienia bezpieczeństwa danych powinno być zidentyfikowanie tych, które wymagają największej ochrony. Zazwyczaj są to informacje finansowe i operacyjne, dane osobowe lub chronione prawnie, bądź inne informacje mające największy wpływ na działalność przedsiębiorstwa. Ponieważ wyniki tej analizy mogą mieć bezpośredni wpływ na ciągłość biznesową, powinien jej dokonywać zarząd wraz z informatykami, którzy wiedzą w jaki sposób dane są obecnie przechowywane oraz na jakie zagrożenia są narażone. Warto również sprawdzić czy – oprócz przetwarzanych przez firmę informacji – wykonywane są backupy obrazów systemów operacyjnych oraz aplikacji. 

    Jedną z podstawowych strategii przechowywania danych jest zasada 3-2-1. Zgodnie z nią należy wykonywać trzy kopie tych samych danych, na dwóch różnych nośnikach pamięci, przy czym jeden z nich powinien być przechowywany w odrębnej lokalizacji, poza środowiskiem produkcyjnym. Stosowanie tej metody znacząco zwiększy bezpieczeństwo danych i zminimalizuje ryzyko utraty dostępu do nich w wyniku czynników fizycznych, jaki i cyberataku.

    Po wyborze nośnika na kopie zapasowe należy zaplanować harmonogram ich wykonywania. Także on zależy od decyzji o charakterze biznesowym, a nie technicznym. Dla każdego rodzaju danych zarząd firmy powinien określić przedział czasu, w którym nie będzie dokonywana ich kopia, a więc informacje wytworzone lub pozyskane w tym okresie będą mogły ulec utracie. Od tego będzie uzależniona częstotliwość wykonywania kopii, a więc także związane z tym koszty. Dane z niektórych rodzajów systemów (mniej krytycznych lub rzadziej aktualizowanych) wystarczy zabezpieczyć raz w tygodniu, ale z innych – nawet kilka razy dziennie. Równocześnie należy określić czas, w którym zagwarantowana będzie możliwość odzyskania danych lub przywrócenia systemów IT do pracy. Zawsze trzeba też pamiętać, aby zweryfikować poprawność wykonania kopii i możliwość odtworzenia danych.

    Przechowywanie kopii zapasowych – w chmurze czy na dysku?

    Istotnym zaleceniem zasady 3-2-1 jest przechowywanie jednej z kopii danych poza siedzibą przedsiębiorstwa, aby uchronić przed kradzieżą lub skutkiem katastrof, jak pożar, powódź czy zawalenie się budynku. Jedną z możliwych metod jest przechowywanie kopii danych w chmurze. Jest to jedno z najprostszych i najwygodniejszych rozwiązań – umożliwia automatyzację procesu kopiowania oraz dostęp do danych z dowolnego miejsca. Sposób ten ma jednak trzy wady: czas dostępu do danych jest długi, gdy zajdzie konieczność przywrócenia ich dużej ilości do środowiska produkcyjnego, zabezpieczenia tych danych przed cyberatakiem bywają niewystarczające, i – co najważniejsze – wiele podmiotów przetwarzających wrażliwe dane (medyczne, finansowe) nie może skorzystać z tej metody ze względu na ograniczenia prawne. 

    W takiej sytuacji dobrym rozwiązaniem jest korzystanie z podłączanego przez USB nośnika zewnętrznego, który zgodnie z zasadą 3-2-1 będzie drugim rodzajem nośnika kopii zapasowych. W zależności od budżetu lub preferencji można zdecydować się na mechaniczne dyski, które zazwyczaj oferują większą pojemność w niższej cenie, lub półprzewodnikowe (SSD), które są droższe, ale zapewniają większą trwałość danych, odporność na uszkodzenia mechaniczne, szybkość transferu danych, a niektóre modele mają także wbudowany sprzętowy moduł szyfrujący.

    – W obecnych czasach szyfrowanie danych na dyskach przenośnych, szczególnie jeśli są to kopie najważniejszych wrażliwych firmowych informacji, jest wręcz obowiązkowe. Jest to najskuteczniejsza metoda, aby w przypadku utracenia nośnika nie doszło do wycieku danych. Profesjonalne szyfrowane nośniki wyposażone są w wiele mechanizmów ochronnych, wśród których jest funkcja zniszczenia znajdujących się na nich danych, gdy dojdzie do kilkukrotnego wpisania błędnego hasła – mówi Robert Sepeta.

    Obecnie, w obliczu rosnących zagrożeń będących głównie konsekwencjami prawnymi wskutek wycieku danych, warto poświęcić szczególną uwagę na sposób przechowywania informacji. Ujawnienie wrażliwych informacji może mieć znaczący wpływ na funkcjonowanie firmy poprzez wysokie koszty związane z procesami sądowymi czy pogorszenie wizerunku. Wprowadzenie kilku prostych zasad, których koszt jest o kilka rzędów wielkości niższy, niż potencjalne straty, pozwoli na ochronę danych, a co za tym idzie utrzymanie stabilnej i bezpiecznej pozycji na rynku.


    źródło: Kingston

  • Rynek pamięci masowych w Polsce – czy to koniec macierzy?

    Rynek pamięci masowych w Polsce – czy to koniec macierzy?

    W dzisiejszym środowisku biznesowym w Polsce dane stanowią kluczowy element operacji i wzrostu. Firmy z różnych sektorów generują i przetwarzają ogromne ilości informacji, co sprawia, że niezawodne i skalowalne rozwiązania w zakresie pamięci masowych są niezbędne. Dynamiczny rozwój polskiej gospodarki cyfrowej, z prognozowanymi znaczącymi wzrostami do 2030 roku, bezpośrednio przekłada się na rosnące zapotrzebowanie na solidne rozwiązania pamięci masowych w sektorze B2B.

    Czynniki napędzające rynek pamięci masowych B2B w Polsce

    • Eksplozja danych: Wzrost ilości danych generowanych przez e-commerce, IoT i cyfrową transformację napędza zapotrzebowanie na pamięć masową B2B. Rosną nie tylko wolumeny, ale też szybkość i różnorodność danych – od ustrukturyzowanych baz danych, po multimedia i dane z czujników w czasie rzeczywistym. Firmy wdrażające narzędzia cyfrowe potrzebują coraz bardziej pojemnych i wydajnych rozwiązań, które sprostają wymaganiom AI i analityki big data – wymagających szybkiego dostępu do ogromnych zbiorów danych.
    • Rozwój chmury: Polskie MŚP i duże firmy coraz chętniej korzystają z usług chmurowych, co przekłada się na rosnący popyt na pamięć masową w modelu cloud. Chmura oferuje skalowalność i optymalizację kosztów, jednak wiele organizacji – zwłaszcza w sektorach regulowanych – decyduje się na model hybrydowy. Łączy on lokalne zasoby z chmurą, umożliwiając kontrolę nad wrażliwymi danymi i elastyczne zarządzanie mniej krytycznymi zasobami. To napędza zapotrzebowanie na zintegrowane rozwiązania pamięci masowej B2B.
    • Regulacje i bezpieczeństwo: Przepisy dotyczące ochrony danych, w tym RODO i lokalne regulacje, wymuszają stosowanie bezpiecznych, często lokalnych rozwiązań pamięci masowej. Polskie firmy inwestują w infrastrukturę spełniającą wymogi zgodności i bezpieczeństwa, co staje się ważnym czynnikiem przy wyborze dostawców pamięci masowej B2B.
    • Transformacja cyfrowa: Modernizacja procesów biznesowych w ramach transformacji cyfrowej zwiększa zapotrzebowanie na niezawodną i skalowalną infrastrukturę IT. Wraz z digitalizacją operacji rośnie ilość danych, które wymagają bezpiecznego przechowywania i sprawnego zarządzania – co bezpośrednio przekłada się na wzrost inwestycji w nowoczesne rozwiązania pamięci masowej.

    Wyzwania i ograniczenia na polskim rynku pamięci masowych B2B

    • Ograniczenia budżetowe: Wysokie koszty wdrożenia i utrzymania zaawansowanej infrastruktury pamięci masowej są barierą, szczególnie dla MŚP. Inwestycje w sprzęt, oprogramowanie i specjalistów często przekraczają możliwości finansowe mniejszych firm, skłaniając je do wyboru tańszych, ale mniej wydajnych rozwiązań, co ogranicza rozwój segmentu premium.
    • Brak wykwalifikowanej kadry: Deficyt specjalistów IT zdolnych do zarządzania złożonymi środowiskami pamięci masowej spowalnia adopcję nowoczesnych technologii. Zadania takie jak konfiguracja, monitorowanie i optymalizacja wymagają wysokich kompetencji, których często brakuje na rynku, co wpływa na efektywność wdrożeń i decyzje inwestycyjne.
    • Obawy o bezpieczeństwo danych: Rosnąca liczba naruszeń bezpieczeństwa i związane z tym ryzyka finansowe i reputacyjne zwiększają ostrożność firm przy wyborze rozwiązań pamięci masowej. Szczególne obawy budzi przechowywanie danych w chmurze. Firmy oczekują dziś wysokiego poziomu zabezpieczeń jako standardu.
    • Problemy z integracją: Nowoczesne systemy pamięci masowej często napotykają na trudności w integracji z istniejącą, starszą infrastrukturą IT. To może prowadzić do opóźnień, wzrostu kosztów i ograniczenia tempa wdrożeń, zwłaszcza w firmach z rozbudowanymi, wieloletnimi systemami.
    • Dostępność tańszych alternatyw: Obecność niskokosztowych rozwiązań, choć mniej wydajnych, hamuje rozwój rynku zaawansowanych pamięci masowych B2B. MŚP wrażliwe na cenę często wybierają podstawowe opcje, nawet jeśli nie odpowiadają one rosnącym wymaganiom operacyjnym.

    Segmentacja rynku i prognozy

    Według raportu firmy Mordor Intelligence, polski rynek storage dla centrów danych jest wyceniany na 0,64 miliarda USD w roku 2025 i oczekuje się, że osiągnie 1,11 miliarda USD do roku 2030, przy średniorocznym tempie wzrostu (CAGR) wynoszącym 11,7% w okresie prognozy (2025-2030).

    Rynek Storage

    Rynek ten jest segmentowany według technologii przechowywania na NAS (Network Attached Storage), SAN (Storage Area Network) i DAS (Direct Attached Storage). Oczekuje się, że znaczący udział w rynku będą miały hybrydowe rozwiązania storage, łączące przechowywanie lokalne i w chmurze.

    Kluczowymi graczami na polskim rynku storage dla centrów danych, według Mordor Intelligence, są firmy Dell, Hewlett Packard Enterprise, Huawei Technologies Co. Ltd, Hitachi Vantara LLC oraz Kingston Technology Company Inc..   

    Adopcja chmury i jej wpływ

    Polska odnotowuje dynamiczny wzrost adopcji usług chmurowych. W 2023 roku 55,7% polskich firm korzystało z usług cloud computing, co po raz pierwszy przekroczyło średnią unijną wynoszącą 45,2%. Największą popularnością cieszą się platformy do tworzenia, testowania i wdrażania aplikacji (62,1% firm).

    Polski rynek B2B storage wykazuje stabilny wzrost, napędzany przez cyfrową transformację przedsiębiorstw i rosnące zapotrzebowanie na efektywne rozwiązania do przechowywania danych. Prognozy rynkowe wskazują na dalszy dynamiczny rozwój rynku storage dla centrów danych w Polsce w nadchodzących latach.

  • Rynek SSD – przez wstrząsy rynkowe do innowacji technologicznych

    Rynek SSD – przez wstrząsy rynkowe do innowacji technologicznych

    W ubiegłym roku, specjaliści z TrendForce przedstawili obraz rynku dysków SSD, który zdawał się powracać do równowagi po kłopotach z niedoborem układów scalonych w 2021 roku. Uspokojenie sytuacji w łańcuchach dostaw miało być sygnałem do wzrostu sprzedaży. Niestety, 2022 rok przyniósł nieoczekiwany spadek – zaledwie 114 milionów sztuk zostało sprzedanych, co stanowi 10,7% spadku. Ta sytuacja pokazuje, że nawet po ustabilizowaniu podaży, rynek może nieśpiesznie reagować na pozytywne zmiany.

    Dominacja liderów SSD: Strategie przetrwania

    W świecie, gdzie technologia rozwija się w zawrotnym tempie, utrzymanie się na szczycie jest równie ważne, co innowacyjność. Liderzy rynku dysków SSD, tacy jak Kingston i ADATA, nie tylko utrzymali swoje dominujące pozycje, ale nawet je wzmocnili, co jest dowodem na to, że solidne strategie i ciągłe dążenie do doskonałości są kluczowe dla rynkowego sukcesu. Oba przedsiębiorstwa nie zadowoliły się pozycją lidera, ale dążyły do rozwoju i ulepszania swoich produktów, co zaowocowało wzrostem ich udziałów w rynku.

    Lexar, z drugiej strony, pokazuje, że czasem wartością samą w sobie jest agresywna ekspansja. Ich ambitne plany, mające na celu zwiększenie przychodów przed planowanym wejściem na giełdę, są przykładem strategii, która wykorzystuje moment do wzmocnienia swojej pozycji rynkowej. Ich wzrost udziału w rynku jest świadectwem, że zdecydowane kroki mogą przynieść korzystne rezultaty, nawet w dojrzałych i konkurencyjnych segmentach rynku.

    W kontekście Kimtigo, które skupia się na ekspansji na rynki przemysłowe i OEM, widzimy, jak różnorodność oferty może zabezpieczyć firmę przed ryzykiem. Kimtigo, rozszerzając swoje działania poza tradycyjne rynki konsumenckie, otworzyło nowe kanały przychodów i zwiększyło swoje wysyłki, co wskazuje na to, że różnicowanie i innowacja są równie ważne, jak umiejętność szybkiego reagowania na zmieniające się warunki rynkowe.

    Te strategie przetrwania, różniące się między czołowymi graczami, odzwierciedlają złożoność i dynamiczność rynku SSD. Utrzymanie pozycji lidera wymaga nieustannego inwestowania w badania i rozwój, zrozumienia potrzeb klientów oraz zdolności do szybkiego dostosowywania się do zmieniających się warunków. To, jak te firmy zareagują na przyszłe wyzwania i jakie nowe strategie przyjmą, z pewnością będzie miało wpływ na kształtowanie się rynku w nadchodzących latach.

    Rynek SSD i wytrwałość mniejszych graczy: Odnalezienie niszy i innowacyjność

    Sukces na rynku dysków SSD nie jest zarezerwowany wyłącznie dla gigantów technologicznych. Mniejsze marki, takie jak Colorful i PNY, udowadniają, że strategiczne wykorzystanie swoich unikalnych atutów może przynieść znaczące rezultaty. Colorful, korzystając z chińskich udogodnień podatkowych i niższych kosztów produkcji, zdołało wypracować konkurencyjność cenową, co w obliczu globalnego spadku sprzedaży dysków SSD, pozwoliło im na zwiększenie dostaw i awans na szóste miejsce w rankingach. Ich strategia pokazuje, jak ważne jest wykorzystanie lokalnych zasobów i adaptacja do warunków rynkowych.

    PNY, mimo spadków na rynku, nie ustępuje miejsca konkurencji. Ich skoncentrowanie na rozwoju kanałów międzynarodowych i zdolność do wytrwania w obliczu przeciwności, świadczy o ich elastyczności i determinacji. Teclast, utrzymując swój udział w rynku na stabilnym poziomie z roku 2021 i awansując na ósmą pozycję, pokazuje, że konsekwencja i stabilność są cenione w branży, która często jest podatna na drastyczne zmiany. Ich umiejętność utrzymania się na rynku może być przypisana zarówno do wyważonych decyzji biznesowych, jak i solidnego zrozumienia swojego segmentu rynku.

    GIGABYTE, korzystając z rosnącego zainteresowania rynku gamingowego, pokazuje, że posiadanie mocnej niszy rynkowej może być kluczem do sukcesu. Ich koncentracja na graczach, grupie konsumentów znanej z lojalności i gotowości do inwestowania w najnowszą technologię, pozwala im utrzymać pozycję w czołowej dziesiątce.

    Transcend, zajmując dziesiątą pozycję, koncentruje się na utrzymywaniu dochodowych produktów niszowych, szczególnie w sektorze kontroli przemysłowej. Ich skupienie na mniejszych, ale stabilnych i zyskownych rynkach, jest przykładem tego, jak specjalizacja i głębokie zrozumienie specyficznych potrzeb klientów może zabezpieczyć przed ryzykiem pogoni za wielkością przesyłek, która nie zawsze jest równoznaczna z rentownością.

    Mniejsze firmy na rynku dysków SSD, mimo że często stoją w cieniu większych graczy, mają swoje unikalne sposoby na odniesienie sukcesu. Ich wytrwałość, zdolność do innowacji i adaptacji, a także skupienie na specjalistycznych niszach rynkowych, są świadectwem tego, że w sektorze technologii, różnorodność podejść jest równie ważna jak wielkość.

    Hegemonia wielkich marek: Skalowanie i strategia rynkowa

    W kontekście globalnego spowolnienia sprzedaży, pięć największych producentów dysków SSD zademonstrowało niezwykłą odporność i umiejętność skutecznego skalowania swoich operacji. Ich wzrost z 53% do 59% udziału w rynku w 2022 roku jest dowodem na to, że w erze cyfrowej rewolucji, skala działania ma fundamentalne znaczenie. Duże firmy, z ich obszernymi zasobami finansowymi i szeroką dystrybucją, były w stanie nie tylko przetrwać, ale i odnieść sukces, pomimo globalnych wstrząsów rynkowych.

    Ich dominacja to wynik nie tylko finansowej potęgi, ale również przemyślanych strategii biznesowych. Te firmy nieustannie inwestują w badania i rozwój, co pozwala im na wprowadzanie innowacji, które napędzają branżę do przodu. Ich zdolność do szybkiego reagowania na zmiany na rynku i przewidywanie przyszłych trendów umożliwia im utrzymanie przewagi konkurencyjnej.

    W szczególności, sposób, w jaki te marki zarządzają swoimi łańcuchami dostaw, różnicują produkt i dostosowują się do lokalnych rynków, pokazuje ich złożone i wyrafinowane podejście do globalnego handlu. W erze, gdzie nadmiar zapasów i niepewność gospodarcza są na porządku dziennym, umiejętność zarządzania zasobami i płynność operacyjna stają się kluczowe. Przez ciągłe dostosowywanie planów zakupów i produkcji, te giganty są w stanie zminimalizować ryzyko i maksymalizować zyski.

    Dodatkowo, ich wpływ na rynek może być obserwowany w sposobie, w jaki wykorzystują swoją pozycję do wprowadzania agresywnych strategii cenowych, które mogą radykalnie zmieniać dynamikę rynku. Przez takie taktyki, są w stanie nie tylko utrzymać, ale i zwiększać swoje udziały rynkowe, często kosztem mniejszych graczy.

    Ich dominująca pozycja na rynku to również wynik długoterminowej wizji i zdolności do adaptacji. W obliczu ciągłych wyzwań, takich jak zmiany w preferencjach konsumentów czy rozwój technologiczny, te firmy potrafią ewoluować i rozwijać swoje portfolio produktowe, zapewniając sobie przewagę konkurencyjną.

    Chiny utrzymują tempo: Przyszłość technologii SSD

    W ostatnich latach, chińscy producenci dysków SSD, tacy jak Maxio Technology, dokonali znaczącego postępu w dziedzinie technologii kontrolerów PCIe. Ich rosnąca obecność na rynku jest symbolem rosnącej technologicznej samodzielności i innowacyjności. Znaczące inwestycje w badania i rozwój oraz agresywne strategie komercyjne skutkują szybkim nadrabianiem zaległości technologicznych, a chińskie marki coraz śmielej wkraczają na rynek globalny.

    Wprowadzanie na rynek produktów kompatybilnych z PCIe 4.0 oraz rozwój i weryfikacja produktów PCIe 5.0 wskazuje na ich determinację, by nie tylko dogonić konkurencję, ale także stać się pionierami w najnowszych technologiach. Szybkość, z jaką chińscy producenci wprowadzają na rynek nowe innowacje, przyczynia się do zwiększenia konkurencji, co z kolei stymuluje globalny rozwój technologii SSD.

    Równie ważne jest to, jak chińskie firmy rozwijają swoje kanały dystrybucyjne i łańcuchy dostaw. Ich dążenia do dywersyfikacji i rozwijania konfiguracji łańcucha dostaw to odpowiedź na niestabilność rynkową, która była wyzwaniem w ostatnich latach. Poprzez tworzenie bardziej zrównoważonych i odpornych na zakłócenia sieci dostaw, są one lepiej przygotowane do radzenia sobie z przyszłymi kryzysami.

    Longsys, chińska firma prowadząca czołową ofensywę na rynku międzynarodowym, jest doskonałym przykładem tej strategii. Przejęcia takie jak udziały w Licheng Suzhou i Smart Modular w Brazylii to strategiczne posunięcia, które mają na celu zwiększenie zdolności produkcyjnych i poszerzenie globalnego zasięgu. To pokazuje, że chińskie firmy nie tylko chcą konkurować, ale mają ambicje, by być liderami w branży SSD.

    Obserwując ten trend, można przewidywać, że chińska innowacyjność i ekspansja na rynku dysków SSD będą kontynuować swoją trajektorię wzrostową. Wzrost technologiczny i rozwijająca się globalna obecność chińskich marek SSD może wkrótce przynieść zmiany w globalnej równowadze sił w branży pamięci masowych. Ta ewolucja wskazuje na to, że branża SSD wejdzie w nową erę, w której chińskie firmy staną się znaczącymi graczami, mającymi realny wpływ na kierunki rozwoju technologii.

    Rynkowa zmienność jako stała

    Przeanalizowanie danych TrendForce i obserwacja ruchów rynkowych w sektorze dysków SSD rzucają światło na nieuchronną prawdę branży technologicznej – zmienność rynku jest jedyną stałą, z którą firmy muszą się zmagać. 2022 rok, zaskakujący spadkiem sprzedaży mimo stabilizacji podaży, jest potwierdzeniem, że nawet najlepiej przewidywalne trendy mogą być podważone przez nieprzewidziane zewnętrzne czynniki.

    W obliczu tych nieprzewidywalnych rynkowych zawirowań, firmy dyskowe muszą być gotowe do szybkiego dostosowywania się do zmieniających się warunków. Innowacyjność, elastyczność operacyjna i strategiczne planowanie są kluczowe dla utrzymania zdrowej pozycji rynkowej. Adaptacja do zmian jest nie tylko kwestią przetrwania, ale również możliwości wykorzystania nowych okazji, które te zmiany przynoszą.

    Również ważne jest zrozumienie, że wciąż rosnący popyt na dane i zwiększające się ich ilości nie zawsze przekładają się na linearny wzrost sprzedaży SSD. Producenci muszą nie tylko dostarczać produkty, ale również inwestować w zrozumienie rynku i zachowań konsumentów, aby lepiej przewidywać i reagować na potrzeby.

    Wzrost chińskich producentów pokazuje, że nowi gracze mogą wprowadzić znaczące zmiany w przemyśle i że otwartość na globalną konkurencję jest niezbędna dla innowacji. W świecie, w którym technologia rozwija się tak szybko, żadna firma nie może pozwolić sobie na stagnację.

    Świat dysków SSD, podobnie jak cały sektor technologiczny, jest świadkiem ciągłych zmian, które wymuszają na przedsiębiorstwach ciągłą wrażliwość i adaptację. Przyszłość będzie wymagać jeszcze większej agilności, gdyż firmy będą musiały nawigować poprzez nie tylko technologiczne innowacje, ale także poprzez ekonomiczne i geopolityczne napięcia, które nieuchronnie wpłyną na globalne rynki.

  • Od pendrive’a do centrów danych, czyli jak pamięć flash napędza rozwój technologii

    Od pendrive’a do centrów danych, czyli jak pamięć flash napędza rozwój technologii

    Na nośnikach półprzewodnikowych przechowujemy zdjęcia z wakacji i postępy w grze, ale także ogromne ilości danych wykorzystywane przez wszystkie sektory gospodarki i instytucje publiczne. Tylko w 2021 roku ludzkość wygenerowała 74 zettabajty danych[1], a w 2025 będzie to aż 180 zettabajtów[2]. Co sprawiło, że pamięć flash stała się tak popularna?

    Tryliardy bajtów to wartości przekraczające możliwości naszej wyobraźni, ale pozwalające uzmysłowić sobie, że w świecie opartym o dane potrzebujemy trwałych nośników. Wykorzystujemy je we wszystkich urządzeniach elektronicznych ułatwiających nam życie. Używamy ich, gdy pracujemy na komputerze, w nawigacji samochodowej, w telefonach i lustrzankach. Pośrednio korzystamy też z nich, zamawiając jedzenie w aplikacji, czy podczas oglądania filmu na platformie streamingowej. Dane niezbędne do ich obsługi są przechowywane w centrach danych, które również wykorzystują technologię flash.

    Rewolucyjny nośnik danych

    Pamięć flash znamy głównie jako towarzyszący nam w pracy i szkole pendrive ze złączem USB. To także karty pamięci SD i microSD, które umieszczamy w aparatach, smarfonach, dronach i konsolach. Możliwość zapisywania i kasowania plików w urządzeniu rozmiarów małego palca dziś jest oczywistością, ale pod koniec lat 90. była rynkową nowością[1]. W latach 80. i 90. królowały dyskietki. W swoich czasach był to nowoczesny nośnik, ponieważ wcześniejsze technologie przechowywania danych pozwalały wyłącznie na jednokrotny zapis – bez możliwości usunięcia lub nadpisania zawartości. Wyzwaniem było też zapewnienie przechowywania danych na nośnikach, które nie są stale podłączone do źródła zasilania. Na szczęście można dziś tylko wyobrazić sobie, jak wyglądałoby drukowanie prac dyplomowych i dokumentów firmowych, gdyby pendrive musiał być cały czas zasilany bateriami. Obecnie w pamięci flash USB możemy przechowywać nie tylko mniejsze pliki, ale też zdjęcia i filmy w wysokiej rozdzielności. Topowe flash USB zapewniają do 1 TB pojemności i szybkość odczytu do 1000 MB/s. Karty SD i microSD również oferują imponujące możliwości – na nośnikach wielkości paznokcia można przechowywać dziesiątki i setki gigabajtów.

    „Nowoczesne karty pamięci znajdują swoje zastosowanie zarówno w technologii, z której korzystamy  w codziennym życiu, jak i w zaawansowanych urządzeniach przemysłowych. Wybierając kartę pamięci, warto dobrać jej parametry do indywidualnych potrzeb. Zdjęcia z wakacji robione telefonem lub mniejszym aparatem zmieszczą się na karcie 32 GB. Entuzjaści sprzętu fotograficznego powinni jednak sięgnąć po najbardziej pojemne nośniki – co najmniej 256 GB lub 512 GB”zauważa Michał Bocheński z Kingston Technology. Karty pamięci znajdziemy też w urządzeniach o specjalistycznej charakterystyce. Kasy fiskalne w dużych centrach handlowych i monitoring CCTV wymagają nośników przystosowanych do wysokich obciążeń operacjami zapisu danych. Podobnie urządzenia, które muszą pracować w bardzo wysokich lub niskich temperaturach. Karty pamięci przeznaczone dla przemysłu i ekstremalnych warunków mogą działać nawet w zakresach od -40° do 85° C.

    Magazyn danych w skali mikro i makro

    Pamięć flash to nie tylko popularne karty SD i flash USB. W nieco większym rozmiarze znajdziemy je w nowszych komputerach i konsolach jako dyski półprzewodnikowe (SSD). Zastępują one starsze talerzowe dyski twarde (HDD), których główną wadą jest głośna i awaryjna mechaniczna konstrukcja, a także niska prędkość odczytu i zapisu danych. „Dyski flash znacząco przewyższają możliwości dysków talerzowych. Dzięki technologii NVMe dysk SSD może przeprowadzić ponad milion operacji wejścia i wyjścia na sekundę, to 10-razy więcej niż HDD. Podczas gdy dysk talerzowy przetwarza jedną kolejkę poleceń, SDD NVMe oferuje ich aż 64 tys. Zastosowanie dysku SSD skutkuje szybszym uruchamianiem systemu i sprawniejszym przesyłaniem plików” podkreśla Michał Bocheński.

    Pamięć flash w formie dysków SSD znajduje też zastosowanie w jednym z najważniejszych elementów cyfrowego świata – w centrach danych. Pokazuje to, że pamięć masowa flash stanowi część fundamentu transformacji cyfrowej, a tym samym część naszego codziennego życia. Oglądając serial, a nawet grając w gry, nie musimy już posiadać fizycznego nośnika pamięci, na którym są one przechowywane. Obraz i dźwięk przesyłany jest dzięki połączeniom sieciowym między nośnikiem znajdującym się w data center a naszym urządzeniem. Najnowocześniejsze centra danych i serwerownie korzystają z pamięci flash i dysków SSD z tych samych powodów, dla których stosuje się je w komputerach osobistych. Pamięć flash jest szybsza i niezawodna. Co więcej, dyski SSD są mniejsze i pozwalają zaoszczędzić na przestrzeni, a ponadto zużywają mniej energii elektrycznej.

    „Nie zawsze zauważamy, że zarówno małe pamięci flash USB, jak i specjalistyczne dyski SSD pozwalają nam korzystać z technologii, która czyni nasze życie wygodniejszym. Kolejne usługi cyfrowe napędzają też rozwój nośników pamięci. Jeżeli za kilka lat uda się uruchomić metaversum, to m.in. dzięki dyskom półprzewodnikowym SSD, gotowym obsłużyć rosnący ruch w sieci” podsumowuje Michał Bocheński z Kingston Technology.


    [1] Pierwszy pendrive pojawił się na rynku amerykańskim w 1999 roku.
    [1] https://www.cloverdx.com/blog/how-much-data-will-the-world-produce-in-2021
    [2] https://media.kingston.com/kingston/pdf/ktc-blog-servers-and-data-centers-ssds-changing-data-storage-development-ebook-en.pdf

  • Kingston Digital wprowadza zewnętrzny dysk do ochrony danych z ekranem dotykowy

    Kingston Digital wprowadza zewnętrzny dysk do ochrony danych z ekranem dotykowy

    Kingston Digital Europe Co LLP., oddział Kingston Technology Company Inc. zajmujący się pamięcią flash,, ogłosił dziś wprowadzenie najnowszego produktu do swojej linii szyfrowanych dysków SSD – IronKey Vault Privacy 80 External SSD(VP80ES). Jest to pierwszy, niezależny od systemu operacyjnego, zewnętrzny dysk SSD firmy Kingston z ekranem dotykowym i szyfrowaniem sprzętowym zapewniającym skuteczniejszą ochronę danych.

    Korzystanie z IronKey VP80ES jest tak naturalne, jak odblokowywanie smartfona. Do transferu plików wystarczy prosta metoda „przeciągnij i puść”. Dysk wyposażony jest w intuicyjny kolorowy ekran dotykowy i certyfikat FIPS 197 z 256-bitowym szyfrowaniem XTS-AES. Dysk doskonale chroni przed atakami typu Brute Force i BadUSB. Zastosowanie w IronKey VP80ES technologii używanej również w wojskowości zabezpiecza ważne informacje firmowe, dokumenty oraz obrazy i filmy o wysokiej rozdzielczości. Szyfrowanie sprzętowe na dysku SSD zapewnia jeszcze wyższy poziom zabezpieczeń niż rozwiązania chmurowe.

    Oprócz łatwości obsługi i szyfrowania sprzętowego VP80ES oferuje dodatkowe funkcje ochrony danych, takie jak obsługiwanie wielu haseł (administrator/użytkownik) w trybach PIN/fraza. W opcji administratora można wybrać tryb numeryczny PIN lub Passphrase, konfigurować ustawienia hasła lub włączyć rozszerzone opcje zabezpieczeń. Wśród nich m.in.: maksymalną liczbę prób podania hasła, minimalną długość hasła (od 6 do 64 znaków), reguły haseł alfanumerycznych, automatyczny czas blokady dysku, losowy układ ekranu dotykowego i Secure-Erase, zapewniający maksymalną ochronę ważnych plików. Hasło administratora może być użyte do przywrócenia danych i dostępu w przypadku zapomnienia hasła użytkownika. Dla gwarancji dodatkowego spokoju VP80ES, posiada funkcję ochrony przed atakami typu Brute Force, która domyślnie usuwa kryptograficznie zawartość dysku, jeśli hasło administratora i użytkownika zostanie wprowadzone niepoprawnie 15 razy[1] z rzędu.

    Zastosowanie znaku „spacji” na klawiaturze pozwala na łatwiejsze zapamiętanie hasła w postaci ciągu słów, cytatu lub fragmentu ulubionej piosenki. Do odblokowania VP80ES można użyć PINpada, podobnie jak w przypadku urządzeń mobilnych. Aby ograniczyć nieudane próby logowania, wystarczy dotknąć przycisku „eye” i  zobaczyć wprowadzone hasło.

    Do IronKey Vault Privacy 80 External SSD dołączone jest neoprenowe etui podróżne i dwa kable z adapterem USB 3.2 Gen 1, umożliwiające łatwe podłączenie dysku do komputerów i innych urządzeń obsługujących USB Type-C lub Type-A. Czyni go to idealnym towarzyszem podróży, zapewniającym produktywność i wygodę.

    „Ponieważ coraz więcej osób pracuje w domu, poza firmowymi zaporami sieciowymi, chcemy zapewnić mniejszym i średnim przedsiębiorcom możliwość skorzystania z wysokiej klasy zabezpieczenia danych i większą pojemność połączonych z przyjazną obsługą” – podkreśla Oscar Escayola Kaloudis, EMEA Flash Business Manager, Kingston. „IronKey Vault Privacy 80ES spełnia właśnie to zadanie. Dzięki kolorowemu ekranowi dotykowemu, niezliczonym funkcjom bezpieczeństwa i niewielkiej obudowie, użytkownicy mogą mieć pełną kontrolę nad swoimi danymi”stwierdza Oscar Escayola Kaloudis.

    Zewnętrzny dysk SSD Kingston IronKey Vault Privacy 80 jest dostępny w pojemnościach 480 GB, 960 GB i 1920 GB, jest objęty trzyletnią gwarancją, bezpłatną pomocą techniczną oraz legendarną niezawodnością firmy Kingston.


    [1] Ochrona przed atakami typu Brute Force – regulowana w zakresie 10-30 prób wprowadzenia hasła.

  • Modernizacja infrastruktury serwerowej – jak zrobić to mądrze?

    Modernizacja infrastruktury serwerowej – jak zrobić to mądrze?

    Przejście na model pracy zdalnej wielu przedsiębiorstw zwiększyło zapotrzebowanie na usługi centrów danych oraz chmurowe. Jednocześnie, część organizacji musiała zreorganizować swoje biura, żeby móc skutecznie pracować w trybie home office. W wielu przypadkach wiązało się to z koniecznością przeniesienia lub modernizacji infrastruktury serwerowej. Dostawcy usług oraz firmy musiały więc podjąć nowe inwestycje w obszarze serwerów, żeby móc odpowiedzieć na zwiększone potrzeby. Takie modernizacje powinny być odpowiednio zaplanowane i przeprowadzone. Co należy wziąć pod uwagę?

    Typowe aktualizacje sprzętowe obejmują zarówno obszar pamięci operacyjnej, jak i masowej. Modernizacja pamięci jest najłatwiejszym sposobem na poprawę i optymalizację wydajności serwera. Zwykle jest konieczna przy zwiększaniu obciążeń wirtualnych, dodawaniu większej liczby użytkowników, wdrażaniu nowych programów bazodanowych czy wprowadzaniu zmian biznesowych – w przypadku sklepów internetowych mogą to być np. nowe funkcjonalności dotyczące zakupu na stronie. Modernizacja pamięci w serwerach może obsłużyć większe obciążenia, przyspieszyć pracę z danymi w chmurze czy działanie aplikacji uruchomionych w pamięci serwera. Umożliwia również stworzenie większej liczby maszyn wirtualnych, a tym samym zwiększa alokację i pozwala optymalnie wykorzystywać już posiadany sprzęt. W ten sposób organizacje mają szansę obniżyć koszty eksploatacji.

    Pamięć masowa to ważny element

    Pamięć masowa jest ważna dla wirtualizacji serwerów w kontekście pojemności, a przede wszystkim jest istotna dla szybkości. Tradycyjne, mechaniczne dyski twarde w zwirtualizowanym serwerze hostującym mogą poważnie ograniczać szybkość losowych operacji wejścia/wyjścia i dostępu do danych. Obsługa aplikacji, użytkowników i pobieranie danych to czynniki ograniczające ogólną wydajność systemu. Zainstalowanie odpowiedniej pamięci w serwerze wraz z niemechanicznymi dyskami półprzewodnikowymi (SSD) może znacząco wpłynąć na poprawę wydajności i zwiększenie pojemności. Tym samym umożliwia wirtualizację, a w efekcie – pozwala uzyskać większe możliwości przy mniejszym nakładzie.

    Pamięć masowa serwerów coraz częściej znajduje się w zewnętrznych lokalizacjach w centrach danych i jest w coraz większym stopniu oparta na chmurze. Wiąże się to z coraz większymi wymaganiami zarówno wobec dysków, jak i infrastruktury pamięci. Dyski SSD umożliwiają szybkie pobieranie danych i działanie usług chmury z najwyższą wydajnością, niezależnie od typu przetwarzanych danych. W dobrze zaprojektowanym rozwiązaniu pamięci masowej stosuje się warstwową konfigurację dysków (dyski o różnej szybkości i cenie przeznaczone do różnych zastosowań i celów dostępu), dzięki czemu organizacja ma dostęp do odpowiednich danych na odpowiednim poziomie, aby w ekonomiczny sposób uzyskać maksymalną wydajność.

    Kluczowa jest niezawodność i wydajność serwera

    Zbudowanie odpowiedniej wydajności i optymalizacja wyników zaczyna się na poziomie komponentów. Tymczasem, wiele osób nie zwraca uwagi na kwestie pamięci (której koszt stanowi dużą część ceny serwera). Istnieją trzy typy pamięci DIMM[1] i choć są ze sobą zgodne fizycznie, ich dobór jest kluczowy, ponieważ nie można ich mieszać.

    Istotne jest również dopasowanie odpowiedniej pamięci do określonego procesora, który znajduje się w danym serwerze. Na wydajność znaczący wpływ może mieć liczba kanałów i modułów pamięci. Należy o tym pamiętać, rozważając stopniową modernizację. Nie warto kupować pamięci na potrzeby modernizacji za 12 miesięcy, która aktualnie wykracza poza wymagania lub wręcz ogranicza wydajność.

    W podjęciu świadomej decyzji może pomóc również zapoznanie ze standardami i specyfikacjami pamięci organizacji JEDEC, która odpowiada globalnie za rozwój otwartych standardów dla przemysłu mikroelektronicznego. W przypadku np. płyt głównych warto rozważyć nowy standard DDR5, który radykalnie zwiększa gęstość i szybkość pamięci.[2]

    Potrzeba spełniania ciągle rosnących wymagań, niekoniecznie musi wiązać się z koniecznością wymiany serwerów. Mądrze przeprowadzona modernizacja, która uwzględnia bieżące potrzeby i przewidywany rozwój, to dobry pomysł w stale zmieniającym się i ewoluującym środowisku biznesowym. Jednak zdecydowanie wymaga zaplanowania, określenia specyfikacji i zakupu odpowiednich komponentów. Współpraca z ekspertami branżowymi w zakresie przechowywania danych, takimi jak Kingston, może pomóc w znalezieniu odpowiedniego rozwiązania dopasowanego do indywidualnych potrzeb firmy.

  • Kingston Technology ogłosił ostateczną umowę sprzedaży HyperX firmie HP

    Kingston Technology ogłosił ostateczną umowę sprzedaży HyperX firmie HP

    Kingston Technology Europe Co LLP, spółka stowarzyszona przedsiębiorstwa Kingston Technology Company Inc. ogłosiła ostateczną umowę sprzedaży HyperX, jej działu gamingowego, firmie HP Inc. Przejęcie wspiera strategię HP dotyczącą napędzania rozwoju działań w dziedzinie Personal Systems, dla której gry i urządzenia peryferyjne są atrakcyjnymi segmentami.

    Portfolio produktów HyperX obejmuje szereg gamingowych urządzeń peryferyjnych, w tym zestawy słuchawkowe, klawiatury, myszy, podkładki pod mysz, mikrofony USB i akcesoria do konsoli.

    Zgodnie z warunkami umowy HP zapłaci 425 mln USD, po uwzględnieniu zwyczajowego kapitału obrotowego i innych korekt, w celu nabycia gamingowego portfolio urządzeń peryferyjnych HyperX. Firma Kingston zachowa produkty DRAM, flash i SSD dla graczy i entuzjastów.

  • Autonomiczny robot oczyszcza już Pacyfik z wielkiej plamy odpadów

    Autonomiczny robot oczyszcza już Pacyfik z wielkiej plamy odpadów

    Pandemia koronawirusa może spowodować wzrost zużycia plastiku. Do oceanów na całym świecie trafia rocznie ponad 14 ton tego tworzywa sztucznego. Oczyszczaniem wód zajmuje się coraz więcej fundacji i start-upów. Zbudowane przez holenderską fundację The Ocean Cleanup inteligentne urządzenie do przechwytywania odpadów plastikowych już zbiera śmieci z Wielkiej Pacyficznej Plamy Śmieci.

    – Musimy także zatrzymać falę nowego plastiku, który dociera do oceanów każdego dnia – mówi Boyan Slat, założyciel i prezes fundacji. Dlatego „Interceptor” wypłynie także na rzeki oraz do portów. Jednym z pierwszych będzie jamajski port w Kingston.

    Według danych opublikowanych przez Biuro Analiz Parlamentu Europejskiego do oceanów na całym świecie trafia rocznie prawie 13 mln ton plastiku, a w morzach zalega go już ponad 150 mln ton. Według twórców aplikacji Litterati pandemia koronawirusa spowoduje wzrost zużycia tego materiału.

    Tylko na Jamajce przez zatokę Hunts Bay i port Kingston do oceanu trafia rocznie 578 ton plastikowych odpadów – wynika z badań przeprowadzonych przez fundację The Ocean Cleanup.  Zanieczyszczenie to będzie można znacznie zredukować dzięki innowacyjnemu odkurzaczowi wodnemu Interceptor, opracowanemu przez Holendrów.

    – Uruchamiając Interceptora od fundacji The Ocean Cleanup, usuniemy olbrzymie ilości śmieci z portu w Kingston (stolica Jamajki – przyp.red.), zanim trafią do oceanu. W tym samym czasie zwiększymy świadomość wśród społeczności na temat naszych działań, motywując ludzi do nowych zachowań – twierdzi Nalini Sooklal, dyrektor zarządzający Recycling Partners of Jamaica (RPJ).

    Interceptor ma być w pełni zasilany energią słoneczną. Samoczynnie zbiera odpady plastikowe, przepływając przez zanieczyszczone wody. W momencie, gdy jego zbiornik będzie niemal całkowicie zapełniony, urządzenie wyśle wiadomość do lokalnego operatora zajmującego się zbiórką śmieci. Po opróżnieniu odpady zostaną poddane recyklingowi. Inwestycja we wdrożenie tej technologii zostanie dofinansowana kwotą miliona dolarów przez Benioff Ocean Initiative.

    Nad rozwiązaniem działającym na podobnej zasadzie jak to opracowane przez The Ocean Cleanup pracuje też Clear Blue Sky, organizacja typu non-profit zajmująca się walką z zanieczyszczeniem oceanów. FRED to zbudowany przez nią, zasilany energią słoneczną robot oparty na konstrukcji katamaranu. Jest to maszyna próżniowa, która zbiera pływające plastikowe odpady w sposób zbliżony do tego, z którym mamy do czynienia w przypadku taśmy przenośnika. Urządzenie pływa z prędkością około dwóch węzłów, co pozwala mu na płynną pracę.

    Usunięcie zalegających już w wodach śmieci nie rozwiąże jednak problemu zanieczyszczenia oceanów plastikiem.

    – Musimy także zatrzymać falę nowego plastiku, który dociera do oceanów każdego dnia – mówi Boyan Slat, założyciel i prezes fundacji The Ocean Cleanup.

    Bank Światowy przewiduje, że do 2050 roku globalna produkcja odpadów wzrośnie o 70 proc.

  • 2 lata z RODO – wyzwania kontra rzeczywistość

    2 lata z RODO – wyzwania kontra rzeczywistość

    Zarówno rozwój nowoczesnych technologii, jak i aktualna sytuacja, z którą mierzy się biznes na całym świecie, istotnie wpłynął na konieczność podniesienia poziomów bezpieczeństwa infrastruktury IT w sektorze publicznym i prywatnym. Rosnące zapotrzebowanie rynku na możliwość efektywnej pracy zdalnej również przekłada się na zwiększone ryzyko potencjalnego wycieku bądź kradzieży danych. Jak z tymi problemami powinna radzić sobie osoba zarządzająca podmiotem oraz jak to wygląda w Polsce przy okazji drugiej rocznicy wprowadzenie przepisów RODO? Sytuację analizuje Tomasz Surdyk, ekspert w tematyce cyberbezpieczeństwa i doradca firmy Kingston Technology.

    Rynek pracy dynamicznie zmieniał się już od jakiegoś czasu, a obecnie wiele podmiotów przeszło na pracę zdalną w trybie bardzo szybkim i niespodziewanym, co oczywiście w żaden sposób nie zwalnia ich z konieczności dostosowania się do aktualnych standardów. Pod uwagę należy wziąć przepisy związane z cyberbezpieczeństwem. Ostatnie lata zaowocowały dwoma kluczowymi przepisami, które wymuszają na firmach wdrożenie rozwiązań i procedur, które mają chronić newralgiczne dane – RODO oraz rodzima ustawa o krajowym systemie cyberbezpieczeństwa. Przy okazji drugiej rocznicy wprowadzenia ogólnego rozporządzenia o ochronie danych, warto się przyjrzeć temu, jakie wyzwania stoją przed różnymi podmiotami. Przystosowanie przedsiębiorstwa do wymogów zewnętrznych to sprawa kompleksowa i wymagająca elastyczności.

    Edukacja, edukacja i jeszcze raz…edukacja

    U podstaw bezpieczeństwa w wielu sytuacjach nie leżą rozwiązania czy produkty, a edukacja. Często mimo szkoleń, wiedza na temat RODO czy cyberbezpieczeństwa nie jest wystarczająca. Wynika to z tego, że ogólne zasady i przepisy nie są przez pracodawców przełożone na konkretne sytuacje i procesy, które mają miejsce w firmie. Celem powinno być tworzenie kultury, a nie tylko odhaczenie obowiązku przeprowadzenia szkolenia, które polega na zaznaczeniu pól wyboru. Większość naruszeń w obszarze IT to w końcu wynik błędów człowieka. Brak świadomości, procedur oraz brak dostosowania infrastruktury IT do obowiązujących przepisów prawa może doprowadzić do częstych naruszeń, utraty danych, destabilizacji systemu, nie tylko poprzez naruszenie przepisów UKSC, ale także RODO. Zgodność z rozporządzeniem jest możliwa nie poprzez jednorazowe działanie, tylko ciągłą dbałość o bezpieczeństwo danych. Co ważne, dotyczy ona działań każdego pracownika.

    Większa świadomość po obu stronach

    Warto zwrócić uwagę na fakt, że wprowadzenie RODO zwiększyło również świadomość konsumentów w zakresie ich praw do danych. Wiedzą oni, że w przypadku utraty danych przez firmy, niezależnie od przyczyny, mają prawo do odszkodowania. Perspektywę konsumencką można wykorzystywać w szkoleniach, żeby uświadomić pracownikom, że za danymi zawsze stoi konkretna osoba. Chodzi tu o zwizualizowanie wyobrażenia, co by się stało, gdyby to ich dane wypłynęły lub ktoś nimi nieodpowiednio zarządzał. Taki przykład ułatwia tworzenie połączenia myślowego, że w ochronie danych chodzi głównie o prywatność i że w gruncie rzeczy, dotyczy to każdego z nas. W kontekście większej świadomości, RODO zmieniło biznes na lepsze, zwracając uwagę na prywatność informacji i bezpieczeństwo sieci zarówno wśród kadry dyrektorskiej, jak i klientów.

    Odpowiednie narzędzia

    Wciąż obserwujemy, że różne podmioty często pomijają odpowiednie wyposażenie swojego personelu, a ma to ogromne znaczenie zwłaszcza w obliczu pracy zdalnej. Narzędzia uniemożliwiające utratę informacji mogłyby przyczynić się do zmniejszenia ryzyka. Tymczasem, dla przykładu, pracownicy często otrzymują (jeśli w ogóle) najtańsze, niezabezpieczone nośniki USB. W sytuacji ich zagubienia bądź kradzieży dostęp do znajdujących się tam danych jest łatwy i bezpośredni. Od początku obowiązywania przepisów RODO były już przypadki utraty popularnych pendrive’ów i udostępnienia znajdujących się tam informacji. Zapomina się o inwestowaniu w szyfrowane pamięci, które nie tylko są doskonałym narzędziem pracy, ale także sejfem przechowywującym dane. W przypadku zabezpieczenia nośnika USB kluczem AES 256, praktycznie nie ma możliwości kradzieży danych znajdujących się na nośniku.

    Idea cyberbezpieczeństwa…

    W Polsce od sierpnia 2018 roku obowiązuje ustawa o krajowym systemie cyberbezpieczeństwa (UKSC). Wskazany przepis od momentu obowiązywania nie wzbudzał entuzjazmu wśród osób zarządzających podmiotami publicznymi oraz przedsiębiorstwami. Ustawa została określona „młodszą siostrą RODO”, ponieważ nakłada wiele obowiązków na operatorów usług kluczowych, dostawców usług cyfrowych, podmiotów publicznych, organów właściwych CSiRT poziomu krajowego czy podmiotów świadczących usługi z zakresu cyberbezpieczeństwa. Lista podmiotów objętych tymi przepisami jest dużo szersza, niż mogłoby się wydawać i zawiera zarówno przedsiębiorstwa z wybranych sektorów, jak i podmioty publiczne.[1]

    Głównymi zadaniami wdrażających UKSC jest powołanie osoby odpowiedzialnej za bezpieczeństwo obszaru IT, zespołu wdrażającego system bezpieczeństwa IT, dostosowanie podmiotu do wymogów ustawy, przeprowadzenie procesu analizy ryzyka czy też wdrożenie procesu zarządzania incydentami bezpieczeństwa. Oczywiście należy dodatkowo przeprowadzić działania edukacyjne oraz wdrożyć wymaganą dokumentację bezpieczeństwa, opisującą zastosowanie środków organizacyjnych i technicznych.

    …a rezultat

    Czy wskazane podmioty dostosowały się do obowiązujących przepisów i należycie wdrożyły procedury bezpieczeństwa? Trudno wystawić tutaj pozytywne oceny – brak właściwego nadzoru i zastosowania narzędzi uniemożliwiających przeciwdziałanie naruszeniom w obszarze cyberbezpieczeństwa wpływa na podatność systemu IT na wszelkiego rodzaju zagrożenia. Pracownicy nie są szkoleni i uświadamiani. Zagrożenia są bagatelizowane, coraz częściej dochodzi do incydentów doprowadzających do naruszenia obowiązujących przepisów i utraty posiadanych danych.

    Bezpieczeństwo obszaru IT dla większości podmiotów w Polsce nie jest najważniejsze. Nie inwestuje się w ekspertów z obszaru IT. Często zdarzają się sytuacje, w których informatycy, będący administratorami systemów informatycznych, nie posiadają fachowej wiedzy dotyczącej wdrażania odpowiednich procedur bezpieczeństwa i zapewnienia wszelkiej pomocy – posiadają głównie wiedzę serwisową. W całej Europie zatrudnionych jest ponad 500 000 inspektorów ochrony danych – i to sześć razy więcej niż przewidywano w 2017 r.[2] A jednak znaczenie ich roli jest często pomijane i trywializowane.

    Wiele podmiotów w Polsce nie zgłasza naruszeń związanych z wyciekiem danych, atakiem hakerskim czy utratą lub kradzieżą danych. Brak zgłoszeń wynika z obawy, że na te podmioty zostaną nałożone wysokie kary finansowe wskazane w przepisach RODO. Dodatkowo zarządzający podmiotami obawiają się roszczeń odszkodowawczych.

    Co dalej?

    Bezpieczeństwo infrastruktury IT należy uznać za niezwykle istotne, ponieważ w sektorze publicznym i prywatnym w Polsce są przetwarzane niespotykane ilości informacji. Administrator danych jest zobowiązany do podjęcia określonych działań, żeby zminimalizować ryzyko naruszenia ochrony danych osobowych. Jedno z tych działań to wprowadzenie minimalnych poziomów bezpieczeństwa w obszarze IT. Wymogiem prawnym wskazanym w UKSC oraz w przepisach RODO jest zapewnienie poufności, dostępności, integralności i rozliczalności bezpieczeństwa przetwarzanych danych.

    Według informacji opublikowanych w lutym 2020 roku przez Ministerstwo Cyfryzacji powstał projekt ustawy o zmianie ustawy o krajowym systemie cyberbezpieczeństwa zaostrzający przepisy.

    Czy wtedy zmieni się podejście do bezpieczeństwa w obszarze IT? Zobaczymy.

    [1] Do tej grupy należą między innymi podmioty z sektora energetycznego, transportowego, zdrowotnego, wodociągowego, telekomunikacyjnego czy bankowości i infrastruktury rynków finansowych. Wśród podmiotów publicznych można wymienić m.in.: organy władzy publicznej, w tym organy administracji samorządowej, organy kontroli państwowej i ochrony prawa, jednostki budżetowe, uczelnie publiczne, Zakład Ubezpieczeń Społecznych, Narodowy Fundusz Zdrowia czy Narodowy Bank Polski. Według wykładni prawnej są to jednostki organizacyjne sektora finansów publicznych, które nie mają osobowości prawnej, m.in.: urzędy czy szkoły publiczne.
    [2] https://www.varonis.com/blog/gdpr-effect-review/