Tag: Romi

  • Metawersum to nowe cyberzagrożenia, na które nie ma jeszcze rozwiązań

    Metawersum to nowe cyberzagrożenia, na które nie ma jeszcze rozwiązań

    Wraz z rozwojem projektu metawersum, czyli budowy alternatywnego, cyfrowego wymiaru, do którego będziemy przenosić różnego rodzaju życiowe aktywności, może się rozwijać zjawisko „metaprzestępczości”. – Ten termin dziś nie funkcjonuje, ale możliwe, że pojawi się nowa klasa zagrożeń, których dzisiaj nie potrafimy sobie nawet wyobrazić – mówi Mirosław Maj z Fundacji Bezpieczna Cyberprzestrzeń. To z kolei oznacza szereg wyzwań związanych z regulacją tego obszaru i nadzorem nad nim oraz rodzi szereg pytań o bezpieczeństwo użytkowników, szczególnie tych najmłodszych.

    Koncepcja metawersum nie jest wcale nowa. Już w 2003 roku wystartował Second Life, przełomowy projekt Linden Lab. Dawał graczom możliwość wejścia do wirtualnego świata, w którym w formie zabawy mogli odnaleźć pracę, nawiązać znajomości, kupować mieszkania czy zawierać małżeństwa. W Second Life funkcjonuje waluta zwana lindenami, która jest w tym metawersum środkiem płatniczym.

    – Dzisiaj rozmawiamy o metawersum z punktu widzenia popularności i dużej rozpoznawalności tego projektu, dlatego że mamy okres pandemii i pewne zjawiska, które w metawersum można by było realizować, takie jak np. praca zdalna, napędzają zainteresowanie tą platformą. Natomiast czy to będzie rzeczywiście projekt udany z punktu widzenia tych, którzy nad nim pracują, i ich ambicji – tego jeszcze nie wiemy, a myślę, że to nie jest takie oczywiste – zauważa Mirosław Maj.

    Pod koniec 2021 roku Facebook zmienił nazwę na Meta, a właściciel medium Mark Zuckerberg zapowiedział rozwój projektu metaverse. Ma on umożliwić ludziom przenoszenie znacznej części swojej życiowej aktywności do alternatywnego, cyfrowego wymiaru, aby czuli się w nim jak w świecie realnym. Współtworzenie metawersum to zresztą projekt, którym zainteresowanych jest coraz więcej podmiotów. Połączenie cech trzech rzeczywistości: prawdziwej, wirtualnej (VR) oraz rozszerzonej (AR) w jednolity, cyfrowy świat nazwano metawersum już jakiś czas temu. To nowa wizja internetu, w którym dzięki wykorzystaniu technologii pojawia się o wiele więcej sposobów na interakcje z użytkownikami, czy to w formule indywidualnej, w tym sprzedaży online, czy zespołowo.

    To również o wiele więcej możliwości dla cyberprzestępców, którzy mogą stworzyć zupełnie nowe formy ataku. Ostrzegają przed tym eksperci od cyberbezpieczeństwa, przyglądając się nowemu projektowi Marka Zuckerberga. Niektórzy ostrzegają, że może być kolejnym krokiem do kolonizacji naszego życia, uzależniając nas od technologicznych rozwiązań gigantów takich jak Facebook, Google czy Amazon, niszcząc życie społeczne i narażając na nowe niebezpieczeństwa i przestępstwa.

    – Zagrożenia, które mogą nas spotkać w metawersum i powinniśmy je rozważać w jego kontekście, to z jednej strony takie, które już znamy z cyberprzestrzeni – podkreśla ekspert z Fundacji Bezpieczna Cyberprzestrzeń. – W metawersum one mogą być skatalizowane. W większym stopniu mogą wystąpić zagrożenia związane z prywatnością. Jeżeli w metawersum za coś płacimy kryptowalutami, to te zagrożenia, które znamy dzisiaj ze świata kryptowalut, również przenoszą się do metawersum. Jeżeli w metawersum kupujemy coś wirtualnego i to stanowi jakąś wartość: działka, dzieło sztuki, cokolwiek, to może się okazać, że zdigitalizowana postać tego zasobu za chwilę przestanie należeć do nas, że stracimy nad nią cyfrową kontrolę.

    Z drugiej strony w metawersum mogą się pojawić zagrożenia kompletnie nowe.

    – To, czym będzie metawersum z punktu widzenia cyberprzestępczości albo metaprzestępczości, bo być może taki nowy termin się pojawi,  tego do końca nie wiemy. Pewną zagadką jest to, czy konkretne zjawiska, które wystąpią tylko i wyłącznie w metawersum, nie stworzą pewnej nowej klasy zagrożeń, których dzisiaj nie potrafimy jeszcze ocenić czy nawet sobie wyobrazić – mówi Mirosław Maj.

    W jego ocenie metawersum stworzy szereg zagrożeń dla najmłodszych użytkowników. Wirtualizacja prawie każdego aspektu życia może się bowiem przyczynić do zintensyfikowania negatywnych zjawisk, które znamy z „tradycyjnego” internetu.

    – Od wielu lat mamy różne projekty, żeby zagrożenia związane z funkcjonowaniem młodych ludzi w internecie w jakiś sposób zneutralizować. W metawersum będzie to jeszcze trudniejsze, a kontrola będzie jeszcze bardziej skomplikowana. To efekt tzw. odhamowania internetu, polegający na tym, że pewne cechy, które nam towarzyszą w życiu, w jakiś sposób są katalizowane w świecie wirtualnym – wyjaśnia ekspert.

    Jako przykład podaje zjawisko cyberbullyingu, czyli przemocy wykorzystującej telefony komórkowe i internet. Chodzi m.in. o hejt w mediach społecznościowych, rozsyłanie ośmieszających filmów czy zdjęć, groźby i nękanie. Ten problem w ostatnich latach zyskuje na znaczeniu. Jak wynika z raportu NASK „Nastolatki 3.0”, ponad połowa badanych młodych ludzi spotkała się z jakimś rodzajem cyberprzemocy.

    Najczęściej wskazywane akty przemocy to wyzywanie (29,7 proc.), ośmieszanie (22,8 proc.), poniżanie (22 proc.), straszenie (13,4 proc.) czy szantaż (10,5 proc.). 11 proc. nastolatków twierdzi, że ktoś próbował się pod nich podszywać w wirtualnym świecie, a blisko co 10. doświadczył rozpowszechniania kompromitujących materiałów na swój temat. Badanie wskazuje także na duże rozbieżności między tym, co deklarują młodzi ludzie, a tym, co na ten temat wiedzą ich rodzice i opiekunowie. W metawersum taka rodzicielska kontrola będzie jeszcze trudniejsza.

    – Pytanie, czy taka kontrola miałaby się odbywać bezpośrednio w samym metawersum. Wtedy jednak musielibyśmy przekonać rodziców do tego, żeby też weszli do tego świata, żeby założyli wirtualny kask na głowę albo uruchomili swój telefon w jakiejś specjalnej funkcji. To może być pierwsza z barier, bo im starsze pokolenie, tym mniejsza skłonność do tego, żeby w metawersum funkcjonować – tłumaczy ekspert z Fundacji Bezpieczna Cyberprzestrzeń. – Na szczęście kontrola może się na razie odbywać poza metawersum w odniesieniu do niego poprzez narzędzia, które znamy. Tylko jest jedna zasadnicza sprawa: tak jak musimy zrozumieć zagrożenia w normalnym internecie, tak samo musimy zrozumieć zagrożenia w metawersum.

    W opinii Mirosława Maja jest to ważne zadanie dla ludzi budujących samo metawersum, którzy muszą poważnie myśleć o tym, jakie regulacje dotyczące bezpieczeństwa technicznego i społecznościowego powinny towarzyszyć rozwojowi tych projektów. Problem w tym, że już dziś prawodawstwo nie nadąża za technologią, a w metawersum zmiany będą jeszcze bardziej dynamiczne, więc reagowanie na nie będzie dużym wyzwaniem.

    – Dzisiaj proces legislacyjny często trwa dłużej niż rok, więc trudno sobie wyobrazić, że będziemy aktywnie potrafili to uregulować. Wydaje mi się, że będziemy musieli narzucić metody regulacji w taki sposób, że one będą musiały tę dynamikę uwzględniać po to, żeby były skuteczne. Być może jest to kwestia regulowania tego, jakie mogą być efekty działania metawersum, na co pozwalamy metawersum. Będziemy też potrzebować dobrych narzędzi, w postaci być może wyspecjalizowanych instytucji, do tego, żeby potrafiły dynamicznie oceniać, czy tutaj prawo nie jest łamane – mówi Mirosław Maj.

  • Red Hat: Co przyniesie rok 2022?

    Red Hat: Co przyniesie rok 2022?

    Nie zawsze łatwo jest tworzyć prognozy na cały przyszły rok. Po pierwsze cała branża IT bardzo szybko się rozwija i rozwiązania, które dziś uznawane są za niszowe, jutro mogą stać się dominujące. Także pandemia nauczyła nas, że pomimo ustalonych planów, rzeczywistość wymaga od nas zupełnie innych działań, ale i często zmusza do przyśpieszenia cyfrowej transformacji. Jaki zatem będzie kolejny rok w technologii IT?

    Rosnąca rola kontenerów i Kubernetes

    Firma Gartner przewiduje, że do 2022 roku ponad 75% organizacji na świecie będzie uruchamiać aplikacje kontenerowe w środowisku produkcyjnym, co oznacza duży wzrost z poziomu niecałych 30% w roku 2020. Co jednak będzie motorem tak gwałtownego wzrostu?

    W ciągu ostatnich 7 lat Kubernetes ewoluował i stał się de facto standardem zarządzania aplikacjami kontenerowymi. I, podobnie jak w przypadku każdej nowej technologii, mamy do czynienia zarówno z dojrzewaniem jej samej, jak i z krzywą uczenia się użytkowników. W początkowym okresie użytkownicy często budowali własne lokalne platformy Kubernetes i wdrażali bardziej uproszczony zestaw aplikacji. Jednak wraz z ustabilizowaniem się platformy Kubernetes wzorce użytkowania znacznie dojrzały.

    – Organizacje dostrzegły sukces połączenia technologii Kubernetes z Red Hat (dzięki OpenShift), dlatego oczekują podobnych rezultatów biznesowych. Często jednak nie chcą inwestować w kwalifikacje niezbędne do zarządzania platformą Kubernetes i jej utrzymywania. To właśnie tutaj spodziewamy się szybkiej ekspansji wykorzystania zarządzanych usług chmurowych Kubernetes, takich jak OpenShift Dedicated, Red Hat OpenShift on AWS (ROSA) oraz Microsoft Azure Red Hat OpenShift (ARO) komentuje Adam Wojtkowski.

    Widzieliśmy już szeroką gamę aplikacji działających w kontenerach, a teraz zaczynamy dostrzegać, że coraz więcej organizacji przenosi na platformę Kubernetes swoje newralgiczne aplikacje. Oczekuje się, że bazy danych, komunikaty sterowane zdarzeniami oraz newralgiczne aplikacje będą przenoszone na platformę Kubernetes, aby wykorzystać skalowalność, bezpieczeństwo i przenośność, które Kubernetes zapewnia wszystkim aplikacjom.

    Jednak spośród wszystkich aplikacji działających na platformie Kubernetes wyróżnia się jeden obszar — to AI/ML. Wraz ze wzrostem znaczenia analizy danych w niemal każdej firmie rośnie także zdolność do ulepszania i usprawniania wielu rodzajów aplikacji. Kubernetes dodaje do AI/ML doskonałe możliwości platformowe: skalowalność, dostęp do procesorów graficznych, przenośność obciążeń i wiele więcej. Byliśmy już świadkami wspaniałych osiągnięć, do jakich zdolne są organizacje dzięki technologiom AI/ML opartym na platformie Kubernetes. Oczekujemy, że następna generacja aplikacji całkowicie odmieni branże.

    Zmierzch ery wirtualizacji

    Kontenery będą wypierać maszyny wirtualne, a to głównie przez to, że pozwalają znacznie uprościć cały stos infrastruktury aplikacyjnej. Jeśli posiadamy aplikacje, które wymagają dedykowanych maszyn wirtualnych to jest na to świetna metoda. Maszyna wirtualna nie jest niczym innym jak procesem, który z łatwością można uruchomić w kontenerze. Zabieg taki pozwala całkowicie wyeliminować warstwę wirtualizacji. Platformy wirtualne w dotychczasowej postaci powoli przechodzą już do lamusa. Obecnie obciążenia kontenerowe coraz częściej uruchamiane są bezpośrednio na warstwie sprzętowej (bare metal), dotyczy to również maszyn wirtualnych, które do tej pory wymagały osobnej platformy. Dzięki temu stos technologiczny można spłaszczyć, rezygnując zupełnie z warstwy wirtualizacji. Korzyści, jakie niesie taki zabieg, nie ograniczają się jedynie do oszczędności kosztów platformy wirtualnej ale przede wszystkim upraszczają operacje, dzięki wykorzystaniu tych samych narzędzi do zarządzania zarówno kontenerami jak i maszynami wirtualnymi. Łatwiejszy staje się proces powołania całego projektu, gdyż maszyny wirtualne tworzone są w sposób równie zwinny jak kontenery. Wspólne narzędzia CI/CD, cykl życia środowisk od rozwoju po produkcję wygląda teraz znacznie prościej. Eliminujemy również narzut wydajnościowy, jaki do tej pory konsumował wirtualizator.

    Rosnąca rola przetwarzania brzegowego

    Organizacje będą wykorzystywać przetwarzanie brzegowe do rozwiązywania najważniejszych problemów globalnych — w tym związanych ze zrównoważonym rozwojem, zmianą klimatu i niestabilnością łańcuchów dostaw. Będzie to naturalne rozszerzenie transformacji działalności, która na miejsce już dziś. Te wysiłki będą mieć charakter ekosystemowy, ponieważ zmuszą do współpracy wszystkie branże.

    – Wydaje się, że na tym polu jednym z głównych graczy będzie sektor telekomunikacyjny, który wykorzysta sieci 5G i przetwarzanie brzegowe, aby pomóc w rozwiązaniu problemu braku dostępności do najnowszych technologii IT w wielu branżach. Technologie te są już odpowiednio dojrzałe — stają się tańsze, bezpieczniejsze i mają bardziej globalny zasięg — dzięki czemu stworzą prawdziwe okno możliwości, które pozwoli rozwiązać problemy uważane dotychczas za niemożliwe do pokonania. Przykłady zastosowań są niemal nieograniczone.dodaje Adam Wojtkowski, General Manager na region CEE w Red Hat.

    Obliczenia na brzegu sieci będą oznaczać powrót przetwarzania heterogenicznego, które zapewni ogromny ekosystem z mocą specjalistycznego sprzętu — bez kompromisów, co zapewnia jedynie technologia open source, nieograniczana przez sztywne ramy, jak ma to miejsce w przypadku oprogramowania zastrzeżonego. Obliczenia będzie można przeprowadzać w dowolnym miejscu, mając do dyspozycji kompletny stos zbudowany zgodnie z konkretnym przeznaczeniem oraz optymalizujący aplikacje i infrastrukturę.

    Wraz z powstawaniem nowych projektów przetwarzania brzegowego organizacje zaczną zdawać sobie sprawę, że będą też musiały prowadzić więcej niż jeden projekt brzegowy w tym samym czasie. Podobnie jak to miało miejsce w przypadku przetwarzania w chmurze, klienci zaczną opracowywać zasady zarządzania, które określą to, z czego należy korzystać i w jaki sposób faktoryzować projekty.

    Mobilność, sztuczna inteligencja oraz uczenie maszynowe

    W ciągu najbliższych kilku lat zobaczymy, że przetwarzanie brzegowe oraz sztuczna inteligencja / uczenie maszynowe (AI/ML) będą wspólnie napędzać kolejną falę innowacji technologicznych. W większości rzeczywistych zastosowań zarówno technologie brzegowe, jak i AI/ML będą pracować ramię w ramię, aby dostarczać rozwiązania, które pomogą zwalczać największe problemy świata — związane m.in. ze zrównoważonym rozwojem, zmianą klimatu, obłożeniem szpitali i nie tylko.

    Nową klasą urządzeń brzegowych o dużej mobilności i mocy obliczeniowej staną się pojazdy. Technologie open source pomogą przyspieszyć transformację przemysłu motoryzacyjnego dzięki wspólnemu celowi, jakim jest poprawa bezpieczeństwa na drogach. Ostatecznie doprowadzi to do zbudowania bardziej solidnego ekosystemu mobilności, zwiększenia możliwości ponownego wykorzystania oprogramowania oraz bardziej wydajnego i zrównoważonego łańcucha wartości dla producentów samochodów.

    Bezpieczeństwo łańcuchów dostaw oprogramowania

    Jednym z głównych obszarów zainteresowania w nadchodzącym roku będzie bezpieczeństwo łańcuchów dostaw oprogramowania. Organizacje muszą chronić swój łańcuch dostaw przed włamaniami. Osiągnięcie tego celu będzie wymagało inwestycji w zastosowanie nowych technologii w potokach, np. łańcuchów Tekton CD, a także Sigstore, aby ułatwić dodawanie podpisów w potokach.

    – Zaczniemy dostrzegać zmiany w sposobie, w jaki firmy zabezpieczają aplikacje na etapie ich wdrażania. Ten proces już się rozpoczął wraz z przesunięciem w kierunku prostszego podejścia w samej platformie Kubernetes, zwanego kontrolą poza drzewem. Nadal będziemy obserwować wzrost w obszarze zarządzania wdrożeniami opartego na regułach — z wykorzystaniem narzędzi takich jak OPA Gatekeeper, Kyverno i Argo CD. Warto też zwrócić uwagę na nowe mechanizmy reguł, które dopiero się pojawiąpodsumowuje Adam Wojtkowski z Red Hat.

    Nastąpi wzrost zainteresowania zestawieniami komponentów oprogramowania (SBOM). Proponowane standardy dotyczące dostarczania SBOM istnieją już od dłuższego czasu, ale — ze względu na obawy związane z bezpieczeństwem łańcucha dostaw — doszliśmy do punktu, w którym wszystkie organizacje będą musiały wymyślić, jak dostarczać zestawienia komponentów oprogramowania. W branży będzie się toczyć dyskusja na temat statycznych informacji w zestawieniach komponentów w porównaniu z informacjami dynamicznymi, takimi jak dane dotyczące podatności wraz z informacją o tym, w którym przypadku pakiet nie uległ zmianie, ale podatności związane z takim pakietem — już tak. W związku z tym nastąpi gwałtowny rozwój automatyzacji wokół SBOM i powiązanych metadanych pakietów.

    Kubernetes będzie zawierać większą liczbę funkcji bezpieczeństwa dodanych bezpośrednio do poszczególnych dystrybucji tej platformy. Pomoże to zwiększyć ogólne bezpieczeństwo dystrybucji, a także obniżyć koszty zabezpieczania wdrożeń platformy Kubernetes.

  • Grudniowe odbicie GIP60 znacznie poprawiło wynik za cały 2021 rok

    Grudniowe odbicie GIP60 znacznie poprawiło wynik za cały 2021 rok

    W ostatnim miesiącu roku, szczególnie w okresie okołoświątecznym, rynki akcji odrabiały listopadowe straty. Dobry wynik zanotował również opracowywany przez firmę DSR S.A. Giełdowy Indeks Produkcji, który składa się z 60 największych polskich spółek produkcyjnych notowanych na warszawskiej GPW – w grudniu wzrósł o 9,22% do 1142,89 punktów.

    Analitycy z DSR podsumowali Giełdowy Indeks Produkcji (GIP) za miesiąc grudzień. W poniższym komunikacie dr Maciej Zaręba – analityk i współtwórca GIP, z DSR S.A. pisze:

    „Wiele wskazuje na to, że czteromiesięczna korekta wartości GIP60 dobiega końca i wkrótce polskie spółki produkcyjne znów zostaną dostrzeżone przez inwestorów, w czym powinien pomóc również powrót warszawskiego parkietu na ścieżkę wzrostu”, tym zdaniem zakończyliśmy zeszłomiesięczny komentarz i dokładnie ten scenariusz zrealizował się jeszcze w 2021 roku. Na początku grudnia  Giełdowy Indeks Produkcji utrzymywał się w okolicach 1050 punktów, czyli wartości z jaką rozpoczął ostatni miesiąc w roku. Jednak kolejne 3 sesje (8-10 grudnia) przyniosły solidny wzrost wartości GIP60 do 1150 punktów i w tych okolicach kurs utrzymywał się już do końca miesiąca. Ostatecznie GIP60 zamknął grudzień i cały 2021 rok wynikiem 1142,89, co daje 9,22% wzrost w grudniu i aż 29,53% w 2021 roku. Tym samym, indeks 60 największych polskich spółek produkcyjnych notowanych na WGPW zaliczył drugi rok z rzędu na plusie (po 11,47% w 2020 r.), a od zeszłorocznego dołka (17.03.2020) wzrósł już o 132%, potwierdzając siłę polskich producentów w trudnym pandemicznym czasie.

    Na tle pozostałych spółek z GPW polscy producenci wypadli równie korzystnie, co widać w zestawieniu GIP60 z podstawowymi indeksami WIG. Zrzeszający największe spółki WIG20 od dołka z marca ubiegłego roku do dziś wzrósł o ok. 73%, a więc niemal dwa razy mniej niż polscy producenci.  Najlepiej w tym okresie radziły sobie jednak małe spółki z SWIG80, który wynikiem 121,61% również znalazł się poniżej rezultatu GIP60. Dla porządku warto nadmienić, że indeks szerokiego rynku wzrósł w tym czasie o 85,07%. Z perspektywy wyników za sam 2021 rok przewaga polskich spółek produkcyjnych z GIP60 jest trochę mniejsza, ale ciągle ich wyniki przewyższają popularne benchmarki. Wzrost o 29,53% to znacznie więcej niż 14,26% wypracowane przez WIG20, lub 21,52% dla całego WIG, czy 24,60% dla SWIG80, jednak mniej niż 33,07% wypracowane przez MWIG40.

    Analizując grudniowe wyniki spółek z Giełdowego Indeksu Produkcji przez pryzmat branżowy można zauważyć, że za większą część grudniowego wzrostu GIP60 odpowiadają projektanci i dystrybutorzy odzieży z LPP na czele (mediana miesięcznych stóp zwrotu w tej grupie wyniosła za grudzień 3,08%), a w mniejszym stopniu producenci z branży metalurgicznej (mediana 2,72%), tworzyw sztucznych (2,66%) i spożywczej (1,74%). Na przeciwległym biegunie znaleźli się producenci z branży motoryzacyjnej (-5,9%) i farmaceutycznej (-5,54%), w których liderami spadków były spółki Mabion (-16,98% w grudniu) oraz Ursus (-28,55%). W pozostałych branżach mediana grudniowych stóp zwrotu kształtuje się nieznacznie powyżej zera.

    Gdański LPP doceniony

    Za dużą część wzrostu GIP60 w grudniu odpowiadała największa spółka w portfelu czyli LPP, który ma za sobą bardzo udany czas. Kurs akcji spółki wzrósł ponad granicę 17 000 zł przy której spółka jest wyceniana w sumie na 32 mld zł! W samym grudniu walory spółki zyskały 28,55% dodając do wyceny rynkowej spółki ponad 7 mld zł (sic!).

    Drugie miejsce pod względem zwrotu z inwestycji w grudniu przyniosły akcje spółki Famur S.A. Cena akcji spółki wzrosła z 2,7 na koniec listopada do 3,35 na zamknięciu ostatniej sesji grudnia, co dało 24,07%. Podium grudniowej klasyfikacji najlepszych spółek Giełdowego Indeksu Produkcji zamyka Boryszew, której akcje wzrosły z 3,275 do 3,7 zł, co dało 12,98% mdm.

    Powiew optymizmu…

    W listopadzie produkcja sprzedana przemysłu wzrosła o 15% w porównaniu z analogicznym okresem ubiegłego roku i zdaje się, że grudzień może być dla polskich firm produkcyjnych jeszcze lepszy, o czym świadczą np. korzystne wyniki badań ankietowych. Badania IHS Markit (twórcy PMI) wykazały, że polski przemysł w grudniu rozwijał się w przyspieszonym tempie, tzn. wzrosła zarówno produkcja i zatrudnienia, jak i nowe zamówienia.

    Obecnie zauważalny jest spadek uciążliwości problemów z zaopatrzeniem, w czym producenci zwietrzyli swoją szansę i co w konsekwencji doprowadziło do reorientacji systemu produkcji spółek z królującego przed pandemią systemu „just in time”, na zyskujący na popularności obecnie system „just in case”, czyli produkcji na zapas.

    …w niepewnych czasach…

    Nie sposób oprzeć się wrażeniu, że zwiększona aktywność zakupowa i wzrost zapasów firm jest związana z obawami o wzrost cen i powrót trudności po stronie podaży materiałów, na co może wpłynąć obecna fala zachorowań na COVID-19. Sporym obciążeniem dla firm produkcyjnych w najbliższym czasie będą rosnące koszty energii, paliw i niektórych surowców, co już przełożyło się na dalszy wzrost kosztów produkcji, a więc również na wzrost cen wyrobów gotowych. Dla wielu firm produkcyjnych problematyczna może okazać się również utrzymująca się od dłuższego czasu, wbrew rosnącym stopom procentowym, relatywna słabość naszej waluty.

    …może się opłacić!

    Giełdowy Indeks Produkcji tracił na wartości od sierpnia, niwelując niemal połowę wzrostu z bieżącego roku, grudzień stanowi w tym kontekście wyłamanie z negatywnego trendu. W tym czasie polskie firmy produkcyjne reagowały w sposób poprawny, zmieniając politykę zarządzania zapasami, do czego przyczyniły się m.in. inwestycje w narzędzia informatyczne ułatwiające planowanie i jeszcze efektywniejsze wykorzystanie własnych zasobów. Widać, że nasi producenci wyciągnęli wnioski i jeśli ich strategia się sprawdzi, możemy być świadkami sporych wzrostów cen akcji polskich wytwórców obecnych na giełdzie.

  • Bitdefender: 5 prognoz dotyczących cyberbezpieczeństwa na 2022 rok

    Bitdefender: 5 prognoz dotyczących cyberbezpieczeństwa na 2022 rok

    W ubiegłym roku działy IT musiały stawić czoła cyberprzestępcom, w tym wyjątkowo niebezpiecznym gangom ransomware. Nikt nie ma wątpliwości, że 2022 rok przyniesie ze sobą kolejne fale, groźnych cyberataków. Eksperci z firmy Bitdefender sporządzili listę największych zagrożeń, z którymi przyjdzie się zmierzyć konsumentom jak i przedsiębiorcom w najbliższych dwunastu miesiącach.

    Dalsza dominacja oprogramowania ransomware w krajobrazie cyberzagrożeń

    Niestety, prognoza Bitdefendera dotycząca zwiększonej aktywności gangów ransomware w 2021 roku się sprawdziła. SolarWinds, The Colonial Pipeline, Kaseya, Brenntag – to najbardziej głośne ataki ransomware z ubiegłego roku. Wiele przemawia za tym, że to złośliwe oprogramowanie pozostanie najbardziej dochodowym rodzajem cyberprzestępczości w 2022 roku.

    – Spodziewamy się jest wzrostu liczny ataków Ransomware-as-a-Service (RaaS), które będą koncentrować się na eksfiltracji danych. Podobnie jak każda dojrzała firma, oprogramowanie ransomware będzie musiało stale nadążać zarówno za konkurencją, jak i dostawcami systemów cyberbezpieczeństwamówi Dragos Gavrilut. dyrektor laboratorium Cyber ​​Thread Intelligence Lab w Bitdefender.

    Bitdefender przewiduje, że nastąpi wzrost liczby ataków ransomware dla środowisk Linux, które są ukierunkowane na pamięć masową lub szablony ESXi. Również luka Java Log4j ze względu na swoją wszechobecność i łatwość wykorzystania, otwiera furtki dla oprogramowania ransomware.

    Cyberataki sponsorowane przez państwa

    Napięcia polityczne nie pozostaną bez wpływu na świat cybernetyczny, ponieważ państwa będą walczyć o dominację w sferze cyfrowej. Jedną z najczęściej używanych broni będzie prawdopodobnie „killware”, ponieważ może być stosowany przy użyciu podobnej taktyki, jak klasyczne APT. Poza tym jest skuteczny w przypadku ataków ukierunkowanych przeciwko sieciom energetycznym, wodociągom i ściekom oraz transportowi publicznemu, wywierając natychmiastowy wpływ na społeczności. Bitdefender zapowiada również wzrost ataków DDoS i przejmowania protokołu Border Gateway (BGP). Będą one gwałtownie wzrastać, powodując masowe zakłócenia w gospodarce cyfrowej i telekomunikacji.

    Wzrost ataków na łańcuchy dostaw i wykorzystania luk typu „zero day”

    W ubiegłym roku szczególnie trudne do złagodzenia były ataki na łańcuchy dostaw wymierzone w dostawców usług zarządzanych (MSP). W przeciwieństwie do innych zagrożeń, są one wyjątkowo trudne do wykrycia, a tym samym zatrzymują i rozprzestrzeniają się w szybszym tempie. Profesjonalne grupy cyberprzestępcze skoncentrują się w tym roku na włamywaniu się do dostawców usług MSP, aby dystrybuować oprogramowania ransomware do większych grup potencjalnych ofiar.

    Oprócz ataków na łańcuchu dostaw Bitdefender spodziewa się również wzrostu wykorzystania exploitów zero-day w niektórych atakach ukierunkowanych. W 2021 r. Bitdefender odnotował wzrost luk zero-day we wszystkich głównych stosach technologicznych (Chrome, Exchange, Office, Windows 10, iOS).

    Jednak istnieje więcej luk w zabezpieczeniach niż zero-day, które pozwolą cyberprzestępcom wyrządzić poważne szkody firmom. Narzędzia takie jak CobaltStrike będą coraz częściej przyjmowane przez operatorów szkodliwego oprogramowania.

    – Cyberprzestępcy znajdują inspirację w społeczności – jeśli jedna grupa zyskuje sławę dzięki wykorzystaniu istniejących narzędzi, reszta społeczności pójdzie w jej ślady. Emotet jest doskonałym przykładem takiego zachowania, ponieważ ponownie rośnie i z powodzeniem wykorzystuje sygnały nawigacyjne CobaltStrike do przyspieszenia instalacji oprogramowania ransomware w sieciach korporacyjnychmówi Radu Portase, główny kierownik techniczny w Bitdefender.

    Naruszanie danych – bardziej inteligentny phishing

    W miarę jak dane osobowe skradzione w wyniku naruszeń danych stają się coraz szerzej dostępne dla cyberprzestępców, kampanie spamowe będą bardziej przemyślane i ukierunkowane. Nazwiska i numery telefonów, a także inne ujawnione informacje takie jak hasła, adresy zamieszkania, zestawienia będą wykorzystywane do lepiej dostosowanych i bardziej przekonujących kampanii phishingowych lub wymuszeń.

    –      W najbliższym czasie spear phishing, whaling, czyli ataki na osoby decyzyjne, BEC (Business Email Compromise) oraz EAC (Email Account Compromise) staną się jeszcze bardziej wyrafinowane. Nadal pozostaną wektorem ataków na firmy oraz zdalnych pracownikówprzewiduje Adrian Miron, kierownik Laboratorium Filtrowania Treści w Bitdefender.

    Oszustwa z 2022 r. prawdopodobnie wykorzystają internetowe procesy rekrutacyjne narzucone przez pandemię koronawirusa. Cyberprzestępcy zaczną też podszywać się pod firmy, aby nakłonić potencjalnych kandydatów do infekowania ich urządzeń za pomocą popularnych załączników do dokumentów.

    IoT, infrastruktura sieciowa i czarny rynek w sieci.

    2022 prawdopodobnie przyniesie znaczny wzrost ataków na infrastruktury chmurowe, w tym również te obsługiwane przez najważniejszych graczy.

    – Błędy w konfiguracji i brak wykwalifikowanych pracowników ds. bezpieczeństwa cybernetycznego odegrają znaczącą rolę w naruszeniach danych oraz infrastrukturyzauważa Catalin Cosoi, główny strateg ds. bezpieczeństwa w Bitdefender.

    W związku z tym, że organizacje przygotowują się do tego, aby praca zdalna stała się zjawiskiem powszechnym, wiele starszych usług musi być przenoszonych do chmury. To z kolei otwiera przestrzeń do ataków dla cyberprzestępców. Wraz z rozwojem ekosystemu kryptowalut, nastąpi wzrost zainteresowania cyberprzestępców atakami na usługi wymiany walut, a także oszustw związanych z cyfrowymi walutami.

    Inny powodem do niepokoju jest telematyka pojazdów. Producenci aut próbują tworzyć usługi lub zarabiać na informacjach wysyłanych przez pojazdy na drogach. Jednak kradzież danych to tylko część powodów do niepokoju, ponieważ cyberprzestępcy mogą wykorzystać pojazdy połączone z Internetem, aby ułatwić kradzież, uzyskać nieautoryzowany dostęp, a nawet przejąć zdalną kontrolę nad samochodem.

    Na osobną uwagę zasługuje, to co dzieje się na czarnych rynkach w sieci. W latach 2020-2021 działały one chaotycznie, do czego przyczyniły się skoordynowane działania organów ścigania. W 2022 roku do nieczystej gry włączą się nowi pretendenci, którzy mogą przejąć nawet 50 procent nielegalnych transakcji odbywających się w sieci.

  • Walka o handel z ekspresowymi dostawami

    Walka o handel z ekspresowymi dostawami

    Swoje sieci dark store’ów, pozwalające na dostarczanie produktów spożywczych w kilkanaście minut od zamówienia rozwija już na naszym rynku kilka firm, a kolejne platformy zakupowe zapowiadają wejście do Polski. W segmencie quick commerce robi się mocno konkurencyjnie.

    Quick commerce czyli segment ekspresowych dostaw podstawowych produktów spożywczych, napojów, słodyczy, chemii gospodarczej czy kosmetyków do klientów to format, który robi teraz karierę, zarówno w naszym kraju, jak i na całym świecie. Dark stores, microcentra dystrybucyjne służące wyłącznie do obsługi zamówień składanych on-line, funkcjonują już w siedmiu największych miastach w naszym kraju. Ze względu na ograniczony asortyment, obejmujący od 1000 do 2000 produktów nie mogą konkurować z dużymi sieciami handlowymi i standardowymi zakupami on-line oferującymi olbrzymią gamę towarów. Stanowią natomiast bezpośrednią konkurencję dla niewielkich sklepów lokalnych przeznaczonych do szybkich, spontanicznych zakupów, zaspokajających bieżące potrzeby. Choć i tu konkurencja jest utrudniona ze względu wąski zakres produktów.

    – Rozwojowi tej formy sprzedaży, gwarantującej błyskawiczne dostawy do klienta sprzyja obserwowany, mocny trend convenience, związany z oczekiwaniem wygodnego i łatwego dostępu do towarów. Ta tendencja jeszcze mocniej spopularyzowała się w czasie lockdownu. Formuła realizacji dostaw w czasie 10-15 minut wymaga jednak stworzenia sieci odpowiednio sprofilowanych obiektów dystrybucyjnych rozsianych na terenie miasta. Dark stores przypominają supermarkety o powierzchni kilkuset metrów, zazwyczaj od 200 mkw. do 400 mkw., które urządzone są w taki sposób, aby osoby kompletujące zamówienie mogły sprawnie przemieszczać się pomiędzy regałami i zebrać produkty w jak najkrótszym czasie. Przypominają sklepy, ale działającą jak magazyny do przechowywania towarówwyjaśnia Piotr Szymoński, Director Office Agency w Walter Herz.

    Darmowe dostawy lub nawet do 2.00 w nocy

    Q-commerce na większą skalę zaczął rozwijać się w Polsce dopiero w tym roku. Usługa spotyka się z zainteresowaniem sporej grupy klientów. Dark stores oferują towar w cenach zbliżonych do tradycyjnych placówek handlowych. Zamówienia dostarczane są 7 dni w tygodniu, także w niedziele niehandlowe. Lisek działający w Warszawie, Krakowie, Wrocławiu, Gdańsku, Poznaniu i Katowicach zapewnia dostawę nawet do 10 minut. Całkowicie darmowy dowóz dostępny jest w JOKR, a w Jush przy zamówieniu powyżej 35 zł.

    Ostatnie miesiące przyniosły nie tylko szybki rozwój tego formatu w Polsce, ale i zapowiedzi wejścia na nasz rynek kolejnych dużych graczy. Firmy działające w tym segmencie z tygodnia na tydzień poszerzają zasięg działania, obejmując obsługą kolejne dzielnice miast. A tymczasem na rynku ekspresowych dostaw robi się już niezły tłok. Rosną sieci dark store’ów pierwszych platformom, które pojawiły się w Polsce, jak Lisek, Jokr, czy GetnowX.

    W ekspresowym tempie rozrasta się też ilość punktów dystrybucyjnych Biedronki dla usługi Biedronka Express BIEK, którą od października br. oferuje we współpracy z Glovo. To druga platforma, która podobnie jak Lisek App funkcjonuje także poza stolicą. Dostawy z rozsianych w Warszawie, Łodzi, Krakowie, Gdańsku, Poznaniu i we Wrocławiu dark store’ów realizowane są w promieniu 2 km w kwadrans. Microcentra dystrybucyjne pracują przez cały tydzień w godzinach 8-23, a w Warszawie w piątki i soboty nawet do godziny 2.00.
    Grupa Żabka Future postawiła natomiast na start-up Lite E-Commerce, którego celem jest tworzenie nowych rozwiązań o charakterze modern convenience. Firma zdecydowała się niedawno uruchomić dark store’y i szybkie dostawy artykułów spożywczych za pośrednictwem aplikacji Jush. W październiku br. Żabka Jush wystartowała w Warszawie, ale w planie są także inne miasta.

    Nowe platformy zakupowe szykują się do startu w Polsce

    Wprawdzie platforma Swyft, po pół roku funkcjonowania zawiesiła tymczasowo działalność operacyjną, ale obecnym na naszym rynku firmom wkrótce przybędzie spora konkurencja. Debiuty w Polsce zapowiadają m.in. Gorillas i Grovy. Gorillas, niemiecki start-up specjalizujący się w błyskawicznych dostawach z własnych sklepów-magazynów tworzy zespół do zarządzania projektem w naszym kraju. Firma, której wycena po kilku miesiącach od założenia przekroczyła 1 mld dolarów, prowadzi ekspansję w Europie. Działa w 15 miastach w Niemczech, a także w Holandii, Wielkiej Brytanii, Francji, Włoch i Belgii. Zadebiutowała również w Nowym Jorku, który będzie przyczółkiem do rozwoju sieci na terenie Stanów Zjednoczonych.

    Do wejścia na polski rynek szykuje się także Grovy. Platforma oferuje usługi już w największych miastach w Niemczech i w Rumunii. Teraz start-up planuje wejście na rynek polski, czeski i węgierski.

    W dostawach z różnych sklepów specjalizuje się u nas Glovo, czy Wolt. Glovo na naszym rynku współpracuje z Biedronką, a na rodzimym hiszpańskim, we Włoszech, w Portugalii, Rumunii i na Ukrainie działa na bazie własnego zaplecza dystrybucyjnego. Wolt chce natomiast uruchomić w Polsce, podobnie jak w Czechach, Danii i na Węgrzech swój Wolt Market czyli sieć samodzielnych wirtualnych supermarketów. Wolt Market ma działać wyłącznie jako dark store i realizować zamówienia online składane za pośrednictwem aplikacji Wolt. Wirtualne pilotażowe markety firma uruchomiła w Finlandii i Grecji. Jeden z pierwszych sklepów Wolt Market funkcjonuje też w centrum Warszawy. Market czynny jest od godziny 8.00 do 23.00 przez 7 dni w tygodniu, a zamówienia o wartości powyżej 150 zł dostarczane są bezpłatnie w promieniu 1,5 km.

    Niebawem w Warszawie mają też ruszyć dark stores Bolta, który jako kolejna firma zaoferować ma dostawę towarów zakupionych online w ciągu 15 minut od złożenia zamówienia. Jak dotąd premierowy Bolt Market uruchomiony został jedynie w Tallinie, stolicy Estonii.

    Poszerzenie swoich usług o dostarczanie zakupów spożywczych  rozważa też Pyszne.pl, należące do holenderskiej grupy Just Eat Takeaway. Nie planuje jednak tworzyć swojej sieci dark stores, ale współpracować z innymi sklepami.

    Dark stores nie w każdej lokalizacji

    – Stworzenie sieci microcentrów dystrybucyjnych to duże wyzwanie. Obiekty muszą spełniać odpowiednie warunki lokalizacyjne, pozwalające na szybki ruch towarów. Umożliwiać ekspresową realizację zamówienia od jego złożenia do dostarczenia pod drzwi klienta. Pod dark stores poszukiwane są powierzchnie usytuowane obok dużych obszarów mieszkaniowych w większości dzielnic Warszawy, także w tych bardziej oddalonych od centrum i w innych dużych miastach. Lokowane są nie tylko w budynkach o charakterze handlowym, ale także w parterach biurowców. Potencjał formatu najlepiej pokazuje zainteresowanie nim wielu firm, które planują realizację projektów na naszym rynkumówi Piotr Szymoński.Wybór lokalizacji pod dark stores powinien być oparty o analizę zasięgu i dostępności lokalizacji, jak również m.in. aspektu demograficznego, czy komunikacyjnego. Rejonami perspektywicznymi dla sieci dystrybucyjnych są także te obszary miast, w których planowana jest w najbliższym czasie realizacja dużej ilości projektów mieszkaniowych. Pod uwagę należy brać naturalnie również aspekty techniczne lokali, jak choćby nośność stropu czy możliwość ładowania pojazdów elektrycznych, którymi często poruszają się kurierzy dodaje Piotr Szymoński.   

    Analizy rynkowe mówią, że stale rosnąca popularność zakupów zamawianych w sieci spowoduje, że do 2026 roku, na przestrzeni zaledwie 6 lat wartość sprzedaży przez internet wzrośnie w Polsce dwukrotnie. Prognozy wskazują, że sektor e-comerce ma przed sobą okres regularnego wzrostu. W naszym kraju jest jeszcze dużo przestrzeni dla rozwoju e-handlu. Segment będzie zwiększał udział w rynku, nie tylko poprzez rozpowszechnianie nowych formatów sprzedaży, ale także wzrost liczby własnych sklepów internetowych funkcjonujących w naszym kraju. W Polsce jest ich bowiem nawet kilkukrotnie mniej licząc na 1000 mieszkańców w porównaniu z niektórymi krajami UE.

  • Polskie firmy z branży ecommerce stawiają na bezpieczeństwo swoich klientów

    Polskie firmy z branży ecommerce stawiają na bezpieczeństwo swoich klientów

    Co łączy firmy LPP SA, Cool Sport, Wojas SA i INGLOT? Wszystkie te firmy są polskie i osiągnęły światowy sukces. Ich rozpoznawalność sięga już daleko poza granice naszego kraju. Jest jeszcze jeden element łączący te firmy. Wszystkie bardzo poważnie traktują bezpieczeństwo swoich klientów i w ostatnim czasie poszerzyły grono klientów firmy Akamai Technologies. Akamai to swego rodzaju fenomen – ich rozwiązania nie są najtańsze, a jednak cieszą się wielką popularnością. Wszystko zatem wskazuje na to, że Akamai jest po prostu bezkonkurencyjne wszędzie tam, gdzie cyberbezpieczeństwo i szeroko pojęte bezpieczne spełnianie oczekiwań klientów jest elementem strategii biznesowej.

    Systematycznie rosnąca aktywność hakerów, liczba oraz zaawansowanie technologiczne metod atakowania użytkowników technologii IT stoją w jaskrawej sprzeczności z oczekiwaniami klientów, dla których ważne jest szybkie, bezpieczne i bezproblemowe dokonywanie transakcji w ich ulubionych sklepach internetowych. Tam, gdzie liczy się satysfakcja klienta, działy bezpieczeństwa muszą skutecznie likwidować każde cyberzagrożenie. Jakakolwiek utrata reputacji z powodu ataku hakerskiego może być bardzo kosztowna i stanowić zagrożenie dla ciągłości prowadzenia biznesu.

    Do ochrony aplikacji webowych potrzebne są zatem skalowalne rozwiązania wraz z interfejsami API, mechanizmami anty-DDoS, zestawem narzędzi do zarządzania ruchem botów oraz warstwą analityczną. Liczy się każda informacja pokazująca w strukturze strony internetowej miejsca, gdzie można zwiększyć tzw. Conversion rate, poprawić jej ergonomię i użyteczność oraz zlikwidować punkty, gdzie potencjalnie użytkownik może porzucić swój koszyk zakupów. W warstwie technologicznej bardzo cenne są wskazówki dotyczące takiego doboru i sposobu prezentacji treści, która zminimalizuje obciążenie sieci i zwiększy wydajność po stronie klienta. Dopiero połączenie bezpieczeństwa i szybkości działania może zapewnić odpowiednią satysfakcję i zadowolenie z używania serwisu webowego.

    LPP to jedna z największych polskich firm odzieżowych i modowych, która jest właścicielem marek Reserved, Cropp, Mohito, House i Sinsay. Po trzydziestu latach rozwoju, ta rodzinna firma działa już w prawie 40 krajach Europy, Azji i Bliskiego Wschodu, od Londynu po Dubaj i sprzedaje swoje wyroby w ponad 2000 salonów. Do tego oferta jej marek dostępna jest na 31 rynkach online.

    LPP wraz ze swoją spółką IT – Silky Coders nie szukały dróg na skróty – zapewnienie stałego bezpieczeństwa firmowej platformie sprzedażowej powierzono duetowi firm: Akamai Technologies oraz Advatech, jednemu z największych polskich integratorów rozwiązań informatycznych.

    Marek Maciejewski, Silky Coders, LPP, Advatech
    Marek Maciejewski, Silky Coders

    LPP od lat zwiększa wolumen sprzedaży w kanale internetowym. Sklepy online stały się dla nas nie mniej ważne biznesowo i wizerunkowo niż najlepsze salony stacjonarne. Jednak za tym sukcesem stoją także bardzo konkretne wymagania klientów, których nie możemy zawieśćmówi Marek Maciejewski, Director IT operations w Silky Coders, spółce zależnej LPP. Chociażby ze względu na naszą reputację, nie możemy sobie pozwolić na przerwy w dostępie internetowym do produktów z najnowszych kolekcji, zakłócenia w realizacji dostaw, zakłócenia w obsłudze zwrotów lub – co gorsze – usterki w procesach płatności albo wyciek danych osobowych. Mobilny dostęp w trybie „always on” traktujemy bardzo poważnie, dlatego bezpieczeństwo zasobów i infrastruktury IT jest dla nas zagadnieniem o najwyższym prioryteciedodaje Marek Maciejewski.

    Firma INGLOT z branży kosmetycznej, powiązanej z rynkiem modowym to prawdziwie światowa marka. Dziś obecna jest w ponad 90 krajach na sześciu kontynentach. INGLOT także rozwija i wzmacnia swoje nowe kanały komunikacji z klientami. Priorytetem jest zapewnienie pełnej dostępności oferty dla wszystkich nabywców. INGLOT na tym polu odnosi międzynarodowe sukcesy, ambitnie podchodząc do zwiększania zasięgu swojej działalności.

    Po licznych analizach i dyskusjach zdecydowaliśmy, że nasze wymagania w zakresie bezpieczeństwa, wydajności, skalowalności i niezawodności, a także w sferze finansowej, najlepiej spełni Akamai Technologies we współpracy ze swoim autoryzowanym partnerem, firmą Advatech. Platforma Akamai posiada ogromne możliwości w zakresie dostarczania treści, a jej użytkownicy doceniają funkcjonalność wbudowanych mechanizmów anty-DdoS, WAF, BOT Manager, Identity, czy ZeroTrust. Dzięki temu, możemy być szybsi i sprawniejsi od cyberprzestępców. Platforma Akamai daje także szerokie perspektywy na przyszłość – nasze potrzeby związane z rozwojem i koniecznością zagwarantowania bezpieczeństwa kolejnym obszarom funkcjonalnym będą także mogły być obsługiwane w ramach posiadanego już rozwiązaniamówi Piotr Kotkowski, Kierownik e-commerce ds. rozwoju w INGLOT.

    Podobne decyzje zapadły w firmie Wojas S.A. z branży modowej. Wojas S.A. jest jednym z największych i najbardziej cenionych polskich producentów obuwia, który dysponuje siecią blisko 180 salonów firmowych w Polsce, na Słowacji, Czechach, Białorusi i Węgrzech oraz produkuje co roku kilkaset tysięcy par obuwia. Rosnąca sprzedaż w kanale e-commerce, liczne nowinki technologiczne zwiększające atrakcyjność zakupów w internecie oraz oczekiwania klientów skłoniły menedżerów firmy do poszukania odpowiedniej platformy technologicznej zdolnej do zapewnienia bezpiecznego użytkowania ich aplikacji webowych. I tym razem wybór padł na zgrany duet Akamai Technologies oraz Advatech.

    Michał Wojas, Dyrektor e-commerce w Wojas SA
    Michał Wojas, Wojas SA

    Rozwój e-commerce jest dla nas jednym z głównych celów biznesowych. Marka Wojas jest świetnie znana w Polsce i za granicą. Natomiast technologicznie również dążymy do bycia the top of the top. Podjęliśmy decyzje o przejściu na platformę Akamai, ponieważ szukaliśmy rozwiązania, które zapewni 100% dostępność, możliwość skalowania oraz bezpieczeństwo naszych serwisów sprzedażowych. Platforma zapewnia lepszą transparentność, wydajność i ochronę przed cyberzagrożeniami od tych powszechnie dostępnych na rynku. Dodatkowy moduł Image Manager, który wzięliśmy pod uwagę, upraszcza i optymalizuje sposób dostarczania treści graficznych pod kątem zarówno urządzeń jak i rodzajów przeglądarek używanych przez naszych klientów, co nie pozostaje bez wpływu na szybkość działania serwisów oraz tzw. „user experience”. Decyzja zapadła szybko i była relatywnie prosta do podjęcia – Akamai i Advatech dawały gwarancję sprostaniu wyznaczonym zadaniomtwierdzi Michał Wojas, Dyrektor e-commerce w Wojas SA.

    Firma Cool Sport zrodziła się z pasji do sportów ekstremalnych. W ofercie dystrybucyjnej Cool Sport znajdują się takie marki jak Brixton, Etnies, Es, Emerica, Altamont, Thirty Two, Volcom, Element, Supra, Krew, C1rca, Dirty Velvet, Northwave, Drake, Dragon, Von Zipper i Level. W firmie Cool Sport również priorytetowa okazała się kwestia sprawnego dostarczania treści do serwisu internetowego. Wzrost liczby klientów korzystających z mobilnej wersji firmowej aplikacji wymagał użycia takich narzędzi, które mogłyby zapewnić kompromis pomiędzy jakością a czasem ładowania zdjęć i treści do serwisu. Niezbędna była optymalizacja grafiki pod kątem używanego przez klientów sprzętu, modeli, rozmiarów i rozdzielczości ekranów, a także używanych przeglądarek. Wymagało to nie tylko przygotowania setek szablonów graficznych na potrzeby konkretnych urządzeń mobilnych, ale i odpowiedniej platformy, która byłaby w stanie bezpiecznie dostarczać taką zawartość.

    Jakub Galewski, Software Engineer w Cool Sport
    Jakub Galewski, Cool Sport

    Początkowo rozważaliśmy wykorzystanie platformy Akamai wyłącznie do zarządzania prezentowaną treścią, jednak wraz z kolejnymi etapami prac przekonaliśmy się, że platforma Akamai jest doskonałym rozwiązaniem dla zapewnienia absolutnego bezpieczeństwa i stabilności całego systemumówi Jakub Galewski, Software Engineer w Cool Sport. Zespół Akamai i Advatech wykazał się dużym zrozumieniem naszych potrzeb, pomagając nam podczas doboru i konfiguracji odpowiednich narzędzi. Rewolucja technologiczna, jakiej dokonaliśmy pozwala nam jeszcze lepiej wykorzystać potencjał dostępnych rozwiązań i drastycznie przyspieszyć nasz rozwój – bez obawy o kwestie bezpieczeństwa i wydajności systemu dostarczania treścidodaje Jakub Galewski.

    Wdrożenia platformy Akamai w LPP, w firmach INGLOT, Wojas, czy Cool Sport dowodzą, że bardzo dobry produkt w rękach doświadczonego integratora jest wart każdej ceny. Bez odpowiedniego bezpieczeństwa i wydajności w dostarczaniu treści do aplikacji webowych, nie można mówić o poważnej obecności firmy w kanale e-commerce.

    W ciągu ostatniego roku skupiliśmy się na działaniach skierowanych dla sektora e-commerce. Razem z Akamai Technologies wdrażamy dedykowane rozwiązania, które doskonale adresują potrzeby naszych klientów, których biznes opiera się o aplikacje webowe. Zapewniamy stabilność oraz bezpieczeństwo działania sklepów internetowych. Jestem pewna, że to dopiero początek szybkiego rozwoju naszych działań dla e-commercemówi Anna Błażejczak, Key Account Manager z Advatech.

  • Zanim coś kupisz na święta – zastanów się dwa razy. Odpromiennik do telefonu nie zadziała

    Zanim coś kupisz na święta – zastanów się dwa razy. Odpromiennik do telefonu nie zadziała

    Taki „odpromiennik” nie ma prawa zadziałać, ponieważ samo zjawisko „elektrosmogu” nie istnieje. W jednym z polskich sklepów, specjalizującym się w sprzedaży towarów z gryki, trafiliśmy na ofertę „znakomitej” naklejki, która, wg współczynnika SAR, absorbuje do 99% promieniowania PEM pochodzącego z telefonu komórkowego. Prześledziliśmy historię powstania owego cuda techniki, a także sprawdziliśmy, co z tym wszystkim wspólnego ma WHO. Jak możecie się domyślić – niewiele, dlatego drogi kliencie – zanim klikniesz „kup teraz” w z pozoru interesujący gadżet, zastanów się dwa razy! 

    Co na ten temat sądzą inżynierowie? Felieton inżynierów przygotowany przez Instytut Łączności – zawiera opinie i oceny. 

    Z czym kojarzy się nam Szwajcaria? Z czekoladą, neutralnością w stosunkach międzynarodowych, a może systemem bankowym, który za swój priorytet stawia szeroko rozumianą tajemnicę w relacjach z klientem? Jeżeli pomyśleliście o którejś z tych rzeczy, jesteśmy zmuszeni zakomunikować dosyć smutny fakt… to wszystko stało się przeszłością. Dokładnie w tym momencie, w którym sadowicie się na swojej kanapie z kubkiem ulubionej herbaty i czytacie nasz tekst, Szwajcarzy podbijają szybko rozwijający się rynek pseudonaukowych gadżetów. Gadżetów, które według ich twórców mają za zadanie uchronić ludzkość przed kataklizmem jakim jest tzw. elektrosmog. 

    Idą święta – bum na odpromienniki „elektrosmogowe”. Nic, tylko kupować 

    Tematyka związana z „elektrosmogiem” obfituje wciąż w setki kwiecistych opowieści i anegdot. Jest to, co do zasady, „sztuka” sama w sobie, a do tego tak płodna, iż zebranie jej w kompendium przysporzyłoby kompleksów twórczości samym braciom Grimm. Zastosowana paralela wydaje się jak najbardziej trafiona z uwagi na to, iż koncepcja „elektrosmogu” należy do tych z kategorii dziwnych legend miejskich lub strasznych bajek, które mają służyć do dyscyplinowania krnąbrnych dzieci. Nie inaczej. Jednak biorąc pod uwagę wątpliwą wartość literacką oraz poziom intelektualnej indolencji, jakie zostały zainwestowane przez twórców koncepcji „elektrosmogu” w ich dzieło, należy jednoznacznie stwierdzić, iż ta baśń nie przejdzie do kanonu. 

    Kamieniem węgielnym, na którym zbudowano teorię „elektrosmogu” jest twierdzenie, że każdy rodzaj promieniowania elektromagnetycznego jest szkodliwy dla naszego zdrowia i otaczającego nas świata. Nie ma co, solidna podstawa. Zważywszy, że każde ciało o temperaturze wyższej od temperatury zera bezwzględnego emituje promieniowaniem, należałoby przestraszyć się nie na żarty – wszystko co nas otacza, a nawet my sami, emitujemy promieniowanie, które dąży do naszego unicestwienia. W jednym z naszych felietonów dokładnie opisaliśmy błędy logiczne i naukowe zawarte w tej hipotezie. Już sama etymologia „elektrosmogu” przywodzi na myśl kłęby trującego dymu, unoszącego się w powietrzu, którym wszyscy oddychamy. 

    Według środowisk sprzeciwiających się rozwojowi technologii mobilnych promieniowanie elektromagnetyczne jest niebezpiecznym „odpadem” powstałym w wyniku nieodpowiedzialnych działań operatorów komórkowych. Te argumenty nie uzyskały aprobaty środowiska naukowego. Specjaliści zajmujący się tematyką PEM jednoznacznie negują istnienie „elektrosmogu”, a samo określenie „elektrosmog” kwalifikują po prostu jako błąd logiczny. Niestety, mimo konsensusu środowiska, wiele osób inwestuje niebotyczne kwoty w tzw. odpromienniki czy odzież, która miałaby chronić przed pole elektromagnetycznym występującym w naszym otoczeniu, zwłaszcza w pobliżu stacji bazowych telefonii komórkowej. Sklepy oferujące tego typu gadżety przeżywają prawdziwe oblężenie. 

    Telefon w sypialni? Koniecznie kup gryczany odpromiennik! 

    Jednym z takich przedsiębiorstw jest polski sklep „I Love XXXXX”. Według jego założycielek jest on odpowiedzią na ignorancję medycyny akademickiej. Gdy wykwalifikowani lekarze docierają do granic swoich kompetencji, wówczas na scenę wkraczają one – właścicielki. Według manifestu znajdującego się na stronie sklepu, intencją jego powstania było zapewnienie klientom „…odpoczynku, równowagi oraz życia w zgodnie z naturą”, które są instrumentalne dla „zdrowia i samopoczucia”. 

    Oferta produktów może przyprawić o zawrót głowy. Od wałków do spania, przez opaski na oczy, po akcesoria dla zwierząt. Jednak klejnotem w koronie sklepu są poduszki z naturalnym wypełnieniem. Według pomysłodawczyń o sukcesie ich produktów stanowią łuski, takich zbóż jak proso czy orkisz. Zbożowe wypełnienie ma gwarantować szeroki wachlarz atrybutów. Przeglądając witrynę sklepu dowiemy się, że łuski orkiszu „posiadają wiele właściwości prozdrowotnych i leczniczych, często na poziomie niemal metafizycznym. Orkisz charakteryzuje się wyjątkowo korzystnym promieniowaniem, tworząc zdrowotne biopole”. Super, tylko czym jest biopole? 

    Wydaje się, że nawet osoby wykorzystujące ten termin w celach marketingowych nie są do końca pewne. Nie pozwólmy, aby metafizyka poduszek oraz sformułowań użytych do ich opisu zaburzyła naszą zakupową czakrę. Mimo cudownych właściwości orkiszu i prosa niekwestionowanym faworytem zostały poduszki z zawartością prawdziwego zbożowego mocarza, czyli gryki. Za jedyne 329 złotych otrzymujemy produkt, który poza działaniem antyalergicznym i komfortem termicznym, wykazuje „właściwości neutralizujące szkodliwe promieniowanie elektromagnetyczne i jest doskonałym odpromiennikiem”. Czy są jakiekolwiek badania potwierdzające taką tezę? Jednym słowem, nie. Ale z drugiej strony, czy muszą być… Albowiem w świecie metafizyki wysuwane hipotezy nie wymagają weryfikacji. Dlatego w kategorii abstrakcyjnych rozwiązań dla abstrakcyjnych problemów („elektrosmog”), poduszka z gryką bezwarunkowo otrzymuje sześć gwiazdek. 

    99% pochłaniania PEM wg współczynnika SAR, czyli historia kreatywnego marketingu 

    Gryka nie jest jedynym asem w rękawie sklepu. W tej grze – asów jest znacznie więcej, a karty są znaczone – takie zasady. Konfrontacja z „elektrosmogiem” nie pozwala na opuszczenie gardy. Jeśli Chuck Norris miał swój kopniak z półobrotu, to „I Love XXXXX” ma swoją… naklejkę na smartfona. 

    Pierwsze odczucie rozczarowania jest wynikiem przemyślanej strategii marketingowej zastosowanej przez właścicielki sklepu. Dopiero po bliższym zapoznaniu ze specyfikacją tego Ferrari wśród naklejek uzyskujemy świadomość jej nieprawdopodobnego potencjału. Pod płaszczykiem bezużytecznego gadżetu kryją się dwie anteny pasywne wykorzystujące zasadę przesunięcia fazowego o 180°. Oznacza to, że dwie fale o tej samej częstotliwości, ale o przeciwnych fazach, powodują wzajemną neutralizację. Dzięki tej zasadzie naklejka ma umożliwić redukcję współczynnika SAR w przedziale od 50% do 99%. Co kryje się za enigmatycznym skrótem SAR? 

    Jest to współczynnik absorpcji swoistej, który informuje o ilości energii fal radiowych pochłanianej przez ciało człowieka, np. podczas korzystania z telefonu komórkowego. W bardzo dużym uproszczeniu i nieco z przymrużeniem oka można skwitować, że jest to współczynnik promieniowania elektromagnetycznego telefonów komórkowych. Aktywiści środowisk antykomórkowych oczywiście wiążą SAR wyłącznie z telefonami komórkowymi i wykorzystują jego wartość jako definitywny dowód, który świadczy o szkodliwym wpływie telefonów komórkowych na zdrowie ludzkie. Od momentu, kiedy Międzynarodowa Agencja Badań nad Rakiem (IARC) umieściła pola elektromagnetyczne o częstotliwości radiowej na liście czynników potencjalnie rakotwórczych dla ludzi, argument systematycznie zyskuje na sile. Dla nadania kontekstu dodajmy, że w grupie 2B w której umieszczono PEM, znalazły się również aloes i talk. „I Love XXXXX” zapewnia o skuteczności swojego produktu, który pozwala redukować SAR na poziomie 99%. Ile jest prawdy w tej deklaracji? 

    Jak się okazuje niewiele. Sam fakt, iż „I Love XXXX” reklamuje naklejkę jako swój autorski projekt jest nadużyciem. Jedynym wkładem kieleckiego przedsiębiorstwa jest umieszczenie na antenie swojego logo. Po kilkuminutowym „śledztwie internetowym” okazuje się, że faktycznym producentem gadżetu jest szwajcarska firma „FAZUP”. Helweci zapewniają, że 10 lat ich wytężonej pracy zaowocowało powstaniem tego rewolucyjnego rozwiązania. Jako definitywny dowód swojego geniuszu „FAZUP” przedstawia pozytywną opinię francuskiego laboratorium pomiarowego „EMITECH”. 

    Według specjalistów „EMITECH-a” szwajcarska antena redukuje SAR w przedziale od 48% do 87%. Rzecznik laboratorium potwierdził tą informację w oficjalnym komunikacie. Wywołało to nie lada konsternację wśród inżynierów zajmujących się tematyką pól elektromagnetycznych. Znany youtuber technologiczny – Stephane Marty, postanowił zweryfikować tę informację na swoim kanale Deus Ex Silicum. Francuski mikroelektronik na potrzeby testu zastosował jeden z protokołów technicznych „FAZUP”. Jego konkluzja jest jednoznaczna: antena jest bezużyteczna, a deklarowane redukcje nie mają nic wspólnego z rzeczywistością. Szwajcarzy zarzucili mu brak fachowości, która w ich opinii rzutuje na mało wiarygodne wyniki testu. Jednak Marty reprezentuje konsensus naukowy o nieprzydatności tego typu urządzeń. 

    Kilka lat temu amerykańska Agencja Żywności i Leków (FDA) opublikowała raport, w którym rozprawia się z wieloma mitami propagowanymi przez firmy pokroju „FAZUP”. FDA podkreśla, że nie ma naukowych dowodów na szkodliwość pola elektromagnetycznego emitowanego przez telefony komórkowe. Według optymistycznego scenariusza amerykańskich naukowców urządzenia tego typu są nieszkodliwe. Jednak jak pokazały liczne testy i badania, samo umieszczenie takiej naklejki na telefonie może doprowadzić do pogorszenia siły odbieranego sygnału, ponieważ po prostu wewnętrzna antena zostaje celowo zasłonięta. Konsekwencją takiego stanu rzeczy jest zwiększona emisja PEM przez urządzenie. Powyższą ironię producent dorzuca do magicznej naklejki gratis. 

    Magiczna naklejka z aprobatą WHO?

    Mimo braku dowodów na skuteczną redukcję pola elektromagnetycznego wytwarzanego przez telefony komórkowe, zamknięte fora internetowe jeszcze nie raz zapłoną dzięki genialnym wynalazkom inżynierii alternatywnej. Nie pozwólmy jednak, aby ta samospełniająca się przepowiednia odwróciła naszą uwagę od prawdziwej rewelacji. Rewelacji, która będzie satysfakcjonującym zwieńczeniem tej wyczerpującej podróży. 

    Kreatywność wcześniej opisanej machinacji nie oddaje sprawiedliwości rozmachowi właścicielek. „I Love XXXXX” informuje potencjalnych nabywców naklejko-anteny (lub jak kto woli: anteno-naklejki, co zasadniczo pozostaje bez znaczenia, ponieważ i tak produkt nie działa) o jej zatwierdzeniu przez Światową Organizację Zdrowia. Co miałoby oznaczać stwierdzenie „produkt zatwierdzony przez WHO”? Ciężko powiedzieć. Jednak prawdziwą wisienką na tym niesmacznym torcie niedorzeczności jest brak świadomości samego WHO o wydaniu tzw. zatwierdzenia. Być może właścicielki sklepu, oczywiście przez przypadek, zapomniały poinformować o tym niesamowitym sukcesie samego zatwierdzającego, czyli WHO. Wydanie tego typu dokumentu byłoby niepokojącym objawem schizofrenii infekującej autorytet tej szanowanej organizacji. 

    Nasze prośby o przedstawienie dowodu (jakiegokolwiek, nawet najmniejszego) potwierdzającego uzyskanie „zatwierdzenia przez WHO” nie odniosły skutku. Jedynym wyjaśnieniem może być tu albo fizyka czarnej dziury, albo fakt, iż pasywne anteny-naklejki zgromadzone w magazynie „I Love XXXXX” zapewne w ilościach hurtowych, spowodowały pasywność w dostawach Internetu. Gdyby właścicielki sklepu posiadały elementarną wiedzę na temat produktów, które oferują, z całą pewnością nie popełniłyby takiego faux pas. Na szczęście oportunizm przedsiębiorców z sektora elektromagnetycznego placebo nie znalazł uznania w oczach ekspertów WHO. Ich opinia na temat potencjalnej szkodliwości PEM pochodzącego z infrastruktury komórkowej pozostaje niezmienna. Brak jest empirycznych dowodów na potwierdzenie tej hipotezy. Kolejną, niczym niepopartą deklarację o rekomendacjach środowiska lekarskiego pozwolimy sobie pozostawić bez komentarza. 

    Kliencie – zanim coś kupisz, zastanów się dwa razy 

    Komercjalizacja teorii spiskowych z pewnością nie przysporzy światu zbyt wielu laureatów ekonomicznego Nobla. Być może ekspansja amoralnego kapitalizmu w kierunku krainy orgonitów, odpromienników i ekranujących bokserek jest tylko kwestią czasu. Jednak nie musimy wybiegać w zbyt daleką przyszłość. Opisywany przez nas przypadek doskonale obrazuje już istniejący tragizm tego rynku. Cyniczni przedsiębiorcy wykorzystują niewiedzę i podatność na manipulację swoich klientów. Proponują kosztowne rozwiązania na nieistniejące problemy. Majstersztyk. 

    Większość odpowiedzialnych przedsiębiorców nie widzi dla siebie miejsca w tym dobrze zorganizowanym przekręcie. Intencją naszego materiału z całą pewnością nie jest krytykowanie osób rozważających zakup gryczanej poduszki. Chodzi nam jedynie o wyposażenie takich klientów w informacje, dzięki którym podejmą świadomą decyzję. Decyzję na temat lokowania swoich ciężko zarobionych pieniędzy w transakcje, których jedynym beneficjentem będą pionierzy szlaków elektromagnetycznej niedorzeczności. Popularny w USA komik Bill Maher podczas jednego ze swoich skeczy stwierdził: „nie chcę społecznego cynizmu. Chciałbym jednak dozy cynizmu, która pozwoli społeczeństwu odróżnić prawdę od fałszu”. Od czasu do czasu odrobina zdrowego cynizmu przydaje się nam wszystkim. Warto o tym pamiętać zanim klikniemy w baner „Kup teraz” w nudny sobotni wieczór. 

  • IBM X-Force – bezpieczeństwo w rękach ekspertów

    IBM X-Force – bezpieczeństwo w rękach ekspertów

    Mijający rok 2021 zapisze się w pamięci wielu osób jako czas utrwalania się zmian wywołanych globalną pandemią, pracy on-line, zerwanych łańcuchów dostaw i zawirowań gospodarczych. W sferze IT był to kolejny rok rosnącego zagrożenia ze strony cyberprzestępców i powiększających się strat wywołanych lukami w bezpieczeństwie wielu systemów. Jak pokazuje raport[i] IBM X-Force® Threat Intelligence Index, do najpopularniejszych metod ataku należy ransomware – to ponad 23% wszystkich incydentów. Według szacunków autorów raportu, tylko jedna grupa hakerów w 2020 roku na atakach tego typu zarobiła ponad 123 mln dolarów. Najczęściej atakowany jest sektor finansów i ubezpieczeń. Na drugie miejsce, z ósmego, awansował sektor produkcji przemysłowej.

    Każda organizacja i firma musi bezwzględnie i bezkompromisowo chronić swoje newralgiczne zasoby IT. Gdyby dane i systemy biznesowe były przez dłuższy czas niedostępne, np. z powodu ataku ransomware, byłaby to prosta droga do upadku. W sektorze publicznym, szczególnie w służbie zdrowia, takie ataki są bardzo niebezpieczne także dla życia i zdrowia ludzi[ii]. Zatem odpowiednia polityka zarządzania zagrożeniami stała się kluczowym zagadnieniem w każdej organizacji korzystającej z rozwiązań IT.

    Jedną z coraz częściej spotykanych strategii jest traktowanie zarządzania bezpieczeństwem jako usługi typu MMS – Managed Security Services. Wyspecjalizowana zewnętrzna firma przejmuje wszystkie zadania i obowiązki związane z wykrywaniem incydentów, odzyskiwaniem danych po atakach i ogólnie z zarządzaniem bezpieczeństwem. Plusem takiego podejścia jest możliwość skoncentrowania się firmy na swoim zasadniczym biznesie.

    „Zaryzykuje twierdzenie, że aktualnie IBM X-Force Threat Management Services to jedyna, tak kompleksowa i skalowalna usługa, która wykrywa i reaguje na incydenty bezpieczeństwa, wykorzystując przy tym mechanizmy sztucznej inteligencji (AI) do ciągłego doskonalenia swojego działania. X-Force to dobrze skomponowana mieszanka narzędzi kognitywnych, automatyzacji, orkiestracji i specjalistycznej wiedzy, która przyspiesza i usprawnia każdą fazę cyklu zarządzania zagrożeniami. Sprawdza się nie tylko w tradycyjnym IT, ale także w dynamicznie rozwijającym się Internecie Rzeczy IoT i technologii operacyjnej OT.”mówi Daniel Wysocki, Specjalista ds. bezpieczeństwa z firmy Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech, IBM
    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech

    Wraz z IBM X-Force Threat Management Services działają takie usługi i technologie, jak X-Force Investigate i X-Force Detect, które zostały zaprojektowane z myślą o średnich i dużych przedsiębiorstwach. Ułatwiają one dostęp do zaawansowanej technologii bezpieczeństwa i co za tym idzie, także do najwyższej klasy specjalistów. Działanie usługi bazuje na standardach amerykańskiego National Institute of Standards and Technology (NIST), a to zapewnia wspólne dla wszystkich ramy zarządzania zróżnicowanymi typami incydentów bezpieczeństwa, jednakowe procedury i reakcje na zagrożenia.

    „IBM X-Force rozpoznaje próby włamań, złośliwe oprogramowanie i inne problematyczne zjawiska, które mogą zagrozić bezpieczeństwu ochranianych zasobów. Wykorzystywane technologie uczenia maszynowego, sztucznej inteligencji i orkiestracji skracają czas wykrywania zdarzeń i przyśpieszają reakcje na nie, ale także minimalizują liczbę fałszywych alertów. Dostępne narzędzia do analizy i wizualizacji danych udostępniają użytkownikom stały i nieprzerwany obraz stanu bezpieczeństwa firmy”dodaje Daniel Wysocki z Advatech.

    Platforma kliencka IBM X-Force Protection Platform stosuje zaawansowane technologie do automatyzacji i orkiestracji kluczowych zadań w celu przyspieszenia wykrywania i reagowania na zagrożenia, oferując przy tym dostęp do aplikacji mobilnej wizualizującej stan bezpieczeństwa, konto w portalu Virtual Security Operations Center (SOC) oraz wiele raportów i analiz. Jej wielką zaletą jest możliwość integracji z ekosystemami firm partnerskich, jak Carbon Black, Cisco, Palo Alto Networks, Fortinet, czy Checkpoint. Dzięki temu zespoły ds. bezpieczeństwa korzystające z usługi IBM X-Force są w stanie sprawnie realizować zadania związane z identyfikacją zagrożonych zasobów, proaktywną ochroną, wykrywaniem zdarzeń i anomalii w ruchu sieciowym oraz nietypowego zachowania użytkowników, a także reagowaniem na wykryte naruszenia wraz z usuwaniem skutków takich naruszeń.

    „Działając jako dostawca usług MSS, zespół X-Force w czasie rzeczywistym reaguje na każde pojawiające się zagrożenie, analizując podejrzany ruch, czy też zachowania użytkowników, pozwalając na szybką reakcję zanim zostaną wyrządzone nieodwracalne szkody w sieci klienta. Wszystkie informacje na ten temat są udostępnione w bardzo przejrzysty sposób, poprzez automatycznie generowane alerty, z których użytkownik  uzyskuje pełen obraz zagrożeń w swojej sieci. Jest to bardzo ważne dla zapewnienia bezpieczeństwa i sprawności działania firmy. Z punktu widzenia klienta korzystanie z usług MSS zmniejsza ryzyko finansowe i prawne na wypadek np. naruszeń regulacyjnych, ochrony wrażliwych danych osobowych itp.”dodaje Daniel Wysocki z Advatech.

    W ramach dostępnych usług działa zespół X-Force Red, który próbuje włamać się wszędzie, gdzie jest to tylko możliwe. Ta grupa hakerów działająca po jasnej stronie mocy pozwala odkryć wszelkie luki w zabezpieczeniach, wykonując testy penetracyjne. X-Force Red, symulując cyberprzestępców, może np. testować bankomaty, czy weryfikować bezpieczeństwo usług i aplikacji w chmurze. Z kolei zespół X-Force Incident Response and Intelligence Services, czyli X-Force IRIS jest źródłem eksperckiej wiedzy z zakresu zarządzania incydentami i analizy bezpieczeństwa. Dzięki nim można szybko ograniczyć i złagodzić zagrożenia zanim się rozprzestrzenią i spowodują negatywne skutki biznesowe.

    IBM X-Force jest wspierane przez uczenie maszynowe i mechanizmy sztucznej inteligencji. IBM Watson for Cyber Security AI® to sprawdzone i bardzo efektywne narzędzie pozwalające na eksplorację bardzo dużych zbiorów danych praktycznie w każdym środowisku klienckim. Z kolei IBM Advanced Threat Dispositioning System, to opatentowane rozwiązanie do analizy bezpieczeństwa, które stosując uczenie maszynowe analizuje miliony alertów od setek klientów z różnych sektorów przemysłu i przetwarza ok. 2 mld dzienników miesięcznie. W ten sposób trenuje swoje zachowania i reakcje na pojawiające się zagrożenia, zapewniając przyśpieszenie działania o 70-80% w stosunku do tradycyjnych zespołów ekspertów ds. bezpieczeństwa. Taki zaawansowany system eliminowania zagrożeń w sposób ciągły kontynuuje naukę i adaptację z każdym pojawiającym się zdarzeniem, incydentem bezpieczeństwa, czy reakcją na ten incydent.

    Możliwości integracyjne usług X-Force są imponujące – jeśli organizacja używa już rozwiązań klasy SIEM (Security Information and Event Management) od innych dostawców typu Splunk, czy ArcSight, bez kłopotu mogą one współdziałać z X-Force, co znacząco ułatwia podjęcie decyzji o wykorzystaniu usług MSS. Sprzyja temu także elastyczna i rozsądna polityka cenowa.

    „X-Force Threat Management Services bazuje na cenach liczonych proporcjonalnie do użycia zasobów oraz ceny pakietowe plus zestaw opcji dla średnich i dużych przedsiębiorstw. Dzięki temu organizacje o mniejszych wymaganiach w zakresie bezpieczeństwa mogą odpowiednio dostosować swoje wydatki, nie rezygnując z dostępu do wiedzy i specjalistów na podobnym poziomie, jak większe i bardziej wymagające firmy”ocenia Daniel Wysocki.

    Wspomniany na początku wzrost liczby ataków hakerskich na firmy produkcyjne jest zrozumiały i dość naturalny, bo coraz częściej spotyka się połączenie operacyjnych systemów przemysłowych z siecią IT. Biznesowo ma to sens – informatyka zapewnia kompleksowy wgląd w stan, działanie i obciążenie poszczególnych maszyn i urządzeń oraz całych ekosystemów przemysłowych, co znacząco zwiększa efektywność zarządzania nimi. Wystawia je jednak na niebezpieczeństwo ataku, a to jest już poważne zagrożenie dla prowadzonego biznesu. Usługa X-Force Threat Management Services dla OT integruje zarządzalne przemysłowe systemy sterowania, monitorowanie sieci i integrację ekosystemu w środowiskach technologii operacyjnych OT. Eksperci z IBM wykorzystują logiczny model Purdue[iii] dla zapewnienia bezpieczeństwa w tym obszarze, a to za sprawą ciągłego monitorowania stanu i wydajności systemów. Inteligentne czujniki pozwalają wdrażać harmonogramy konserwacji predykcyjnej, co eliminuje kosztowne naprawy i przestoje w najmniej spodziewanych momentach. Ogólnie, poprawia to wydajność, jakość i produktywność firmy oraz zwiększa jej rentowność.

    „Są powody, aby mieć nadzieję, że rok 2022 będzie lepszy niż mijający. Co prawda, trudno mieć pewność, który trend weźmie górę, ale w sferze cyberbezpieczeństwa czekają nas na pewno duże wyzwania wymagające podejmowania działań strategicznych. Swoisty wyścig zbrojeń z grupami hakerów wymaga budowy systemów połączonego bezpieczeństwa i koalicji z partnerami technologicznymi o światowej skali działania takimi jak IBM. IBM X-Force Threat Intelligence Index pokazuje wszystkim zainteresowanym, gdzie są aktualne wektory zagrożeń i jak się na nie przygotować. Advatech niezmiennie będzie poszerzał swoje kompetencje w zakresie cyberbezpieczeństwa”podsumował Jacek Szubert, Prezes Zarządu firmy Advatech.

    Jacek Szubert, Prezes Zarządu Advatech, IBM
    Jacek Szubert, Prezes Zarządu Advatech

    [i] https://www.securityhq.com/reports/ibm-x-force-threat-intelligence-index-2021/
    [ii] https://pages.checkpoint.com/cyber-security-report-2021.html
    [iii] https://en.wikipedia.org/wiki/Purdue_Enterprise_Reference_Architecture

  • Edukacja kontra fake news – drugi dzień VI Międzynarodowej Konferencji PEM

    Edukacja kontra fake news – drugi dzień VI Międzynarodowej Konferencji PEM

    Zakończył się drugi i ostatni dzień Międzynarodowej Konferencji PEM „Fale radiowe są niewidoczne. Co robimy, by były transparentne – normy i regulacje”. Poświęcony był problemom tworzenia i rozpowszechniania fałszywych informacji na temat PEM i roli rzetelnej edukacji w ich zwalczaniu. Konferencję organizują Instytut Łączności i Kancelaria Prezesa Rady Ministrów.

    Drugi dzień konferencji otworzyli prof. dr hab. n. med. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego, wiceprzewodnicząca Rady Programowej wydarzenia oraz dr inż. Jacek Oko, prezes Urzędu Komunikacji Elektronicznej.

    – To jedna z najcenniejszych i najważniejszych merytorycznie w branży konferencji dotyczących PEM. Większy nacisk położony na rzetelne informacje dotyczące PEM przez operatorów może być szczepionką na wszelkie fake newsy związane z PEMpowiedział prezes UKE. 

    Pierwsza część wystąpień prelegentów dotyczyła sposobów skutecznej edukacji w zakresie PEM i 5G. Perspektywę operatorów telekomunikacyjnych przedstawił Piotr Kędzierski z T-mobile, który podczas konferencji wystąpił w imieniu Polskiej Izby Informatyki i Telekomunikacji.

    – Edukacja dotycząca PEM i nowoczesnych technologii powinna zaczynać się jak najwcześniej, już w szkole, być może w ramach istniejących już zajęć. Sami nie wiele jesteśmy w stanie zrobić, poszukujemy partnerów, z którymi możemy prowadzić działania edukacyjne w sposób wiarygodny – najsilniejsze są działania instytucji naukowych, które są neutralnepodkreślił Piotr Kędzierski. 

    Jak z kwestią edukacji mogą radzić sobie krajowi regulatorzy, na przykładzie rozwiązań cypryjskich, mówił Christos Kourtellaris z Departamentu Komunikacji Elektronicznej Wiceministra Nauki, Innowacji i Polityki Cyfrowej Cypru.

    – Nasz departament działa na rzecz edukacji o PEM, staramy się, aby procedura i kompetencje były transparentne, zrozumiałe dla wszystkich i łatwo dostępnezaznaczył. 

    Działania edukacyjne prowadzone przez australijskiego operatora Telstra omówili reprezentanci tej firmy Debbie Wills i Mike Wood.

    – Pokazujemy społeczeństwu zasady działania urządzeń wykorzystujących technologię bezprzewodową – to również element strategii informacyjnej związanej z 5G i PEM mówił Mike Wood. 

    – Zmierzone poziomy PEM na australijskiej plaży wynoszące około 0,015 W/m2 postanowiliśmy porównać do PEM pochodzącego od Słońca, które wynosiło 1000 W/m2dodał. 

    Kinga Graczyk i Łukasz Kiwicz z Kancelarii Prezesa Rady Ministrów przybliżyli założenia kampanii edukacyjnej Instytutu Łączności i KPRM dotyczącej komunikacji bezprzewodowej i 5G, która rozpoczęła się w 2021 roku i będzie trwała 3 lata.

    – W ramach działań edukacyjnych związanych z PEM będziemy korzystać z narzędzi jak najlepiej dopasowanych do naszych odbiorcówpowiedziała Kinga Graczyk. 

    – Autorytet wykształconych i utytułowanych ekspertów w danej dziedzinie przestaje mieć znaczenie w chwili, kiedy wygłaszają oni swoje stanowisko odmienne niż pasujące do przyjętej tezyzaznaczył Łukasz Kiwicz. 

    – Osoby o stosunkowo niskich kwalifikacjach w swojej dziedzinie mają często tendencje do przeceniania swojej wiedzy. Namiastka tego autorytetu powoduje, że często zjednują sobie odbiorców i szerzą informacje niemające pokrycia w rzeczywistości dodała Kinga Graczyk. 

    Jaką rolę odgrywają media społecznościowe w rozpowszechnianiu dezinformacji? Zaproszeni eksperci dyskutowali o tym w kolejnej części drugiego dnia konferencji.

    Jako pierwszy zabrał głos Tommaso Canetta z fact checkingowej organizacji Pagella Politica, który omówił mechanizm powielania i rozpowszechniania fake newsów i teorii spiskowych w sieciach społecznościowych.

    – Błąd potwierdzenia oznacza, że dużo łatwiej jest znaleźć użytkownikowi Internetu informacje potwierdzające jego fake news niż taką, która go obalizauważył. 

    O psychologicznych aspektach popularności fałszywych treści w Internecie mówiła dr Magdalena Jabłońska z Uniwersytetu SWPS.

    – Celem fake newsów jest celowe wprowadzenie użytkownika w błąd, często są to informacje zmyślone mające za zadanie wywołać określone efekty. Efekt śpiocha polega na tym, że ludzie nie pamiętają o niewiarygodnym źródle informacji, ale pamiętają samą informację, zapominając o nierzetelności źródła, szczególnie jeżeli oddziałuje również na emocje osobymówiła dr Jabłońska. 

    – W nauce musimy zaakceptować obszary niewiedzy. Gdyby wszystko było wiadome nie trzeba by było prowadzić badań naukowych. Jeżeli jesteśmy w stanie i mamy taką możliwość, to pytajmy ekspertówdodała. 

    Julian Dobrowolski z NASK przedstawił narzędzia udostępniane przez sieci społecznościowe wspierające zwalczanie dezinformacji.

    – Jest kilka okoliczności w jakich Facebook pozwala zgłosić informację, jako nieprawdziwą i uznaje ją za fake news. Francja oraz Niemcy posiadają własne regulacje prawne dotyczące usuwania treści fake newsów z Internetu zauważył. 

    W kolejnej części konferencji zaproszeni prelegenci zastanawiali się, jak komunikować wyniki badań medycznych, aby nie zostały wykorzystane do dezinformacji.

    Krótki kurs właściwego czytania wyników badań naukowych w swojej prezentacji przedstawiła prof. dr hab. n. med. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego.

    – Aby prawidłowo czytać badania należy być sceptycznym, sprawdzać, czy cytowane badanie rzeczywiście istnieje. Należy pamiętać o hierarchii dowodów naukowych a także sprawdzać renomę czasopisma, w którym badania naukowe zostały opublikowane. Warto także przyjrzeć się konfliktom interesów i źródle finansowania badań oraz zawsze należy zapoznać się z dyskusjami oraz wnioskami dotyczącymi opublikowanych badań. 

    Jak nauka ma rywalizować z „prawdą ulicy”, gdy do dyspozycji jest tylko 280 znaków postu na Twitterze? Problemem zajęła się w swojej prezentacji Maja Romanowska z WHO.

    – Współcześnie mamy do czynienia z infodemią, czyli nadmiarem informacji zarówno tych dobrych jak i, niestety, niewłaściwych. Za szerzenie fake newsów i działanie na szkodę innych powinny być nakładane kary i wyciągane konsekwencje. W 95% za dezinformację w Internecie jest odpowiedzialnych 12 kont w mediach społecznościowychstwierdziła. 

    O warsztacie naukowca i kulisach powstawania prac naukowych opowiadał dr hab. Grzegorz Tatoń z Zakładu Biofizyki Wydziału Lekarskiego Collegium Medicum Uniwersytetu Jagiellońskiego.

    – Rozmowa telefoniczna powoduje mierzalny wzrost temperatury okolicy ucha, ale nie udało się ustalić czy czynnikiem istotnym w tym przypadku jest oddziaływanie PEM. Na świecie istnieje 54 000 czasopism naukowych. Osoba, która nie dysponuje umiejętnością krytycznej oceny prac naukowych może znaleźć tekst, który będzie uzasadniał dowolny pogląd na dowolny temat. Ani naukowcy, ani lekarze nie dysponują metodami pozwalającymi na stwierdzenie związku przyczynowo-skutkowego pomiędzy objawami, a czynnikami takiego rodzaju, jak PEMmówił dr. Tatoń. 

    Thomas Barmüller, dyrektor Mobile & Wireless Forum na Europę, Bliski Wschód i Afrykę, omówił prowadzoną w mediach społecznościowych kampanię #5GFactsNotFear.

    – Nadszedł czas na fakty, nie na lęki i obawy. Dezinformacje to informacje, które mają wywołać konkretną szkodę, nie są zwykłymi fałszywymi informacjami. Zdecydowana większość Europejczyków jest niepewna, jeżeli chodzi o mity na temat 5G. Powinniśmy mówić o faktach i liczbach tak, by mieszkańcy mogli podejmować decyzje oparte na prawdziwych danych i nie uginali się pod presją fake newsówstwierdził Thomas Barmüller. 

    – Z naszego raportu wynika, że brakuje korelacji pomiędzy częstotliwościami występowania chorób nowotworowych a liczbą użytkowników telefonii komórkowej dodał. 

    Ostatnie wystąpienia prelegentów drugiego dnia konferencji dotyczyły fact checkingu – jego roli w zwalczaniu dezinformacji oraz trudnościom i wyzwaniom, przed jakimi stają specjaliści w tej dziedzinie.

    Jak, na tle innych krajów, wygląda współpraca administracji z zespołami fact checkingowymi – to temat prezentacji przedstawionej przez Maję Czarnecką, dziennikarkę AFP.

    – Powiązanie sieci 5G z pandemią COVID19 to jeden z elementów składających się na większą część, którą są teorie spiskowe związane z pandemią oraz szczepionkami w ramach Nowego Porządku Świata tzw. NWO. 

    Małgorzata Fraser z serwisu CyberDefence24 w swoim wystąpienia zastanawiała się czy fact checking może być skutecznym lekarstwem na celową, systemową dezinformację.

    – Dezinformacja zakorzeniła się w świadomości wszystkich obywateli po wyborach prezydenta USA w 2016 roku, gdy okazało się, że wykorzystanie social mediów w określony i zaplanowany sposób miało wpływ na te wydarzenia. Odbiorcy wiadomości nie mają narzędzi, ani wiedzy, w jaki sposób radzić sobie z otaczającymi nas w sieci fake newsami. 

    Czy fact checking kiedyś się kończy? Czy jest moment, kiedy możemy przestać weryfikować i uznać dany temat za ostatecznie wyjaśniony? Z tematem zmierzył się Marcel Kiełtyka ze Stowarzyszenia Demagog.

    – Jednym z często powtarzanych fake newsów, które można było znaleźć w sieci na początku pandemii był ten twierdzący, że zachorowanie na Sars-Cov-2 to efekt choroby popromiennej spowodowanej wprowadzaniem sieci 5G. Informacja ta doprowadziła do podpalenia 159 masztów telefonii komórkowej. Spowodowało to przestój w pracy tych stacji na 170 tys. godzin. Zatem, kiedy możemy przestać weryfikować informacje? Raczej nie możemy tego zrobić, należy zawsze docierać do ich źródeł i cały czas edukować społeczeństwo. 

    Konferencję podsumował Jakub Wiech, moderator drugiego dnia wydarzenia:

    – Podczas konferencji padło wiele cennych spostrzeżeń. Dowiedzieliśmy się, jak wyglądają fake newsy dotyczące różnych kwestii naszego codziennego życia. Warto pamiętać, że trzeba być zawsze krytycznym wobec informacji, które do nas napływają. Z tyłu głowy warto mieć pytanie: a co, jeśli ktoś próbuje mnie oszukać? Tegoroczna edycja konferencji i dyskusje, które tu odbyliśmy może być formą szczepionki, dawki przykładów, które uwrażliwią nas na fake news i pozwolą nam je rozpoznać.

    Z wystąpień prelegentów i dyskusji panelowych podczas drugiego dnia konferencji wynika, że fake newsy, dezinformacja i teorie spiskowe związane z PEM powstają i są rozpowszechniane niezwykle łatwo. Media społecznościowe są znakomitym i niezwykle trudnym do kontrolowania środkiem szybkiego powielania fałszywych informacji. Możemy przeciwstawiać się lawinie dezinformacji: edukując, weryfikując fakty, promując rzetelną wiedzę naukową. Nie mamy tylko pewności, że narzędzia, które mamy do dyspozycji będą skuteczne.

  • Limity PEM: wyznaczanie, kontrola, komunikowanie – pierwszy dzień VI Międzynarodowej Konferencji PEM

    Limity PEM: wyznaczanie, kontrola, komunikowanie – pierwszy dzień VI Międzynarodowej Konferencji PEM

    W jaki sposób ustalane są dopuszczalne poziomy PEM? Czy ich przestrzeganie jest odpowiednio nadzorowane? Jak właściwie komunikować wyniki takiej kontroli? O tym dyskutowali międzynarodowi eksperci podczas pierwszego dnia rozpoczętej wczoraj konferencji „Fale radiowe są niewidoczne. Co robimy, by były transparentne – normy i regulacje”. Organizatorem wydarzenia jest Instytut Łączności we współpracy z Kancelarią Prezesa Rady Ministrów. 

    Gości konferencji powitali Janusz Cieszyński, sekretarz stanu w Kancelaria Premiera, prof. dr hab. inż. Paweł Pławiak, zastępca dyrektora Instytutu Łączności ds. naukowych i prof. dr hab. inż. Sławomir Hausman z Politechniki Łódzkiej, przewodniczący Komitetu Programowego konferencji. 

    – Konferencja jasno pokazuje główne wyzwanie, czyli jak w sposób przystępny, zrozumiały i budzący zaufanie społeczne, mówić o bardzo trudnych zjawiskach. Osoby, które się do nas zwracają, by dowiedzieć się, jak działają fale elektromagnetyczne, wciąż posługują się fake newsami. Szerzy się dezinformacja na temat fal elektromagnetycznychpowiedział Janusz Cieszyński. 

    – Instytut Łączności we współpracy z KPRM od lat stara się robić wszystko, aby wiedza o PEM była oparta o naukę, a nie o szerzące się teorie nie mające poparcia w faktach naukowych dodał Paweł Pławiak. 

    Głos zabrał również Mario Maniewicz, Dyrektor Biura Radiokomunikacji Międzynarodowej Unii Telekomunikacyjnej. Organizacja jest współorganizatorem wydarzenia. 

    Pierwsi dwaj prelegenci reprezentowali Międzynarodowy Instytutu Inżynierów Elektryków i Elektroników IEEE. Prof. Jafar Keshvari mówił o sposobie opracowywania limitów ekspozycji na PEM i częstotliwości ich weryfikacji. 

    – Standardy IEEE opierają się na danych naukowych. Efekty oddziaływania PEM, które zostały udowodnione w recenzowanych artykułach naukowych muszą być spójne i wystąpić w określonych, powtarzalnych okolicznościach. To daje podstawy do wyznaczania poziomu progowego, który może potencjalnie źle wpływać na człowiekapodkreślił prof. Keshvari. 

    Dr Chou Chung-Kwang, przewodniczący Międzynarodowego Komitetu Bezpieczeństwa Elektromagnetycznego IEEE TC95, zajął się ekspozycją na PEM z urządzeń mobilnych. 

    – W sieci 5G sygnał, a w efekcie energia, jest przekazywana tylko tam, gdzie jest użytkownik. Jeżeli nie ma zapotrzebowania na usługi to sygnał nie jest emitowany, więc narażenie na PEM jest mniejsze. Jeżeli chodzi o dotychczas działające sieci 5G pomiary wykazują, że PEM osiąga wartości wynoszące około 1% dopuszczalnych wartości wyznaczonych przez ICNIRP mówił. 

    W kolejnej prezentacji, prof. dr hab. Marek Zmyślony z Instytutu Medycyny Pracy omówił historię tworzenia w Polsce norm związanych z PEM. 

    – Zasada ostrożności dotyczy nie tylko zdrowia czy PEM. Dotyczy ona wszystkich zjawisk, które wykazują dużą niepewność – nie należy podejmować decyzji, jeżeli istnieje nawet niewielkie prawdopodobieństwo negatywnych konsekwencjizaznaczył prof. Zmyślony. 

    Dr Emilie van Deventer z WHO przybliżyła słuchaczom „EMF Project” – program badań nad wpływem PEM na zdrowie ludzkie prowadzony przez WHO od 1996 roku. 

    – Opinia publiczna poświęca dużo więcej uwagi zagrożeniom od PEM niejonizującego, gdzie brak jest naukowych dowodów o szkodliwości przy ustalonych wartościach dopuszczalnych. Z drugiej strony promieniowanie UV lub rentgenowskie nie wywołuje tak dużych obaw mimo, że to właśnie w tych zakresach może mieć negatywny, ustalony wpływ na organizm ludzki zauważyła dr van Deventer. 

    W drugiej części pierwszego dnia konferencji eksperci zajęli się kwestią weryfikacji przestrzegania ustalonych norm PEM. Instytucje nadzoru nad PEM w Polsce i Europie omówił Jakub Kwiecień z Instytutu Łączności. 

    – W Polsce, wyniki pomiarów PEM realizowanych zarówno przez akredytowane laboratoria na zlecenie prowadzących instalacje, jak i w ramach PMŚ są udostępniane i wizualizowane w bezpłatnym i ogólnodostępnym systemie SI2PEMpowiedział Jakub Kwiecień. 

    Dr Peter Unger, dyrektor ds. PEM i środowiska w Deutsche Telekom mówił o sprawdzaniu poziomów PEM w toku procesu inwestycyjnego i późniejszego użytkowania stacji bazowych w Niemczech. 

    – Koncentrujemy się na sieci 5G. Po pierwsze wdrażamy sieć ogólnokrajową w 2100 MHz – ponad 20 tysięcy instalacji. 89% społeczeństwa jest objęte tą siecią. Druga gałąź to duże miasta, w których wdrażamy 5G w częstotliwości 3,6 GHz. Operatorzy są zobligowani, aby zawiadamiać odpowiednie organy o uruchomieniu oraz zakończeniu pracy obiektówpodkreślił dr Unger. 

    Kiedy w metodyce pomiarowej stosować estymacje, a kiedy pomiary? O włoskiej praktyce w tej kwestii opowiadała Marzia Minozzi reprezentująca stowarzyszenie ASSTEL. 

    – Pomiary PEM we Włoszech wykonywane są przez ARPA, są uśredniane w ujęciu 24-godzinnym z uwagi na bardzo rygorystyczne limity PEM. Przedsiębiorcy telekomunikacyjni we Włoszech wciąż mają nadzieję na harmonizację poziomów PEM z tymi z ICNIRP. Operatorzy odgrywają niewielką rolę w komunikacji zagadnień dotyczących PEM do społeczeństwa. Mógłby zaistnieć tutaj konflikt interesów. We Włoszech zderzają się dwa stanowiska – naukowców, którzy są przeciwni stosowaniu pewnych częstotliwości w telekomunikacji, powołując się na badania sprzed nawet 20 lat i nasze, które podkreśla korzyści płynące z sieci 5G. Kluczową rolę w komunikacji dotyczącej PEM odgrywają władze lokalne.powiedziała Marzia Minozzi. 

    Z kolei o tym, jak w praktyce działają normy PEM we Francji, z punktu widzenia operatorów, mówiła Patricia Martigne z Orange. 

    – Opinia publiczna, mieszkańcy muszą wiedzieć o instalacjach, które będą powstawały w ich sąsiedztwach – jest to realizowane w formie dossier dla danej instalacji, które z kolei kierowane jest do lokalnych władz podkreśliła. 

    W trzeciej części spotkania omawiano problem skutecznego komunikowania wyników kontroli przestrzegania norm PEM. 

    O relacji pomiędzy wiarygodnością systemu nadzoru a poziomem zaufania społecznego do kwestii PEM mówił Nenad Radoslavjevic, specjalista serbskiego regulatora RATEL. 

    W Serbii funkcjonuje portal emf.ratel.rs, gdzie publicznie dostępne są geolokalizowane dane dotyczące monitoringu PEM w kraju. Działalność edukacyjna RATEL pozwala na oswojenie wiedzy związanej z PEM. Prowadzimy warsztaty i różnego rodzaju akcje angażujące jak najszersze grono obywatelizaznaczył Nenad Radosavljević. 

    Jak komunikuje się kwestie PEM w Norwegii? Dotyczyła tego prezentacja Edith Helene Unander, głównej inżynier w Departamencie Technologii Norweskiego Urzędu Komunikacji. 

    – Widzimy, że zmieniają się obawy społeczne względem PEM. Duże wątpliwości obecnie budzą liczniki energii elektrycznej, które mają wbudowaną antenę. Dlatego też, jako urząd, przeprowadziliśmy szereg badań i opublikowaliśmy raport, który rozwiał większość wątpliwości – powiedziała. 

    O doświadczeniach pierwszych miesięcy działania systemu SI2PEM opowiadał jeden z jego twórców, Rafał Pawlak z Instytutu Łączności. 

    – PEM jest przedmiotem ciągłej dezinformacji, mitycznych fake newsów – te fałszywe informacje mogą być zagrożeniem dla bezpieczeństwa teleinformatycznego państwa. Ważne jest, aby każdy obywatel mógł w sposób szybki, łatwy i przyjazny mieć dostęp do jednolitych danych o instalacjach SBTK, w tym danych z pomiarów PEM zaznaczył Pawlak. 

    – W dniu startu SI2PEM stronę http://si2pem.gov.pl odwiedziło ponad 5000 unikalnych użytkowników i skorzystało z naszego systemu. Do końca listopada było to już 61 000 unikalnych użytkowników. Widzimy duże zainteresowanie systemem, jego rozbudowa mogłaby polegać na udostepnieniu informacji z monitoringu stacjonarnego. Sieci monitoringu PEM w tej chwili nie ma – jest to potencjalnie bardzo dobry kierunek rozwoju dla systemu SI2PEMdodał. 

    Podczas ostatniego panelu swoją prezentację wygłosił Martin Fenton, dyrektor ds. polityki dotyczącej widma w Spectrum Group of Ofcom z Wielkiej Brytanii, który opowiedział o pomiarach PEM. 

    – Najwyższy zarejestrowany przez nas wynik z pomiarów PEM w otoczeniu stacji bazowej sieci 5G wynosi 7% wartości dopuszczalnej wyznaczonej przez ICNIRPwyjaśnił. 

    O mitygowaniu obaw społecznych oraz o najnowszym raporcie ITU opowiedział Jarosław Ponder, szef biura Międzynarodowego Związku Telekomunikacyjnego (ITU) na Europę, który zapewniał, że ITU przekazuje jasne informacje, które pozwalają łagodzić obawy społeczeństwa. 

    – ITU opracował specjalny program szkoleniowy dotyczący zarządzania widmem, w tym moduł dotyczący wpływu PEM na zdrowie człowieka. Jedną z przyczyn obaw przed siecią 5G jest fakt, że ta technologia jest nowa, a częstotliwości wykorzystywane w przyszłość przez tę sieć jeszcze nie były w tej skali stosowane na potrzeby systemów telefonii komórkowejwyjaśnił. 

    O tym, jak wyglądają pomiary PEM na Litwie opowiedziała Irena Taraškevičienė z Narodowego Centrum Zdrowia Publicznego Ministerstwa Zdrowia Republiki Litewskiej. 

    – Na Litwie każde urządzenie pracujące z mocą powyżej 25 W musi mieć sporządzone raport z planowanego oddziaływania PEM oraz projekt techniczny. Należy zaznaczyć, że reakcja opinii publicznej w związku ze zmianą wartości dopuszczalnej PEM na Litwie była negatywna. Wyniki konsultacji społecznych wskazały, że brakuje wiedzy na temat wpływu PEM na zdrowie ludzi. W ramach tych konsultacji doszliśmy do wniosku, że monitoring sieci 5G powinien być regularnie prowadzony, aby uspokoić obawy społecznewyjaśniła. 

    Ostatni tego dnia swoją prezentację przedstawił dr Jack Rowley, dyrektor ds. badań i zrównoważonego rozwoju, GSMA, który zaprezentował przegląd podejścia do pomiarów PEM w różnych krajach na świecie. 

    – W Peru działają lokalni aktywiści, którzy proponują pewne rozwiązania dotyczące stacji bazowych, lobbują we władzach lokalnych celem braku aprobaty na nowe lokalizacje. Występują również incydenty niszczenia infrastruktury telekomunikacyjnej. Rząd Peru dostrzega potrzebę instalowania nowych stacji bazowych telefonii komórkowej. Przyjmowane są nowe rozwiązania ustawodawcze, tak aby władze lokalne nie mogły odmawiać operatorom wydawania zgody na instalacje wytwarzające PEM. Z kolei w Irlandii główne obawy związane są z tym, gdzie może być sytuowana infrastruktura telekomunikacyjna. Rząd jest bardzo pro-cyfrowy, nastawiony na rozwój infrastrukturytłumaczył. 

    Zapis wszystkich wystąpień podczas I dnia VI Międzynarodowej Konferencji PEM można znaleźć na profilu Instytutu Łączności w serwisie YouTube. 

    Dziś drugi dzień konferencji, który startuje 2.12 o godz. 9, otworzy prof. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego oraz Jacek Oko, Prezes UKE. Ten dzień poświęcony będzie edukacji i tego jak przekazywać tak trudne zagadnienia, jakim są tematy związane z PEM w łatwy sposób oraz szeroko pojętej dezinformacji. 

  • Sztuczna Inteligencja w służbie cyberbezpieczeństwa w Amica S.A.

    Sztuczna Inteligencja w służbie cyberbezpieczeństwa w Amica S.A.

    Skąd zainteresowanie nowymi technologiami jak Sztuczna inteligencja w zakresie cyberbezpieczeństwa?

    Jerzy Zieliński, Chief Information Officer, Grupa Amica S.A.: Wiele osób, zwłaszcza w Polsce, zna markę Amica. Jednak już znacznie mniej zdaje sobie sprawę z tego, że Amica S.A. to największy polski producent sprzętu AGD, który od lat z powodzeniem eksportuje swoje produkty na wiele rynków na świecie. W związku z tym znacznie mniej osób jest świadomych rozległości i stopnia skomplikowania struktury organizacyjnej firmy. Musimy pamiętać o tym, że Amica to nie tylko fabryka we Wronkach, ale także liczne biura i fabryki poza granicami kraju. W kilkunastu krajach posiadamy rozbudowaną infrastrukturę informatyczną, którą zarządzamy centralnie. Rozległość terytorialna generuje niemałe problemy w monitorowaniu środowisk w oddziałach lokalnych i zagranicznych firmy.

    Dynamiczny rozwój firmy, a co za tym idzie infrastruktury  IT pociąga za sobą konieczność ciągłego doskonalenia posiadanych umiejętności, zdobywania nowych oraz podnoszenia poziomu dojrzałości organizacji pod kątem cyberbezpieczeństwa. W świetle szybko zmieniających się zagrożeń związanych z cyberatakami, zauważyliśmy, iż systemy mające zabezpieczać infrastrukturę IT na podstawie sygnatur, czy wzorców ataków są zwyczajnie niewystarczające, ponieważ wykrywają tylko znane już zagrożenia. Jak wiemy przestępcy są mocno zmotywowani do tego, by najdłużej pozostać w ukryciu, aby mieć więcej czasu na przeprowadzenie skutecznego ataku.

    Szukając technologii, która mogłaby uzupełnić naszą koncepcję rozwoju, jednocześnie skutecznie podnieść poziom bezpieczeństwa organizacji, naszą uwagę przykuła szybko rozwijająca się i coraz częściej wykorzystywanej technologia sztucznej inteligencji w obszarze cyberbezpieczeństwa. Analiza potrzeb w tym zakresie wykazała, iż innowacyjna technologia wykorzystująca analizę behawioralną wspomagana sztuczną inteligencją jak i głębokim uczeniem maszynowym może być jednym z najskuteczniejszych kierunków rozwoju, umożliwiającym skuteczną identyfikację i powstrzymanie zagrożeń w sieci w czasie rzeczywistym. Dlatego podjęliśmy decyzję o sprawdzeniu dostępnych rozwiązań na rynku i analizie dodatkowych korzyści wynikających z ich implementacji.

    Jerzy Zieliński
    Jerzy Zieliński, Chief Information Officer, Grupa Amica S.A.

    W jaki sposób szukaliście tego rozwiązania spełniającego Wasze oczekiwania i co skłoniło Was do wyboru?

    Jerzy Zieliński: Bezpieczeństwo było i jest dla nas najwyższym priorytetem, dlatego przeprowadziliśmy rzetelny proces oceny dostępnych rozwiązań wykorzystujących sztuczną inteligencję w zakresie cyberbezpieczeństwa. Jak powiedziałem wcześniej, technologia ta jest coraz szerzej i chętniej stosowana, dlatego ograniczając wszelkie kompromisy technologiczne i funkcjonalne, skupiliśmy się wyłącznie na rozwiązanych czołowych producentów mających największe doświadczenie w tym zakresie, posiadających ugruntowaną pozycję na rynku. Zależało nam również na rozwiązaniu, które będzie łatwe w implementacji i utrzymaniu oraz gwarancji, iż zintegruje się z istniejącym środowiskiem, tworząc spójną infrastrukturę zapewniająca maksymalne bezpieczeństwo.

    Wybór padł na platformę Vectra Cognito Detect jako spełniającą nasze wymagania w obszarze wykrywania i reagowania na zagrożenia w sieci. Firma Vectra posiada ogromne doświadczenie w obszarze zarówno bezpieczeństwa jak i analizy danych, opracowała i opatentowała niezwykle skuteczne algorytmy maszynowego uczenia się właśnie w obszarze cyberbezpieczeństwa. Słuszność tego wyboru potwierdził też raport Magic Quadrant firmy Gartner, w którym Vectra jako jedyny producent znalazła się w kwadracie wizjonerskim, tak więc współpracujemy z partnerem, któremu zależy na nieustannym rozwoju i wytyczaniu nowych kierunków dla tego typu systemów. Vectra ewidentnie jest nie tylko pionierem w tym względzie, jest równocześnie wizjonerem.

    Jak przebiegło wdrożenie i jakie dodatkowe korzyści zauważyliście po wdrożeniu?

    Jerzy Zieliński: Szczegółowa analiza wymagań i oczekiwań oraz testy poprzedzające wdrożenie, przeprowadzone przez firmę Advatech, wspólne zaangażowanie naszego zespołu ds. bezpieczeństwa oraz zespołu inżynierów Vectra i Advatech pozwoliły na szybką i sprawną implementację oraz integrację rozwiązania z istniejącymi komponentami naszej infrastruktury.

    Już w pierwszych dniach użytkowania systemu zdaliśmy sobie sprawę, że łatwość obsługi oraz automatyzacja Vectry w połączeniu z jej wysoką skutecznością przyczynią się do poprawy efektywności pracy zespołu ds. bezpieczeństwa, przyspieszając analizę każdego ataku i reakcję mającą na celu wyeliminowanie zagrożenia.

    Czytelny pulpit nawigacyjny rozwiązania Vectra Cognito dostarcza wszelkich niezbędnych informacji, dotyczących statusu bezpieczeństwa w sieci, nadając odpowiednie priorytety wykrytym przypadkom naruszenia bezpieczeństwa, minimalizując tym samym ilość danych nadmiarowych, których obecność mogłaby zaciemniać rzeczywisty obraz sytuacji i spowolnić analizę.

    Wyróżnikiem rozwiązania Vectra Cognito jest także to, iż podczas analizy ruchu sieciowego, skupia się na analizie behawioralnej zarówno urządzeń i użytkowników, mapując je na framework MITRE ATT&CK, który szczegółowo opisuje taktyki, techniki i procedury (TTP) stosowane przez atakujących. Rozwiązanie to monitoruje pełen ruch sieciowy pozwalając na wykrycie i zatrzymanie ataku jeszcze we wstępnej fazie, dając możliwość szybkiej reakcji i zapewniając bezpieczeństwo całej infrastruktury.

    Vectra Cognito nie ogranicza się tylko do monitorowania infrastruktury „on-premis”, dodatkową jego zaletą jest również możliwość analizy środowisk AWS, Azure, kont Office 365, wraz z analizą zachowań użytkowników zaobserwowanych na poziomie Active Directory, SharePoint, OneDrive, Exchange oraz Teams.

    Jak wygląda codzienna praca z systemem Vectra Cognito Detect?

    Jerzy Zieliński: Implementacja rozwiązania Vectra Cognito Detect pozwoliła zobaczyć nam więcej w obszarach, które do tej pory nie były widoczne lub w sposób automatyczny monitorowane. Takie rozwiązanie zapewnia większą swobodę działania i daje więcej czasu na podjęcie właściwych decyzji. Integracja z innymi elementami naszej infrastruktury pozwala na przeprowadzenie gruntownego śledztwa i dokładna analizę zagrożenia.
    Uważam, iż Vectre Cognito można potraktować jako dodatkowego członka zespołu ds. bezpieczeństwa, który pracuje 24h na dobę uważnie monitorując naszą sieć wspiera pozostałą cześć zespołu w czasochłonnej analizie zdarzeń bezpieczeństwa. Dzięki temu skutecznie podnieśliśmy bezpieczeństwo do nowego do tej pory nieosiągalnego poziomu.


    Komentarz Integratora:

    – Jako integrator działający w obszarach bezpieczeństwa i dostępu do danych jesteśmy obecni na rynku już od ponad 20 lat. Nasz dział Cybersecurity to przede wszystkim wykwalifikowani i doświadczeni inżynierowie posiadający szeroką wiedzę z zakresu bezpieczeństwa. W 2018 roku dostarczyliśmy dla Grupy Amica platformę SIEM, która teraz została rozszerzona o narzędzie klasy NDR, wzbogacone o sztuczną inteligencję. Sprawdzona metodyka prowadzenia dużych i wymagających projektów przełożyła się na szybki czas i bezproblemową implementację, która w rezultacie przełożyła się na zadowolenie Klienta.Nowe systemy oparte przede wszystkim na sztucznej inteligencji zwiększą bezpieczeństwo cybernetyczne w Grupie Amica S.A. mówi Marcin Janusz, Kierownik ds. Kluczowych Klientów, Advatech.

  • VMware ogłasza wyniki finansowe za trzeci kwartał

    VMware ogłasza wyniki finansowe za trzeci kwartał

    VMware ogłosił wyniki finansowe za trzeci kwartał roku finansowego 2022:

    • Przychody wyniosły 3,19 mld USD, co oznacza wzrost o 11% w porównaniu z Q3 roku obrotowego 2021.
    • Połączenie subskrypcji i SaaS oraz przychodów z licencji wyniosło 1,53 mld USD, co stanowi wzrost o 16% w stosunku Q3 roku obrotowego 2021.
    • Przychody z subskrypcji i usług SaaS w trzecim kwartale wyniosły 820 mln USD, co oznacza wzrost o 21% w porównaniu do ub. r.
    • Księgowa stopa zwrotu z tytułu subskrypcji i SaaS w trzecim kwartale wyniósł 3,31 mld USD, co oznacza wzrost o 25% w porównaniu z analogicznym okresem roku ubiegłego.
    • Zysk netto GAAP za trzeci kwartał wyniósł 398 mln USD, czyli 0,94 USD na akcję rozwodnioną, co oznacza spadek o 8% w porównaniu do 434 mln USD. Zysk netto nieuwzględniający GAAP za trzeci kwartał wyniósł 725 mln USD, czyli 1,72 USD na akcję rozwodnioną, co oznacza wzrost o 3% porównaniu do 704 mln USD za trzeci kwartał roku obrotowego 2021.
    • Dochód operacyjny GAAP za trzeci kwartał wyniósł 519 mln USD, co stanowi wzrost o 21% w stosunku do trzeciego kwartału roku obrotowego 2021. Dochód operacyjny nieuwzględniający GAAP za trzeci kwartał wyniósł 935 mln USD, co stanowi wzrost o 5% w stosunku do trzeciego kwartału roku obrotowego 2021.
    • Przepływy pieniężne z działalności operacyjnej w trzecim kwartale wyniosły 1,09 mld USD. Wolne przepływy pieniężne w trzecim kwartale wyniosły 984 mln USD.

    – Jesteśmy zadowoleni z naszych wyników w III kwartale. Podczas VMworld zaprezentowaliśmy wiele nowości, pokazaliśmy, w jaki sposób pomagamy przekształcać firmy i jak prężnie działają nasze innowacje”powiedział Raghu Raghuram, CEO VMware. Naszą misją jest bycie zaufanym dostawcą oprogramowania, które przyspiesza innowacje bez żadnych kompromisów. Pomagamy organizacjom w uwolnieniu pełnego potencjału chmury wielochmurowej.

    – W III kwartale utrzymaliśmy stabilny wzrost przychodów i rentowności, przy czym ARR w zakresie subskrypcji i SaaS wzrósł o 25% w ujęciu rocznym do 3,3 mld USD — powiedział Zane Rowe, wiceprezes wykonawczy i dyrektor finansowy VMware. Nasze wyniki odzwierciedlają silny wzrost w ujęciu rocznym w głównych kategoriach produktów, ponieważ dostarczamy naszym klientom istotną wartość.

  • Najgorętszy okres w e-handlu zwiększy aktywność cyberprzestępców

    Najgorętszy okres w e-handlu zwiększy aktywność cyberprzestępców

    Z końcem października, będącego miesiącem cyberbezpieczeństwa, rozpoczyna się najgorętszy okres w handlu – zarówno dla sprzedawców, jak i oszustów, którzy czekają, by wykorzystać niedopatrzenia, czy luki w zabezpieczeniach. Wraz ze wzrostem popularności zakupów online oraz zbliżającym się szczytem handlowym, nadchodzi ostatni moment, aby właściciele sklepów zapewnili bezpieczeństwo swoim klientom. Co mogą zrobić, by zbudować tarczę ochronną na czas?

    40% detalistów twierdzi, że ponad połowa ich rocznej sprzedaży przypada na okres szczytu zakupowego. Choć jest on niewątpliwie dużą szansą biznesową dla sprzedawców, może nieść także zagrożenie dla ich działalności – szczególnie jeśli firmy oferują sprzedaż online i nie są do niej odpowiednio przygotowane. Aż 58 proc. konsumentów odkrywa produkty przeglądając marketplace’y,  które niemal codziennie stają w obliczu oszustw[1]. Niestety, szczególnie w okresie świątecznym, kiedy zakupy online są bardziej intensywne, przestępcy mają tendencję do zwiększania swojej aktywności. Właściwe przygotowanie e-sklepu ma kluczowe znaczenie w zwalczaniu tego typu działalności, zapewniając jednocześnie poziom usług, jakiego oczekują klienci.

    Przyszłe korzyści z minionych doświadczeń

    Jednym z czynników, który odgrywa ważną rolę w wykrywaniu oszustw, jest całościowy obraz danych dotyczących płatności – połączenie osobistych informacji o kupującym i historii jego zakupów, które robi zarówno w Internecie, jak i w sklepie fizycznym. Spójny system płatności może natychmiast zidentyfikować i zarejestrować konto oraz powiązać dane w całej sieci omnichannel.

    Dla przykładu – klient wchodzi do sklepu w Warszawie i kupuje parę butów płacąc kartą. Transakcja weryfikowana jest za pomocą kodu PIN. Tej samej nocy kupuje na stronie internetowej tego sklepu dodatkową parę skarpetek, przy czym adres IP kupującego rejestruje się zaledwie 10 km od sklepu, który odwiedził kilka godzin wcześniej. W takiej sytuacji prawdopodobieństwo tego, że zamówienie jest autentyczne, jest niezwykle wysokie.

    W ten sposób, dzięki dodatkowym danym i elastycznemu systemowi ryzyka, firmy są w stanie wykorzystać dokładniejsze profile kupujących, aby zrozumieć ich regularne zachowanie oraz to, jak zmienia się ono po przejęciu konta przez niepożądaną osobę. Aby stworzyć stabilny kontekst, setki powiązanych parametrów brane są pod uwagę w czasie rzeczywistym, nawet jeśli kupujący zmienia urządzenia, sieć lub tożsamość. W rezultacie płatność nie jest postrzegana wyłącznie w kategoriach liczbowych. Zamiast tego, łatwo można dostrzec wzorce, zachowania i charakter samych kupujących.

    Przykłady ulubionych zagrywek oszustów

    ·       Szczyt sezonu nie kręci się wyłącznie wokół Czarnego Piątku czy Świąt Bożego Narodzenia. Biorąc pod uwagę jedną czwartą wszystkich konsumentów, którzy zwracają od 5 do 15 proc. artykułów zakupionych online, szaleństwo zakupowe trwa aż do stycznia[2]. Przestępcy atakują, gdy tylko zorientują się, że sprzedawcy mają słaby punkt – oszustwa związane ze zwrotami to powszechnie praktykowana przez nich aktywność, która może kosztować firmy miliony. Choć zwroty są normalną częścią biznesu, zawsze znajdą się ludzie, którzy zamienią ten proces w okazję do wyłudzenia pieniędzy. Brak właściwej struktury zarządzania ryzykiem, pomagającej w identyfikacji klientów i zarządzaniu zwrotami, najprawdopodobniej spowoduje, że firma poniesie straty.

    ·       W Internecie nie brakuje skompromitowanych kart kredytowych, których zdobycie nie stanowi kłopotu. Aby szybko wykorzystać je do niebezpiecznych celów, przestępcy używają zautomatyzowanych narzędzi, które wysyłają wiarygodnie wyglądające małe zamówienia do niepodejrzewających niczego sprzedawców. Od tego już tylko mały krok do podejmowania takich prób na masową skalę. Znajomość zachowań kupujących i stosowanie kontroli ryzyka oraz innych reguł biznesowych pozwala na blokowanie podejrzanych działań.

    ·       Zarówno kupujący, jak i sprzedający są podatni na nieuczciwe praktyki, do których należy np. przejmowanie kont. Oszuści przeanalizowali wiele popularnych marketplace’ów i zauważyli, że istnieje ogromna liczba kupujących, którzy wszędzie używają tych samych loginów i haseł. To pierwszy, podstawowy element bezpieczeństwa, o którym wielu nabywców łatwo zapomina, a który stanowi główny punkt zaczepienia dla oszustów. Udostępnienie dwuskładnikowego uwierzytelniania (2FA) pomaga chronić konto kupującego, uniemożliwiając zalogowanie się nieupoważnionym użytkownikom, nawet jeśli udało im się zdobyć nazwę użytkownika i hasło.

    Bezpiecznie, ale niewygodnie?

    Marki często nie chcą komplikować procesu płatności poprzez dodawanie kolejnych form weryfikacji użytkowników, by uniknąć „tarcia”. Jednak całkowity brak widocznych metod zarządzania bezpieczeństwem jest głównym powodem, dla którego klienci porzucają finalizację transakcji[3].

    Właściwa równowaga pomiędzy optymalizacją strategii ochrony przed oszustwami a liczbą kroków uwierzytelniania transakcji może stanowić niemałe wyzwanie, jednak bezpieczeństwo zawsze powinno być priorytetem. Losowe dostosowywanie zasad i polityk, zamiana jednego modelu biznesowego na inny lub integracja z dodatkowymi trzecimi stronami w celu weryfikacji danych klienta stanowi jakieś rozwiązanie, ale zazwyczaj nie jest ono najbardziej efektywne. W tym miejscu warto skupić się na 3D Secure 2 – protokole uwierzytelniania zapewniającym dodatkową warstwę weryfikacji, odbywającą się w ramach strony internetowej lub aplikacji mobilnej z wykorzystaniem metod uwierzytelniania pasywnego, biometrycznego i dwuskładnikowego. Dzięki temu cały proces jest bardziej bezproblemowy i przyjazny dla użytkownika.

    „Skuteczne zarządzanie oszustwami polega na podejmowaniu decyzji opartych na solidnych danych, a nie na pozostawianiu sprawy opiniom i nieudanym próbom. Konieczne jest przy tym Znalezienie równowagi pomiędzy oferowaniem klientom bezproblemowych zakupów bez zakłócania ich ogólnego doświadczenia. Dlatego staramy się dostarczać unikalne narzędzia do zapobiegania oszustwom, które ograniczają ilość manualnych działań i zapewniają pełną przejrzystość transakcji płatniczych”komentuje Jakub Czerwiński, VP CEE w Adyen.

    Oszustwa związane z płatnościami online to dla współczesnych sprzedawców część biznesu. Nie oznacza to jednak, że nie mogą oni nic zrobić, aby ochronić się przed przestępcami i mieć pewność, że dołożyli wszelkich starań, by powstrzymać ataki, zabezpieczając w ten sposób swoich nabywców. Proaktywność, właściwa organizacja i współpraca człowieka z technologią tworzą odpowiednią linię obrony.

    [1] Preparing for Peak Season: Consumer Shopping Trends in the Age of COVID-19
    [2] The returning conundrum, Shopify
    [3] The 2018 Global Fraud and Identity Report, Experia

  • Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    „Dokładny, pewny czas ma swoją wartość i ona stale rośnie.” – mówi Tomasz Widomski z Elpromy – jednego ze światowych liderów synchronizacji w IT, czyli dostarczania siecią komputerową precyzyjnej informacji o czasie w rozmowie z Waldemarem Sielskim.

    Waldemar Sielski: Kiedy pojawiło się w Elpromie zainteresowanie synchronizacją czasu?

    Tomasz Widomski: W roku 1996 opracowaliśmy pierwszy odbiornik GPS dołączany przez RS232 do komputera PC. Wówczas byliśmy przekonani, że GPS to świetne rozwiązanie. Jednak na przestrzeni lat zrozumieliśmy, że przemysł ewoluuje w stronę systemów rozproszonych i zbyt silnie uzależnia się od niedoskonałego GPS. Coraz częściej pytano o rozwiązania sieciowe Ethernet z protokołem NTP (Network Time Protocol). W roku 2000 powstał pierwszy sieciowy serwer czasu zrealizowany na zamówienie polskiego Sejmu. Tak się składa, że w roku 2020, a więc równo w 20 lat później, najnowszą wersję tego serwera z protokołem PTP IEEE1588 dostarczyliśmy do Parlamentu Europejskiego i Komisji UE. Ta wersja jest odporna na manipulacje sygnału GPS.
    Czytaj: Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE | BrandsIT.pl – Portal Technologiczny

    WS: Synchronizacja czasu to zagadnienie specjalistyczne i mało znane. Może dlatego, że nawet zdefiniowanie czasu nie jest łatwe, prawda?

    TW: Odpowiadając na pytanie „Czym jest czas” zacytuję św. Augustyna „Jeśli nikt mnie o to nie pyta, wiem. Jeśli pytającemu usiłuję wytłumaczyć, nie wiem”. Intuicja podpowiada, że skoro umiemy czytać zegary to sprawa nie jest trudna – nic bardziej mylnego. W fizyce czas oznacza zmianę, a w elektronice pełni rolę „dyrygenta orkiestry” układów scalonych. Określanie jednoczesności zdarzeń z dużą dokładnością jest dzisiaj w cenie. Szczególnie widać to w sektorze finansowym na zrobotyzowanych giełdach Wall Street i w Londynie, gdzie algorytmy wychwytują najdrobniejsze różnice notowań akcji tych samych spółek, w idealnie tym samym momencie, ale na oddalonych od siebie parkietach. Sprzedają, gdzie drożej i kupują te same papiery taniej – to czysty zysk i to bez ryzyka. Rygory synchronizacji określa unijna dyrektywa MiFID II. Obowiązuje ona też w Polsce.
    Czytaj: Czas i pieniądze | BrandsIT.pl – Portal Technologiczny
    Od prawie ćwierć wieku zajmujemy się profesjonalną telemetrią M2M (Machine-to-Machine), a przesyłanie czasu siecią TCP/IP jest jej poddziedziną z pogranicza metrologii czasu. Niewiele osób wie, że synchronizacja zegarów opiera się na zwykłej teorii sygnałów. Sam mechanizm przesyłania danych z czasem nie różni się od zdalnego odczytu liczników prądu, gazu czy wody, czyli popularnego dziś smart-metering. Zadziwić może fakt, że przesyłanie czasu siecią nie wymaga nawet rygoru zachowania czasu rzeczywistego. Nie ma znaczenia dla dokładności czy dane te podróżują siecią długo, czy krótko. Ważna jest za to ich cykliczność, stabilna regularność i dwukierunkowa wymiana informacji między synchronizowanymi komputerami. Synchronizacja to porównanie zegarów na poziomie systemu operacyjnego Windows, Linux, OSX, wymuszająca korektę ich nastawień, tak aby pozostawały możliwie zgodne. Synchronizacja różni się więc od telemetrii właśnie o dodatkową inteligencję korygowania zegara.

    WS: Dlaczego synchronizacja przenosi się do sieci komputerowej?  Przecież synchronizacja działała do tej pory dobrze poza siecią.

    TW: Wcześniej do sieci uciekł przemysł, telekomunikacja, energetyka, multimedia, a ostatnio również telewizja. W sieci jest wszystko, bo tak jest taniej, mniej kabli do układania i łatwiejsze zarządzanie. Teraz przyszła kolej na „czas z gniazdka”, tzn. taki, który zapewni stabilność całego IT. Czas dystrybuowany Ethernetem stanowi skuteczną alternatywę dla lokalnego GPS, z którym mamy coraz większy kłopot. Czas wywołuje w przemyśle skutki prawne i wzrasta odpowiedzialność karna za powstałe awarie infrastruktury. Chcemy to minimalizować. Chodzi o to, aby być przygotowanym, gdy współzależność systemów w Przemyśle 4.0 osiągnie tak wysoki poziom, w którym zaburzenie jednego elementu zagrozi efektem domina w skali odczuwalnej dla regionu lub całej gospodarki. Zachód to już zrozumiał. Nam niestety nie starcza tu wyobraźni, że to ostatni już moment na poprawę krytycznych infrastruktur szkieletowych. Trochę przypomina to dyskusje nad zmianami klimatycznymi. Ponoć zawsze jest pora, ale pewnego dnia okaże się, że już jest za późno, a skutki będą fatalne.
    Jest też inny powód, dlaczego synchronizacja przenosi się do sieci komputerowej. To konieczność synchronizacji systemów rozproszonych. A dzisiaj w erze chmury wszystko jest rozproszone, zaczynając od Microsoft Azure, po miniaturową sieć łączącą lidary-IP pracujące pod maską autonomicznego samochodu marki Tesla. Wyzwaniem jest zawsze precyzyjne wyznaczanie wspólnego momentu – chwili „teraz” i znakowanie danych jakie sensory wysyłają do serwera centralnego nadzorującego proces. Dokładność osiągnęła już poziom nanosekund i podąża w stronę pikosekund. Te największe dokładności widać w systemach jednofotonowej kryptografii kwantowej QKD, jakie mają od dekady banki w Szwajcarii i British Telecom. Nas interesuje jednak zwykły przemysł i dużo mniejsze dokładności, gdzie potrzebne jest wspólne źródło stabilnego czasu. A stabilność i dokładność idą w jednej parze.

    WS: To może źródłem czasu mógłby być GPS i jego sygnał 1PPS (Pulse-per-second signal – Wikipedia)?

    TW: Zasadniczym problemem amerykańskiego GPS i innych systemów satelitarnych GNSS jest ich wojskowa natura. Z wyjątkiem europejskiego GALILEO, wszystkie pozostałe nie mogą zapewnić dostępności UTC (Uniwersalny czas koordynowany – Wikipedia, wolna encyklopedia) w sytuacjach kryzysowych. Istnieją stosowne dyrektywy zezwalające na ograniczanie dostępności GPS bez uprzedzenia opinii publicznej. Zdarzają się też awarie, błędy satelitów, pomyłki w telemetrii ziemia-kosmos. Jako firma śledzimy i analizujemy wszystkie te przypadki. W Elpromie posiadamy wiedzę jak temu zapobiegać. Największy problem stanowią jednak same urządzenia do odbioru sygnału satelitarnego. W synchronizacji opartej o odbiorniki komercyjne GNSS błąd jednego roku jest tak samo prawdopodobny jak błąd o jedną milisekundę. Dzieje się tak, ponieważ wewnątrz sprzętu GNSS czas reprezentowany jest numerycznie i podlega procesowi przetwarzania wykazując podatność na błędy przepełnień. Ma to miejsce, zwłaszcza, gdy producent upchnie w jednym bajcie obok siebie czas i datę. Łatwo wtenczas przenieść bit przepełnienia określający milisekundę na pole kodującą informacje o dacie i problem dużego skoku w czasie jest gotowy. Sam odbiornik GNSS ma tu sporo do policzenia i wiele okazji do pomyłek. Danymi z GNSS można też łatwo manipulować tworząc fałszywą emisję sygnałów satelitarnych na ziemi. Nazywa się to spoofingiem. Można też zagłuszać oryginalny sygnał, co nazywamy jammingiem. Obecnie sygnał GPS jest bardzo narażony na takie manipulacje i celowe cyberataki. Coraz częściej zdarzają się ataki na całe infrastruktury krytyczne państw. W 2019r. Izrael odnotował zagłuszanie GPS nad tym państwem, więc to może się przydarzyć również Polsce. Znane są też przypadki podobnych awarii telekomunikacyjnych w Wielkiej Brytanii. Niewiele firm przyznaje się jednak do takich problemów w obawie o skutki komercyjne, ryzyko utraty klientów, niechęć inwestorów. Dlatego są one możliwie ukrywane przed opinią publiczną. Firmy starają się im same zapobiegać.

    WS: Czyżby synchronizacja jest obok telemetrii również dziedziną cyberbezpieczeństwa?

    TW: Zdecydowanie – TAK! Dziś synchronizacja ściśle wiąże się z cyberbezpieczeństwem. Zamiast włamywać się do sieci wewnętrznej, prościej jest destabilizować jej pracę poprzez zdalne zaburzenie synchronizacji, np. manipulując sygnałami GPS. Reszta destrukcji wykona się praktycznie sama, jeżeli system nie jest na to przygotowany. Elproma pokazała konkretne scenariusze ataków na system synchronizacji podczas paneli eksperckich w Brukseli w roku 2017, w sesji poświęconej bezpieczeństwu energetyki DG-Energy i bezpieczeństwu sieci DG-CNET. Mieliśmy też przydzielony czas w 2018r. podczas pokazów salonu lotniczego w Paryżu. Niestety gdziekolwiek jesteśmy zapraszani jako eksperci nie spotykamy nikogo z Polski – jesteśmy tam jedyni – to nas bardzo martwi.
    Ponadto, manipulując czasem można zaburzyć chronologię zapisanych zdarzeń w dziennikach LOG. Traci się wtenczas bezpowrotnie szansę analizy błędów i ustalenia źródła awarii. To idealne warunki dla hakerów, którzy odwracają w ten sposób uwagę od rzeczywistej przyczyny ataku. Nietrudno tak zmanipulować zapis LOG, że zarejestrowany skutek wyprzedzi w czasie własną przyczynę. Dlatego rekomendujemy, aby w infrastrukturach krytycznych używać autentykacji serwerów czasu oraz znakować kryptograficznie czasem zapisy w LOG. Dziś zmianie uległ cały paradygmat cyberbezpieczeństwa, a ataki hackerskie klasy „Time synchronization attack” i „Time delay attack” są jednymi z prawdopodobnych i najniebezpieczniejszych dla silnie zautomatyzowanej i uzależnionej od GPS gospodarki.
    Dlatego mówi się dziś o rosnącym znaczeniu czasu urzędowego. Potrzebna jest unifikacja wzorca czasu UTC i normalizacja standardów dla Przemysłu 4.0. Alternatywne dla GPS przesyłanie wzorca siecią Ethernet robi się ważne. Standaryzacja jest tu przedmiotem prac wschodzącej technologii TSN (ang.  Time Sensitive Networking – Time-Sensitive Networking – Wikipedia). Synchronizacja i precyzyjne znakowanie czasem będzie też wywoływać następstwa prawne, nie tylko jako konsekwencja awarii, ale również wprowadzi skutki w postaci np. nowych rodzajów podatków. Tak jest już dziś we Włoszech dla transakcji giełdowych w tzw. HFT.
    Podobnie wygląda sytuacja w energetyce rozproszonej smart-grids. W Polsce mamy obecnie okres poprzedzający tę erę. Jako kraj pozostajemy nadal skoncentrowani na telemetrii zdalnych odczytów smart-metering, gdzie dokładność nie jest aż tak ważna, chociaż sama synchronizacja jest bardzo tam bardzo potrzebna. Wyzwaniem będzie transformacja do energetyki rozproszonej. Polskę czeka tu milowy krok i konieczność stworzenia skalowalnej infrastruktury szkieletowej oferującej dwukierunkowy przepływ prądu. Rejony z nadmiarem energii muszą w przyszłości wspierać rejony z jej niedomiarem. Sytuacja energetyczna i kierunek płynięcia prądu będą się zmieniać dynamicznie i to wymaga synchronizacji nanosekundowej.
    Czytaj: Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna? | BrandsIT.pl – Portal Technologiczny
    Bez zgodności czasu, niemożliwym jest też precyzyjne strojenie pasm radiowych ani zarządzanie kanałami transmisyjnymi telefonii 5G, ani telewizji cyfrowej DVB-T2. Można by było ratować się wprowadzaniem tu dodatkowych zabezpieczeń, ale odbywałoby się to kosztem obniżenia wydajności posiadanego pasma, zakupionego przecież za bardzo duże pieniądze. W konsekwencji zmniejszałaby szybkość transmisji oraz liczba jednocześnie obsługiwanych abonentów, w tym urządzeń telemetrii bezprzewodowej M2M, a to ponownie stwarza zagrożenie dla stabilności Przemysłu 4.0.
    Czytaj: Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0 | BrandsIT.pl – Portal Technologiczny

    WS: Jak uzyskuje się dokładną informację o czasie?

    TW: Za wyznaczanie czasu UTC odpowiada w każdym państwie narodowy instytut metrologii.
    W Polsce rolę tę pełni Główny Urząd Miar RP, z którym Elproma współpracuje od lat. Urząd może kalibrować, tzn. dostrajać dostarczone mu zegary do narodowych, cezowych wzorców czasu. Urząd udostępnia też swoje wzorce publicznie przy pomocy protokołów NTP, a ostatnio również PTP IEEE1588. Sposoby rozpowszechniania wzorców czasu urzędowego określa rozporządzenie (Dz.U 56/2004 poz. 548). Czas jest chroniony prawnie nie tylko w naszym kraju. Niebawem, czasem obowiązującym na terenie UE będzie również czas z systemu GALILEO. Wyznaczanie narodowych skal UTC koordynuje BIPM Francja. Czas dla GALILEO tworzą europejskie laboratoria. Polska i GUM biorą w tym również czynny udział.  Firmy Elproma i PIK-Time współuczestniczą w projekcie GIANO Horizon 2020. To projekt budowy pierwszego europejskiego odbiornika satelitarnego z kryptograficzną autentykacją PKI bezpośrednio z poziomu satelitów GALILEO. Liderem projektu jest fabryka satelitów Thales Alenia Space Włochy, a wykonanie części sieciowej powierzono polskiej Elpromie.
    Ale czas UTC nie jest tak uniwersalny jak wskazuje to jego nazwa i tu pojawiają się rozbieżności między UTC laboratoriów poszczególnych państw UE. To wyzwanie również dla GALILEO, którego czas zależy od wielu laboratoriów. Dzięki uprzejmości BIPM w Paryżu, możemy to pokazać na danych historycznych porównania UTC: Włoch, Wielkiej Brytanii, Niemiec, Francji i Hiszpanii. Pokazane tu rozbieżności są większe niż wymaga się dziś od stabilności UTC dla telekomunikacji 5G. Dzisiaj wygląda to lepiej niż 10 lat temu, ale prace nad poprawą dokładności nadal trwają nieustannie. Wprowadza się też nowe generacje satelitów GPS i GALILEO. Różny jest też czas pomiędzy poszczególnymi systemami satelitarnymi grupy GNSS. Np. rozbieżność między amerykańskim GPS a rosyjskim GLONASS wynosi aż 40ns. Dla energetyki rozproszonej smart-grids i telekomunikacji 5G to zdecydowanie zbyt dużo.

    UTC(k)
    źródło: konferencja PTTI/ION dzięki uprzejmości prof. Patrycji Tavelli z BIPM

    WS: A jaki jest wkład Elpromy w synchronizację światową?

    TW: Elproma wyspecjalizowała się w synchronizacji infrastruktur krytycznych oraz w obsłudze profesjonalnej metrologii czasu. Dostarczamy zgodny i stabilny czas urzędowy na dużym obszarze tam, gdzie warunki odbioru sygnałów satelitarnych są trudne lub niepewne, a priorytetowe pozostaje cyberbezpieczeństwo. W roku 2019 dostarczyliśmy 300+ rubidowych serwerów NTS-5000 do energetyki smart-grid w Azji. Pokonaliśmy tam nowozelandzką firmę Tekron, którą niedawno kupił amerykański koncern Microchip notowany na NASDAQ. Wartość transakcji została utajniona, ale uważa się, że mogła ona osiągnąć wielkość 20mln U$. Wcześniej Microchip przejął Microsemi, ten wchłonął Symmetricom, który w pierwszej dekadzie tego millenium porządkował amerykański rynek synchronizacji i przejął w USA firmy Truetime (za ok. 20mln US$) i Datum (za ok. 80mln US$). Podkreślam to, ponieważ wygrywamy na arenie, gdzie są przejęcia i fuzje liczone w dziesiątkach milionów dolarów. Elpromę traktuje się tu z dużą powagą jako gracza i konkurenta. Podpatruje się co robimy,
    a nierzadko kopiuje nasze pomysły. Wydaje nam się, że to spory wkład – bo w taki sposób rozsławiamy polską myśl techniczną, w trudnym niszowym segmencie zaliczanym do high-tech.
    Nasz udział w światowej służbie czasu wykracza też poza codzienny biznes. Wyznaczamy kierunki i trendy – szczególnie te w zakresie cyberbezpieczeństwa synchronizacji. W latach 2009-2013 współtworzyliśmy protokół White Rabbit w CERN, który w maju 2020 doczekał się standaryzacji i włączenia do IEEE1588:2019. Później w latach 2013-2014 opracowaliśmy specjalistyczny komputer przemysłowy TAKT kompensujący wewnętrzne opóźnienia do zera. W latach 2015-2016 uczestniczyliśmy w projekcie Horizon 2020 DEMETRA prezentując unikatowy model dystrybucji czasu urzędowego z funkcją zdalnego audytu czasu. Nasze prace są wysoko ocenione i jesteśmy regularnie cytowani. Jesteśmy też zapraszani jako eksperci przez firmy takie jak Facebook i NVIDIA.
    Czytaj: Historia Czasu i Synchronizacji – od dyliżansów do Białego Królika | BrandsIT.pl – Portal Technologiczny
    Ale największy i zarazem może najmniej znany wkład Elpromy w światową synchronizację to pomoc w zablokowaniu jednej jedynej sekundy, tzw. sekundy przestępnej (ang. leap second – Sekunda przestępna – Wikipedia, wolna encyklopedia) dodawanej nieregularnie do skali czasu UTC. Po czterech latach międzynarodowej aktywności Elpromy, organizacje BIPM i NIST zgodziły się m.in. na postulaty Elpromy zasadności usunięcia tej trudnej w obsłudze dla przemysłu sekundy. Tym samym zapobiegliśmy potencjalnym awariom sektora energetycznego na świecie.
    Trochę do pełnego sukcesu brakuje nam codziennego biznesu – przede wszystkim wielkości sprzedaży dorównującej Amerykanom z Microchip, szwajcarskiej Advie-Oscilloquartz czy francuskiej Orolii. Plasuje się nas w pierwszej piątce globalnych producentów serwerów czasu NTP/PTP, ale nasza sprzedaż jest zdecydowanie niższa od konkurencji. Bariera wejścia na rynki USA i UE pozostaje bardzo wysoka. Nie pomaga nawet fakt, że serwery Elpromy od 2017r. są dopuszczone do użycia w NATO w Europie, a naszym klientem jest m.in. Ministerstwo Obrony Australii.

    WS: Czy zagadnienie czasu jest dobrze rozumiane przez polskich specjalistów?

    TW: Nie jest. Brakuje nam poparcia w Polsce zapewniającego lokalny zbyt tak, jak robią to Francuzi, Niemcy i Amerykanie. U nas wiele przetargów opisywanych jest wg. specyfikacji urządzeń zagranicznych, na czym dużo tracimy. Chyba nikt nie robi tego specjalnie. To wynika z niszowej natury i właśnie braku wiedzy, co jest ważne, a co nieistotne w produkcie. Nasi decydenci, nieświadomi wag parametrów, po prostu najczęściej kopiują specyfikację tego, co im wpadnie w necie. Później zostają pozostawieni z tym sami. To generuje z czasem bardzo wysokie koszty utrzymania. A przecież, my jesteśmy w miejscu w Polsce, moglibyśmy im pomóc.
    Sama edukacja to oddzielna sprawa. Większość klientów uważa, że skoro dotychczas problemów u nich nie było, to dlaczego mają się one pojawić akurat teraz. Zapominają, że dwadzieścia pięć lat temu, na rynku pojawiały się dopiero pierwsze odbiorniki GPS i gospodarka nie była tak uzależniona od tych systemów. Nie wiadomo było też wtenczas, że tak łatwo będzie można manipulować sygnałami satelitarnymi. Ten problem pozostaje do dziś piętą Achillesa największych korporacji światowych. Pomagamy, doradzając między innymi firmom takim jak Facebook i NVIDIA. To dla nas zaszczyt, ale nie biznes. Największe firmy tworzące dziś CLOUD/EDGE/FOG korzystają z projektów open hardware/software i grupują się w projekcie OCP  (Home » Open Compute Project). Można tam znaleźć również konsultantów z Elpromy. Ostatnio, w listopadzie 2020, przekazaliśmy uwagi dla zespołu pracującego nad synchronizacją chmury Facebook’a, co pewnie przyczyni się do poprawy jej stabilności w przyszłości. Uwagi nasze uwzględniono, ale niestety do tej pory nie doczekaliśmy zamówienia, ba nawet zwykłego słowa „dziękuję” czy podania nas choćby jako źródło informacji. Dlatego wolelibyśmy, aby z naszych usług więcej korzystał krajowy rynek IT. Problemy z synchronizacją pojawiają się statystycznie raz na dekadę, a więc na tyle rzadko, że inwestycje takie odsuwa się na później, a szczególnie w Polsce. Przypomina to deklaracje rozbudowy i wzmocnienia wałów przeciwpowodziowych, gdy nastaje ryzyko powodzi. Gdy mija, inwestycje odsuwa się i tak do następnego razu.
    Czytaj: Czas – ukryty i niedoceniany problem nowoczesnych technologii | BrandsIT.pl – Portal Technologiczny

    WS: W których polskich firmach pracują urządzenia Elpromy?

    TW: W Polsce możemy się pochwalić wdrożeniami do Sejmu RP i Senatu RP, Ministerstwa Sprawiedliwości, Ministerstwa Finansów, policji, wojska, w ING Śląski, PeKaO SA, T-Mobile, Orange, Polkomtel, Tauron, do licznych elektrowni, rozgłośni radiowych i TV, korporacji i firm produkcyjnych. Jest tego sporo, ale w Polsce kupowane są od lat wyłącznie pojedyncze urządzenia, najczęściej te najprostsze, a wiele z nich kupiono aż 10-20 lat temu, kiedy zakup jednostkowych sztuk był zasadny. Dziś, wraz ze zmianą paradygmatu cyberbezpieczeństwa, pojedyncze serwery powinny być zastępowane systemami synchronizacji składających się z wielu nowoczesnych serwerów wytwarzających czas UTC bez udziału GNSS. Taką konfigurację zaprojektowaliśmy i wdrożyliśmy do Polskiej Agencji Żeglugi Powietrznej (PAŻP), gdzie kilkadziesiąt specjalnych serwerów NTS-5000 Rubidium współtworzy autonomiczną skalę czasu UTC na co dzień zarządzaną centralnie w Warszawie, ale przechodzącej natychmiast w stan pracy rozproszonej w warunkach sytuacji kryzysowych braku łączności. Takie rozwiązania powielają od nas dziś najwięksi światowi gracze. Coraz częściej, czas jest sprzedawany dzięki temu jako usługa, bo dokładny, pewny czas ma swoją wartość i ona stale rośnie. Ta wartość jest inna dla każdego, w zależności od indywidualnej oceny skutków awarii jakie wywołałaby choćby raz na dekadę niewystarczająca synchronizacja. Dziś na każde wydane na synchronizację 1000 EURO w krajach Benelux, Polska wydaje jedynie 1 EURO, a takie dysproporcje 1000:1 mówią same za siebie.

    Elproma

  • Michał Kanownik: sektor cyfrowy będzie odgrywał kluczową rolę także po pandemii

    Michał Kanownik: sektor cyfrowy będzie odgrywał kluczową rolę także po pandemii

    W 2021 r. polską branżę cyfrową i nowoczesnych technologii czekają istotne regulacje, od których kształtu będzie zależeć dalszy jej rozwój oraz to, czy będzie ona w stanie konkurować z zagranicznymi rynkami. Nowy rok może być też decydujący dla przyszłości sieci piątej generacji i krajowych  dystrybutorów elektroniki – ocenia Związek Cyfrowa Polska.

    Organizacja, która reprezentuje przedsiębiorców z sektora cyfrowego w Polsce przewiduje, że w 2021 r. będziemy mieli do czynienia z kontynuacją trendu przyśpieszonej cyfryzacji, zapoczątkowego w ubiegłym roku w wyniki pandemii koronawirusa i przystosowania całego życia społecznego oraz biznesowego do trybu pracy zdalnej. ­– Dlatego szczególnie ważne będzie podejmowanie w tym czasie takich inicjatyw – w tym regulacyjnych – które będą wspierały budowanie cyfrowej gospodarki. Musimy pamiętać, że sektor cyfrowy będzie odgrywał kluczową rolę także po pandemii. To istotne więc, by jego działalność nie była w jakikolwiek sposób ograniczana czy blokowanamówi prezes Cyfrowej Polski Michał Kanownik.

    Cyberbezpieczeństwo i 5G kluczowymi tematami 2021 roku

    W swoich prognozach Cyfrowa Polska zwraca uwagę na kilka czynników, które będą determinowały rozwój sektora cyfrowego w 2021 roku. Przede wszystkim istotną rolę odgrywać mają kwestie bezpieczeństwa cyfrowego, szczególnie w kontekście nowelizowanej ustawy o krajowym systemie cyberbezpieczeństwa oraz wdrożenia sieci 5G w Polsce. – Żeby w pełni wykorzystać dobrodziejstwa, jakie przyniesie sieć piątej generacji, konieczne będzie zadbanie o jej cyberbezpieczeństwo, które przełoży się na konkurencyjność polskiej gospodarkipodkreśla Michał Kanownik. Przypomina, że technologia 5G ma potencjał, by zrewolucjonizować wszystkie gałęzie polskiego przemysłu.  Jej odpowiedzialna implementacja jest ważna również dla budowania pozycji gospodarczej Polski. – W 2021 roku wyzwaniem dla rządzących będzie stworzenie takich warunków prawnych, które dadzą możliwość funkcjonowania i rozwoju polskim dostawcom technologii sieci piątej generacji. Skorzystanie z rodzimych rozwiązań pozwoli wesprzeć lokalne przedsiębiorstwa, ale także zbudować niezależność i bezpieczeństwo, szczególnie w obszarach łączności krytycznejdodaje  Michał Kanownik.

    Zdaniem Cyfrowej Polski istotne dla rozwoju sektora cyfrowego w 2021 r. będzie  również wykorzystanie potencjału drzemiącego w usługach e-commerce. Wyzwaniem ma być ich dalsze upowszechnienie i podtrzymanie wzrostów w tym sektorze. Nie mniej ważną rolę odegrają kompetencje cyfrowe. Postępujący rozwój sztucznej inteligencji, Internetu Rzeczy czy robotyki wymusi dostosowywanie publicznego kształcenia do potrzeb współczesnego rynku pracy, np. poprzez poszerzenie oferty studiów z zakresu nauk ścisłych, technologii, inżynierii i matematyki czy też wsparcie osób chcących się przebranżowić.

    Unijne przepisy zmienią branżę cyfrową

    Organizacja reprezentująca sektor cyfrowy zwraca także uwagę na kilka istotnych regulacji, nad którymi w 2021 roku będą toczyć się żywe dyskusje i których przyjęcie będzie miało ogromny wpływ na działalność sektora cyfrowego w Polsce. Wyzwaniem dla legislatorów będzie m.in. implementacja Dyrektywy w sprawie praw autorskich na Jednolitym Rynku Cyfrowym, która została zaskarżona przez polski rząd do Trybunału Sprawiedliwości Unii Europejskiej. Polska branża cyfrowa liczy, że na poziomie krajowym dojdzie do konsensusu i kompromisu, który zaspokoi z jednej strony potrzeby twórców, a z drugiej nie zaszkodzi konsumentom i przedsiębiorcom. Unijna reforma prawa autorskiego budzi kontrowersje głównie ze względu na dwa artykuły: 15, który wprowadza tzw. podatek od linków oraz art. 17, który nakazuje obowiązek filtrowania treści pod względem praw autorskich. Przeciwko tym zapisom protestowały liczne środowiska pozarządowe, biznesowe, konsumenckie, start-upowe, naukowe, akademickie i studenckie.

    Związek Cyfrowa Polska podkreśla również, że w  2021 r. Komisja Europejska sfinalizuje prace nad Kodeksem Usług Cyfrowych (DSA), który w praktyce ma dostosować unijne regulacje do nowych cyfrowych usług i innowacyjnych rozwiązań.  – To istotny projekt, który zdecyduje o przyszłym kierunku rozwoju europejskiej branży cyfrowej. Polska w tym zakresie powinna być aktywna w tym roku i zadbać o to, by te nowe regulacje nie ograniczyły dostępu Europejczyków do szerokiej oferty usług, którą mamy dzisiaj czy blokowały ekspansę naszych europejskich cyfrowych przedsiębiorstwpodkreśla Michał Kanownik. W jego opinii, w zakresie regulacji europejskich w 2021 roku Polska powinna zabiegać również o przyjazne przepisy w zakresie danych i sztucznej inteligencji tak, by były one przejrzyste i nie generowały ograniczeń. – Ważne jest tu racjonalne podejście do stworzenia takich przepisów o udostępnianiu danych, by nie hamowały one innowacyjności, a jednocześnie dbały o własność intelektualną oraz tajemnice handlowezaznacza prezes Związku.

    2021 r. rozstrzygający dla polskiego sektora dystrybucji elektroniki

    W ocenie Cyfrowej Polski, najbliższe miesiące mogą być tez rozstrzygające dla przyszłości polskiego sektora dystrybucji sprzętu elektronicznego. Pomimo, że pandemia spowodowała zwiększone zainteresowanie elektroniką, to rozwój krajowych dystrybutorów tych urządzeń może zablokować regulacja przygotowywana przez resort kultury dotycząca rozszerzenia opłaty reprograficznej. Zgodnie z proponowanymi rozwiązaniami miałaby być ona nałożona na kolejne urządzenia elektroniczne takie jak smartfony, tablety czy telewizory smart, nawet w wysokości do 6 proc. ich ceny. Pieniądze miałyby częściowo trafić do specjalnego Funduszu, z którego mają być finansowane emerytury artystów. Podobny projekt do Sejmu złożyła pod koniec 2020 r. Koalicja Obywatelska.

    Cyfrowa Polska ocenia, że proponowane regulacje, które rząd planuje przyjąć w pierwszym kwartale 2021 roku nie tylko spowodują wzrost cen elektroniki w Polsce, co odczują w swoich portfelach konsumenci, ale również pogorszą konkurencyjność polskich dystrybutorów względem rynków zagranicznych, zwłaszcza azjatyckich. – Specyfiką obrotu sprzętu elektrycznego i elektronicznego jest jego niska marżowość. Konsumenci kupując sprzęt kierują się przede wszystkim ceną. Na poziomie dystrybucji marże netto są w okolicach 1 proc. Jeżeli ktoś jest zmuszony dopisać do tego nawet 0,5 proc. opłaty to już przegrywa konkurencję z tym, kto takiego dopisu nie zrobi, przez co najczęściej wypada z rynkuwyjaśnia Michał Kanownik. Oczekuje, że w 2021 r. rządzący podejmą decyzję, która z jednej strony wspomoże twórców, a z drugiej – nie zaszkodzi polskim przedsiębiorcom i nie utrudni konsumentom w dostępie do elektroniki.

  • IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    Raport Światowego Forum Ekonomicznego (The Future of Jobs Report 2018) wymienia cztery technologiczne zjawiska, które w opinii ekspertów zdominują najbliższe lata w biznesie: wszechobecny szybki mobilny internet, sztuczna inteligencja (AI), powszechne stosowanie analityki big data oraz technologie chmurowe. Dziejąca się już w wielu przedsiębiorstwach transformacja cyfrowa wymaga dostosowania infrastruktury IT do nowych wymagań biznesowych i organizacyjnych. Tym bardziej, że między rokiem 2018 a 2020, jak prognozuje wspomniany raport, udział pracy maszyn wzrośnie z 29% do 42%. A maszyny to wciąż nowe dane.

    „Trwająca pandemia przyśpieszyła tylko nieuchronne zmiany – praca on-line szybko stała się standardem wszędzie tam, gdzie było to możliwe. W ślad za tym poszły zmiany infrastrukturalne w IT – przecież gdzieś trzeba przechowywać lawinowo rosnącą ilość danych. Oprócz rozwiązań chmurowych, całkiem nieźle radzą sobie lokalne Data Center”ocenia Wojciech Raduła, Architekt Systemowy z firmy Advatech należącej do ścisłej czołówki integratorów rozwiązań informatycznych.  „Bez względu na lokalizację, wszystkie one wymagają bardzo wydajnych i elastycznych urządzeń pamięci masowych, na najwyższym poziomie zaawansowania  technologicznego. Przyczyny są proste – najcenniejsze zasoby firmy, czyli dane biznesowe możemy powierzyć tylko najlepszym i najbardziej zaufanym urządzeniom. To jak z ludźmi”dodaje Wojciech Raduła.  

    Wbrew pozorom, na rynku nie ma zbyt wielu rozwiązań pamięci masowych o optymalnej relacji funkcjonalności i możliwości do ceny. Bardzo ważny jest także dostęp do wsparcia techniczne na najwyższym poziomie. Powinno być one zapewnione przez rozwiniętą sieć kompetentnych, doświadczonych i solidnych partnerów handlowych producenta. Przy takich kryteriach oceny pamięci masowych, chyba nikogo nie dziwi, że maszyny IBM z serii FlashSystem® 5100 można zaliczyć do ścisłej czołówki.

    W dzisiejszych czasach połączenie wydajności pamięci flash z wszechstronnością pamięci NVMe (Non-Volatile Memory Express) samo w sobie nie ma już waloru unikalności. Ale IBM nie byłby tym IBM, gdyby nie stworzył nowej jakości przez połączenie zaawansowanej technologii  z doskonałym oprogramowaniem. W przypadku maszyn FlashSystem® 5100 w jednym urządzeniu użytkownik dostaje innowacyjną technologię IBM FlashCore®, rozbudowane możliwości funkcjonalne systemu IBM Spectrum Virtualize™ oraz aplikacje do zarządzania predykcyjnego i proaktywnego, które wykorzystują mechanizmy sztucznej inteligencji (AI). Ultraniskie opóźnienia to zasługa pamięci Storage Class Memory (SCM). Dopiero w ten sposób funkcjonalna całość ujawnia swoje przewagi i walory, nawet w środowisku wielochmurowym, z działającymi aplikacjami kontenerowymi.

    IBM FlashSystem

    Wysokie parametry techniczne, duża sprawność i wydajność oraz krótki czas dostępu do danych to po prostu szybsze działanie całej firmy i większa produktywność każdego pracownika z osobna. A to już są bardzo ważne czynniki w aspekcie wyścigu z konkurencją.

    Zalety posiadania IBM FlashSystem® 5100 przekładają się także wskaźniki finansowe. Można osiągnąć zdecydowanie większy zwrot z inwestycji i zredukować całkowity koszt posiadania (TCO), bo dostępne oprogramowanie IBM Spectrum Virtualize pozwala użytkownikom korzystać z wielu różnych usług przetwarzania danych we wszystkich jego systemach pamięci masowych. Co to oznacza? To między innymi, że dostępna jest obsługa hybrydowego środowiska wielochmurowego.

    „Użytkownik może zacząć od czegoś prostego i nieskomplikowanego, nabędzie odpowiedniego doświadczenia, wyrobi sobie prawidłowe nawyki, a potem wraz ze wzrostem potrzeb biznesowych i liczby klientów może sobie w prosty sposób rozbudowywać infrastrukturę aż po środowiska łączące chmury publiczne, prywatne i lokalne”twierdzi Wojciech Raduła z firmy Advatech.

    IBM FlashSystem® 5100 wspiera trzy rozwiązania wielochmurowe. W pierwszym z nich  pamięć masowa służy jako trwały nośnik dla aplikacji kontenerowych, które korzystają z platform Docker lub Kubernetes. W drugim wariancie systemy IBM Spectrum Copy Data Management oraz Spectrum Virtualize działające z IBM FlashSystem® 5100 tworzą kopie migawkowe do chmury IBM w celu ochrony przed awariami DR (Disaster Recovery). Dane można używać bezpośrednio w chmurze lub kopiować ponownie do oryginalnej lokalizacji lub innego centrum danych.

    W trzecim wariancie aplikacja pod nazwą IBM Spectrum Copy Data Management współdziałająca ze Spectrum Protect tworzą kopie migawkowe na wolumenach. Służą one nie tyle wyłącznie do ochrony danych, ale także do celów Dev/Test, DevOps lub analityki. To kompletne rozwiązanie zapewnia także ochronę przed zagrożeniami typu ransomware.

    „Zakup IBM FlashSystem® 5100 jest bez wątpienia trafną decyzją, choć zapewne nie najprostszą. Walory techniczne i funkcjonalność macierzy pokazują, że klienci otrzymują rozwiązanie klasy Enterprise, wraz ze wsparciem technicznym i zarządzaniem w chmurze w bardzo przystępnej cenie. Tu nie ma miejsca na kompromisy – nowa generacja pamięci, technologie redukcji objętości danych dają więcej miejsca na dane przy tych samych kosztach, co poprzednio. Jeśli dodamy do tego wysoką dostępność na poziomie sześciu dziewiątek, to oznacza, że wszystkie istotne wskaźniki ekonomiczno-techniczne mają wartości, które na pewno docenią osoby decydujące o inwestycjach w infrastrukturę IT”ocenia Wojciech Raduła.

    Jak widać, IBM FlashSystem®5100 wyznacza bardzo wysoki standard niezawodności. Jest to możliwe dzięki zastosowaniu technologicznych zabezpieczeń przed awariami całych modułów (VSR) i grup RAID-owych (DRAID). Sam system oferuje przewidywalną i stałą wydajność oraz dużą gęstość upakowania danych – użytkownicy dostają do 768 TiB w rozmiarze 2U. Dostępne są także wbudowane systemy kompresji i deduplikacji danych, szyfrowania zgodnego z GDPR, przy zachowaniu odpowiedniej pojemności nadmiarowej i odporności na efekt „Write Cliff”.

    Jak twierdzą specjaliści z Advatech„Te macierze szybko się nie zestarzeją. Nasze doświadczenia pokazują, że mimo szybkiego postępu i rozwoju technologicznego, solidne i rzetelnie zaprojektowane konstrukcie z powodzeniem służą długie lata, a co najważniejsze – działają niezawodnie”.

  • Pamięci masowe w roku 2021 – wyzwania i szanse

    Pamięci masowe w roku 2021 – wyzwania i szanse

    „Orzeł wylądował” – to zdanie Neila Armstronga mogło być wypowiedziane dzięki komputerom dysponującymi 4 kB pamięci operacyjnej i 74 kB pamięci ROM zbudowanej na rdzeniach ferrytowych. Po upływie półwiecza, większą mocą obliczeniową dysponują już ładowarki USB-C. Apollo 11 nie posiadało w ogóle żadnego urządzenia pamięci masowej. Dziś relatywnie niewielkie urządzenie np. IBM FlashSystem® 5100 może dysponować 768 TiB pamięci w urządzeniu o wysokości 2U. Postęp jest gigantyczny, i to za życia jednego pokolenia.

    Konrad Puchała, Advatech sp. z o.o.
    Konrad Puchała, Advatech sp. z o.o.

    „To, że można było polecieć na Księżyc i bezpiecznie powrócić bez użycia chociażby jednego dysku twardego, nie oznacza, że dziś można sobie pozwolić na prowadzenie jakiegokolwiek, nawet najmniejszego biznesu bez konieczności przechowywania danych. Urządzenia pamięci masowych są tak niezbędne, jak tlen do oddychania. Przeciętny użytkownik aplikacji biznesowych, w nawet niespecjalnie dużej firmie, nie zdaje sobie sprawy ile rocznie danych generuje, ile to wymaga przestrzeni dyskowej, nie mówiąc już o fizycznym położeniu jego danych”twierdzi Konrad Puchała,Kierownik Działu Składowania i Ochrony Danych z firmy Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Systemy pamięci masowych są jednym z kluczowych elementów każdej infrastruktury IT. Współczesne strategie jej optymalizacji zakładają wykorzystanie hybrydowych środowisk wielochmurowych. Celem jest obniżenie kosztów i przełamanie dominacji dostawcy usług konkretnej chmury. Nagrodą – utrzymanie dotychczasowych aplikacji i usług w różnych chmurach, które są najlepiej dopasowane do konkretnych wymagań biznesowych. W takich strategiach kładzie się nacisk na upraszczanie procesów konteneryzacji, zarządzanie i ochronę pamięci masowych zdefiniowanych programowo SDS (Software Defined Storage) oraz na maksymalizację bezpieczeństwa danych.

    Ponieważ średni czas życia eksploatowanych systemów pamięci masowych wynosi wiele lat, każda decyzja o zakupie musi być podjęta roztropnie i bazować na przewidywanym rozwoju sytuacji na rynku producentów. A tu, jak donosi IDC, w roku 2020 większość z nich zanotowała spadki dochodów. Wśród nielicznych wyjątków jest IBM, który np. w drugim kwartale 2020 zanotował ponad 12% wzrost.

    „Przetasowania wśród czołowych wytwórców pamięci masowych zawdzięczamy dostawcom usług chmurowych. W tym roku musieli oni znacząco zwiększyć wydajność swoich hiperskalowanych centrów danych i infrastruktury tak, aby sprostać skokowemu wzrostowi popytu ze strony klientów korporacyjnych oraz konsumentów”tłumaczy Konrad Puchała z Advatech.

    Warto zatem się przyjrzeć, co w dziale IBM Storage piszczy. Firma od wielu lat konsekwentnie stawia na rozwój technologii sprzętowych, nowe architektury i wieloprotokołowość oraz zastosowanie interfejsów NVMe i NVMe-oF (NVMe over Fabrics). W konsekwencji użytkownicy otrzymują produkty z najbardziej pożądanymi przez nich cechami – łatwością rozbudowy i modernizacji poprzez dodawanie nowych, wchodzących na rynek technologii (np. Storage-Class Memory, czy MVMe-oF) oraz elastycznością i skalowalnością. Dzięki temu każda inwestycja w systemy pamięci masowych IBM jest bezpieczna na długie lata.

    Do wspomnianego wzrostu sprzedaży mogła się przyczynić także elastyczność IBM. Firma, bezpłatnie na 90 dni, udostępnia rozwiązanie Storage Insights Pro™ z funkcjami AI do zarządzania predykcyjnego i proaktywnego rozwiązywania problemów. Z tego udogodnienia mogą skorzystać wszyscy użytkownicy produktów IBM Storage. Celem jest wsparcie przedsiębiorców w walce ze skutkami pandemii COVID-19.

    Oferta IBM jest na tyle szeroka, że każdy, bez żadnych kompromisów funkcjonalnych, znajdzie dla siebie optymalne rozwiązanie w rozsądnym budżecie – od pamięci taśmowych po najbardziej zaawansowane macierze FlashSystem®w technologii „All-Flash” do obsługi hybrydowych środowisk wielochmurowych.

    Jeśli trzymać się wątku wyzwań technologicznych, a takim bez wątpienia był lot na Księżyc, to warto przyjrzeć się modelom high-end, które wieńczą ofertę IBM w zakresie pamięci masowych. Na szczycie piramidy wszystkich modeli znajduje się IBM FlashSystem 9200®, nowoczesna, kompleksowa macierz all-flash klasy korporacyjnej z akceleracją NVMe i obsługą środowiska wielu chmur.

    Przyglądając się szczegółom technicznym, można dostrzec, że IBM® FlashSystem® 9200 łączy w sobie wydajność pamięci flash z wszechstronnością  pamięci NVMe, niezawodność technologii IBM FlashCore® oraz absolutnie minimalne opóźnienia pamięci SCM. Najcenniejsze w tym rozwiązaniu jest oprogramowanie, które daje życie bezdusznej materii.  W tym wypadku chodzi o ogromną funkcjonalność duetu IBM Spectrum Virtualize™ oraz Storage Insights™. Całość na szczęście nie przypomina wielkością rakiety Saturn V, bo daje się zamknąć w przemysłowej obudowie o wysokości 2U.

    „Nasze dotychczasowe doświadczenia z wdrażaniem IBM FlashSystem® wskazują jednoznacznie, że są to maszyny, których potencjał technologiczny w istotny sposób przekłada się na sprawniejsze prowadzenie biznesu i uzyskiwanie przewagi konkurencyjnej. Funkcje obsługi hybrydowego środowiska wielu chmur, elastyczność i różnorodność usług przetwarzania danych, a także optymalizacja wykorzystania pamięci masowej  gwarantuje wyższy zwrot z inwestycji, który jest bardzo ważny czynnikiem przy podejmowaniu decyzji zakupowych” twierdzi Konrad Puchała.

    Sam zakup to jeszcze nie wszystko – tak złożone urządzenie trzeba najpierw uruchomić, dostosować do bieżących potrzeb biznesowych, a potem przez lata eksploatować w szybko zmiennych warunkach organizacyjnych. Naprzeciw takim wymaganiom wychodzą programy takie, jak IBM FlashWatch. Dzięki nim użytkownik ma gwarancję na pamięć flash i z pełnym poczuciem bezpieczeństwa może eksploatować swoją pamięć masową, z dostępnością na poziomie 99,9999%, bez względu na obciążenia. Z kolei IBM Storage Utility, oferuje taki model zakupu pamięci masowych, w którym co miesiąc płaci się tylko za faktycznie wykorzystaną przestrzeń. W programie IBM Flash Momentum można swobodnie modernizować kontroler i pamięć masową co 3 lata.

    Rozwiązania takie, jak IBM FlashSystem® 9200 zapewniają najwyższy poziom dostępności, potrzebny do obsługi aplikacji o newralgicznym znaczeniu dla prowadzonego biznesu. Aby to wszystko było możliwe, niezbędny jest jeszcze czynnik białkowy, czyli człowiek. IBM i jego partnerzy handlowi tacy, jak Advatech, mogą wspólnie zapewnić wsparcie techniczne w trybie 24×7 nawet przez siedem lat, a do tego pomoc doświadczonych konsultantów, szybką obsługę zgłoszeń i zarządzanie aktualizacją kodu.

    Kontynuując kosmiczne porównania: „Nie wszyscy wiedzą, że rakieta Saturn V jest jednym z najbardziej zaawansowanych technicznie tworów człowieka w historii. Pełna dokumentacja techniczna jest nadal w posiadaniu USA. Dlaczego się jej zatem nie produkuje? Nie ze względów ekonomicznych, ale z tego powodu, że nie ma już inżynierów i techników, którzy rozumieli ówczesną technologię, a co najważniejsze, potrafili ją wdrażać w praktyce”zauważa Konrad Puchała.

    Wniosek z tego płynie taki, że bezcenna wiedza i doświadczenie ludzi, takich jak w Advatech, którzy potrafią integrować różne rozwiązania w jedną spójną i efektywną całość są warunkiem koniecznym do prowadzenia transformacji cyfrowej w praktycznie każdej organizacji. Zatem Per aspera ad astra!

  • Uproszczone postępowanie restrukturyzacyjne szansą na wyjście firmy z kryzysu

    Uproszczone postępowanie restrukturyzacyjne szansą na wyjście firmy z kryzysu

    Tarcza antykryzysowa 4.0 z czerwca wprowadziła w życie przepisy o uproszczonej restrukturyzacji. Jest to rozwiązanie, które może uchronić firmy przed upadłością. Czas jest jednak ograniczony. Przepisy o uproszczonym trybie obowiązują do 30 czerwca 2021 roku. Nie warto więc czekać z decyzją, zwłaszcza że ratowanie biznesu wymaga szybkich i zdecydowanych działań.

    Komentarz przygotowany przez Bartosza Kaczmarczyka, eksperta Fundacji Centurion

    Uproszczone postępowanie restrukturyzacyjne jest nowością w polskim prawie. Dotychczas w ten proces musiał angażować się sąd, co znacznie wydłużało całą procedurę. W wielu przypadkach odbijało się to negatywnie na kondycji firm. Celem restrukturyzacji jest wypracowanie najkorzystniejszego porozumienia z wierzycielami i uporządkowanie wszelkich spraw przed rozliczeniem zobowiązań.  Upadłość dłużnika nigdy nie jest korzystna dla wierzycieli, dlatego wypracowanie kompromisu pomiędzy dwiema stronami jest istotne. Strony powinny opracować również plan przewrócenia rentowności przedsiębiorstwa, wyodrębnić rentowne aspekty działalności oraz ograniczyć te, które przynoszą straty. Plan powinien zawierać również nowe sposoby finansowania. Standardowe rozwiązanie, czyli kredyt, w przypadku przedsiębiorstw zadłużonych nie wchodzi w grę. Szansą może być znalezienie inwestora, sprzedaż części udziałów albo połączenie się z innym podmiotem.

    Musimy pamiętać, że podejmując decyzję o restrukturyzowaniu firmy, należy działać bez zbędnej zwłoki. Uproszczone postępowanie restrukturyzacyjne zdecydowanie różni się od znanych do tej pory czterech form restrukturyzacji. Jest przede wszystkim znacznie krótsze i ograniczone czasowo. Przedsiębiorca może je wykorzystać tylko raz i to przy pomocy doradcy restrukturyzacyjnego. W tym rodzaju postępowania rola sądu sprowadza się do minimum, jest ograniczona tylko do zatwierdzenia zawartego układu.

    Postępowanie rozpoczyna się od zawarcia umowy z doradcą restrukturyzacyjnym, który będzie pełnił rolę nadzorcy. Formalne rozpoczęcie postępowania ma miejsce w chwili opublikowania obwieszczenia w Monitorze Sądowym i Gospodarczym. Kolejne kroki należy podjąć szybko, ponieważ w ciągu czterech miesięcy konieczne jest złożenie w sądzie układu zawartego z wierzycielami, co wymaga intensywnej pracy. W całym procesie nieoceniona jest pomoc doradcy, który nie tylko pomoże w sprawnym przejściu przez cały proces, ale też będzie pośrednikiem w negocjacjach z wierzycielami. Takie negocjacje nigdy nie są łatwe, a doświadczony specjalista pomoże dobrać takie argumenty, które przekonają wierzycieli do ograniczenia swoich roszczeń. Należy pamiętać, że postępowanie nie w każdym przypadku kończy się sukcesem. Jeżeli w ciągu wyznaczonych 4 miesięcy nie uda się zatwierdzić układu z wierzycielami, dłużnik może złożyć uproszczony wniosek o ogłoszenie upadłości lub rozpoczęcie postępowania sanacyjnego. Gwarantuje to ochronę majątku i przejście do kolejnych kroków, czyli restrukturyzacji, lub postepowania upadłościowego.

    Jak wynika z danych Monitorów Sądowych i Gospodarczych uproszczona forma restrukturyzacji cieszy się wśród przedsiębiorców dużą popularnością. Nie ma w tym nic dziwnego, jest to obecnie najszybsze i najsprawniejsze postępowanie, dodatkowo jego charakter jest pozasądowy. Mogą z niego skorzystać osoby obawiające się niewypłacalności. Restrukturyzacja jest szansą na zahamowanie rosnącej liczby bankructw i upadłości w trzecim kwartale 2020 roku aż 72% otwieranych postępowań restrukturyzacyjnych odbywało się według nowej procedury. Jest to najlepszy dowód na to, że ta forma restrukturyzacji jest atrakcyjna dla przedsiębiorców.

  • Kluczowe umiejętności interpersonalne, które warto rozwijać

    Kluczowe umiejętności interpersonalne, które warto rozwijać

    Każdy z nas jest wyposażony w pewien zestaw cech, który pomaga mu odnaleźć się w społeczeństwie i nawiązywać relacje z ludźmi. Właśnie te cechy określa się mianem umiejętności interpersonalnych, miękkich lub społecznych. Odgrywają one znaczenie nie tylko w życiu prywatnym, ale również tym zawodowym.

    Umiejętności interpersonalne – dlaczego są ważne?

    W pracy zespołowej liczy się ekspercka wiedza z danej dziedziny. To jednak nie wszystko. Aby doprowadzić realizowany projekt do szczęśliwego zakończenia, potrzebna jest umiejętność komunikacji pomiędzy poszczególnymi członkami zespołu. W szczególności lider zespołu powinien mieć rozbudowane umiejętności interpersonalne. W jego przypadku mile widziana będzie umiejętność radzenia sobie z przeszkodami i konfliktami w zespole, wypracowywanie kompromisów, zdolność negocjacji, czy umiejętność słuchania i przemawiania, aby jasno przekazywać polecenia. Zespół pracowników to zbiór przeróżnych charakterów, z którymi lider musi umieć współdziałać.

    Kluczowe umiejętności, które przydają się w pracy

    Skupmy się na innych cechach społecznych, które odgrywają duże znaczenie w codziennej pracy.

    • nawiązywanie kontaktów – pracując w dużej firmie nie da się uniknąć kontaktu z innymi ludźmi. Wymagają tego obowiązki zawodowe, zwłaszcza wtedy, gdy każdy z pracowników jest zobowiązany dostarczyć pewną część projektu. Niektórym osobom przychodzi to łatwo, inne potrzebują czasu, aby stać się tzw. duszą towarzystwa.
    • umięjetność słuchania – ważna cecha, o której często zapominamy. Zazwyczaj skupiamy się na tym, aby przekazać komunikat. A co ze słuchaniem? Ważne jest to, aby okazać rozmówcy zainteresowanie. W ten sposób będzie mógł swobodnie się wypowiedzieć i wyjaśnić, co jest dla niego istotne.
    • asertywność – posiadanie i wyrażanie własnego zdania zwłaszcza przełożonemu dla wielu osób jest wyzwaniem. Jednak bardzo ważne jest to, aby jasno określić granice w kontaktach z innymi ludźmi. Ułatwi to współpracę i sprawi, że realizacja obowiązków będzie bardziej komfortowa.
    • rozwiązywanie konfliktów – w każdym zespole prędzej czy później pojawią się konflikty. Jest to nieuniknione. Najważniejsze jest to, aby ich nie eskalować i w miarę możliwości szybko rozwiązywać. Wymaga to wypracowania kompromisu i negocjacji, a to są kolejne ważne umiejętności.

    Jak rozwijać umiejętności interpersonalne – szkolenia dla każdego

    Praktyka czyni mistrza. Swoje umiejętności interpersonalne trzeba rozwijać i można to robić na kilka sposobów. Możesz korzystać z codziennych doświadczeń i sprawdzać się w różnych sytuacjach społecznych. Bogata jest też lista poradników i książek, które podejmują tego rodzaju tematy. Jednak najciekawszą formą rozwoju umiejętności interpersonalnych wydają się być szkolenia z tego zakresu. Jest ich naprawdę dużo i nawiązują do różnych zagadnień. Przywołajmy kilka przykładów szkoleń – Efektywna komunikacja, Kreatywne rozwiązywanie problemów, czy Współpraca w zespole i wiele innych. Każde z nich będzie dla pracowników rozwijające.

  • Deloitte: Rynek usług w chmurze odporny na skutki kryzysu wywołanego pandemią

    Deloitte: Rynek usług w chmurze odporny na skutki kryzysu wywołanego pandemią

    Pandemia COVID-19 jest katalizatorem zmian w świecie technologii. Eksperci firmy doradczej Deloitte w raporcie „TMT Predictions 2021” wskazują, że w ciągu kilku miesięcy kryzysu branża technologiczna wypracowała więcej niż przez pięć lat funkcjonowania w normalnych warunkach. Można to zaobserwować również w medycynie, czego przykładem są wideo wizyty. W nadchodzącym roku rynek rozwiązań specjalistycznych, przeznaczonych do takiej formy kontaktu z lekarzem, osiągnie wartość 8 mld dolarów. W 2021 roku będziemy również obserwować intensywny rozwój sieci dostępu radiowego, 5G oraz migracji chmurowej.

    To już dwudziesta edycja globalnego raportu Deloitte, omawiającego najważniejsze trendy wpływające na przyszłość sektora technologii, mediów i telekomunikacji na całym świecie. W tym roku eksperci podsumowali wpływ pandemii COVID-19 na poszczególne trendy i przeanalizowali, które z nich rozwijać się będą w 2021 roku.

    Tryumf AI i rozwiązań chmurowych

    Sztuczna inteligencja (AI) już po raz kolejny znalazła się w raporcie Deloitte. Oznacza to, że możliwości jej zastosowania stale rosną. Obecnie AI osiąga etap dojrzałości i umożliwia kompleksową cyfrową transformację firm technologicznych i telekomunikacyjnych.

    – W 2021 roku wartość globalnego rynku rozwiązań edge, czyli architektury rozproszonych zasobów IT, wyniesie 12 mld dolarów. Oczekujemy, że podstawą ekspansji w tym obszarze będzie zastosowanie innowacyjnych rozwiązań AI w telekomunikacji – szczególnie w sieciach 5G, jak również przez ofertę dostawców skalowalnych usług obliczeniowych w chmurze, którzy będą wykorzystywać sztuczną inteligencję do stałej optymalizacji swojej infrastruktury. Takie firmy staną się liderami odznaczającymi się wysokim poziomem kapitalizacji i przekazującymi innym dobre praktykimówi Sławomir Lubak, Partner, lider branży Telekomunikacji, Mediów i Technologii, Deloitte.

    Do 2023 roku 70 proc. przedsiębiorstw może stosować najnowocześniejsze technologie tego typu do przetwarzania danych. Dzięki temu osiągną one nową generację usieciowienia i sprawności operacyjnej. Jednocześnie rozwiązania typu edge pozwolą na jeszcze szybszą, tańszą i bezpieczniejszą działalność tam, gdzie są stosowane.

    W 2020 roku wartość wydatków na rozwiązania chmurowe nieznacznie się zmniejszyła. Spowodowane jest to głównie redukcją wydatków inwestycyjnych wywołanych przez pandemię i globalną recesję.

    – Należy jednak zaznaczyć, że rynek usług w chmurze jest i tak stosunkowo odporny na skutki obecnego kryzysu. Pewne sposoby pomiaru wykazują nawet wyższe tempo wzrostu niż w 2019 roku. To wynik zwiększonego zapotrzebowania na usługi cloud w sytuacji, gdy cały świat zaczął pracować zdalnie oraz wzrosło zapotrzebowanie na ogólnie pojęte usługi cyfrowe. W latach 2021-2025 wzrost przychodów utrzyma się na poziomie z 2019 roku i wyniesie 30 proc. Nie wykluczamy jednak wyższej wartości, bo przedsiębiorstwa będą wdrażać technologie chmurowe dla zwiększenia oszczędności oraz jednoczesnego podniesienia swojej zwinności i innowacyjnościmówi Marcin Knieć, Dyrektor w dziale Cloud Engineering Deloitte.

    Technologia w służbie sportu

    Transformacja cyfrowa ma miejsce również w sporcie. Rozwiązania technologiczne, takie jak: systemy wizyjne, uczenie maszynowe, zaawansowana łączność bezprzewodowa czy czujniki nakładane na ciało zmieniają formułę treningów, współzawodnictwa i kształtowania kariery sportowej. W każdym takim systemie podstawą są dane zawodników. Pojawia się więc kwestia ich racjonalnego i etycznego wykorzystywania. Eksperci Deloitte przewidują, że do końca 2021 roku profesjonalne ligi sportowe opracują i wdrożą nowe zasady zbierania, wykorzystywania i komercjalizacji informacji dotyczących sportowców.

    – W najbliższym roku na znaczeniu zyskają również transmisje i transakcje sponsorskie w sporcie kobiecym, które już obecnie w najlepszym przypadku warte są miliony dolarów. Rok 2021 nie przyniesie jeszcze miliardowych przychodów, ale stanie się to w nadchodzących latach. Ubiegła dekada pokazała bowiem, że wydarzenia sportowe z udziałem kobiet gromadzą dużą widownię, przyciągają kibiców i generują wartość dla sponsorówmówi Agnieszka Zielińska, Partner w dziale Doradztwa Finansowego Deloitte.

    Kontrowersyjne 5G

    Wymagania stawiane przez konsumentów sprawiają, że operatorzy sieci komórkowych muszą zapewniać im najnowsze i najszybsze technologie. Na potrzeby swoich usług posługują się wyspecjalizowaną techniką dostępu radiowego. Wielu operatorów poczyniło znaczne postępy w procesie wirtualizacji sieci szkieletowych i tym samym osiągnęło istotne zyski operacyjne.

    Obecnie dużą popularnością cieszą się komórkowe sieci rozproszone, które działają w oparciu o sieć dostępu radiowego (RAN). Na potrzeby obsługi technologii 5G operatorzy muszą zastąpić lub wzmocnić posiadany sprzęt, a standardem będzie wdrażanie otwartej, wirtualnej architektury, zwanej „otwartą RAN”. Z raportu Deloitte wynika, że obecnie na świecie działa 35 takich sieci – wiele z nich póki co w ramach testów. Eksperci oczekują, że do 2023 roku wirtualizacji ulegnie ponad 80 proc. szkieletowych sieci bezprzewodowych. Wyraźny wzrost zainteresowania technologią prawdopodobnie zapoczątkuje istotny trend, które zrewolucjonizuje branżę telekomunikacyjną.

    Podobną rewolucję wywołała w 2020 roku technologia 5G. W 2021 roku również będzie to jeden z głównych tematów w branży TMT, który mocno polaryzuje opinie konsumentów. Wielu z nich obawia się negatywnego oddziaływania 5G poprzez promieniowanie. Ankieta konsumencka, przeprowadzona przez Deloitte w maju i czerwcu br. pokazała, że co najmniej jedna piąta dorosłych uważa, że technologia 5G stanowi zagrożenie dla zdrowia.

    Najwyższa jakość w domu i w pracy

    W ostatnich latach dużą popularność zdobyły telewizory o rozdzielczości 4K. Nachodzący rok może być przełomem w tym obszarze, a wdrożenie standardu 8K pozwoli na jeszcze większą ostrość obrazu.

     – Przewidujemy, że w 2021 roku technologia 8K wygeneruje przychody rzędu 5 mld dolarów. Podstawowym źródłem będzie sprzedaż telewizorów o tej rozdzielczości. Prognozujemy, że do konsumentów na całym świecie trafi 1,5 mln odbiorników po średniej cenie 3,3 tys. dol. Standard 8K zyska szczególną popularność w segmencie telewizorów o największych rozmiarach, a dodatkowe przychody przyniesie sprzedaż sprzętu – kamer, monitorów czy komputerów, wykorzystywanego do tworzenia i produkcji treści w technologii 8K mówi Ścibor Łąpieś, Dyrektor, Technology M&A w Deloitte.

    Najwyższa jakość sprzętu to również przyszłość na rynku pracy. W 2021 roku dzięki zakupom dokonywanym przez przedsiębiorstwa i instytucje edukacyjne, sprzedaż gamingowych zestawów słuchawkowych wzrośnie dwukrotnie w stosunku do roku 2019, tak jak sprzedaż oprogramowania i usług powiązanych. Na niektórych rynkach tempo wzrostu sprzedaży tego typu zestawów już przyspieszyło, co ma związek z przechodzeniem na wirtualną formę szkoleń w celu uniknięcia ryzyka zarażenia koronawirusem.

    Do lekarza na wideo wizytę

    Pandemia zmieniła również podejście do wizyt u lekarza. Zarówno pacjenci, jak i medycy nie byli przekonani do wideo konsultacji. Teraz jednak wielu z nich jest gotowych działać w takim trybie przez dłuższy czas.

    – W nadchodzącym roku udział procentowy wizyt lekarskich online wzrośnie z 1 proc. obecnie do 5 proc. Choć może się wydawać, że to niewiele, warto pamiętać, że w 36 krajach OECD tylko w roku 2019 odbyło się 8,5 mld wizyt lekarskich o ogólnej wartości 500 mld dolarów. Pięć procent tej liczby to ponad 400 mln wizyt wideo o wartości ok. 25 mld dolarów. Pandemia pokazała, że wizyty online mają wiele zalet, w tym oszczędność czasumówi Robert Kauf, Senior Manager w zespole Strategy, Analytics, M&A.

    Popularyzacja tej i innych form kontaktu zdalnego między lekarzem a pacjentem oznacza zwiększenie zapotrzebowania na technologie, które to umożliwią. Eksperci Deloitte przewidują, że w 2021 roku rynek rozwiązań specjalistycznych, przeznaczonych do tego rodzaju wizyt, osiągnie wartość 8 mld dolarów.

    Raport do pobrania znajduje się tu: LINK

  • Czy zbliża się koniec rynkowej potęgi „bandy czworga”

    Czy zbliża się koniec rynkowej potęgi „bandy czworga”

    Spółki Big Tech stały się ulubieńcami inwestorów. Ich rynkowa potęga wzbudza jednak coraz większe obawy związane z niszczeniem wolnego rynku. W najbliższych miesiącach przekonamy się co dalej z Facebookiem czy Google.

    Już za prezydentury D.Trumpa potęgę firm Big Tech uznawano za tak wielką, że coraz częstsze stały się postępowania antymonopolowe. Przykładem był  Google. Przewidywania są takie, że J.Biden jeszcze tę politykę zaostrzy, wprowadzi zmiany w opodatkowaniu. Amerykańska Komisja do Spraw Handlu wytoczyła proces przeciwko Facebookowi, iż stosował monopolistyczne praktyki w celu wyeliminowaniu swojej konkurencji i powinien pozbyć się takich cennych nabytków jak WhatsApp czy Instagram.

    Czy to początek końca Big Techów? Co zrobić z „bandą czworga”, jak to określają złośliwie ich przeciwnicy, czyli czterema spółkami BIG Tech: Facebook, Google, Amazon i Apple (do tej grupy bywa zaliczany też Microsoft)?

    Przewidywania są takie, że nadciąga wielka fala regulacyjna. To wynika z październikowego raportu podkomisji senackiej w USA, która prowadziła przesłuchania prezesów spółek zaliczanych do grupy Big Tech. Raport ma 439 stron. Jego sednem jest to, aby obecna sytuacja nie przerodziła się w stan powszechnego zagrożenia dla konkurencji wolnorynkowej. W tym raporcie pojawiają się postulaty, aby te firmy po prostu podzielić.

    – Trwa dyskusja czy firmy te nie uzyskały zbyt daleko idącej monopolistycznej pozycji ze szkoda dla wszystkich innych i moim zdaniem odpowiedź na to pytanie jest oczywistamówi dr Przemysław Kwiecień, główny ekonomista XTB.Dużo trudniejsze jest jednak znalezienie odpowiedzi na pytanie o to, co można z tym zrobić. To w najbliższych miesiącach przekonamy się czy w USA wystarczy woli politycznej, aby kontynuować dochodzenia przeciw Big Techom.

    Istnienie Big Techów przyniosło światowej gospodarce ogromne długofalowe korzyści i pchnęła rozwojów na szybszy – nomen omen – tor. Ale jednocześnie spowodowało ogromne podziały w społeczeństwie pomiędzy zagarniającymi dla siebie rynek wielkimi firmami i masami robotniczymi, funkcjonującymi na pograniczu niewolnictwa.

    „Techom” zarzuca się właśnie wykorzystywanie pozycji rynkowej do miażdżenia konkurencji ze szkodą dla użytkowników, unikanie płacenia podatków, a także zbieranie i przetwarzanie danych użytkowników do przechwycenia kontroli nad ich zachowaniem, co w konsekwencji może dać im większą władzę niż tę, którą mają demokratycznie wybrane rządy (lub inaczej, poprzez tę kontrolę, będą mogły „same” wybierać władze z pozornym zachowaniem zasad demokracji).

    W USA zarzuty im stawiane dotyczą jak na razie wykorzystywania pozycji monopolistycznej. W czasie prezydentury D.Trumpa Republikanie zarzucali mediom społecznościowym blokowanie treści prawicowych, można byłoby więc uznać, że obecny pozew jest „łabędzim śpiewem” odchodzącej administracji. Jednak pozew nie wygląda na polityczny – został niezależnie skierowany przez 46 stanów, co pokazuje, jak silne jest przekonanie co do tej sprawy po obydwu stronach barykady politycznej w USA.

    Nawołująca od dawna do podziału Big Techów Elizabeth Warren nie została co prawda wiceprezydentem (ani nawet nie znalazła się w administracji Bidena), ale nie musi to oznaczać, że Biden będzie ich obrońcom, szczególnie, że sam na pewnym etapie kampanii proponował dla nich specjalny podatek.

    Taki podatek chce wprowadzić Unia (nawet do 6% rocznych przychodów), a Francja właśnie nałożyła 100 mln euro kary na Google. Administracja Trumpa takie próby opodatkowywania techów poza granicami USA bardzo tępiła, zobaczymy czy Biden (szukający kompromisu z UE) będzie tu tak samo zdeteminowany, czy też uzna, że korporacje powinny po prostu wszędzie płacić wyższe podatki.

    – Sama Unia Europejska będzie tutaj bezsilna, za prezydentury D.Trumpa interwencje amerykańskiej dyplomacji, aby Big Techy zostawić w spokoju okazywały się skutecznekomentuje ekspert XTB.Nowe regulacje są jednak bardzo potrzebne, bo za kilka lat może okazać się, że bardzo nieliczna grupa osób rządzi światem dzięki olbrzymiemu dostępowi do danych o nas samych.

    Reakcja rynku na podejmowane próby jest zauważalna, ale do paniki daleko. Do tej pory inwestorzy indywidualni traktowali każdą przecenę jako okazję.