Tag: GPS

  • Niewidzialny front nad Bałtykiem. Jak wojna elektroniczna Rosji testuje odporność Europy

    Niewidzialny front nad Bałtykiem. Jak wojna elektroniczna Rosji testuje odporność Europy

    Niedzielny wieczór. Samolot z przewodniczącą Komisji Europejskiej na pokładzie podchodzi do lądowania w Bułgarii. W kluczowym momencie, na kilka minut przed dotknięciem pasa, piloci tracą dostęp do podstawowego narzędzia nawigacyjnego XXI wieku – sygnału GPS.

    Systemy, na których opiera się nowoczesne lotnictwo, milkną, a załoga musi sięgnąć po starsze, naziemne technologie. To nie była zwykła awaria. To, co bułgarski rząd otwarcie nazywa celowym cyberatakiem ze strony Rosji, było cyfrowym strzałem ostrzegawczym.

    Incydent ten, choć zakończony szczęśliwie, nie jest odosobnionym przypadkiem. To symptom znacznie szerszego zjawiska – cichej, niewidzialnej wojny toczonej na falach radiowych nad Europą, w której stawką jest bezpieczeństwo i technologiczna suwerenność całego kontynentu.

    Wojna 2.0 – czym jest walka radioelektroniczna (WRE)?

    Dla większości z nas wojna kojarzy się z obrazami znanymi z kronik filmowych. Jednak współczesne pole bitwy coraz częściej przenosi się do spektrum elektromagnetycznego.

    Kluczowym elementem tej transformacji jest Walka Radioelektroniczna (WRE), czyli wszelkie działania militarne mające na celu kontrolę, zakłócanie lub oszukiwanie systemów elektronicznych przeciwnika. W kontekście nawigacji satelitarnej, rosyjskie działania przybierają najczęściej dwie formy.

    Pierwszą, bardziej brutalną, jest jamming (zagłuszanie). Można go porównać do próby zagłuszenia rozmowy poprzez włączenie głośnej muzyki. Potężne nadajniki naziemne emitują silny „szum” na częstotliwościach GPS, uniemożliwiając odbiornikom w samolotach, na statkach czy w naszych telefonach odebranie słabego sygnału z orbitujących satelitów. 

    Drugą, znacznie bardziej wyrafinowaną i groźniejszą metodą, jest spoofing (fałszowanie). To już nie zagłuszanie, a szeptanie fałszywych informacji. Zamiast blokować sygnał, systemy WRE wysyłają spreparowane, fałszywe dane, które oszukują odbiornik. W rezultacie samolot „myśli”, że jest kilkadziesiąt kilometrów dalej, a statek na morzu otrzymuje kurs prowadzący prosto na mieliznę.

    Celem obu tych działań jest cyfrowy paraliż: oślepienie i ogłuszenie przeciwnika, podważenie zaufania do technologii i demonstracja zdolności do przejęcia kontroli nad niewidzialną infrastrukturą, od której wszyscy jesteśmy zależni.

    Bałtyk jako poligon doświadczalny

    Epicentrum tej cichej wojny znajduje się tuż u naszych granic. Od eskalacji konfliktu w Ukrainie w 2022 roku, region Morza Bałtyckiego – a w szczególności Polska, Finlandia i kraje bałtyckie – stał się sceną masowych i długotrwałych zakłóceń sygnału GPS.

    Potwierdzają to nie tylko oficjalne ostrzeżenia rządów, ale też dane z publicznych systemów monitorowania ruchu lotniczego, które regularnie pokazują ogromne „dziury” w zasięgu nawigacji satelitarnej.

    Jako prawdopodobne źródło większości zakłóceń wskazuje się rosyjski obwód kaliningradzki. Ta silnie zmilitaryzowana eksklawa jest nasycona jednymi z najnowocześniejszych na świecie systemów WRE, takimi jak Krasucha-4 czy Murmańsk-BN, zdolnymi do zakłócania sygnałów w promieniu setek kilometrów.

    Bałtyk stał się dla Rosji poligonem, na którym testuje ona swoje zdolności w realnych warunkach, sondując jednocześnie systemy obronne NATO.

    Cyfrowa „maskirowka”: Po co Rosja to robi?

    Działania te nie są przypadkowe, lecz wpisują się w rosyjską strategię wojny hybrydowej, znaną jako maskirowka – sztukę zwodzenia i ukrywania prawdziwych intencji. Cele tych operacji są wielowymiarowe:

    1.  Testowanie obrony NATO: Rosja sprawdza, jak Sojusz reaguje na zakłócenia. Czy piloci cywilni i wojskowi mają alternatywne procedury? Jak odporne są systemy obronne i jak szybko potrafią zidentyfikować źródło ataku?

    2.  Demonstracja siły: To jasny sygnał wysyłany Zachodowi: „Kontrolujemy wasze niebo i morze, nawet bez jednego wystrzału”. Jest to forma zastraszania i projekcji siły.

    3.  Tworzenie „bańki” ochronnej: Systemy WRE tworzą niewidzialną tarczę wokół obiektów strategicznych w Kaliningradzie, która ma je chronić przed ewentualnym atakiem z użyciem precyzyjnej amunicji naprowadzanej przez GPS.

    4.  Sianie chaosu i niepewności: Każdy zakłócony lot i każdy statek zmuszony do zmiany kursu podważa zaufanie do zachodniej technologii, na której opiera się globalna logistyka i transport.

    Od kokpitu po infrastrukturę krytyczną – co jest stawką?

    Skutki tych działań wykraczają daleko poza drobne niedogodności. W lotnictwie cywilnym, jak pokazał incydent z samolotem Ursuli von der Leyen, stawką jest bezpieczeństwo pasażerów. W transporcie morskim, gdzie 90% światowego handlu odbywa się drogą morską, fałszowanie sygnału może prowadzić do katastrof.

    Jednak prawdziwe zagrożenie jest jeszcze głębsze. GPS to nie tylko lokalizacja, ale także globalny wzorzec czasu, kluczowy do synchronizacji sieci komórkowych, transakcji giełdowych i systemów energetycznych. Celowy, zmasowany atak na tę infrastrukturę mógłby mieć kaskadowe, trudne do przewidzenia skutki dla całej gospodarki.

    W tym kontekście powraca fundamentalne pytanie, które wybrzmiało po incydencie w Bułgarii: Czy armia europejska może w tym momencie polegać na GPS do naprowadzania dronów lub pocisków rakietowych?

    Skuteczność „inteligentnej” amunicji, stanowiącej trzon nowoczesnych sił zbrojnych, staje pod znakiem zapytania, gdy wróg jest w stanie odebrać jej „oczy i uszy”.

    Wyścig zbrojeń w eterze

    Wojna elektroniczna to już nie teoria, a codzienna rzeczywistość u bram Europy. To cichy front, na którym testowana jest nasza technologiczna odporność.

    W odpowiedzi Zachód intensyfikuje prace nad uodpornieniem własnych systemów – od wzmacniania szyfrowanych sygnałów europejskiego systemu Galileo, po inwestycje w konstelacje satelitów na niskiej orbicie Ziemi (LEO), które mają zapewnić redundancję.

    Dawna żelazna kurtyna była zbudowana ze stali i betonu. Nowa, cyfrowa kurtyna XXI wieku, może być utkana z niewidzialnych fal elektromagnetycznych, skutecznie odcinając regiony od kluczowych technologii. Wyścig o dominację w eterze już trwa.

  • Unia Europejska wzmacnia obronę przed zagłuszaniem GPS. Nowe satelity trafią na niską orbitę

    Unia Europejska wzmacnia obronę przed zagłuszaniem GPS. Nowe satelity trafią na niską orbitę

    Unia Europejska planuje rozmieszczenie dodatkowych satelitów na niskiej orbicie okołoziemskiej (LEO), aby zbudować odporność na rosnące zagrożenie zagłuszaniem sygnału GPS. Inicjatywa jest bezpośrednią odpowiedzią na nasilające się incydenty w Europie, przypisywane działaniom Rosji w ramach wojny hybrydowej.

    Zgodnie z zapowiedzią komisarza UE ds. obrony, Andriusa Kubiliusa, nowa warstwa infrastruktury kosmicznej ma nie tylko wzmocnić istniejące systemy nawigacyjne, ale również poprawić zdolności wykrywania źródeł zakłóceń.

    Decyzja nabrała tempa po niedzielnym incydencie, podczas którego doszło do zakłócenia pracy GPS w samolocie przewodniczącej Komisji Europejskiej, Ursuli von der Leyen. Choć zdarzenie było chwilowe, wpisuje się w szerszy, niepokojący trend.

    Od wielu miesięcy w regionie Morza Bałtyckiego, w tym nad Polską i krajami skandynawskimi, notowane są masowe i długotrwałe zakłócenia sygnału, które stanowią realne zagrożenie dla lotnictwa cywilnego i transportu morskiego.

    Z technicznego punktu widzenia, satelity na niskiej orbicie (LEO) oferują znacznie silniejszy sygnał niż te operujące na średniej orbicie (MEO), na której bazuje zarówno amerykański system GPS, jak i europejski Galileo.

    Wyższa moc sygnału sprawia, że jest on znacznie trudniejszy do skutecznego zagłuszenia z ziemi.

    Inwestycja w nową konstelację jest elementem szerszej strategii Unii, dążącej do osiągnięcia suwerenności w kluczowych technologiach kosmicznych. Ma ona stanowić uzupełnienie dla systemu Galileo oraz budowanej, bezpiecznej sieci łączności IRIS².

    Krok ten podkreśla, że w obliczu nowych zagrożeń, niezależna i bezpieczna infrastruktura satelitarna staje się fundamentem nie tylko dla obronności, ale także dla stabilności całej gospodarki.

  • Spoofing GPS – Czy ataki na GPS mogą zachwiać przyszłością lotnictwa?

    Spoofing GPS – Czy ataki na GPS mogą zachwiać przyszłością lotnictwa?

    W ostatnich miesiącach zanotowano znaczący wzrost liczby ataków typu „GPS spoofing”, które stwarzają nowe zagrożenia dla komercyjnych linii lotniczych. Według OPSGROUP, organu doradczego ds. lotnictwa, liczba tych incydentów wzrosła aż o 400%. Spoofing GPS, czyli fałszowanie sygnałów nawigacyjnych, może mieć poważne konsekwencje dla bezpieczeństwa lotów, szczególnie w obszarach objętych konfliktami zbrojnymi.

    Ataki tego typu polegają na przesyłaniu fałszywych danych o lokalizacji do urządzeń GPS w samolotach, co może prowadzić do dezorientacji systemów nawigacyjnych. W szczególności odnotowano przypadki, w których nielegalne naziemne systemy GPS, głównie w strefach konfliktów, nadawały nieprawidłowe pozycje, mając na celu zmylenie dronów i pocisków. Jednak te fałszywe sygnały wpływają także na cywilne samoloty pasażerskie, wprowadzając potencjalnie niebezpieczne zamieszanie w ich systemach nawigacyjnych.

    Jednym z nowych aspektów tego zagrożenia jest możliwość manipulacji czasem. GPS nie tylko dostarcza informacji o lokalizacji, ale również synchronizuje czas. Coraz częściej raportowane są przypadki, w których zegary pokładowe samolotów zaczynają działać w sposób nieprzewidywalny w wyniku ataków spoofingowych. W jednym z niedawnych incydentów zegary samolotu obsługiwanego przez zachodnie linie lotnicze zostały nagle przestawione o kilka lat do przodu, co spowodowało utratę dostępu do zaszyfrowanych systemów komunikacyjnych i uziemienie maszyny na kilka tygodni – podaje Reuters.

    Sytuacja ta zwraca uwagę na coraz większą podatność współczesnych systemów nawigacyjnych na zakłócenia sygnałów GPS. Sygnały GPS, które są stosunkowo łatwe do zakłócenia przy użyciu tanich i łatwo dostępnych urządzeń, odgrywają kluczową rolę w nawigacji lotniczej, zastępując tradycyjne, droższe urządzenia naziemne.

    Ataki te nie powinny doprowadzić do katastrofy lotniczej, mogą one powodować zakłócenia, które potencjalnie mogą wywołać tzw. „kaskadę wydarzeń”. Nawet drobne problemy techniczne mogą eskalować i prowadzić do poważniejszych incydentów, zwłaszcza w środowisku tak skomplikowanym, jak współczesne lotnictwo.

    Problem spoofingu GPS staje się zatem poważnym wyzwaniem dla sektora lotniczego, wymagającym wzmożonej uwagi i odpowiednich środków zaradczych, aby zapewnić bezpieczeństwo lotów na całym świecie.

    Ataki na nawigację GPS: co to znaczy dla przyszłości lotów?

    Ataki typu „GPS spoofing” są kolejnym sygnałem, że świat współczesnej technologii i globalnej infrastruktury staje się coraz bardziej złożony i podatny na zagrożenia, których skala rośnie w zastraszającym tempie. Wzrost liczby takich incydentów w przestrzeni powietrznej, zwłaszcza w regionach objętych konfliktami zbrojnymi, jest nie tylko niepokojący, ale wręcz alarmujący. W obliczu technologii, która miała na celu zrewolucjonizowanie nawigacji i poprawę bezpieczeństwa, stoimy przed nowymi wyzwaniami, które mogą mieć poważne konsekwencje.

    Spoofing GPS to przykład na to, jak łatwo dostępne technologie mogą być wykorzystywane w sposób szkodliwy, a nawet zagrażający życiu. Sygnały GPS, które w dużej mierze zastąpiły tradycyjne systemy nawigacyjne, okazują się być jednocześnie mocnym fundamentem, jak i piętą achillesową współczesnego lotnictwa. Fakt, że relatywnie tanie i łatwe do zdobycia urządzenia mogą zakłócić działanie zaawansowanych systemów nawigacyjnych w samolotach, powinien skłonić nas do głębszej refleksji nad kruchością systemów, na których opiera się bezpieczeństwo globalnego transportu.

    Niepokojący jest także aspekt manipulacji czasem, który otwiera nowe wymiary ryzyka. Zegar pokładowy w samolocie, z którego korzystają piloci i systemy zarządzania lotem, jest kluczowym elementem całej infrastruktury nawigacyjnej. Jeśli fałszywe sygnały GPS mogą zmusić systemy do mylnego postrzegania czasu, konsekwencje mogą być bardzo poważne – od błędów w komunikacji, po całkowitą utratę kontroli nad samolotem.

    Czy możemy jednak przyglądać się temu problemowi tylko z perspektywy technologii? Wydaje się, że przyczyną, która leży u podstaw tego zjawiska, jest nie tylko postęp technologiczny, ale także zwiększona liczba konfliktów geopolitycznych. Spoofing GPS staje się bronią w cyfrowych wojnach, które toczą się daleko poza zasięgiem zwykłego obywatela, ale mają realny wpływ na jego bezpieczeństwo. To wyzwanie, które wymaga od rządów, organizacji międzynarodowych oraz firm lotniczych natychmiastowej reakcji i współpracy.

    Ostatecznie, problem spoofingu GPS to nie tylko kwestia techniczna, ale także polityczna i etyczna. Jak daleko możemy posunąć się w globalnej grze o dominację, narażając życie cywilów? Odpowiedź na to pytanie wymaga nie tylko zaawansowanych rozwiązań technologicznych, ale także międzynarodowych porozumień i wzmocnienia regulacji, które będą w stanie chronić nas przed eskalacją takich zagrożeń. W dobie cyfrowych konfliktów musimy zdać sobie sprawę, że to, co na pierwszy rzut oka wydaje się tylko problemem technologicznym, może w rzeczywistości stanowić zagrożenie dla globalnego pokoju i stabilności.

     

  • O tym jak Rosjanie zagłuszają sygnały GPS i telefonii komórkowej

    O tym jak Rosjanie zagłuszają sygnały GPS i telefonii komórkowej

    Dostęp do sprawdzonych i rzetelnych informacji to jedno z podstawowych praw każdego obywatela. Gdy jednak trwa wojna prawdziwe informacje stają się dobrem nadrzędnym zarówno dla jednej, jak i drugiej strony konfliktu. Doskonale wiedzą o tym Rosjanie, którzy w wywołanej na Ukrainie wojnie stosują dezinformację, jako jedno z narzędzi służące do przeprowadzenia wojny informacyjnej. W pierwszych dniach wojny podjęli próbę odcięcia Ukrainy od łączności telekomunikacyjnej. Jak do tego doszło? Czy jest możliwe odcięcie od łączności i informacji ponad 44-milionowego kraju?

    26 lutego 2022 r., dwa dni po ataku Rosji na Ukrainę, wicepremier Ukrainy – Mykhailo Faedorova – zaapelował do Elona Muska m.in. o wsparcie Ukrainy w kwestii zapewnienia łączności. O dostarczenie Starlinków.

    Rosyjskie ministerstwa odpowiedzialne za propagandę mają 70-letnie doświadczenie w pozbawianiu Europejczyków dostępu do wolnych mediów. Już w 1940 roku ZSRR skutecznie zakłócał audycje Radia Watykan prowadzone w języku litewskim. W dobie XXI wieku, kiedy media społecznościowe stają się głównym źródłem informacji dla wielu internautów, mamy okazję obserwować nowe metody manipulacji faktami. Tym razem odbywa się to dzięki zaawansowanym systemom zbudowanym na potrzeby kontrolowania widma fal elektromagnetycznych. Dzięki takim urządzeniom jak legendarna już Krasucha-C4, wojska Władimira Putina podjęły próbę pozbawienia 44-milionowej Ukrainy zasięgu sieci komórkowych. Przekształcenie ponad 600 000 km2 jednego z największych krajów w Europie w tzw. białą plamę zasięgu internetowego ma zapewnić rosyjskiej machinie wojennej przejęcie całkowitej kontroli nad przepływem informacji na terenie ogarniętym wojną. Czy agresja komunikacyjna na taką skalę jest w ogóle możliwa?

    Rosyjski dzięcioł z Czarnobyla

    Czy rozmiar ma znaczenie? To pytanie od wieków trapiło całe zastępy filozofów. Definitywną odpowiedź na to nurtujące zagadnienie znaleźli, a jakże, sowieccy inżynierowie… przynajmniej w kontekście instalacji radarowych.

    W lipcu 1976 roku w pobliżu miejscowości Czarnobyl (wówczas jeszcze nie owianej złą sławą), włodarze ZSRR uruchomili instalację o nazwie Duga. Duga była strategicznym radarem pozahoryzontalnym (OTH) pracującym w zakresie fal krótkich. Dwubiegunowa konstrukcja składa się z odbiornika o niebagatelnych wymiarach 300 x 135 metrów i nieco tylko mniejszego nadajnika o wymiarach 210 x 85 metrów.

    Niebotyczne rozmiary radaru działającego na częstotliwościach 4 – 30 MHz oraz poziomy emitowanych sygnałów sprawiały, że był on w stanie wywoływać zakłócenia odbiorników fal radiowych oddalonych nawet o 3 000 kilometrów. Sygnał Dugi potrafił kompletnie zablokować komunikację radiową prowadzoną z wykorzystaniem radia CB w paśmie 27 MHz nawet w odległej Portugalii. Specjaliści dywagowali, iż transmisje z sowieckiej instalacji mogą mieć moc rzędu kilku megawatów (milionów watów). Spekulacje okazały się jednak niedoszacowane, ponieważ w rzeczywistości moc nadajników radaru wynosiła aż 10 megawatów. Krótkofalowcy nazwali sygnał Dugi rosyjskim dzięciołem z powodu charakterystycznego rytmu przypominającego stukanie tego skrzydlatego cieśli. Mimo, iż 14 listopada 1989 roku instalacja została wycofana z użycia decyzją sowieckiego ministra obrony, stukanie radiowego dzięcioła dalej jest dostępne na portalach zrzeszających fanów radiotechniki.

    Radiowa żelazna kurtyna

    Mimo swojego potencjału (choć ubocznego) w kontekście wywoływania zakłóceń odbiorników radiowych, głównym zadaniem Dugi było ostrzeganie przed atakiem jądrowym ze strony USA. Aby skutecznie odciąć Europejczyków mieszkających za żelazną kurtyną od nieczystych myśli wywołanych słuchaniem alianckich rozgłośni radiowych, agentura ZSRR zbudowała rozległą siatkę punktów zagłuszających. Od rosyjskiej Bałaszychy, przez litewską Poniewież, aż po polski Lidzbark Warmiński.

    Radiowa żelazna kurtyna oparta została na infrastrukturze antenowej połączonej z licznymi nadajnikami i modulatorami zagłuszającymi. Jej głównym zadaniem było zatrzymanie audycji Radia Wolna Europa, Głosu Ameryki, BBC czy Radia France Internationale. Władze sowieckie płaciły niebotyczne kwoty za monopol informacyjny. Według szacunków roczne utrzymanie przemysłu zagłuszającego kosztowało ZSRR 900 milionów dolarów rocznie. Jak walczyć z tak zaawansowanym systemem propagandy?

    Inwencja i pomysłowość mieszkańców bloku wschodniego były w tym aspekcie wręcz nieocenione. Jedną z najbardziej skutecznych metod okazały się pętle wykonane z drutu lub innego przewodnika elektrycznego. Owe sławetne metalowe kółka znane są do dziś i można je kupić w pobliskim markecie RTV/AGD. Mowa o niczym innym jak magnetycznych antenach pętlowych. Pozwalały one na odsłuch blokowanych sygnałów radiowych. W gratisie dostarczały szerokie uśmiechy słuchaczom audycji Jana Nowaka-Jeziorańskiego. Wieczorem 29 listopada 1988 roku ZSRR zaprzestał zagłuszania zagranicznych stacji radiowych. Do końca 1988 roku w Związku Radzieckim, Bułgarii i Czechosłowacji wyłączono ponad 1600 nadajników rozmieszczonych w 120 centrach zagłuszania. Był to oficjalny koniec tego kosztownego przedsięwzięcia sowieckiej propagandy. Jednak świadkowie biorący udział w pogrzebie anachronicznego systemu i owoców jego zakłamania nie docenili instynktu samozachowawczego biurokratów upadającej potęgi, jaką było ZSRR. W słynnym cytacie z filmu „Psy”, były funkcjonariusz SB o pseudonimie „Dziadek” mówi do granego przez Bogusława Lindę Franza: „A gdzie ja teraz robotę znajdę, jak ja tylko przesłuchiwać umiem?”. Wydaje się, że podobny dylemat dopadł włodarzy ministerialnych odpowiedzialnych za zagłuszanie zachodnich agencji informacyjnych. Jednak w ich przypadku, parafrazując, pytanie zapewne brzmiało: „A jaką robotę teraz znajdziemy, jak my tylko zagłuszać potrafimy?”. Niestety, nawet (a może zwłaszcza) tak podłe umiejętności okazały się przydatne w nowej rzeczywistości zwanej Federacją Rosyjską.

    Krasucha-C4 czyli repeater GSM w wydaniu XXL

    Od ponad roku Urząd Komunikacji Elektronicznej ostrzega Polaków przed zakupem i samodzielną instalacją magicznego urządzenia przeznaczonego do dwukierunkowego wzmacniania sygnałów radiowych, zwanego popularnie reapeterem. Mimo systematycznej rozbudowy infrastruktury sieci komórkowych i coraz skuteczniejszego pokrycia obszaru Polski siecią światłowodów, nadal borykamy się z problemem tzw. białych plam zasięgowych. Miejsc, gdzie dostęp do Internetu jest znacznie utrudniony lub wręcz niemożliwy. Wiele sklepów internetowych mami swoich klientów szybkim w zastosowaniu i relatywnie tanim rozwiązaniem tego problemu. Panaceum na kiepski zasięg sieci mają być wspomniane reapetery. Urządzenia te funkcjonują w powszechnej świadomości jako wzmacniacze sygnału sieci komórkowej. Na siłę sygnału komórkowego w miejscu jego odbioru wpływa nie tylko odległość od stacji bazowej, ale także forma ukształtowania terenu, układ budynków, rozkład ścian a nawet rodzaj materiału użytego do ich konstrukcji. Repeatery teoretycznie pozwalają obejść te ograniczenia, ponieważ przechwytują fale radiowe ze stacji bazowej i je powielają, emitując wzmocniony sygnał, który dociera, np. do naszego smartfonu. Identycznie działają także w kierunku do stacji bazowej, z tą różnicą, że wzmacniają sygnał od smartfonu.

    Jednak właśnie w związku z tym przechwytywaniem sygnałów, repeatery stwarzają podstawowy problem, jakim jest zakłócanie prawidłowego działania sieci nawet w promieniu 10 kilometrów. Z tego powodu UKE wymaga od użytkowników uzyskania odpowiedniego pozwolenia na instalację wzmacniacza. Ponadto ,taka instalacja powinna być wykonana przez operatora sieci komórkowej. W Polsce za samowolę polegającą na uruchomieniu tego typu urządzenia grozi grzywna do 1000 zł i ograniczenie albo pozbawienie wolności do 2 lat. Dlatego refleksja nad zabawą w domorosłego radio-instalatora jest w tym przypadku wysoce zalecana.

    Właśnie kwestia zakłóceń funkcjonowania całej struktury sieci w danej lokalizacji i fakt, że spora część repeaterów sprowadzanych z Chin nie posiada dokumentów potwierdzających zgodność ich wykonania z wymaganiami zasadniczymi dyrektywy 2014/53/UE (tzw. RED) determinuje penalizację takiej ingerencji w integralność infrastruktury sieci komórkowych. Pozostaje zasadnicze pytanie. Co z tą Krasuchą?

    Otóż enigmatyczne urządzenie kryjące się pod tym sformułowaniem to rosyjski system o nazwie 1RL257 Krasucha-C4. Szerokopasmowa wielofunkcyjna stacja zagłuszająca produkowana jest od 2010 roku. System został zamontowany na czteroosiowym podwoziu BAZ-6910-022. Krasucha przeciwdziała wykrywaniu stosowanemu przez Statki Powietrzne Wczesnego Ostrzegania (AWACS) i innym powietrznym systemom radarowym. Charakteryzuje się zasięgiem skutecznie zakłócającym działanie satelitów na niskiej orbicie okołoziemskiej (LEO), może również spowodować trwałe uszkodzenie urządzeń radioelektronicznych.

    Krasucha-C4Fot. Rosyjski system o nazwie 1RL257 Krasucha-C4. Szerokopasmowa wielofunkcyjna stacja zagłuszająca. Źródło: mil.ru 

    Rosyjski system jest odpowiedzialny za strącenie co najmniej jednego drona rozpoznawczo-bojowego Bayraktar TB2 w ogarniętej wojną Syrii. Również radary naziemne mogą być zagłuszane przez Krasucha-4. Zakres częstotliwości, na której operuje system, faktycznie jest szeroki, bo rozciąga się od 8,5 GHz do 18 GHz. Zasięg skutecznego działania urządzenia to 300 kilometrów. Być może nie jest to nielegalny repeater sensu stricto, ale jego działanie wywołuje podobne skutki. Rosyjska broń radioelektroniczna ma na celu kontrolowanie widma fal elektromagnetycznych lub użycie ukierunkowanej energii w celu jego kontrolowania. Panowanie nad widmem elektromagnetycznym ułatwia atakowanie wroga, jak również ogranicza jego możliwości ofensywne poprzez odebranie przewagi wynikającej z wykorzystania systemów naprowadzania. Ataki radioelektroniczne mogą odbywać się z powietrza, morza, lądu lub przestrzeni kosmicznej dzięki zastosowaniu systemów załogowych i bezzałogowych. Takie ataki są najczęściej kierowane na komunikację, radary lub inne zasoby wojskowe i cywilne. Krasucha nie tylko zakłóca działanie sieci w promieniu 300 kilometrów.

    System wręcz monopolizuje dostęp do niej. To potężne narzędzie do walki radioelektronicznej nie jest jednak jedynym asem w rękawie Rosjan.

    Broń radioelektroniczna – czym jest i do czego służy

    Armia rosyjska rozmieszcza swoje środki do walki radioelektronicznej na poziomie operacyjnym i taktycznym. Jednostki szczebla operacyjnego są zorganizowane w brygady, bataliony i kompanie. Każda z nich ma odrębne zadania polegające na wspieraniu szeroko pojętych działań wojennych. Brygady radioelektroniczne (WRE) są niezależnymi formacjami wojskowymi zapewniającymi operacyjną i strategiczną ofensywę WRE na przydzielonym rejonie konfliktu zbrojnego. Jednostki te nie tylko wspomagają walkę wojsk lądowych, ale biorą również udział w naziemnej obronie przeciwlotniczej. Wydaje się, że podobną rolę pełnią Samodzielne Bataliony WRE. Taktyczna wojna elektroniczna jest zapewniana dzięki Kompaniom WRE, które odpowiadają za wyposażenie sprzętowe formacji manewrowych armii rosyjskiej. Typowa Samodzielna Brygada WRE jest w stanie prowadzić wojnę elektroniczną na dużej części teatru działań. Zadaniem takich jednostek jest zagłuszanie wrogich radarów powietrznych, sieci telefonii komórkowej i łączności radiowej o wysokiej częstotliwości. Szczegółowy skład systemów radioelektronicznych składających się na Samodzielną Brygadę WRE przedstawiamy w tabeli poniżej:

    Nazwa systemu  Zastosowanie systemu  Zakres częstotliwości 
    1 x Murmańsk-BN  Rozpoznanie promieniowania elektromagnetycznego (COMINT) Zagłuszanie komunikacji (COMJAM) radiowej opartej na falach krótkich  3 MHz – 30 MHz 
    1 x RB-341V Leer -3  Rozpoznanie promieniowania elektromagnetycznego (COMINT) i zagłuszanie komunikacji (COMJAM) sieci komórkowych  30 MHz – 3 GHz 
    1 x IL269 Krasucha-2.0  Zakłócanie radarów powietrznych  1 GHz – 2 GHz 
    1 x 1RL257 Krasucha-C4  Zakłócanie radarów powietrznych  8,5 GHz – 18 GHz 
    1 x 1L267 Moskwa-1  System radarów pasywnych odpowiedzialny za rozpoznanie promieniowania elektromagnetycznego (COMINT)  30 MHz – 18 GHz 

    Jednostkom manewrowym armii rosyjskiej, takim jak pułki strzelców zmotoryzowanych, brygady i dywizje zmechanizowane oraz brygady czołgów, często towarzyszą kompanie WRE. Jednak według publicznie dostępnych źródeł informacji nie wszystkie oddziały posiadają w swoim składzie systemy do prowadzenia tego typu działań. W przypadku ich nieobecności formacje te muszą polegać na zapewnieniu wsparcia radioelektronicznego przez Samodzielne Brygady i Bataliony WRE na szczeblu okręgów wojskowych. Kompanie WRE zapewniają takim jednostkom wsparcie na poziomie taktycznym. Ma to pomóc jednostce manewrowej w szybkim osiągnięciu strategicznego celu. Rosyjskie Kompanie WRE wdrażają duże ilości systemów obejmujących różne zakresy fal. Skład typowej kompanii WRE prezentujemy w tabeli poniżej:

    Nazwa systemu  Zastosowanie systemu                                                                                                                                      Zakres częstotliwości 
    1 x RP-330KPK  Systemy dowodzenia C2 (Command and control)  Brak danych 
    1 x R-330K  Systemy dowodzenia C2 (Command and control)  Brak danych 
    2 x R-325UMV  COMINT/COMJAM fal krótkich  1,5 MHz – 30 MHz 
    2 x R-378B  COMINT/COMJAM fal krótkich  1,5 MHz – 30 MHz 
    2 x R-330B  COMINT/COMJAM fal metrowych VHF  30 MHz – 100 MHz 
    1 x R-330Z  Zakłócanie systemów nawigacji satelitarnej opartych na GNSS (m.in. GPS) oraz COMINT/COMJAM fal VHF i decymetrowych fal UHF  100 MHz – 2 GHz 
    2 x SPR-2/RTUT-B  Zagłuszanie pracy bezpieczników stosowanych w broni detonowanej drogą radiową  95 MHz – 420 MHz 
    21 x RP-377U/UV  COMJAM fal VHF i fal UHF  30 MHz – 3 GHz 
    2 x R-934B  COMJAM fal VHF w zakresie częstotliwości używanych przez lotnictwo cywilne  20 MHz – 2 GHz 

    Niektóre systemy wykorzystywane przez brygady i kompanie WRE armii rosyjskiej są montowane na pojazdach. Inne, takie jak RP-377U/UV, mieszczą się w zestawie plecakowym. Eksperci uważają, iż poza RP-377U/UV pozostałe systemy radioelektroniczne Rosjan mogą być używane wyłącznie stacjonarnie. Oznacza to, że nie mogą posuwać się wraz z siłami manewrowymi. To istotne ograniczenie zmusiło strategów Władimira Putina do stosowania taktyki tzw. parasoli radioelektronicznych osłaniających postępujące oddziały przed atakami przeciwnika.

    Jak widać, szerokie spektrum wykorzystywanych przez Rosjan systemów WRE pozwala ich wojskom na:

    • zagłuszanie i przechwytywanie komunikacji opartej na falach krótkich;

    • zagłuszanie i przechwytywanie komunikacji opartej na falach VHF i UHF;

    • zagłuszanie i przechwytywanie komunikacji opartej na sieciach komórkowych;

    • zakłócanie systemów nawigacji satelitarnej, np. GPS;

    • zagłuszanie i przechwytywanie komunikacji przeznaczonej dla lotnictwa cywilnego;

    • zagłuszanie pracy bezpieczników stosowanych w broni detonowanej drogą radiową.

    Według serwisu militarnego Armada International Rosjanie rozmieścili na terenie Ukrainy sześć Niezależnych Brygad WRE, trzy Niezależne Bataliony WRE oraz dwie kompanie WRE. Dzięki zaangażowaniu tak dużych sił oczekują całkowitej dominacji w sferze wojny radioelektronicznej.

    Jednak rzeczywistość szybko zweryfikowała imaginacje rosyjskich generałów. Okazało się, że taktyczne spekulacje najeźdźców były jedynie mrzonkami na temat cyfrowej supremacji ich wojsk. Kubeł zimnej wody na ich głowy wylał Elon Musk. Nie odmawiając sobie przy tym charakterystycznej dozy sarkazmu. Cały potencjał radioelektroniczny Rosjan został zniweczony przez komercyjny system telekomunikacyjny Starlink o czym pisaliśmy w zeszłym tygodniu. Dzięki wsparciu szefa SpaceX Ukraina otrzymała dużą ilość terminali Starlink, które pozostają jedynym kanałem komunikacji nie znajdującym się pod kontrolą armii Putina. Mimo prób zagłuszania sygnału, Starlinki w dalszym ciągu zapewniają Ukraińcom kontakt ze światem zewnętrznym.

    Obwód Kaliningradzki – strefa wolna od sygnału GPS

    W sobotę, 5 marca 2022 roku, w stolicy Finlandii – Helsinkach – doszło do spotkania prezydentów: Joe Bidena i Sauli Niinist. Przywódcy USA i Finlandii mieli rozmawiać na temat zacieśnienia współpracy militarnej i ewentualnego wstąpienia Finlandii w struktury sojuszu NATO. Pełna wzajemnych kurtuazji wizyta nie skupiła zbyt wielkiej uwagi wśród serwisów informacyjnych. Jednak konsekwencje spotkania okazały się dużo dalej idące niż polityczne deklaracje o zacieśnieniu relacji. Wkrótce po zakończeniu spotkania piloci fińskich linii lotniczych Finnair zaczęli informować o zakłóceniach sygnału GPS, które napotkali podczas przelotów w pobliżu Obwodu Kaliningradzkiego.

    Według Fińskiej Agencji Transportu i Komunikacji Traficom, 10 lotów rejsowych napotkało utrudnienia spowodowane utratą nawigacji. Według dyrektora Traficom Jari Pöntinena samoloty Finnair są wyposażone w alternatywne systemy nawigacji, które pozwalają na kontynuowanie lotu mimo utraty sygnału GPS. Niestety tyle szczęścia nie mieli klienci litewskich linii lotniczych Transaviabaltika. Litewski przewoźnik był zmuszony do odwołania 18 lotów rejsowych pomiędzy Helsinkami i lotniskiem Savonlinna położonym w południowo-wschodniej Finlandii. Lotnisko w Savonlinna nie jest wyposażone w alternatywny system nawigacji. Według ekspertów próba startu lub lądowania w tak trudnych warunkach może doprowadzić do katastrofalnych konsekwencji. Członek zarządu Tranaviabaltika Rene Must poinformowała, iż przewoźnik 3-krotnie podejmował próbę lotu między Helsinkami i Savonlinna. Wszystkie z nich zakończyły się niepowodzeniem. Mimo licznych próśb o komentarz biuro prasowe Kremla nie udzieliło żadnej odpowiedzi. Według części ekspertów ds. wojny radioelektronicznej utrudnienia jakie napotkali piloci z Finlandii i Litwy mogły być zaledwie częścią szerszej kampanii wymierzonej w Europę. Jak wygląda ingerencja w systemy nawigacyjne oparte na GPS?

    Władimir Putin Le Grand Spoofer

    Oszustwa na tzw. wnuczka są plagą, która od kilku lat dotyka polskich seniorów. Krętacze podający się za wnuki potencjalnych ofiar wyłudzają od nich oszczędności, niejednokrotnie gromadzone przez całe życie. Ten rodzaj przestępczości jest relatywnie nieskomplikowany, a przy tym skrajnie bezczelny. Zorganizowana grupa oszustów telefonuje (przede wszystkim na telefony stacjonarne) podając się za członka rodziny, który wpadł w konflikt z prawem. Jedynym sposobem na uwolnienie się spod odpowiedzialności karnej jest wpłata dużej kwoty na konto prokuratury lub jednostki Policji. Po omówieniu szczegółów przekazania pieniędzy na miejscu pojawia się tzw. odbierak (osoba odbierająca gotówkę) i znika z kopertą wypełnioną banknotami. Tego typu oszustwa stały się jednak retro. Nową modą w świecie oszustów jest tzw. spoofing.

    Spoofer preferuje bardziej wyszukaną metodę kontaktu i wyłudzenia. Spoofing to oszustwo, w którym przestępca podszywa się pod pewną osobę, firmę lub inne zaufane źródło. Cele takiego ataku mogą być różne: kradzież informacji, przekonanie ofiary do zainstalowania złośliwej aplikacji albo wprowadzenie zamieszania i destabilizacji. Bardzo często przestępcy chcą uzyskać dostęp do cudzego konta bankowego. Można wyróżnić wiele rodzajów spoofingu: telefoniczny, e-maila, IP, URL czy danych GPS. Oczywistą oczywistością jest to, że król petrodolarów Władimir Putin nie wysyła linków internetowych na komórki Europejczyków, aby uzyskać dostęp do ich kont bankowych. Jednak w kwestii spoofingu GPS rosyjski dyktator nie ma sobie równych.

    Ten rodzaj „naciągania” polega na zmanipulowaniu odbiornika GPS poprzez nadawanie sfałszowanego sygnału. Taki sygnał ma za zadanie imitować standardowy, prawidłowy sygnał GPS. Może również powtórnie nadawać oryginalny sygnał zdobyty w innym miejscu lub o innym czasie. Te sfałszowane sygnały mogą być modyfikowane w taki sposób, by odbiorca błędnie oszacował swoją aktualną pozycję. Jedna z form ataku GPS spoofing, nazywana atakiem carry-off, zaczyna się od nadania sygnału GPS zsynchronizowanego z oryginalnym sygnałem obserwowanym przez cel ataku. Siła sygnału sfałszowanego jest stopniowo zwiększana i zmieniana w stosunku do oryginalnego sygnału.

    Taki typ ataku doprowadził do przechwycenia drona Lockheed Martin RQ-170 w północno-wschodnim Iranie w 2011 roku. Grupa studentów mechaniki z Cockrell School of Engineering w University of Texas w Austin przeprowadziła pozorowany atak na luksusowy jacht „Biała Róża” w 2013 roku, aby udowodnić skuteczność spoofingu GPS. Jacht był mylnie nawigowany przy użyciu sfałszowanego sygnału z Monako do wyspy Rodos. Studenci przebywający na pokładzie jachtu wykorzystali urządzenia generujące fałszywy sygnał GPS i dzięki stopniowemu zwiększaniu jego sygnału zdominowali siłę sygnału prawdziwego satelity, doprowadzając w efekcie do zmiany kursu jachtu.

    Wracając do Rosjan – od początku 2021 roku w międzynarodowych serwisach informacyjnych pojawiały się materiały na temat kurortu Gelendżyk położonego nad Morzem Czarnym. Według rosyjskiego opozycjonisty Aleksieja Nawalnego, znajduje się tam kompleks budynków zbudowany dla prezydenta Rosji. Nawalny uważa, iż jest to nowy pałac Władimira Putina.

    Inwestycja warta około miliarda dolarów jest tajemnicą poliszynela. Nie zmienia to faktu, że rosyjski prezydent nie lubi wścibskich oczu na swoich nieruchomościach. Prawdopodobnie z tego powodu region Morza Czarnego stał się Mekką spoofingu GPS. Jedno z fałszerstw było szczególnie niepokojące. W 2017 roku francuski tankowiec Atria płynący do rosyjskiego portu Noworosyjsk napotkał niespodziewane problemy z nawigacją GPS. Według załogi statku podczas rejsu uruchomiony został alarm nawigacyjny (GPP). Nawigacja tankowca wskazywała, iż znajduje się on nie na wodzie, lecz na lądzie, a do tego na terenie oddalonego o 26 kilometrów lotniska Gelendżyk. Zaniepokojony kapitan skontaktował się z innymi statkami w okolicy. Pozostałe załogi zgłaszały dokładnie ten sam problem. Amerykańska Administracja Morska (MARAD) ostrzegła fregaty znajdujące się w tej części Morza Czarnego o potencjalnym zagrożeniu. Sygnały z Globalnego Systemu Nawigacji Satelitarnej (GNSS, w tym GPS) w pobliżu kurortu wydają się być bardzo często zakłócane lub zniekształcane. Nie był to pierwszy przypadek spoofingu GPS, o który podejrzewa się Władimira Putina.

    Wiosną 2019 roku amerykański non-profit Center for Advanced Defense Studies (C4ADS) opublikował raport na temat rosyjskiego spoofingu. Analitycy oparli swój raport na trzech źródłach: danych dostępnych publicznie, danych z systemów automatycznej identyfikacji statków (AIS) oraz odbiornika GPS zainstalowanego na Międzynarodowej Stacji Kosmicznej (ISS). Według analizy Rosja jest „pionierem” w technikach fałszowania, które były wykorzystywane częściej niż dotychczas. Przede wszystkim do ochrony VIP-ów i obiektów strategicznych. Nie jest jasne, czy incydent z tankowcem był bezpośrednio powiązany z domniemanym pałacem Putina. Jednak C4ADS spekuluje, że mógł mieć więcej wspólnego z wizytą rosyjskiego prezydenta w Anapa nad Morzem Czarnym, gdzie obserwował postępy w budowie gazociągu TurkStream. W latach 2016–2018 na tym obszarze odnotowano ponad 4600 przypadków spoofingu, a raport sugerował, że Gelendżyk jest odwiedzany przez funkcjonariuszy służb bezpieczeństwa. Jest to zgodne z popularnymi, ale niepotwierdzonymi doniesieniami, że prezydent Władimir Putin ma prywatną rezydencję na obrzeżach miasta.

    Po przeanalizowaniu kilku hipotez analitycy C4DS uważają, że system fałszowania GNSS używany w pobliżu Gelendżyk ma formę instalacji naziemnej. Biorąc pod uwagę częsty charakter podszywania się pod GNSS w pobliżu kurortu i szeroko zakrojony spoofing GPS oddziałujący na przepływające w okolicy statki, wydaje się, że równie istotnym powodem takich działań może być bliskie położenie portu Noworosyjsk. Noworosyjsk jest jednym z największych portów głębinowych w Rosji. Jest to siedziba dużego kontyngentu rosyjskiej Floty Czarnomorskiej. Czy problemy Fińskich i Litewskich linii lotniczych spowodowane były spoofingiem rosyjskich jednostek stacjonujących w Obwodzie Kaliningradzkim? Ciężko jednoznacznie odpowiedzieć na to pytanie. Jednak dotychczasowa ingerencja służb Władimira Putina w systemy GPS uprawdopodabnia taką hipotezę.

    Latający BTS

    Opisany rodzaj szachrajstwa jest szczególnie niebezpieczny dla statków morskich i powietrznych. Jednak przeciętny Kowalski nie posiada w swoim garażu Boeinga 737 czy kontenerowca przewożącego ropę naftową z Bliskiego Wschodu. Jednym z narzędzi do prowadzenia WRE są drony wyposażone w wyposażenie takie, jak instalowane w stacjach bazowych telefonii komórkowej. Bezzałogowe statki powietrzne jako stacje bazowe (Unmanned Aerial Vehicle as Base Stations, UAV-BS) to obiecująca technologia łagodzenia awarii naziemnych stacji bazowych lub stająca się idealnym tymczasowym rozwiązaniem do odciążenia przeładowanej sieci.

    UAV-BS może zostać wdrożony w celu uzupełnienia istniejących systemów komórkowych poprzez zapewnienie dodatkowej pojemności dla obszarów, które tego wymagają. Takie instalacje są w stanie zapewnić zasięg sieci w sytuacjach krytycznych dla bezpieczeństwa publicznego, na przykład podczas zgromadzeń i marszów. Niestety, jak z każdą nową technologią, również w tej sytuacji napotykamy pewien dylemat. Urządzenia tego typu mogą równie dobrze być wykorzystywane do szeroko zakrojonych akcji spoofingowch. UAV-BS dają np. możliwości wysyłania fałszywych SMS-ów czy zbierania informacji, etc.

    Już w 2013 roku amerykańska firma Harris Corporation wyprodukowała urządzenie o nazwie Stingray (Płaszczka). Płaszczka to moduł do przechwytywania tożsamości abonentów mobilnych tzw. IMSI-catcher. Płaszczka jest używana do przechwytywania ruchu z telefonów komórkowych i śledzenia danych o lokalizacji ich użytkowników. Moduł pełni rolę „fałszywej” stacji bazowej i staje się pośrednikiem między docelowym telefonem komórkowym, a rzeczywistymi antenami dostawcy usług. Taka procedura nazywana jest atakiem „man-in-the-middle” (MITM). Standard bezprzewodowy 3G i 4G zapewnia pewne ograniczenie ryzyka ze względu na wzajemne uwierzytelnianie wymagane zarówno od telefonu, jak i sieci. Jednak zaawansowane ataki są w stanie obniżyć poziom 3G i 4G do usług sieciowych niewymagających wzajemnego uwierzytelniania. Moduły IMSI-catcher są używane w wielu krajach przez organy ścigania i agencje wywiadowcze. Ich stosowanie wzbudziło poważne obawy dotyczące swobód obywatelskich i prywatności. Dlatego jest ono ściśle regulowane. Gdyby tak potężna technologia została użyta przez wrogie siły na terenie objętym wojną, na przykład w celu wysyłania wiadomości SMS do lokalnej ludności odwołujących alarm bombowy, wówczas skutki mogłyby się okazać tragiczne.

    Limity PEM w Rosji. Definicja hipokryzji

    Rosja od czasów sowieckich nie zrewidowała przepisów określających dopuszczalne poziomy pól elektromagnetycznych. Jest to frapująca dychotomia. Z jednej strony administracja Władimira Putina wywierała duży nacisk na szybki rozwój rodzimej infrastruktury 5G. Z drugiej strony kurczowo trzyma się anachronicznych przepisów z zamierzchłych czasów. Przepisów, które de facto uniemożliwiają wdrożenie nowej technologii mobilnej. Nie jest to jedyny przejaw hipokryzji Rosjan. Kraj, w którym limit PEM wynosi 0,1 W/m2 nie ma najmniejszego problemu z wytaczaniem infrastruktury WRE, która emituje PEM przekraczający ten limit o rzędy wielkości. Wynika to między innymi z faktu, iż limit dotyczy wyłącznie urządzeń komercyjnych. Licencje wydawane agencjom rządowym i wojsku działają na podstawie innych przepisów.

    Rosyjska administracja słynie z moralizowania międzynarodowych agencji takich jak ICNIRP w kontekście opracowanych przez nie limitów PEM. Zarzuca ich naukowcom szachowanie życiem i zdrowiem miliardów ludzi na całym świecie. Tego typu hipotezy wysuwa państwo, które ma długą i bujną historię tworzenia konstrukcji zagłuszających i szpiegowskich, które za nic miało zdrowie i życie ludzkie. Konstrukcji, które nie były ograniczone żadnymi limitami, a cel ich funkcjonowania wynikał z najbardziej prymitywnych pobudek. Nie jest to pierwsza sytuacja moralnej ekwilibrystyki uprawianej przez Władimira Putina. Miejmy jednak nadzieje, że będzie jedną z ostatnich.


    O projekcie

    Projekt „Sprawna telekomunikacja mobilna jako klucz do rozwoju i bezpieczeństwa” realizowany przez KPRM we współpracy z Instytutem Łączności – Państwowym Instytutem Badawczym w ramach Programu Operacyjnego Polska Cyfrowa Działanie 3.4. Kampania ma na celu zwiększenie świadomości Polaków w zakresie działania, wykorzystania, bezpieczeństwa i znaczenia mobilnych sieci telekomunikacyjnych, a tym samym usług (w tym publicznych) opartych o te sieci. W ramach projektu zrealizowane zostaną działania w następujących obszarach: walka z dezinformacją, edukacja, podstawy prawne procesu inwestycyjnego, bezpieczeństwo i jakość życia.

    Autor: Instytut Łączności – Państwowy Instytut Badawczy

  • Polacy za cyberbezpieczeństwo są gotowi zapłacić ok. 30 zł na miesiąc

    Polacy za cyberbezpieczeństwo są gotowi zapłacić ok. 30 zł na miesiąc

    Aż 10% użytkowników internetu w Polsce nie ma żadnych zabezpieczeń na swoich urządzeniach podłączonych do internetu, bo najczęściej nie wiedzą, co i jak mają zainstalować. Użytkownicy, którzy mają jakieś rozwiązania zabezpieczające, z reguły korzystają z darmowych aplikacji i oprogramowania preinstalowanego przez producentów urządzeń. Polacy w większości oczekują też kompleksowej usługi w zakresie cyberbezpieczeństwa od swojego dostawcy internetu i są skłonni za nią zapłacić ok. 30 zł na miesiąc  – wynika z badania Coleman Parkes Research, które zostało zrealizowane na zlecenie Allot, jednego globalnych liderów oferujących rozwiązania w obszarze cyberbezpieczeństwa.

    Polacy najczęściej mają zainstalowane na urządzeniach podłączonych do internetu oprogramowanie chroniące ich przed wirusami (61%), atakami phishingowymi (59%), złośliwym oprogramowaniem typu malware (43%), a także do blokowania witryn z niewłaściwymi treściami (42%).

    „Wśród zainstalowanych zabezpieczeń przeważają darmowe aplikacje zabezpieczające (29%) lub preinstalowane rozwiązanie od producenta urządzenia (26%). Co ciekawe, ponad jedna trzecia Polaków (37%) uważa, że preinstalowane zabezpieczenia są w pełni wystarczające. Nie zgadza się z tym 25% respondentów, którzy decydują się na płatne zabezpieczenia i płacą za taką usługę średnio 34 zł miesięcznie”mówi Ian Parkes z firmy Coleman Research.

    cyberbezpieczeństwo

    10% Polaków nie ma żadnej ochrony przed cyberzagrożeniami

    Z badań Allot i Coleman Parkes Research wynika, że aż 10% użytkowników internetu w Polsce nie ma żadnej ochrony na swoich urządzeniach podpiętych do internetu. Wynika to głównie z tego, że po prostu obawiają się instalowania nowych aplikacji (58% wskazań). Z kolei 51% osób w tej grupie przyznała, że zainstalowanie i uaktualnianie oprogramowania zabezpieczającego zajmuje im za dużo czasu i dlatego tego nie robią.

    Kolejne często wskazywane powody, dla których Polacy rezygnują z ochrony przed cyberzagrożeniami, to niewiedza, gdzie szukać takiej zabezpieczającej aplikacji (47%), jaką wybrać (46%) i jak ją zainstalować (31%). Często powodem jest też brak świadomości, że w ogóle powinni coś instalować, co wynika z przekonania, że taka aplikacja została już zainstalowana na ich urządzeniu przez producenta (46%) lub po prostu, że posiadanie zabezpieczeń nie jest konieczne (34%). Z kolei 24% osób wskazało, że nie instaluje żadnych aplikacji zabezpieczających ze względu na zbyt duże koszty z tym związane.

    Jakich zagrożeń obawiamy się i na jakich urządzeniach potrzebujemy ochrony najbardziej?

    Ataki phishingowe (56% wskazań), narażenie dzieci na cyberzagrożenia (56%) i utrata poufnych danych (54%) to cyberzagrożenia, których najbardziej obawiają się Polacy. Na liście są także: ataki ransomware (53%) i utrata prywatności (49%).

    Polacy mają także szereg innych obaw związanych z korzystaniem z internetu. Największe z nich dot. zbyt dużej ilość czasu spędzonego online w ciągu dnia (58%) i związanej z tym obawy przed zainstalowaniem niebezpiecznej aplikacji (56%) oraz zetknięciem się ze szkodliwymi treściami (52%). Boimy się także, że osoby obce uzyskają dostęp do prywatnych informacji na nasz temat przez serwisy społecznościowe (51%), a także kontaktu z wulgarnym słownictwem (50%).

    „Ciekawe wyniki przyniosły także odpowiedzi na pytania o obawy dot. mieszkania w inteligentnym domu. Otóż Polacy w tym obszarze najbardziej obawiają się o takie kwestie, jak utrata prywatności (28%), zbyt duża zależność od technologii (22%), wysokie koszty (20%), za duże skomplikowanie takiego rozwiązania (18%) oraz cyberatak (12%)”wyjaśnia Ian Parkes.

    Przedstawiciel Coleman Parkes Research zauważa także, że aż 46% Polaków boi się, że mikrofony i kamery wbudowane w niektóre ich urządzenia mogą zostać zhakowane i wykorzystane do szpiegowania. Nieświadomych takiego zagrożenia jest aż 20% respondentów, a podobny odsetek uważa, że to niemożliwe.

    „Niestety, jest to jak najbardziej realne zagrożenie. Wystarczy, że na naszym urządzeniu zostanie zainstalowane oprogramowanie szpiegujące i przy pomocy takiego oprogramowania można włączyć kamerę w telefonie, czytać esemesy (nawet te już skasowane), a także podsłuchiwać prowadzone rozmowy telefoniczne podłączając się w niezauważalny sposób. Takie oprogramowania pozwala także śledzić lokalizację za pomocą urządzeń GPS w telefonie” tłumaczy Ian Parkes.

    Obawy o bezpieczeństwo podczas korzystania z internetu przez telefon powodują, że to urządzenie jest wskazywane najczęściej, bo aż przez 42% respondentów, jako wymagające ochrony. Na kolejnych miejscach znajdują się: ochrona podczas korzystania z internetu podłączonego do routera w domu i pracy (32%), a także podczas połączeń przez Wi-Fi (25%).

    cyberbezpieczeństwo

    Ochronę powinien zapewnić dostawca internetu lub producent urządzenia

    Najwięcej, bo aż 32% Polaków uważa, że to ich dostawca usługi dostępu do internetu powinien zapewnić ochronę przed cyberzagrożeniami. Z kolei 26% twierdzi, że taką ochronę powinien zapewnić producent urządzenia, a po 21% uważa że o kwestie bezpieczeństwa online każdy powinien zatroszczyć się samodzielnie – albo przez zainstalowanie odpowiedniej aplikacji, albo aktywując aplikację preinstalowaną na urządzeniu.

    Wyniki badań pokazały też, że jedna czwarta Polaków polegałaby na systemie bezpieczeństwa swojego dostawcy usług internetowych dla smart domu, ale aż 20% respondentów przyznało, że najpierw musiałoby zgłębić temat albo że nie wiedzieliby, od czego zacząć.

    „Polacy na tle innych nacji mieszczą się w średniej, jeśli idzie o najczęściej praktykowane nawyki związane z bezpieczeństwem w sieci. W większości pamiętają o tym, żeby na swoim urządzeniu podłączonym do internetu zmienić predefiniowane hasło (57%), a także skonfigurować jego zaawansowane ustawienia dot. bezpieczeństwa (46%). Znaczna część Polaków, bo aż 38%, wskazała także, że ma domowy system, który zapewnia im kompleksową ochronę. Z kolei 37% respondentów przyznaje, że regularnie aktualizuje oprogramowanie na urządzeniu, a 31% korzysta z kompleksowego systemu zabezpieczeń zapewnianego przez dostarczyciela usługi dostępu do internetu”omawia wyniki badania Ian Parkes.

    Ile zapłacilibyśmy się za nasze bezpieczeństwo w sieci?

    Ciekawe wyniki przyniosła także część badania poświęcona temu, ile Polacy są skłonni zapłacić za swoje bezpieczeństwo online. Wynika z nich, że średnio jest to 32,5 zł na miesiąc za kompleksowe zabezpieczenie smart domu oraz 31,8 zł za pełne zabezpieczenie sieci domowej i wszystkich urządzeń użytkownika.

    „Aż 72% Polaków oczekuje takiego rozwiązania od swojego dostawcy internetu – albo jako część już dostarczanej usługi (38%), albo też jako dodatkowo płatną opcję (32%). W przypadku aż 60 proc. ankietowanych jest oczekiwanie, że ochrona na wielu urządzeniach powinna wiązać się ze znaczącym rabatem ze strony usługodawcy” komentuje Ian Parks.

    cyberbezpieczeństwo

    Aż 60% Polaków przyznało, że gdyby na rynku pojawiła się oferta promująca kompleksową ochronę w sieci, to byłby to poważny argument do zmiany usługodawcy. 22% respondentów zdecydowanie zdecydowałoby się na taki krok, a w 38% przypadków taka decyzja byłaby prawdopodobna.


    Badanie internetowe Allot i Coleman Research zostało zrealizowane na reprezentatywnej grupie 1000 Polaków w sierpniu 2020 roku.

  • Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    „Dokładny, pewny czas ma swoją wartość i ona stale rośnie.” – mówi Tomasz Widomski z Elpromy – jednego ze światowych liderów synchronizacji w IT, czyli dostarczania siecią komputerową precyzyjnej informacji o czasie w rozmowie z Waldemarem Sielskim.

    Waldemar Sielski: Kiedy pojawiło się w Elpromie zainteresowanie synchronizacją czasu?

    Tomasz Widomski: W roku 1996 opracowaliśmy pierwszy odbiornik GPS dołączany przez RS232 do komputera PC. Wówczas byliśmy przekonani, że GPS to świetne rozwiązanie. Jednak na przestrzeni lat zrozumieliśmy, że przemysł ewoluuje w stronę systemów rozproszonych i zbyt silnie uzależnia się od niedoskonałego GPS. Coraz częściej pytano o rozwiązania sieciowe Ethernet z protokołem NTP (Network Time Protocol). W roku 2000 powstał pierwszy sieciowy serwer czasu zrealizowany na zamówienie polskiego Sejmu. Tak się składa, że w roku 2020, a więc równo w 20 lat później, najnowszą wersję tego serwera z protokołem PTP IEEE1588 dostarczyliśmy do Parlamentu Europejskiego i Komisji UE. Ta wersja jest odporna na manipulacje sygnału GPS.
    Czytaj: Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE | BrandsIT.pl – Portal Technologiczny

    WS: Synchronizacja czasu to zagadnienie specjalistyczne i mało znane. Może dlatego, że nawet zdefiniowanie czasu nie jest łatwe, prawda?

    TW: Odpowiadając na pytanie „Czym jest czas” zacytuję św. Augustyna „Jeśli nikt mnie o to nie pyta, wiem. Jeśli pytającemu usiłuję wytłumaczyć, nie wiem”. Intuicja podpowiada, że skoro umiemy czytać zegary to sprawa nie jest trudna – nic bardziej mylnego. W fizyce czas oznacza zmianę, a w elektronice pełni rolę „dyrygenta orkiestry” układów scalonych. Określanie jednoczesności zdarzeń z dużą dokładnością jest dzisiaj w cenie. Szczególnie widać to w sektorze finansowym na zrobotyzowanych giełdach Wall Street i w Londynie, gdzie algorytmy wychwytują najdrobniejsze różnice notowań akcji tych samych spółek, w idealnie tym samym momencie, ale na oddalonych od siebie parkietach. Sprzedają, gdzie drożej i kupują te same papiery taniej – to czysty zysk i to bez ryzyka. Rygory synchronizacji określa unijna dyrektywa MiFID II. Obowiązuje ona też w Polsce.
    Czytaj: Czas i pieniądze | BrandsIT.pl – Portal Technologiczny
    Od prawie ćwierć wieku zajmujemy się profesjonalną telemetrią M2M (Machine-to-Machine), a przesyłanie czasu siecią TCP/IP jest jej poddziedziną z pogranicza metrologii czasu. Niewiele osób wie, że synchronizacja zegarów opiera się na zwykłej teorii sygnałów. Sam mechanizm przesyłania danych z czasem nie różni się od zdalnego odczytu liczników prądu, gazu czy wody, czyli popularnego dziś smart-metering. Zadziwić może fakt, że przesyłanie czasu siecią nie wymaga nawet rygoru zachowania czasu rzeczywistego. Nie ma znaczenia dla dokładności czy dane te podróżują siecią długo, czy krótko. Ważna jest za to ich cykliczność, stabilna regularność i dwukierunkowa wymiana informacji między synchronizowanymi komputerami. Synchronizacja to porównanie zegarów na poziomie systemu operacyjnego Windows, Linux, OSX, wymuszająca korektę ich nastawień, tak aby pozostawały możliwie zgodne. Synchronizacja różni się więc od telemetrii właśnie o dodatkową inteligencję korygowania zegara.

    WS: Dlaczego synchronizacja przenosi się do sieci komputerowej?  Przecież synchronizacja działała do tej pory dobrze poza siecią.

    TW: Wcześniej do sieci uciekł przemysł, telekomunikacja, energetyka, multimedia, a ostatnio również telewizja. W sieci jest wszystko, bo tak jest taniej, mniej kabli do układania i łatwiejsze zarządzanie. Teraz przyszła kolej na „czas z gniazdka”, tzn. taki, który zapewni stabilność całego IT. Czas dystrybuowany Ethernetem stanowi skuteczną alternatywę dla lokalnego GPS, z którym mamy coraz większy kłopot. Czas wywołuje w przemyśle skutki prawne i wzrasta odpowiedzialność karna za powstałe awarie infrastruktury. Chcemy to minimalizować. Chodzi o to, aby być przygotowanym, gdy współzależność systemów w Przemyśle 4.0 osiągnie tak wysoki poziom, w którym zaburzenie jednego elementu zagrozi efektem domina w skali odczuwalnej dla regionu lub całej gospodarki. Zachód to już zrozumiał. Nam niestety nie starcza tu wyobraźni, że to ostatni już moment na poprawę krytycznych infrastruktur szkieletowych. Trochę przypomina to dyskusje nad zmianami klimatycznymi. Ponoć zawsze jest pora, ale pewnego dnia okaże się, że już jest za późno, a skutki będą fatalne.
    Jest też inny powód, dlaczego synchronizacja przenosi się do sieci komputerowej. To konieczność synchronizacji systemów rozproszonych. A dzisiaj w erze chmury wszystko jest rozproszone, zaczynając od Microsoft Azure, po miniaturową sieć łączącą lidary-IP pracujące pod maską autonomicznego samochodu marki Tesla. Wyzwaniem jest zawsze precyzyjne wyznaczanie wspólnego momentu – chwili „teraz” i znakowanie danych jakie sensory wysyłają do serwera centralnego nadzorującego proces. Dokładność osiągnęła już poziom nanosekund i podąża w stronę pikosekund. Te największe dokładności widać w systemach jednofotonowej kryptografii kwantowej QKD, jakie mają od dekady banki w Szwajcarii i British Telecom. Nas interesuje jednak zwykły przemysł i dużo mniejsze dokładności, gdzie potrzebne jest wspólne źródło stabilnego czasu. A stabilność i dokładność idą w jednej parze.

    WS: To może źródłem czasu mógłby być GPS i jego sygnał 1PPS (Pulse-per-second signal – Wikipedia)?

    TW: Zasadniczym problemem amerykańskiego GPS i innych systemów satelitarnych GNSS jest ich wojskowa natura. Z wyjątkiem europejskiego GALILEO, wszystkie pozostałe nie mogą zapewnić dostępności UTC (Uniwersalny czas koordynowany – Wikipedia, wolna encyklopedia) w sytuacjach kryzysowych. Istnieją stosowne dyrektywy zezwalające na ograniczanie dostępności GPS bez uprzedzenia opinii publicznej. Zdarzają się też awarie, błędy satelitów, pomyłki w telemetrii ziemia-kosmos. Jako firma śledzimy i analizujemy wszystkie te przypadki. W Elpromie posiadamy wiedzę jak temu zapobiegać. Największy problem stanowią jednak same urządzenia do odbioru sygnału satelitarnego. W synchronizacji opartej o odbiorniki komercyjne GNSS błąd jednego roku jest tak samo prawdopodobny jak błąd o jedną milisekundę. Dzieje się tak, ponieważ wewnątrz sprzętu GNSS czas reprezentowany jest numerycznie i podlega procesowi przetwarzania wykazując podatność na błędy przepełnień. Ma to miejsce, zwłaszcza, gdy producent upchnie w jednym bajcie obok siebie czas i datę. Łatwo wtenczas przenieść bit przepełnienia określający milisekundę na pole kodującą informacje o dacie i problem dużego skoku w czasie jest gotowy. Sam odbiornik GNSS ma tu sporo do policzenia i wiele okazji do pomyłek. Danymi z GNSS można też łatwo manipulować tworząc fałszywą emisję sygnałów satelitarnych na ziemi. Nazywa się to spoofingiem. Można też zagłuszać oryginalny sygnał, co nazywamy jammingiem. Obecnie sygnał GPS jest bardzo narażony na takie manipulacje i celowe cyberataki. Coraz częściej zdarzają się ataki na całe infrastruktury krytyczne państw. W 2019r. Izrael odnotował zagłuszanie GPS nad tym państwem, więc to może się przydarzyć również Polsce. Znane są też przypadki podobnych awarii telekomunikacyjnych w Wielkiej Brytanii. Niewiele firm przyznaje się jednak do takich problemów w obawie o skutki komercyjne, ryzyko utraty klientów, niechęć inwestorów. Dlatego są one możliwie ukrywane przed opinią publiczną. Firmy starają się im same zapobiegać.

    WS: Czyżby synchronizacja jest obok telemetrii również dziedziną cyberbezpieczeństwa?

    TW: Zdecydowanie – TAK! Dziś synchronizacja ściśle wiąże się z cyberbezpieczeństwem. Zamiast włamywać się do sieci wewnętrznej, prościej jest destabilizować jej pracę poprzez zdalne zaburzenie synchronizacji, np. manipulując sygnałami GPS. Reszta destrukcji wykona się praktycznie sama, jeżeli system nie jest na to przygotowany. Elproma pokazała konkretne scenariusze ataków na system synchronizacji podczas paneli eksperckich w Brukseli w roku 2017, w sesji poświęconej bezpieczeństwu energetyki DG-Energy i bezpieczeństwu sieci DG-CNET. Mieliśmy też przydzielony czas w 2018r. podczas pokazów salonu lotniczego w Paryżu. Niestety gdziekolwiek jesteśmy zapraszani jako eksperci nie spotykamy nikogo z Polski – jesteśmy tam jedyni – to nas bardzo martwi.
    Ponadto, manipulując czasem można zaburzyć chronologię zapisanych zdarzeń w dziennikach LOG. Traci się wtenczas bezpowrotnie szansę analizy błędów i ustalenia źródła awarii. To idealne warunki dla hakerów, którzy odwracają w ten sposób uwagę od rzeczywistej przyczyny ataku. Nietrudno tak zmanipulować zapis LOG, że zarejestrowany skutek wyprzedzi w czasie własną przyczynę. Dlatego rekomendujemy, aby w infrastrukturach krytycznych używać autentykacji serwerów czasu oraz znakować kryptograficznie czasem zapisy w LOG. Dziś zmianie uległ cały paradygmat cyberbezpieczeństwa, a ataki hackerskie klasy „Time synchronization attack” i „Time delay attack” są jednymi z prawdopodobnych i najniebezpieczniejszych dla silnie zautomatyzowanej i uzależnionej od GPS gospodarki.
    Dlatego mówi się dziś o rosnącym znaczeniu czasu urzędowego. Potrzebna jest unifikacja wzorca czasu UTC i normalizacja standardów dla Przemysłu 4.0. Alternatywne dla GPS przesyłanie wzorca siecią Ethernet robi się ważne. Standaryzacja jest tu przedmiotem prac wschodzącej technologii TSN (ang.  Time Sensitive Networking – Time-Sensitive Networking – Wikipedia). Synchronizacja i precyzyjne znakowanie czasem będzie też wywoływać następstwa prawne, nie tylko jako konsekwencja awarii, ale również wprowadzi skutki w postaci np. nowych rodzajów podatków. Tak jest już dziś we Włoszech dla transakcji giełdowych w tzw. HFT.
    Podobnie wygląda sytuacja w energetyce rozproszonej smart-grids. W Polsce mamy obecnie okres poprzedzający tę erę. Jako kraj pozostajemy nadal skoncentrowani na telemetrii zdalnych odczytów smart-metering, gdzie dokładność nie jest aż tak ważna, chociaż sama synchronizacja jest bardzo tam bardzo potrzebna. Wyzwaniem będzie transformacja do energetyki rozproszonej. Polskę czeka tu milowy krok i konieczność stworzenia skalowalnej infrastruktury szkieletowej oferującej dwukierunkowy przepływ prądu. Rejony z nadmiarem energii muszą w przyszłości wspierać rejony z jej niedomiarem. Sytuacja energetyczna i kierunek płynięcia prądu będą się zmieniać dynamicznie i to wymaga synchronizacji nanosekundowej.
    Czytaj: Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna? | BrandsIT.pl – Portal Technologiczny
    Bez zgodności czasu, niemożliwym jest też precyzyjne strojenie pasm radiowych ani zarządzanie kanałami transmisyjnymi telefonii 5G, ani telewizji cyfrowej DVB-T2. Można by było ratować się wprowadzaniem tu dodatkowych zabezpieczeń, ale odbywałoby się to kosztem obniżenia wydajności posiadanego pasma, zakupionego przecież za bardzo duże pieniądze. W konsekwencji zmniejszałaby szybkość transmisji oraz liczba jednocześnie obsługiwanych abonentów, w tym urządzeń telemetrii bezprzewodowej M2M, a to ponownie stwarza zagrożenie dla stabilności Przemysłu 4.0.
    Czytaj: Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0 | BrandsIT.pl – Portal Technologiczny

    WS: Jak uzyskuje się dokładną informację o czasie?

    TW: Za wyznaczanie czasu UTC odpowiada w każdym państwie narodowy instytut metrologii.
    W Polsce rolę tę pełni Główny Urząd Miar RP, z którym Elproma współpracuje od lat. Urząd może kalibrować, tzn. dostrajać dostarczone mu zegary do narodowych, cezowych wzorców czasu. Urząd udostępnia też swoje wzorce publicznie przy pomocy protokołów NTP, a ostatnio również PTP IEEE1588. Sposoby rozpowszechniania wzorców czasu urzędowego określa rozporządzenie (Dz.U 56/2004 poz. 548). Czas jest chroniony prawnie nie tylko w naszym kraju. Niebawem, czasem obowiązującym na terenie UE będzie również czas z systemu GALILEO. Wyznaczanie narodowych skal UTC koordynuje BIPM Francja. Czas dla GALILEO tworzą europejskie laboratoria. Polska i GUM biorą w tym również czynny udział.  Firmy Elproma i PIK-Time współuczestniczą w projekcie GIANO Horizon 2020. To projekt budowy pierwszego europejskiego odbiornika satelitarnego z kryptograficzną autentykacją PKI bezpośrednio z poziomu satelitów GALILEO. Liderem projektu jest fabryka satelitów Thales Alenia Space Włochy, a wykonanie części sieciowej powierzono polskiej Elpromie.
    Ale czas UTC nie jest tak uniwersalny jak wskazuje to jego nazwa i tu pojawiają się rozbieżności między UTC laboratoriów poszczególnych państw UE. To wyzwanie również dla GALILEO, którego czas zależy od wielu laboratoriów. Dzięki uprzejmości BIPM w Paryżu, możemy to pokazać na danych historycznych porównania UTC: Włoch, Wielkiej Brytanii, Niemiec, Francji i Hiszpanii. Pokazane tu rozbieżności są większe niż wymaga się dziś od stabilności UTC dla telekomunikacji 5G. Dzisiaj wygląda to lepiej niż 10 lat temu, ale prace nad poprawą dokładności nadal trwają nieustannie. Wprowadza się też nowe generacje satelitów GPS i GALILEO. Różny jest też czas pomiędzy poszczególnymi systemami satelitarnymi grupy GNSS. Np. rozbieżność między amerykańskim GPS a rosyjskim GLONASS wynosi aż 40ns. Dla energetyki rozproszonej smart-grids i telekomunikacji 5G to zdecydowanie zbyt dużo.

    UTC(k)
    źródło: konferencja PTTI/ION dzięki uprzejmości prof. Patrycji Tavelli z BIPM

    WS: A jaki jest wkład Elpromy w synchronizację światową?

    TW: Elproma wyspecjalizowała się w synchronizacji infrastruktur krytycznych oraz w obsłudze profesjonalnej metrologii czasu. Dostarczamy zgodny i stabilny czas urzędowy na dużym obszarze tam, gdzie warunki odbioru sygnałów satelitarnych są trudne lub niepewne, a priorytetowe pozostaje cyberbezpieczeństwo. W roku 2019 dostarczyliśmy 300+ rubidowych serwerów NTS-5000 do energetyki smart-grid w Azji. Pokonaliśmy tam nowozelandzką firmę Tekron, którą niedawno kupił amerykański koncern Microchip notowany na NASDAQ. Wartość transakcji została utajniona, ale uważa się, że mogła ona osiągnąć wielkość 20mln U$. Wcześniej Microchip przejął Microsemi, ten wchłonął Symmetricom, który w pierwszej dekadzie tego millenium porządkował amerykański rynek synchronizacji i przejął w USA firmy Truetime (za ok. 20mln US$) i Datum (za ok. 80mln US$). Podkreślam to, ponieważ wygrywamy na arenie, gdzie są przejęcia i fuzje liczone w dziesiątkach milionów dolarów. Elpromę traktuje się tu z dużą powagą jako gracza i konkurenta. Podpatruje się co robimy,
    a nierzadko kopiuje nasze pomysły. Wydaje nam się, że to spory wkład – bo w taki sposób rozsławiamy polską myśl techniczną, w trudnym niszowym segmencie zaliczanym do high-tech.
    Nasz udział w światowej służbie czasu wykracza też poza codzienny biznes. Wyznaczamy kierunki i trendy – szczególnie te w zakresie cyberbezpieczeństwa synchronizacji. W latach 2009-2013 współtworzyliśmy protokół White Rabbit w CERN, który w maju 2020 doczekał się standaryzacji i włączenia do IEEE1588:2019. Później w latach 2013-2014 opracowaliśmy specjalistyczny komputer przemysłowy TAKT kompensujący wewnętrzne opóźnienia do zera. W latach 2015-2016 uczestniczyliśmy w projekcie Horizon 2020 DEMETRA prezentując unikatowy model dystrybucji czasu urzędowego z funkcją zdalnego audytu czasu. Nasze prace są wysoko ocenione i jesteśmy regularnie cytowani. Jesteśmy też zapraszani jako eksperci przez firmy takie jak Facebook i NVIDIA.
    Czytaj: Historia Czasu i Synchronizacji – od dyliżansów do Białego Królika | BrandsIT.pl – Portal Technologiczny
    Ale największy i zarazem może najmniej znany wkład Elpromy w światową synchronizację to pomoc w zablokowaniu jednej jedynej sekundy, tzw. sekundy przestępnej (ang. leap second – Sekunda przestępna – Wikipedia, wolna encyklopedia) dodawanej nieregularnie do skali czasu UTC. Po czterech latach międzynarodowej aktywności Elpromy, organizacje BIPM i NIST zgodziły się m.in. na postulaty Elpromy zasadności usunięcia tej trudnej w obsłudze dla przemysłu sekundy. Tym samym zapobiegliśmy potencjalnym awariom sektora energetycznego na świecie.
    Trochę do pełnego sukcesu brakuje nam codziennego biznesu – przede wszystkim wielkości sprzedaży dorównującej Amerykanom z Microchip, szwajcarskiej Advie-Oscilloquartz czy francuskiej Orolii. Plasuje się nas w pierwszej piątce globalnych producentów serwerów czasu NTP/PTP, ale nasza sprzedaż jest zdecydowanie niższa od konkurencji. Bariera wejścia na rynki USA i UE pozostaje bardzo wysoka. Nie pomaga nawet fakt, że serwery Elpromy od 2017r. są dopuszczone do użycia w NATO w Europie, a naszym klientem jest m.in. Ministerstwo Obrony Australii.

    WS: Czy zagadnienie czasu jest dobrze rozumiane przez polskich specjalistów?

    TW: Nie jest. Brakuje nam poparcia w Polsce zapewniającego lokalny zbyt tak, jak robią to Francuzi, Niemcy i Amerykanie. U nas wiele przetargów opisywanych jest wg. specyfikacji urządzeń zagranicznych, na czym dużo tracimy. Chyba nikt nie robi tego specjalnie. To wynika z niszowej natury i właśnie braku wiedzy, co jest ważne, a co nieistotne w produkcie. Nasi decydenci, nieświadomi wag parametrów, po prostu najczęściej kopiują specyfikację tego, co im wpadnie w necie. Później zostają pozostawieni z tym sami. To generuje z czasem bardzo wysokie koszty utrzymania. A przecież, my jesteśmy w miejscu w Polsce, moglibyśmy im pomóc.
    Sama edukacja to oddzielna sprawa. Większość klientów uważa, że skoro dotychczas problemów u nich nie było, to dlaczego mają się one pojawić akurat teraz. Zapominają, że dwadzieścia pięć lat temu, na rynku pojawiały się dopiero pierwsze odbiorniki GPS i gospodarka nie była tak uzależniona od tych systemów. Nie wiadomo było też wtenczas, że tak łatwo będzie można manipulować sygnałami satelitarnymi. Ten problem pozostaje do dziś piętą Achillesa największych korporacji światowych. Pomagamy, doradzając między innymi firmom takim jak Facebook i NVIDIA. To dla nas zaszczyt, ale nie biznes. Największe firmy tworzące dziś CLOUD/EDGE/FOG korzystają z projektów open hardware/software i grupują się w projekcie OCP  (Home » Open Compute Project). Można tam znaleźć również konsultantów z Elpromy. Ostatnio, w listopadzie 2020, przekazaliśmy uwagi dla zespołu pracującego nad synchronizacją chmury Facebook’a, co pewnie przyczyni się do poprawy jej stabilności w przyszłości. Uwagi nasze uwzględniono, ale niestety do tej pory nie doczekaliśmy zamówienia, ba nawet zwykłego słowa „dziękuję” czy podania nas choćby jako źródło informacji. Dlatego wolelibyśmy, aby z naszych usług więcej korzystał krajowy rynek IT. Problemy z synchronizacją pojawiają się statystycznie raz na dekadę, a więc na tyle rzadko, że inwestycje takie odsuwa się na później, a szczególnie w Polsce. Przypomina to deklaracje rozbudowy i wzmocnienia wałów przeciwpowodziowych, gdy nastaje ryzyko powodzi. Gdy mija, inwestycje odsuwa się i tak do następnego razu.
    Czytaj: Czas – ukryty i niedoceniany problem nowoczesnych technologii | BrandsIT.pl – Portal Technologiczny

    WS: W których polskich firmach pracują urządzenia Elpromy?

    TW: W Polsce możemy się pochwalić wdrożeniami do Sejmu RP i Senatu RP, Ministerstwa Sprawiedliwości, Ministerstwa Finansów, policji, wojska, w ING Śląski, PeKaO SA, T-Mobile, Orange, Polkomtel, Tauron, do licznych elektrowni, rozgłośni radiowych i TV, korporacji i firm produkcyjnych. Jest tego sporo, ale w Polsce kupowane są od lat wyłącznie pojedyncze urządzenia, najczęściej te najprostsze, a wiele z nich kupiono aż 10-20 lat temu, kiedy zakup jednostkowych sztuk był zasadny. Dziś, wraz ze zmianą paradygmatu cyberbezpieczeństwa, pojedyncze serwery powinny być zastępowane systemami synchronizacji składających się z wielu nowoczesnych serwerów wytwarzających czas UTC bez udziału GNSS. Taką konfigurację zaprojektowaliśmy i wdrożyliśmy do Polskiej Agencji Żeglugi Powietrznej (PAŻP), gdzie kilkadziesiąt specjalnych serwerów NTS-5000 Rubidium współtworzy autonomiczną skalę czasu UTC na co dzień zarządzaną centralnie w Warszawie, ale przechodzącej natychmiast w stan pracy rozproszonej w warunkach sytuacji kryzysowych braku łączności. Takie rozwiązania powielają od nas dziś najwięksi światowi gracze. Coraz częściej, czas jest sprzedawany dzięki temu jako usługa, bo dokładny, pewny czas ma swoją wartość i ona stale rośnie. Ta wartość jest inna dla każdego, w zależności od indywidualnej oceny skutków awarii jakie wywołałaby choćby raz na dekadę niewystarczająca synchronizacja. Dziś na każde wydane na synchronizację 1000 EURO w krajach Benelux, Polska wydaje jedynie 1 EURO, a takie dysproporcje 1000:1 mówią same za siebie.

    Elproma

  • Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0

    Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0

    Wraz ze smartfonami i smartwatchami zanikła potrzeba regulowania zegarków. Ufając technice, przyzwyczajono się do automatycznej synchronizacji czasu i daty z siecią GSM. Dlatego tak zaskakujący jest widok komórek, leżących obok siebie, zalogowanych do różnych operatorów, na których dostrzegamy inną godzinę na wyświetlaczach.

    O ile rozbieżności minutowe nie mają dla ludzi wielkiego znaczenia, to tworzą problem dla przemysłu, wkraczającego w erę zautomatyzowanej gospodarki przyszłości. Powodów zróżnicowania czasu między operatorami jest wiele, ale muszą one zniknąć, zanim Przemysł 4.0 na dobre oprze się na rozwiązaniach 5G i całkowicie od nich uzależni. Od tego zależeć będzie bezpieczeństwo i satysfakcja użytkowników najnowszych technologii. W Industry 4.0 zależności między producentem, dostawcą a odbiorcą tworzą „inteligentny” ekosystem oparty na predykcji (przewidywaniu) kolejnych wydarzeń, tych dobrych i tych złych, i pozwalający „na czas” wdrożyć postępowanie optymalizujące lub zastępcze. Tu w realizacji spotykają się modne dziś terminy Big Data, Machine Learning i Sztuczna Inteligencja, a gwarantem poprawnego i stabilnego działania całej tej automatyki będzie czas i synchronizacja.

    W telefonii 2G/3G, za wyjątkiem zapewnienia chronologii zapisu zdarzeń systemowych (LOG) oraz pomijając rolę czasu i daty w bilingach, nie było konieczności precyzyjnej synchronizacji. W starej telekomunikacji ważna była częstotliwość, niezbędna do utrzymania stabilności kanałów transmisyjnych sieci radiowej – te zaś wpływały na wydajność (przepustowość), a w konsekwencji decydowały o jakości usługi. Tylko była ona jak sekundnik w zegarku nieposiadającym wskazówek minut i godzin. Jeżeli występowały efekty takie jak echo własnego głosu w trakcie rozmowy, zrywanie połączeń lub transmisji danych podczas podróży, to były one najprawdopodobniej skutkiem niewystarczającego zgrania rozproszonych stacji bazowych (BTS) i urządzeń telekomunikacyjnych.

    Sytuacja uległa poprawie z nadejściem 4G/LTE. Telekomy, instalując odbiorniki satelitarne z wzorcem czasu w węzłach i w BTSach, znacząco udoskonaliły synchronizację. Niestety, okazywało się, że coraz częściej opisywane w mediach kłopoty związane z satelitami, powodują niezgodności wskazań czasu między operatorami, a nawet zdarzało się, że różnicują go wewnątrz sieci jednej firmy. A przecież zegar w telefonie wskazuje najczęściej godzinę pobieraną z najbliższego punktu dostępowego.

    Okazuje się także, że czas satelitarny nie jest uniwersalny i zależy od konkretnego systemu GNSS (Global Navigation Satelite System) oraz od rodzaju odbiornika tzn. od producenta, modelu, a niekiedy od wersji firmware’u. Różnice nie są duże, ale np. 30-40 nanosekundowa rozbieżność między amerykańskim GPS a rosyjskim GLONASS to istotna komplikacja dla telefonii 5G, a w konsekwencji dla Przemysłu 4.0.

    Co prawda, operatorzy GSM posiadają też własne zegary atomowe, a to sugerowałoby, że kwestia zgodności czasu powinna rozwiązywać się samoczynnie. Niestety tak nie jest, bo nie zawsze wzorzec dociera do miejsca, gdzie loguje się telefon użytkownika. Nawet gdyby wskazania z zegarów atomowych docierały do całej infrastruktury, problem nadal by pozostawał chociaż w mniejszym stopniu. Zegary atomowe są stabilne, spóźniają się lub przyspieszają 1 sekundę raz na kilkaset lat, ale dysponują jedynie substytutem zegarowego sekundnika. Nastawienie pozostałych „wskazówek” i kalendarza wymaga ciągle GNSS.

  • Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE

    Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE

    Elproma podpisała umowę na dostawę polskich serwerów czasu do Komisji Europejskiej i Parlamentu UE. Produkty firmy zapewnią synchronizację KE i PE, tym samym podnosząc poziom bezpieczeństwa cybernetycznego.

    – Serwery Elpromy dostarczają oficjalny czas (tak jak Omega na Olimpiadzie) używany również do elektronicznej certyfikacji, tzn. do znakowania kryptograficznego oficjalnym czasem e-dokumentów. Dla Europy oficjalny czas to GALILEO (nie GPS). Serwery pełnią specjalną funkcję wspierania systemów kryptograficznych (szyfrowanie). Ujmując w prosty sposób – pomagają urządzeniom odpowiedzialnym za losowość, a to ważne składowe kryptografii. Oficjalnie mówi się, że wspierają entropie losowości. tłumaczy Tomasz Widomski, Member of Supervisory Board, Elproma. 

    Tomasz Widomski, Elproma
    Tomasz Widomski, Elproma

    Sukces polskiej firmy dodatkowo podnosi fakt, że produkty dostarczone przez Elpromę to najprawdopodobniej pierwsze polskie urządzenia IT w Komisji Europejskiej.

    – To jedyne polskie produkty w europejskich strukturach NATO i, tak jak napisała wzruszona urzędniczka, to pierwsze polskie produkty w KE, a przynajmniej w jej 8 letniej karierze.podkreśla Widomski.

    Firma z kapitałem w 100% polskim jest światowym liderem rynku synchronizacji PTP / NTP / IRIG-B. Obsługuje NMI w Wielkiej Brytanii, Włoszech, Holandii, Belgii, Francji, Włoszech, Słowenii, Polsce, Turcji, Nowej Zelandii. Elproma była współtwórcą protokołu CERN White Rabbit (2009-2012), obecnie znormalizowanego jako profil High Accuracy IEEE1588. Firma pomaga zagwarantować długoterminowe działanie Przemysłu 4.0, sieci wrażliwych na czas TSN, technologii CLOUD / EDGE / FOG, 5G, Smart-Grid, Smart-City, zapewniając jednocześnie solidną synchronizację i bezpieczeństwo cybernetyczne.

    – Potrafimy budować zauwany wzorzec UTC oparty od system GALILEO. Udział w projekcie DEMETRA Horizon2020 pozwolił nam dołączączyć do liderów. DEMETRA to projekt prowadzony przez GSA (Agencje Europejską Globalnego Systemu Satelitarnego – nie mylić z ESA). Obecnie wpieramy prace nad pierwszym europejskim odbiornikiem GALILEO. Zakup naszych produktów przez Komisję Europejską i Parlament UE jest rezultatem udziału Elpromy w tych projektach.mówi Tomasz Widomski. 

    Dlaczego czas jest tak istotny w dzisiejszych czasach? Tomasz Widomski wraz z Waldemarem Sielskim tłumaczą znaczenie precyzyjnej synchronizacji czasu w artykułach o znaczeniu czasu dla rynków finansowychdla energetyki. 

    – Czas pełni wiele funkcji w IT. Istotne kwestie, o jakich piszemy z Waldkiem w felietonach dotyczą przede wszystkim funkcjonalności czasu jako ważnego „katalizatora”  łączącego sprzęt i soft infrastruktur krytycznych. Pokazujemy też, jak można destabilizować infrastruktury manipulując czasem.podsumowuje Tomasz Widomski.

  • Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna?

    Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna?

    Książka „Blackout” Marka Elsberga, sensacyjny thriller naukowy, przedstawia jeden z najczarniejszych scenariuszy awarii energetycznej, której cichym i niezauważalnym sprawcą mógłby być zafałszowany czas i desynchronizacja. Autor barwnie opisuje sytuację, kiedy następuje niespodziewana, wydłużająca się przerwa w dostawie prądu, a codzienne życie zaczyna się stopniowo załamywać. Padają telefony, telewizja, Internet. Ustaje komunikacja. Brak zasilania uniemożliwia działanie stacji benzynowych, przez co staje transport, a wraz z nim zaopatrzenie. Jeden z bohaterów książki, były haker, formułuje tezę o ataku terrorystycznym jako przyczynie blackout’u.

    Aby zrozumieć to zagrożenie, musimy widzieć różnicę między tym co jest, a tym co będzie w niedalekiej przyszłości. Przyszła inteligentna energetyka (smart grid), o której głośno w mediach, zasadniczo różni się od tej obecnej. Zgodnie z definicją tworzą ją:„inteligentne sieci elektroenergetyczne, gdzie istnieje komunikacja między wszystkimi uczestnikami rynku energii mająca na celu dostarczanie usług energetycznych zapewniając obniżenie kosztów i zwiększenie efektywności oraz zintegrowanie rozproszonych źródeł energii, w tym także energii odnawialnej”. Niesie ona liczne zalety, ale wymaga solidnych fundamentów infrastruktury, aby lepsze nie okazało się wrogiem dobrego. Do krytycznych atrybutów zapewniających stabilność smart grid należy dokładny czas i jego synchronizacja.

    W tradycyjnej energetyce prąd wytwarza elektrownia (produkcja), rozprowadza operator (dystrybucja), a na końcu jesteśmy my (odbiorcy). Jednokierunkowe dostarczanie prądu do domów i zakładów działa świetnie od ponad stu lat, ale dziś przestaje wystarczać. Rozwijająca się gospodarka wymusza rosnące zapotrzebowanie na energię elektryczną. Pojawiają się także ograniczenia rozbudowy infrastruktury. Dyskusję nad rozwiązaniami utrudnia konieczność ochrony środowiska, które musi służyć pokoleniom.

    Na szczęście stajemy się świadkami zmian i przejścia energetyki w nową erę Przemysłu 4.0. Obecnie na dachach instaluje się panele fotowoltaicznie, coraz częściej widzimy krajobraz turbin wiatrowych czy biogazowni. Te nowe źródła pozwalają powiększyć pulę energii do wykorzystania przez społeczeństwo.

    W inteligentnej rozproszonej energetyce przyszłości, nadrzędna rola klasycznych elektrowni zostanie ograniczona. Prąd będzie wytwarzany przez wiele równoważnych instalacji jednocześnie. Te „fabryki prądu” będą zapewne znacznie oddalone od siebie. W odróżnieniu od współczesnej dystrybucji, prąd będzie musiał być przekazywany dwukierunkowo i kierunki te będą się dynamicznie zmieniać w czasie. Zaczną obowiązywać tutaj zasady podobne do kierowania ruchem kolejowym, z tą różnicą, że odpowiedniki „zwrotnic” (funkcję tę pełnią przekaźniki/przełączniki o akronimie IED – ang. Intelligent Electronic Device) muszą być przełączane jednocześnie po obu stronach „toru” i to z dokładnością milionowej części sekundy (mikrosekundy 1μs).

    Dlaczego dokładność 1μs jest tak ważna? Dłuższy interwał pozostawia linię przesyłu zbyt długo rozwartą powodując przerwę w dostawie prądu.  Ponieważ w smart grid jest wielu wytwórców i odbiorców prądu jednocześnie, to czas i synchronizacja IED („zwrotnic”) jest szczególnie istotna. Złe zarządzanie oprócz lokalnych braków, może prowadzić do niepożądanego skumulowania nadwyżek energii. Gospodarowanie energią polegać będzie na balansowaniu pomiędzy jej nadmiarem a niedomiarem.  Skrajne wielkości tych parametrów mogą uruchomić zabezpieczenia prowadzące do niekontrolowanego efektu domina awarii skutkującego nawet blackout’em. W systemie nie może być zbyt dużo, ani zbyt mało energii. Istotne jest, aby w sieci zawsze znajdowało się jej  „w sam raz”, a to jest już płynne i zmienne w czasie. Sterowanie smart grid będzie się zapewne koncentrować na minimalizacji strat i maksymalizacji efektywności przesyłania energii (moc czynna vs. moc bierna). Cel taki osiąga się, zarówno poprzez możliwość precyzyjnego wpływania na wydajność źródeł produkujących prąd (np. można spowalniać lub okresowo wyłączać turbiny wiatrowe chroniąc się przed nadprodukcją energii), jak i poprzez dynamikę zmian połączeń torów trakcji dystrybucji prądu realizowaną z wykorzystaniem IED. Dlatego aby podejmować właściwe decyzje, trzeba znać stan faktyczny, super pewną informację „tu i teraz”  –  zarówno lokalnie jak i globalnie.

    Do bieżącej oceny stanu energetycznego służą rozproszone po całym obszarze / regionie / kraju sensory PMU (ang. Phasor Measurement Unit) wyposażone w lokalne zegary. Muszą być one zsynchronizowane z dokładnością 1μs podobnie jak IED, czyli urządzenia wykonawcze zestawiania połączeń. Monitorowanie systemu zakłada, że informacje pozostałe po filtracji (odsiewane są np. dane, które docierają z nieakceptowalnym opóźnieniem) z dużym prawdopodobieństwem odzwierciedlają faktyczny stan energetyczny.

    Bazując na tym, centrala zarządzania ekstrapoluje sytuację w kolejnej chwili przyszłości, wydając do IED instrukcje sterowania trakcją. Tak powstaje zmienna w czasie, dynamiczna struktura przesyłu energii w smart grid, której stabilność zależy od czasu i synchronizacji.

  • Czas i pieniądze

    Czas i pieniądze

    Czas to pieniądz. To powszechnie znane stwierdzenie zyskało dziś dosłowne znaczenie w IT sektora finansowego. Zastanówmy się, czy pół sekundy to dużo czy mało? Dla wielu z nas to mrugnięcie oka, ale dla włoskiego ministerstwa finansów to wystarczająco długo, aby obłożyć podatkiem wybrane transakcje giełdowe. Podatek wprowadzony w 2013 roku został nałożony na zautomatyzowane operacje HFT (High Frequency Trading) o czasie trzymania akcji w portfelu krócej niż ½ sekundy.

    Nie wnikając w szczegóły włoskich regulacji podatkowych można założyć, że wraz z postępem techniki, handel HFT będzie stale pod lupą narodowych fiskusów. Taki krótki czas półsekundowy może niedługo zostać zresztą jeszcze skrócony do mili-, mikro- a w przyszłości nawet do nanosekund. Ponoć jakieś prace nad tym gdzieś już trwają. Nasuwa się więc pytanie, czy polskie instytucje finansowe są na to przygotowane i czy będą chciały uczestniczyć w wyścigu przypominjącym dla normalnego obywatela kolarstwo torowe. W tej dyscyplinie (już olimpijskiej) o zwycięstwie decydują bardzo małe ułamki sekundy (tysięczne), a zawodników trzeba indywidualnie monitorować mierząc im precyzyjnie czas.

    Przez wiele lat najistotniejsza w sieciach informatycznych pozostawała wiarygodność przesyłanej informacji, a fakt udziału komputerów zapewniał tu znaczną szybkość jej przetwarzania. Za wyjątkiem sterowania automatyką w przemyśle, nie zwracano uwagi na opóźnienia, a tym bardziej na konieczność dostrajania zegarów komputerów komunikujących się w sieci lokalnej, czy w Internecie. Tam, gdzie opóźnienie transmisji odgrywało rolę, starano się problem rozwiązywać skracając fizyczne połączenia. Opowiada o tym film „Projekt Koliber” (The Hummingbird Project), gdzie dwójka wizjonerskich zapaleńców chce się przekopać przez połowę Ameryki światłowodem tylko po to, aby wyprzedzić konkurencję i aby ich zlecenia giełdowe wysyłane z Kansas uzyskiwały lepszą pozycję w kolejce na giełdzie w Nowym Jorku. Budowany w linii prostej światłowód był krótszy i miał być szybszy, a więc dawał mniejsze opóźnienie informacji zwiększając szanse bohaterów na sukces finansowy.

    Dziś, rozproszone w USA giełdy komunikują się przy pomocy specjalnych napowietrznych łącz mikrofalowych ulokowanych na bardzo wysokich wieżach ponad miastami. Mikrofale dają szybsze transmisje i wnoszą najmniejsze opóźnienia (mniejsze od światłowodu). Giełdy uruchamiają coraz częściej płatne, specjalne usługi kolokacji – dając możliwość ulokowania własnego serwera HFT wprost w serwerowni giełdowej. Jednocześnie dba się, aby szanse inwestorów pozostawały wyrównane, a o wygranej decydował lepszy posiadany algorytm (tzw. Algrythmics Trading). Dlatego wszystkie kable i światłowody wewnątrz serwerowni są odpowiednio przygotowane i są równe z dokładnością co do centymetra.

    Zarówno giełda, jak i banki inwestycyjne skrupulatnie dbają też o dokładną synchronizację UTC (Universal Time Coordinated). Istnieją prawne regulacje narzucające minimalne dokładności zegarów oraz opóźnienia. Najbardziej znaną jest dyrektywa MiFID II określającą dokładności i rozdzielczości synchronizacji (zał. – tabela 1 i 2):

    https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32017R0574&from=EN

    Im większa dokładność synchronizacji serwerów HFT oraz czym mniejsze opóźnienia transmisji w sieci, tym więcej nowych możliwości do zarabiania pieniędzy na giełdzie. Tu czas to dosłownie pieniądz. Prześledźmy to na przykładzie notowań akcji spółki Microsoft Corporation.

  • Citi w Polsce szuka partnerów technologicznych

    Citi w Polsce szuka partnerów technologicznych

    Cztery młode firmy technologiczne, w tym dwie z Polski i po jednej z Finlandii i Irlandii, zaprezentowały w Warszawie rozwiązania przygotowane specjalnie dla Citi, partnera głównego ABSL Tech Lab. Jako globalna instytucja finansowa Citi nieustannie poszukuje technologii odpowiadających na zmieniające się potrzeby biznesowe i społeczne. W ramach platformy ABSL Tech Lab szuka rozwiązań minimalizujących ryzyko zakłóceń związanych z procesami HR.

    Z raportu Citi GPS “Nowa normalność pracy zdalnej” wynika, że praca z domu, w rozproszonych zespołach wymaga innowacyjnego podejścia w zakresie efektywności pracy i rozwiązań, w tym oprogramowania, stwarzającego nowe możliwości zdalnej współpracy. Rozwiązania stawiające w centrum komunikację oraz realizację zadań to również przedmiot prac firm technologicznych, które zdecydowały się odpowiedzieć na wyzwania zdefiniowane przez Citi w ramach ABSL Tech Lab.

    Nowa rzeczywistość i nowe potrzeby

    Z analiz prowadzonych przez ABSL wynika, że w 2020 roku zatrudnienie w sektorze usług biznesowych, które dziś wynosi 338 tys. wzrośnie mimo kryzysu o około 7%, co oznacza konieczność wprowadzenie do firmy ponad 23 000 tys. osób. Jedną z firm, która tylko w tym roku zatrudniła i wdrożyła już ponad 800 nowych pracowników do swoich oddziałów w Warszawie i Olsztynie jest Citi. Promując kulturę różnorodności i inkuzywności, jednocześnie szuka i rozwija narzędzia wspierające procesy HR.

    – W związku z systematycznym wzrostem zatrudnienia, w ramach współpracy z ABSL Tech Lab określiliśmy rozwiązania, którymi jesteśmy zainteresowani. Szukamy potencjalnych innowacyjnych propozycji technologicznych, które mogą usprawnić i dostosować nasze procesy HR w tym pracę zdalną, rekrutację i wirtualny onboarding do nowej rzeczywistościpodkreśla z Michał Podgórski, Global Head of Securities & Pricing Operations, Citi.W tej chwili rozmawiamy z czterema spółkami technologicznymi, które przedstawiły zgłoszenia mające szansę na wdrożeniedodaje.

    Polskie szansą na globalne wdrożenia

    Coraz częściej międzynarodowe korporacje szukają rozwiązań do globalnego wdrożenia na lokalnych rynkach. W Polsce jest coraz więcej przedsięwzięć będących również atrakcyjną szansą dla zagranicznych startupów. W ramach polskiej platformy ABSL Tech Lab, na obecnym etapie, cztery podmioty zostały wybrane do zaprezentowania swoich propozycji podczas Citi DemoDay. TakeTask proponuje oprogramowanie służące do zarządzania zadaniami w procesie onbordingu na dużą skalę oraz w wielu lokalizacjach jednocześnie. Random Forest Consulting prezentuje autorskie rozwiązania z wykorzystaniem sztucznej inteligencji w analizie dokumentów tekstowych oraz danych. Irlandzki startup HireUpOnline to propozycja spersonalizowanej platformy do prowadzenia marketingu rekrutacyjnego i pozyskiwania talentów. Przedstawiciele fińskiego firmy Smarp opracowali rozwiązanie ograniczające szum komunikacyjny – niezwykle istotny w warunkach pracy zdalnej.

    – W Polsce coraz częściej pojawiają się możliwości globalnych wdrożeń i nawiązanie współpracy z największymi firmami. Przykładem jest ABSL Tech Lab, w ramach którego Citi oraz P&G, szukają innowacyjnych rozwiązań.  Jest to ogromna szansa dla ambitnych spółek technologicznychmówi Janusz Dziurzyński, który z ramienia ABSL odpowiada za projekt. I dodaje – Jako ABSL Tech Lab stoimy na stanowisku, że dla młodej, rozwijającej się firmy technologicznej jedna złotówka od klienta warta jest trzech inwestorskich. Te ostatnie łatwo przepalić. Stabilność finansową i podstawę do rozwoju dają duzi klienci i realizowane z sukcesem wdrożenia. My ten model nazywamy „innowacją na żądanie” – czyli proponowaniem konkretnych rozwiązań, na które jest popyt i zlecenia klientów.

    Prezydent m.st. Warszawy Rafał Trzaskowski, gość DemoDay City podkreśla, że nieprzypadkowo to właśnie Warszawa przyciąga innowatorów. Rozwój współpracy miasta oraz nowatorskich firm i start-upów to jeden z priorytetów samorządu: – Takie inicjatywy promują Polskę jako rynek z dużym potencjałem dla młodych spółek technologicznych. Warszawa nie tylko zapewnia odpowiednie warunki rozwoju startupom z Polski, ale i przyciąga obiecujące, cyfrowe talenty z zagranicy, tworząc dobry klimat dla rozwoju nowych technologii.

  • NAVITEL AR280 DUAL – wideorejestrator z sensorem night vision i tylną kamerą

    NAVITEL AR280 DUAL – wideorejestrator z sensorem night vision i tylną kamerą

    Firma NAVITEL®, dostawca wiodących rozwiązań na rynku elektroniki samochodowej prezentuje nową kamerę samochodową. AR280 DUAL to czwarty model w portfolio marki z możliwością nagrywania obrazu przed samochodem, jak i z tyłu pojazdu.

    Wideorejestrator został wyposażony w sensor optyczny GC2053 (night vision), który odpowiada za wysoką jakość nagrań przy słabych warunkach oświetleniowych. Kąt widzenia wynosi 140°. Filmy rejestrowane są w rozdzielczości Full HD, w 30 klatkach na sekundę. Wyświetlacz TFT o przekątnej ekranu 2″ umożliwia podgląd filmów z jazdy. Pliki zapisywane są w formacie MOV, w standardzie kompresji H.264. Urządzenie obsługuje karty microSD o pojemności do 64 GB.

    NAVITEL AR280 DUAL dysponuje szerokim wachlarzem funkcji. Tryb parkingowy odpowiada za samoczynne uruchomienie się kamery i rejestrację filmu, w przypadku wykrycia kolizji (wstrząsu). Wbudowany czujnik przeciążeń G-Sensor jest aktywowany w przypadku zderzenia lub nagłego manewru. Wideorejestrator zapisuje materiał zwypadku i zabezpiecza go w celu późniejszego wykorzystania. Tylna kamera nagrywa wideo w jakości HD chroniąc kierowcę na wypadek stłuczki lub innej nieprzewidzianej sytuacji na drodze.

    „Po sukcesie i dużym zainteresowaniu poprzednimi wideorejestratorami z dodatkową kamerą w zestawie – MR250, MR250 NV i R700 GPS DUAL przyszedł czas na tańszą propozycję od Navitel. Model AR280 DUAL został wyposażony w niezbędne funkcje potrzebne kierowcy, aby czuć się bezpiecznie podczas jazdy. Możliwość uchwycenia co dzieje się z tyłu samochodu jest niewątpliwym plusem, posłużę się stwierdzeniem, że nawet koniecznością w obecnych czasach. Duży ruch i brak ostrożności użytkowników drogi skutkuje wieloma nieprzyjemnymi sytuacjami, których chcielibyśmy uniknąć. Uważam, że wszystkie auta powinny być wyposażone zarówno w przednią jak i tylną kamerę. Dlatego poszerzamy naszą ofertę o nowy model, dostępny na każdą kieszeń”mówi Tobiasz Jankowski, CEO NAVITEL EUROPE.

    „Nowy wideorejestrator AR280 DUAL jest odpowiedzią na potrzeby naszych klientów. Urządzenie jest wielofunkcyjne – nie tylko rejestruje obraz, ale pełni też rolę kamery cofania, a dodatkowo, co szczególnie ważne dla nowoczesnego konsumenta, jest ergonomiczne i ma atrakcyjny design. Produkt jest dostępny już w naszym sklepie internetowym oraz w wybranych salonach stacjonarnych”dodaje Paweł Piechniczek, Menedżer Produktu, RTV EURO AGD.

    W zestawie oprócz kamery znajdują się: uchwyt samochodowy, ładowarka samochodowa 12/24 V, tylna kamera, kabel wideo, instrukcja obsługi, karta gwarancyjna i licencja nawigacyjna na smartfon/tablet, z mapą 47 krajów.

    NAVITEL AR280 DUAL dostępny jest w sieci sklepów Euro RTV AGD i serwisie Allegro.

    Sugerowana cena wideorejestratora – 199 złotych.

  • Czas – ukryty i niedoceniany problem nowoczesnych technologii

    Czas – ukryty i niedoceniany problem nowoczesnych technologii

    W jednej z dużych i ważnych korporacji wykryto niedawno, że w systemie komputerowym czas cofnął się o dwadzieścia lat – gdzieś do roku dwutysięcznego. Po skontaktowaniu się z serwisem, informatycy dowiedzieli się, że padli ofiarą tzw. błędu GPS WNRO (GPS Week Number Roll Over).

    Okazało się, że dbając o dokładność nanosekundową łatwo pomylić się dziś o znacznie grubsze miana godzin i lat. Standard GPS od samego początku używa 10-bitowego binarnego licznika służącego do reprezentowania GPS Week Number (numeru tygodnia). Z tego powodu co 19,7 roku (co odpowiada 1024 tygodniom – 210) licznik się resetuje i ustawia z powrotem na zero. Pierwszy raz zdarzyło się to w roku 1999, a kolejny w 2019. Brak kontroli nad czasem, w instalacjach korzystających z czasu podawanego przez GNSS (Global Navigation Satellite System – jak np. GPS czy Galileo), powoduje takie niespodzianki. Jak widać jedna z podstawowych funkcji systemów satelitarnych – dostarczanie dokładnego i wiarygodnego czasu – działa, ale tak nie do końca. Dodatkowo, za niewielkie pieniądze można obecnie łatwo zakłócić pracę odbiorników GPS (tzw. spoofing i jamming) i wprowadzić je w błąd. Znane są już przykłady takich zdarzeń, na razie za granicą, ale nie należy wykluczyć, że podobne sytuacje mogą także zaistnieć w państwie Polan. Niepokojące jest uśpienie czujności rynku obdarzającego zaufaniem projekty oparte o GPS, podczas gdy on nadal pozostaje swoistą „piętą Achillesa” zautomatyzowanych konfiguracji. Wszystko to powoduje, że najprostsze/najtańsze rozwiązania nie zdają egzaminu – szczególnie w krytycznych infrastrukturach energetyki, administracji, telekomu czy sektora finansowego.

    Powyższy przykład to tylko jeden z problemów związanych z czasem w sieciach informatycznych. W erze komputerowego handlu papierami wartościowymi, połączonych centrów danych (w różnych zakątkach świata) oraz nadchodzących gigantycznych prędkości przesyłu danych związanych z 5G, dokładny, godny zaufania i zsynchronizowany czas jest niesamowicie istotny. Jego brak eksperci porównują do „cichej dywersji”, która niezauważona, w długim okresie może doprowadzić do dużych awarii infrastruktury. Chociażby w systemach energetycznych (smart-grid), gdzie współpraca wielu urządzeń wymaga dokładnego czasu (np. do wykrywania usterek czy ich lokalizacji), zakłócenie może spowodować nie tylko błędy w rozliczeniach, ale także  problemy pracy całej sieci, a nawet w ekstremalnych przypadkach blackout. Z kolei w centrach danych będących elementem ogólnoświatowej infrastruktury, od Polski do Nowej Zelandii, destabilizacja czasu grozi nie tylko obniżeniem wydajności pracy, ale wręcz utratą danych. Brak zgodnego z kolejnością stempla czasu powoduje na początku niepozorne, mało groźne turbulencje. Gdy pozostawi się je bez korekcji, mogą doprowadzić do efektu domina uruchamiając lawinę niezgodnych z zadanymi algorytmami zleceń. Przecież takie centra mogą obsługiwać instytucje finansowe i urzędy państwowe. A to już nie tylko jest niedotrzymaniem zasad określonych w dyrektywach takich jak MIFID II. To grozi gigantycznymi stratami dla korzystających oraz właścicieli i zarządców DataCenter.

    Dlatego w newralgicznych miejscach powinno się działać w pełnej świadomości ryzyka i nie wolno oszczędzać. Mam nadzieję, że także w rodzimej administracji, polskich finansach i swojskiej energetyce problem wiarygodnego czasu i jego synchronizacji jest znany i uwzględniany. Zwłaszcza biorąc pod uwagę, że od lat firmy znad Wisły odnoszą w temacie profesjonalnej synchronizacji liczne międzynarodowe sukcesy. Zauważyłem, że polskim specjalistom powierza się misję synchronizacji całych państw o czym piszą nawet różne agencje międzynarodowe (https://www.gsa.europa.eu/newsroom/news/demetra-delivers-dividends-elproma). Decydenci nie oszczędzajcie – tak aby frajda z 5G czy włączania OZE do ogólnokrajowej sieci energetycznej – nie zmieniła się kiedyś w rozczarowanie nowymi technologiami.

  • Raport: Jak będą wyglądały Dziecięce Szpitale Przyszłości?

    Raport: Jak będą wyglądały Dziecięce Szpitale Przyszłości?

    Fundacja K.I.D.S. (Klub Innowatorów Dziecięcych Szpitali) właśnie zaprezentowała raport “Dziecięcy Szpital Przyszłości”, który nakreśla wizję transformacji placówek Ochrony Zdrowia. Blisko 2000 godzin dogłębnej analizy i badań, pozwoliło 27 ekspertom Fundacji nie tylko postawić diagnozę, identyfikując wyzwania współczesnych szpitali, ale także zaproponować ponad 100 innowacyjnych rozwiązań, które zmieniają szpitalną rzeczywistość na bardziej przyjazną – zarówno pacjentom, jak i lekarzom. Raport powstał przy współpracy z Centrum Zdrowia Dziecka oraz Influture.Institute, a do dyskusji na temat transformacji przyłączyli się Rzecznik Praw Pacjenta oraz IPPEZ, którzy objęli nad publikacją patronat honorowy.

    Szpital przyszłości, czyli jaki? Megatrendy

    Raport prezentuje drogę pacjenta od momentu diagnozy do powrotu do domu. By stworzyć kompleksowy obraz systemu zdrowotnego eksperci K.I.D.S. zbadali różne perspektywy: dziecka, rodzica, ale także personelu medycznego i szpitalnej administracji. Na podstawie pogłębionych wywiadów stworzono definicję “szpitala przyszłości”. Według K.I.D.S. taka organizacja przede wszystkim stawia pacjenta i jego doświadczenia w centrum, utrzymuje z nim stały kontakt, stawia na współpracę personelu medycznego z rodzicami i pacjentami, inwestuje w kulturę organizacyjną i dba o pracowników, a także wdraża zmiany w przestrzeni i procesach, zbliżając je do idei „smart hospital”. Szpital Przyszłości to inkubator innowacji, który łączy różne dziedziny – także te pozamedyczne. Diagnoza K.I.D.S. idealnie wpisuje się w zidentyfikowane przez infuture.institute megatrendy, które zespół Hatalskiej nazwał tytułami piosenek z popularnych bajek dla dzieci.

    Ścieżka pacjenta w szpitalu przyszłości

    PRZED WIZYTĄ: Stres związany z hospitalizacją rozpoczyna się jeszcze przed wizytą w szpitalu. Jak się przygotować do wizyty? Czy mam wszystkie potrzebne rzeczy i dokumenty? Co czeka nas na miejscu? To tylko niektóre z pytań, które trapią rodziców małych pacjentów. W idealnym świecie system opieki zdrowotnej zadba merytorycznie i psychologicznie o obie strony: zapewniając rodzicom i pacjentom wygodny dostęp do informacji oraz przygotowując lekarzy do pracy z rodziną dotkniętą chorobą dziecka. Dlatego w szpitalu przyszłości poleca zaufane źródła takie jak About Kids Health, gdzie znajdują się kluczowe wskazówki dla rodziców.

    PORADNIA: Szpital przyszłości wspiera pacjenta już w momencie przybycia do placówki. Rodzice, używając smartfona mogą łatwo sprawdzić wolne miejsca parkingowe przy szpitalu lub skorzystać ze zintegrowanego systemu komunikacji z dalszych parkingów – zaadaptowanego np. z terminali lotniczych. Poczekalnia w szpitalu przyszłości będzie dostosowana do pacjentów w różnym wieku. Znajdzie się tam miejsce, np. z interaktywnymi ścianami i grami wykorzystującymi rozszerzoną bądź wirtualną rzeczywistość. Pozwolą one dzieciom pobyć przez chwilę w „innym świecie” i zapomnieć o bólu i powodach obecności w poradni czy szpitalu.

    Uproszczenie i zdigitalizowanie procesu rejestracji, który pacjent będzie mógł zacząć już w domu za pomocą aplikacji, znacznie skróci wizytę w poradni i odciąży pracowników administracji. Personel medyczny natomiast, dzięki elektronicznej dokumentacji medycznej i wsparciu robotów, zyska cenny czas na rozmowę z pacjentem i badania. Takie obowiązki jak organizacja danych, dostarczanie pościeli, monitorowanie zapasów leków czy przeliczania tabletek przejmie sztuczna inteligencja.

    Zintegrowane systemy IT, odczuwalnie poprawiają poziom opieki i komfort pracy. Co więcej – możliwe są znaczne oszczędności, które pozwalają na obsługę większej liczby pacjentów. Children’s Bellevue Clinic and Surgery Center w Seattle monitoruje np. efektywność wykorzystania sal operacyjnych.

    W nowoczesnych szpitalach pacjenci i ich opiekunowie nie gubią się na korytarzach i bez problemu trafiają do odpowiedniego gabinetu czy sali. W Centrum Zdrowia Dziecka już został wdrożony system znaków i infografik umieszczonych na podłogach „Metro” ze stacjami przypisanymi do oddziałów. W przyszłości po szpitalach prowadzić będzie aplikacja z nawigacją GPS, a w kluczowych punktach komunikacyjnych znajdą się interaktywne mapy, stosowane dziś w centrach handlowych.

    HOSPITALIZACJA: W momencie poznania diagnozy i zaleceń dotyczących leczenia rodzina wkracza w zupełnie nieznany i stresogenny obszar. Szpital przyszłości w przystępny sposób uczy poruszania się po nim. W Children’s Hospital Colorado, aby ułatwić dzieciom i rodzicom pierwsze chwile w szpitalu, udostępniono filmiki instruktażowe na YouTube. Początek hospitalizacji to także wiele procedur i dokumentów, dlatego nowoczesne placówki zapewnią opiekunom wsparcie w postaci wirtualnych asystentów, takich jak KIDS MD stosowany w Bostonie.

    Innowacje w szpitalu przyszłości będą działać na rzecz dobrych relacji i miłej atmosfery. Wszystko, by umilić małym pacjentom pobyt, a w nieprzyjemne zabiegi włączyć element zabawy. W nowoczesnych placówkach dzieci będą nosić inteligentne opaski zbierające najważniejsze dane, dzięki czemu zapomnimy o nocnym wybudzaniu w celu pomiarów, np temperatury. Takie rozwiązanie odciąży także kadrę pielęgniarską, która będzie mogła więcej czasu poświęcić na psychiczne wsparcie pacjentów. Podczas takich zabiegów jak pobieranie krwi czy zastrzyki, dzieci będą przenosić się do wirtualnej rzeczywistości. Dzięki googlom VR, w grze założą na ramię ochronna tarczę, co wpłynie na ich odczucia podczas realnych działań. Przy dłuższej hospitalizacji warto zadbać także o edukację i kontakt z rówieśnikami. Tu z pomocą przyjdzie robot AV1, który umożliwia dzieciom naukę na odległość. Jest umieszczany w klasie lub w środowisku szkolnym i sterowany za pomocą aplikacji na telefonie lub tablecie. Dziecko może widzieć i słyszeć to, co dzieje się w klasie, oraz brać udział w zajęciach.

    Szpital przyszłości to także komfortowa przestrzeń dla opiekunów pozostających z dziećmi na oddziale. Oznacza to, że mają oni wygodny dostęp zarówno do strefy prywatnej (z kuchnią, łazienkami czy pralnią), jak i biurowej (ze sprzętem umożliwiającym pracę zdalną).

    Skuteczne leczenie to współpraca wielu specjalistów, dlatego szpital przyszłości stawia także na dobrą organizację i komunikację wewnętrzną. Potrzebne do tego będą, np. tablice informacyjne, portale pracownicze, czaty, mailingi czy spotkania zespołu. W Stanach Zjednoczonych i w Wielkiej Brytanii funkcjonuje na SOR-ach rozwiązanie inspirowane metodami Formuły 1. Gdy przybywa pacjent, każdy specjalista staje na wyznaczonym miejscu i wykonuje jedną czynność. Personel szpitala przyszłości ma zapewnione odpowiednie warunki pracy i rozwoju. Nationwide Children’s Hospital wdrożył program, którego celem jest zapobieganie wypaleniu zawodowemu oraz zmniejszanie stresu u pracowników. Oferuje im także indywidualne i grupowe wsparcie 24 godziny na dobę.

    POWRÓT DO DOMU: W szpitalu przyszłości pacjent, wychodząc do domu, otrzyma komplet informacji oraz dostęp do narzędzi i rozwiązań technologicznych, które wesprą go w dalszym leczeniu. Nad dalszą opieką w domu będzie czuwał wirtualny asystent medyczny oraz zdalnie zarządzany przez szpital system przyjmowania lekarstw. Stały kontakt ze szpitalem i rozwiązania telemedyczne zapewnią ciągłość leczenia, co w przypadku dorastających dzieci i zmieniających się potrzeb, zmian fizjologicznych oraz psychologicznych jest niezwykle cenne. Wypis ze szpitala będzie jednoznaczny z odpowiednim przeszkoleniem rodziców, którzy wyposażeni w odpowiedni sprzęt, będą w stanie kontynuować leczenie w domu, a wszelkie wątpliwości zdalnie konsultować z lekarzem lub inteligentnym asystentem.

    Nowoczesna placówka zapewni także łatwy kontakt z psychologami i grupami wsparcia, które pomogą odnaleźć się rodzinie w “poszpitalnej” rzeczywistości, a dzięki rozbudowanym kanałom social media będzie łączył pacjentów i zachęcał do utrzymywania relacji także poza szpitalną salą.

    Z pełną wersją raportu można zapoznać się pod linkiem:
    https://www.kids.org.pl/news/jak-beda-wygladały-dzieciece-szpitale-przyszłosci

  • Największe kraje pracują nad bronią antysatelitarną

    Największe kraje pracują nad bronią antysatelitarną

    Trwa wyścig zbrojeń w kosmosie. Największe mocarstwa rywalizują nie tylko pod względem odkryć czy misji kosmicznych. Rosja, Chiny czy Stany Zjednoczone opracowują nową broń, aby zagrozić konstelacjom satelitów innych mocarstw. Broń antysatelitarna jest przydatna nie tylko do osłabiania zdolności wojskowych przeciwników na polu bitwy, lecz także zagraża cywilnemu wykorzystaniu przestrzeni kosmicznej. Niedawno Rosja przetestowała kosmiczną broń przeciwsatelitarną, co pokazuje, że zagrożenia dla systemów kosmicznych są realne.

    – Od kilku lat zauważamy coraz silniejszą rywalizację ze strony świata Zachodu i Wschodu, szczególnie amerykańsko-chińską. Zarówno na płaszczyznach orbitalnych, gdzie np. testowane są bronie antysatelitarne, ale także na płaszczyźnie prestiżowej, jak to miało miejsce 50 lat temu pomiędzy Stanami Zjednoczonymi a Związkiem Radzieckim, wyścig zbrojeń w kosmosie już trwa i nabiera rozpędu ocenia Gordon Wasilewski, inżynier w firmie Astronika.

    Największe kraje na świecie rywalizują ze sobą coraz mocniej w kosmosie. Trwa wyścig o dominację – wysyłane są misje kosmiczne, trwają badania Marsa, planowane są bazy na Księżycu. Nieco mniej mówi się o rywalizacji w zakresie opracowania broni zdolnej do niszczenia satelitów. Tymczasem, jak pokazują dwa raporty, Center for Strategic and International Studies oraz Secure World Foundation, Rosja, Chiny czy USA pracują nad bronią do zneutralizowania nie tylko wojskowych, lecz także cywilnych satelitów kosmicznych. Spowodowałoby to znaczne zakłócenia np. w dostępie do sygnałów telewizyjnych po globalny system pozycjonowania GPS.

    Lipcowe testy przeprowadzone przez Rosję pokazały, że taka broń to już nie tylko plany, ale też rzeczywistość. Amerykańscy i brytyjscy urzędnicy rządowi potwierdzili, że mają dowody na to, że Rosja przetestowała kosmiczną broń przeciwsatelitarną.

    – Podobno użyto broni kinetycznej, co w sytuacji kosmicznej może przynieść odwrotny do zamierzonego skutek. Jeżeli mówimy o wojnach w kosmosie, jeżeli obce państwa celują w zdolności kosmiczne innego państwa bądź jakiejś komercyjnej firmy, to nie chcą też narazić na szwank własnych satelitów w przestrzeni kosmicznej. A niestety broń kinetyczna czy broń energetyczna powoduje powstawanie wielu części uszkodzonych satelitów, które mogą narazić funkcjonujące systemy na poważne szkody – tłumaczy Gordon Wasilewski.

    Według raportów  CSIS i SWF Rosja inwestuje w broń antysatelitarną. Pocisk 14A042 Nudol może zestrzeliwać nadlatujące pociski balistyczne, choć ma ograniczone zdolności antysatelitarne. Istnieją jednak przesłanki, że Moskwa unowocześnia swój optyczny system obserwacji przestrzeni kosmicznej o laserowy system oślepiający, który mógłby oślepić, a nawet uszkodzić czujniki optyczne zagranicznych satelitów szpiegowskich.

    Rosja inwestuje też w broń antysatelitarną bliżej Ziemi, poprzez zakłócanie strumienia danych między satelitami a ich odbiorcami. CSIS podaje informacje np. o zagłuszaniu GPS w Rosji oraz w siłach rosyjskich w Syrii. Zakłócenia GPS utrudniają pilotom i broni samonaprowadzającej szybkie odniesienie się do własnej lokalizacji.

    – Projektowane są takie systemy antysatelitarne, które polegają na przechwyceniu satelity, np. złapaniu jej w siatkę, bądź zepchnięciu z orbity. Oczywiście to nie są pokojowe działania, ale powinny być akceptowalne w tej całej grze przewiduje ekspert.

    Według Secure World Foundation także Chiny pracują nad trzema systemami antysatelitarnymi. Co najmniej jeden system już działa. SC-19 był testowany pięć razy, wywodzi się z pocisku balistycznego średniego zasięgu DF-21C z technologią przeniesioną z systemów rakiet ziemia–powietrze. Zaawansowany program broni antysatelitarnej jest też prowadzony przez Stany Zjednoczone. Przykładem może być rakieta Ground Based Interceptor, pierwotnie opracowana do zestrzeliwania głowic pocisków balistycznych, gdy przechodzą przez niską orbitę okołoziemską.

    Nad podobną bronią pracują też Iran, Japonia i część krajów europejskich, m.in. Francja, jednak w ich przypadku prace są znacznie mniej zaawansowane.

    – Broń antysatelitarna może być groźna, bo duża część naszej gospodarki i życia jest oparta na sektorze kosmicznym, orbitach ziemskich. Tam znajdują się satelity telekomunikacyjne, satelity internetowe i powstają olbrzymie konstelacje satelitów Starlink firmy SpaceX. Próby niszczenia tej infrastruktury mogą dotknąć każdego z nas. Mogą zaburzyć nasz codzienny rytm, lecz przede wszystkim rytm gospodarki światowej i to jest bardzo groźne – przekonuje Gordon Wasilewski.

  • Jak rozwijać swoje przedsiębiorstwo transportowe w 2020 roku?

    Jak rozwijać swoje przedsiębiorstwo transportowe w 2020 roku?

    Pierwsze dwa kwartały 2020 roku pokazały, że cyfryzacja oraz dywersyfikacja małych i średnich firm jest kluczowa, by utrzymać swoją pozycję na rynku. Możliwość zautomatyzowania wielu procesów potrzebnych do zarządzania przedsiębiorstwem transportowym w dobie pandemii okazała się szczególnie cenna. Wiele firm przekonało się też, że ukierunkowanie swojego biznesu wyłącznie na jedną branżę też może być zagrożeniem. Przykładem może być sytuacja związania z przemysłem samochodowym. Jak wskazał Polski Instytut Ekonomiczny (PIE) motoryzacja jest szczególnie podatna na zmiany koniunktury gospodarczej – wielu przewoźników obsługujących sektor automotive musiało zupełnie zawiesić swoją działalność na czas lockdownu. Zmiana profilu swojego przedsiębiorstwa, rozszerzenie portfolio czy optymalizacja firmy poprzez cyfryzację, to inwestycje, które w niedalekiej przyszłości czekają wielu przewoźników, w szczególności w dobie niedawno przyjętego pakietu mobilności, czy Green Deal, czyli przepisów, które mogą zupełnie zmienić rynek transportu drogowego. Eksperci Grupy INELO podpowiadają, od czego zacząć rozwój i inwestycję w przedsiębiorstwo transportowe, a specjaliści ze ZFPF (Związku Firm Pośrednictwa Finansowego) postarają się znaleźć odpowiednie finansowanie dla firm w 2020 roku.

    Pierwszy krok rozwoju mojej firmy: analiza – odpowiedzią jest telematyka

    Jeżeli chcemy zadbać o rozwój naszej firmy transportowej, w pierwszej kolejności, musimy zbadać, jaką mamy rentowność, oraz na jakie zaangażowanie kapitałowe możemy sobie początkowo pozwolić.

    – System telematyczny to stosunkowo niewielka inwestycja, przynosząca bardzo wymierne korzyści. Dzięki telematyce zyskujemy dostęp do bardzo wielu danych, przede wszystkim jesteśmy w stanie obliczyć opłacalność danego zlecenia przed jego wykonaniem. Wiele danych dotyczących zakończonego frachtu widzimy dopiero „po fakcie”, czyli w momencie, kiedy nasz kierowca zrealizował dany kontrakt. Wykorzystując telematykę możemy w łatwy sposób policzyć koszty związane z pracownikiem, paliwem, zużyciem opon itp., jeszcze przed wykonaniem kursu. Co więcej, zebrane dane pomogą nam dokonać oceny kondycji naszego przedsiębiorstwa i np., pomóc wybrać bardziej dla nas opłacalne kontrakty. Będziemy mogli też zbadać, jak sprawują się nasze poszczególne pojazdy, które są najbardziej ekonomiczne w naszej firmie, z których zrezygnować, a które serwisować dalejmówi Dawid Kochalski, ekspert GBOX, Grupa INELO.

    Inwestycja w system, który pozwoli nam zbierać dane to jedno, jednak musimy też dysponować zapleczem, które umożliwi nam przeanalizowanie tych informacji.

    – Musimy w szczególności pamiętać o roli spedytora w naszej firmie. To jego praca przekłada się bezpośrednio na zyski w naszym przedsiębiorstwie. Zadbajmy więc, aby jego miejsce pracy zapewniało jak największą wydajność. Jeżeli chcemy zadbać o cyfryzację naszej działalności transportowej, to nie możemy zapominać o modernizacji biura – rezygnacja z analogowych rozwiązań i obliczeń na kartce papieru musi wiązać się z zakupem sprzętu komputerowego umożliwiającego te operacje, oraz przygotowaniem zaplecza w taki sposób, aby zapewniało najlepszą ergonomię pracy. Nowoczesny tabor i cyfryzacja w transporcie nie będą funkcjonować optymalnie, gdy nasze „back office” będzie pracować na przestarzałej technologiidodaje Dawid Kochalski.

    Wprowadzenie telematyki i np. systemu TMS do naszego biura ułatwi też podjęcie decyzji o zdywersyfikowaniu profilu naszej firmy transportowej. Inwestując w nowoczesne narzędzia, otwieramy sobie dostęp do internetowych giełd zleceń oraz nowych kontraktów. Zmiana profilu naszej firmy, nawet w małym stopniu, może się okazać deską ratunkową dla naszego przedsiębiorstwa.

    – Pandemia koronawirusa pokazała jak ogromne znaczenia ma dywersyfikacja, w szczególności w branży transportowej. Znane nam są przypadki, kiedy firma obsługiwała wyłącznie zlecenia z sektora automotive, który przez kilka miesięcy był praktycznie zamrożony, co okazało się mieć destrukcyjny wpływ na płynność finansową i ogromne problemy z restartem firmy, gdy sytuacja zaczęła wracać do normy. Dlatego, gdy dysponujemy flotą 15 samochodów, dobrym pomysłem może okazać się niezamykanie się na jeden sektor czy gałąź gospodarkiradzi Dawid Kochalski

    Co się bardziej opłaca – leasing nowej ciężarówki czy serwis używanej?

    Kolejnym etapem rozwoju naszego przedsiębiorstwa, powinno być zadbanie o odpowiedni tabor, który sprosta wyzwaniom stawianym nie tylko przez oczywiste wymagania techniczne. European Green Deal zakłada ograniczenie emisji dwutlenku węgla do atmosfery w transporcie o 90%. Już teraz, eksploatowanie ciężarówek mających za sobą kilka lub kilkanaście lat pracy wiąże się z dopłatami związanymi z normami Euro, co więcej, niektóre pojazdy mogą nie dostać pozwolenia na wjazd do danego miasta, jeśli nie spełniają określonych norm spalania.

    – Dlatego, część przedsiębiorców po okresie leasingowania swoich pojazdów, czyli najczęściej po wygenerowaniu przebiegów rzędu 400 tysięcy kilometrów, decyduje się na wymianę taboru na nowy. Leasing to też koszty w naszym przedsiębiorstwie, które możemy odliczyć. Serwisowanie ciężarówki po utracie gwarancji może się okazać bardzo kosztowne, co więcej z każdym rokiem eksploatacji naszego ciągnika zwiększa się ryzyko jego awaryjności – każdy przestój w serwisie to dla nas podwójna strata, musimy zapłacić za naprawę,a pojazd nie generuje zysków dodaje Dawid Kochalski z INELO.

    Jak inwestować mądrze i skąd zdobyć finansowanie?

    Dawid Kochalski, ekspert GBOX, Grupa INELO:Oszczędności, które moglibyśmy przeznaczyć na inwestowanie w rozwój naszej firmy możemy zacząć szukać w usystematyzowaniu swoich bieżących wydatków. Zacznijmy od zwrócenia uwagi, czy wszyscy kierowcy w firmie korzystają z jednego systemu GPS, czy np. nie płacimy podwójnie, za którąś usługę lub na systemy dublujące się w kilku samochodach (czasami wystarczy po prostu rozszerzyć licencję). Dalej, należy postawić na efektywne zarządzanie, wybór systemu TMS i telematyki, optymalizację zleceń oraz określenie swoich rynkowych możliwości na dany moment. Należy jednak pamiętać, by zadbać o swoje zabezpieczenie finansowe i nie wykorzystać wszystkich dostępnych środków na inwestycje w działalność.

    Jeżeli chodzi o finansowanie dla naszego przedsiębiorstwa, to musimy pamiętać, że mamy 3 rodzaje kredytów, które możemy pozyskać dla naszej firmy:

    • Kredyt w rachunku odnawialnym – to rodzaj finansowania, który działa na zasadzie debetu – mamy do wykorzystania określony limit, a bank będzie naliczał odsetki wyłącznie od wydanej przez kwoty.
    • Kredyt obrotowy – to najczęstszy wybór przy finansowaniu bieżących wydatków, najczęściej zaciągany jest na 12 lub 36 miesięcy, a pozyskane środki musimy wykorzystać na działalność przedsiębiorstwa, czyli opłacenie rachunków lub pracowników.
    • Kredyt inwestycyjny – to pieniądze, jakie możemy uzyskać od banku na rozwój naszej firmy, czyli zakup nowego sprzętu do biura, inwestycja w nowe technologie itp.

    Konrad Wróbel, ekspert Expandera i ZFPF:Banki oferują różne rodzaje finansowania, w zależności od potrzeb naszego przedsiębiorstwa. Najlepszym wyborem, jeżeli chcemy rozwijać nasz biznes, jest długoterminowy kredyt inwestycyjny. Rozwiązanie to zapewnia stabilne finansowanie udzielane na kilka do nawet kilkunastu lat. Firmy z dłuższym stażem są w uprzywilejowanej pozycji. Natomiast niewiele banków zdecyduje się na przyznanie finansowania firmie w pierwszych miesiącach jej działalności. Proces przyznawania finansowania firmie z reguły jest bardziej skomplikowany niż w przypadku osób fizycznych. Potrzebne będą wyniki finansowe za minimum ostatni okres obrachunkowy i często prognozy na cały okres finansowania.

  • Wyciek danych z Avonu: kłopotów ciąg dalszy

    Wyciek danych z Avonu: kłopotów ciąg dalszy

    Na początku czerwca świat obiegła informacja o dużym wycieku danych z Avon Products. Firma uspokajała pracowników i klientów twierdząc, że sytuacja została opanowana. Natomiast badacze z SafetyDetectives, uważają, że to nie koniec kłopotów.

    Avon Products poinformował 9 czerwca o incydencie, który zatrzymał działanie części systemów informatycznych oraz zakłócił funkcjonowanie firmy. Trzy dni później pojawił się komunikat o prowadzonym dochodzeniu mającym określić skalę incydentu, a także zagrożeniu danych osobowych. Avon Products jednocześnie uspokajał klientów, iż w ręce przestępców nie powinny trafić informacje dotyczące kart kredytowych, bowiem witryna e-commerce nie przechowuje tych danych. W trzecim oświadczeniu firma oznajmiła, że przywróciła do pracy większość systemów operacyjnych i wznowiła działalność na większości swoich rynków, w tym w większości centrów dystrybucyjnych. Z kolei media informowały o wycieku danych 250 tys. klientów Avon Products.

    Zdaniem badaczy z SafetyDetectives informacje przekazywane przez dostawców kosmetyków są rozbieżne z ich ustaleniami. Z raportu śledczego opublikowanego 28 lipca wynika, że niezabezpieczony serwer Avon.comzawierał dzienniki API zarówno dla strony internetowej, jak i mobilnej. To oznacza, że ​​wszystkie informacje o serwerze produkcyjnym wraz z logowaniem i odświeżaniem tokenów OAuth zostały ujawnione. Ponadto baza danych zawierała ponad 7 GB danych, takich jak dane osobowe i nieosobowe informacje techniczne:

    – imiona i nazwiska, numery telefonów, daty urodzenia i adresy zamieszkania

    – adresy e-mail, współrzędne GPS, ostatnie kwoty płatności

    – nazwiska pracowników firmy (niepotwierdzone)

    – ponad 40 000 tokenów bezpieczeństwa

    – tokeny OAuth i dzienniki wewnętrzne

    – ustawienia konta i informacje o serwerze

    Ujawnione informacje mogłyby potencjalnie zostać wykorzystane do oszustw związanych z tożsamością na różnych platformach. Poza tym dane osobowe są również wykorzystywane przez hakerów do budowania relacji i zaufania, z myślą o przeprowadzeniu w przyszłości włamań na większą skalę.

    – Niepokojące jest to, że wyciek ujawnił mnóstwo dzienników technicznych, które można wykorzystać nie tylko do atakowania klientów Avon Products, ale także bezpośrednio do infrastruktury informatycznej tej firmy, prowadząc w ten sposób do dalszych zagrożeń bezpieczeństwa i konsekwencji finansowych. Biorąc pod uwagę rodzaj i ilość udostępnionych poufnych informacji, hakerzy byliby w stanie przejąć pełną kontrolę nad serwerem i przeprowadzić poważne działania, które trwale mogą niszczyć markę Avon; mianowicie ataki ransomware i paraliżowanie infrastruktury płatniczej firmymówi Mariusz Politowicz  z firmy Marken, dystrybutora rozwiązań Bitdefender w Polsce.

    Warto przypomnieć, że brazylijska firma Natura & Co Cosmetics, która nabyła 76 proc. udziałów w Avon Products, również doświadczyła podobnego incydentu związanego z bezpieczeństwem w kwietniu 2020 roku. Wówczas dane osobowe ponad 190 milionów klientów zostały znalezione całkowicie niezabezpieczone na dwóch serwerach Amazon w USA. Jednak w przeciwieństwie do wycieku danych Avon, serwery Natura zawierały informacje o płatnościach 40 tys. kupujących.

  • Monimoto – system antykradzieżowy i lokalizator GPS

    Monimoto – system antykradzieżowy i lokalizator GPS

    Lokalizator GPS Monimoto MM6 wyposażony jest w moduł GSM, GPS, Bluetooth i inne inteligentne technologie, zamknięte w kompaktowej obudowie, która mieści się w dłoni. MM6 to samodzielne urządzenie, zasilane  dwoma bateriami o żywotności do 12 miesięcy, zatem nie  korzysta z zasilania motocykla. Monimoto sterowane jest za pomocą aplikacji mobilnej. Automatycznie uzbraja się  i rozbraja dzięki czemu nigdy nie trzeba pamiętać o jego aktywowaniu lub dezaktywowaniu. Więc jeśli jesteś właścicielem drogiego roweru, motocykla i często zostawiasz swój pojazd na ulicy lub w ogólnodostępnych miejscach, dzięki lokalizatorowi nie musisz obawiać się kradzieży.

    Jak to działa?

    Monimoto oferowane jest w zestawie z kartą SIM, która obejmuje Amerykę Północną i Europę. Karta współpracuje z co najmniej dwoma operatorami GSM w każdym z krajów, wybierając najsilniejszy sygnał w danym obszarze. Samodzielna początkowa konfiguracja w kreatorze aplikacji dostępnej na platformę iOS lub Android* zajmuje około 5 minut. ​Gdy Monimoto wykryje ruch, będąc w trybie uzbrojenia, próbuje namierzyć sparowany klucz. Jeśli go znajdzie, zakłada że osoba w pobliżu ​​jest właścicielem pojazdu i rozbroi się. Jeśli nie znajdzie go, to przechodzi w tryb alarmowy. W trybie alarmowym Monimoto najpierw dzwoni na numer właściciela, a następnie wysyła do aplikacji powiadomienie o dokładnej lokalizacji z GPS lub przybliżonej pozycji GSM za pomocą funkcji CellLocate. Dzięki danym wysyłanym do aplikacji można zobaczyć wszystkie poprzednie lokalizacje w dzienniku zdarzeń. Lokalizacja GPS jest aktualizowana co 5 minut, gdy pojazd z zainstalowanym urządzeniem Monimoto jest w ruchu, lub co minutę, jeśli zdefiniowany jest tryb częstego śledzenia.

    Monimoto posiada klasę szczelności IP 65 i jest przeznaczone do umieszczenia wewnątrz pojazdu.

    Monimoto MM6 – 199Euro + 3euro/miesiąc
    Monimoto MM5 – 169Euro + 3euro/miesiąc

  • Sztuczna inteligencja w transporcie – jak będzie rozwijać się branża TSL?

    Sztuczna inteligencja w transporcie – jak będzie rozwijać się branża TSL?

    Branża transportowa przez ostatnie kilkanaście lat przechodzi cyfrową metamorfozę. Rozwój technologiczny przyspiesza z roku na rok usprawniając wiele procesów związanych z logistyką, a część przedsiębiorstw coraz przychylniej patrzy w stronę autonomii oraz automatyki. Świadczyć może o tym chociażby uzyskany przez Grupę INELO grant na rozwój projektu badawczo-rozwojowego, którego celem jest wykorzystanie sztucznej inteligencji w branży transportowej. Według raportu PwC już za 5 lat możemy spodziewać się częściowo autonomicznych pojazdów, a w roku 2030 na naszych drogach zagoszczą bezzałogowe ciężarówki. Jak duży wpływ AI będzie miało na rynek TSL? Czy maszyny i komputery zastąpią ludzi? Na te pytania odpowiedzi udzieli Tomasz Czyż, ekspert Grupy INELO, GBOX.

    Autonomiczny transport – 4 500 kilometrów bezzałogowej ciężarówki z ładunkiem masła

    Za 10 lat możemy spodziewać się, że dzięki automatyzacji procesów w branży transportowej, koszty związane z logistyką i dostarczeniem ładunku na miejsce przeznaczenia mogą spaść aż o 47%. Co więcej, raport PwC przewiduje, że autonomiczne pojazdy ciężarowe pozwolą skrócić czas dostawy o 40%. – Gdy zapytamy osoby z branży TSL z czym kojarzy im się sztuczna inteligencja, zapewne większość z nich odpowie – autonomiczne ciężarówki. Od paru lat odbywają się coraz szerzej zakrojone testy pojazdów bez kierowców. Systemy komputerowe wyposażone w setki czujników, radarów, lidarów, kamer oraz komunikację GPS, czy 5G są już w stanie samodzielnie kontrolować ciężarówki. Efektem ma być nie tylko automatyzacja, ale również poprawa bezpieczeństwa i zmniejszenie negatywnego wpływu transportu na środowisko naturalne – mówi Tomasz Czyż, ekspert Grupy INELO, GBOX. Czy autonomiczne pojazdy możemy już zobaczyć na drogach albo podczas pracy?

    – Tak. Na przykład pojazd autonomiczny T-POD – projekt firmy Einride – startupu powstałego w 2016 roku w Sztokholmie. Zaprezentowany w 2017 7-metrowy pojazd, napędzany silnikiem elektrycznym jest w pełni autonomiczną konstrukcją. Nie posiada on tradycyjnej kabiny ani miejsca dla kierowcy. Łączność z pojazdem bazuje na komunikacji w infrastrukturze 5G, do kontroli otaczającego środowiska wykorzystano platformę firmy Nvidia Drive. Sztuczna inteligencja wykorzystuje dane z systemów planowania tras, informacji o ruchu drogowym, kamer, radarów i trójwymiarowych lidarów (Light Detection and Ranging – urządzenie działające podobnie jak radar, ale wykorzystujące światło lasera zamiast mikrofal). Oczywiście wszystko optymalizowane jest w celu uzyskania, jak najmniejszego zużycia energii oraz zwiększenia zasięgu na jednym ładowaniu. Firma Einride dostarczyła swoje pojazdy na testy dla operatora logistycznego DB Schenker. W 2018 roku pracę w magazynie Schenkera w Jönköping rozpoczął pierwszy T-POD. Poruszał się on tylko po terenie magazynu przewożąc palety. W razie potrzeby kontrolę nad pojazdem może przejąć zdalny operator – jedna osoba może sterować jednocześnie nawet 10 pojazdami. Owocne testy pozwoliły w 2019 roku uzyskać zgodę na poruszanie się po drogach publicznych. T-PODy obsługują również pobliskie terminale przeładunkowe, które znajdują się w promieniu kilkuset metrów od głównego magazynudodaje Tomasz Czyż.

    Szerzej zakrojone testy na drogach publicznych przeprowadził amerykański startup z Doliny Krzemowej – Plus.ai. Autonomiczna ciężarówka bezproblemowo pokonała dystans ponad 4,5 tysiąca kilometrów na terenie Stanów Zjednoczonych. Co ciekawe, ciężarówka nie jechała „na pusto” Przewoziła 18 ton… masła. Jednak w odróżnieniu od projektu Einride tutaj w kabinie pojazdu znajdował się kierowca, który w razie niebezpieczeństwa mógł w każdej chwili przejąć kontrolę nad pojazdem.

    – Bezpieczeństwo i powierzenie sztucznej inteligencji pełnej kontroli nad pojazdami budzi wiele kontrowersji. Jak powinna zachować się AI, która będzie sama uczyła się świata na podstawie obserwacji przez kamery czy radary? Czy można sobie przy obecnej technologii pozwolić na pełną autonomiczność? Zapewne najbliższe lata nie przyniosą tutaj rewolucji. Pojazdy będą coraz bardziej autonomiczne, jednak będą nadal wymagały operatora. W wypadku wykorzystani AI do zarządzania pojazdami na zamkniętym obszarze sprawa wygląda inaczej. Możliwość wystąpienia zdarzeń losowych jest dużo mniejsza, a kontrola nad działaniem takiego systemu jest dużo większa komentuje Tomasz Czyż.

    Sztuczna inteligencja w transporcie a Logistyka 4.0

    Logistyka 4.0 korzysta pełnymi garściami z sztucznej inteligencji w transporcie, robotyzacji oraz rozwoju aplikacji mobilnych.

    – Przedsiębiorstwa mają możliwość integracji wielu systemów i pochodzących z nich danych w jednym miejscu. Firmy, które inwestują w nowe technologie oraz wdrażają innowacyjne rozwiązania oparte na AI mogą zautomatyzować wiele procesów związanych z codzienną pracą. Z kolei efektem takich działań wcale nie są zwolnienia pracowników czy ograniczenie zatrudnienia, ale zwiększenie efektywności ich pracy, a tym samym szansa lepsze wyniki finansowe przedsiębiorstwamówi Tomasz Czyż.

    Jakie narzędzia wspierane przez sztuczną inteligencję wpłyną w najbliższym czasie na pracę spedytorów, planistów i kierowców?

    ETA – Estimated Time of Arrival, czyli szacowanie czasu dojazdu do określonego punktu. Rozwiązanie to w podstawowej wersji mówi nam o dystansie i prognozowanym czasie dojazdu kierowcy do celu. Jakie korzyści może nam dać wprowadzenie do tego rozwiązania AI?

    – System może estymować czas dojazdu w korelacji z większą ilością danych. Na przykład, może za nas sprawdzać dostępny czas jazdy kierowcy i uwzględniać go przy przeliczeniach. Efekt? Nie trzeba już dokonywać manualnych przeliczeń, dostajemy gotowe dane, dzięki którym możemy zaplanować kolejne załadunki oraz rozładunki podnosząc efektywność wykorzystania floty. Dodatkowo, system sam poinformuje nas o tym, czy występuje zagrożenie opóźnionej dostawy lub o wielkości takiego opóźnienia. Stawia nas to w komfortowej sytuacji, gdzie wcześniej poinformowani możemy podejmować odpowiednie działania zapobiegawcze. Grupa INELO pracuje nad podobnymi rozwiązaniami, związanymi z zastosowaniem sztucznej inteligencji, pozyskany niedawno grant pozwoli nam przyspieszyć pracę nad badaniem tej technologii oraz zastosowaniem jej w transporcie – dodaje Tomasz Czyż.

    AI wchodzi również w świat aplikacji mobilnych dla kierowców. W najbliższym czasie można spodziewać się, że rozwiązania mobilne nie będą służyły tylko do prostej komunikacji czy wysłania zadań dla kierowcy, ale staną się dla truckerów swego rodzaju „osobistym asystentem”.

    – Sztuczna inteligencja szczególnie sprawdza się, gdy musimy zaplanować trasę i wymagane odpoczynki. Do tej pory kierowca musiał przeliczać sobie dystans, który wskazywała mu nawigacja oraz porównywać go z dostępnym czasem pracy widocznym na tachografie. Odpowiednio zaprojektowana aplikacja może podpowiadać kierowcy, kiedy musi stanąć na wymagane odpoczynki, zarówno te krótkie, po 4,5h jazdy, jak i dobowe po zakończeniu dnia pracymówi Tomasz Czyż.

    Sztuczna inteligencja w logistyce – czego możemy spodziewać się w przyszłości?

    – Możemy na pewno spodziewać się rozwoju autonomicznego planowania ładunków. Spedytorzy mogą zostać wyposażeni w narzędzia, które w jednej chwili będą analizowały kilka ofert frachtów oraz same zaproponują te najbardziej opłacalne dla przewoźnika. Na pewno będzie można obserwować jeszcze dokładniejszą integrację pomiędzy różnymi systemami, np. TMS oraz telematyką, co pozwoli uzyskać jeszcze więcej danych o flocie. Inteligentne analizy tych danych pozwolą redukować koszty oraz poprawiać jakość obsługi klientów. Pozwolą również na przewidywanie zagrożeń i unikanie ryzykownych incydentówTomasz Czyż, Grupa INELO, GBOX.

    Przedsiębiorcy, którzy będą zbyt długo zwlekać z wdrażaniem nowych technologii mogą utracić w najbliższych latach przewagę konkurencyjną. Jak pokazała nam pandemia COVID-19, świat nie jest w stanie funkcjonować bez transportu oraz branży TSL. Mocny rozwój e-commerce jeszcze bardziej podkreśla znaczenie transportu. Firmy, które w porę zareagują na zmiany i się do nich dostosują mają największe szanse na rynku, który będzie się cały czas rozwijał.

  • Dziurawe aplikacje na Androida: potężne wycieki danych

    Dziurawe aplikacje na Androida: potężne wycieki danych

    Badacze z firmy Comparitech ostrzegają, że z ponad 20 tysięcy programów na Androida wyciekają wrażliwe dane użytkowników. Zaistniała sytuacja jest wynikiem błędów konfiguracji występujących w Google Firebase, platformie programistycznej przeznaczonej do tworzenia mobilnych aplikacji.

    Według szacunków Comparitech około 30 proc. aplikacji dostępnych w Google Play korzysta z Google Firebase do przechowywania danych użytkowników, ale wiele z nich nie posiada odpowiedniego zabezpieczenia. Badacze po analizie 576 tys. aplikacji umieszczonych na Google Play (18 proc. spośród wszystkich znajdujących się na platformie) znaleźli 4,3 tys. programów, z których wyciekają rekordy.

    –        Po ekstrapolacji danych można ustalić, że szacunkowo 0,83 proc. spośród wszystkich aplikacji w Google Play udostępnia wrażliwe informacje. To łącznie około 24 tys. programów. – wylicza Bob Diaczenko z Comparitech.

    Na pierwszy rzut oka powyższe wartości nie robią większego wrażenia, aczkolwiek analitycy zauważają, że niebezpieczne programy mają ponad 4 miliardy pobrań. Należy zaznaczyć, że liczba dotyczy wyłącznie aplikacji instalowanych za pośrednictwem z Google Play.

    –        Zakładając, że przeciętny użytkownik smartfona z systemem operacyjnym Android korzysta z 60-90 aplikacji, istnieje duże prawdopodobieństwo, że jego prywatność została naruszona co najmniej przez jedną aplikacje – mówi Mariusz Politowicz, z firmy Marken dystrybutora rozwiązań Bitdefender w Polsce.

    Dane ujawnione w wyniku błędnych konfiguracji Google Firebase obejmują adresy e-mail (7 mln), nazwy użytkowników (4,4 mln), hasła (1 mln), numery telefonów (5,3 mln), imiona i nazwiska (18,3 mln), wiadomości z chatów (6,8 mln), dane GPS (6,2 mln), adresy IP (160 tys.), adresy (500 tys.). Comparitech informuje również o wycieku numerów kart kredytowych, choć w tym przypadku nie podaje żadnych liczb.

    Na liście aplikacji na Androida korzystających z Firebase Google najwięcej jest gier (25 proc.), a kolejne miejsca w tej klasyfikacji zajmują edukacja (15 proc.), rozrywka (6 proc.), biznes (5 proc.) oraz podróże (4 proc.).

    –       Użytkownicy smartfonów z Androidem nie powinni wpadać w panikę, wystarczy jedynie zachować podstawowe zasady cyberhigieny. Co oznacza, żeby nie wykorzystywać tego samego hasła do kilku różnych kont, używać wyłącznie zaufanych programów z Google Play, które mają dobre recenzje i dużą liczbę pobrań. Oczywiście nie należy też udostępniać poufnych informacji. – doradza Mariusz Politowicz.

    Comparitech przedstawił 22 kwietnia Google pełny raport ze swoich ustaleń. Koncern z Mountain View zadeklarował, że podejmie działania mające na celu wyeliminowanie istniejących usterek.

  • Pancerne laptopy i tablety DURABOOK w BizTech Konsulting SA

    Pancerne laptopy i tablety DURABOOK w BizTech Konsulting SA

    BizTech Konsulting SA rozpoczyna sprzedaż laptopów i tabletów znanej marki DURABOOK, wytrzymałych na ekstremalne warunki atmosferyczne: upały, mrozy, skoki temperatury, deszcze, słone mgły, pyły, a także na wstrząsy, upadki i uderzenia, promieniowanie UV. Wyposażenie i konfigurację urządzeń można dostosowywać do potrzeb użytkownika. Komputery DURABOOK mają 3-letnią gwarancję.

    Można je z powodzeniem wykorzystywać do pracy w najcięższych warunkach terenowych, w powietrzu i pod ziemią, w atmosferze zagrożonej wybuchem, w zastosowaniach cywilnych i militarnych na całym świecie. Korzystają z nich: wojsko, policja, służby ratunkowe i medyczne, a także transport i logistyka oraz przemysł i budownictwo.

    Flagowy, najbardziej odporny model DURABOOK, ma magnezowo-aluminiową obudowę i jest m.in. odporny na upadki z wysokości 1,8 m, może pracować w temperaturze od -20 do +60° i wilgotności 5-95%. Notebook wyposażono w 14” dotykowy ekran Full HD DynaVue o jasności 1000 nitów, podświetlaną klawiaturę, procesor Intel Core i7, Windows 10 Pro 64-bit, zależnie od potrzeb użytkownika w pamięć do 32 GB, 1 lub 2 dyski SSD 512GB/1TB, czytnik linii papilarnych, czytnik RFID, moduł GPS, modem LTE (4G). Dostępny jest również system QR szybkiej wymiany baterii bez przerywania pracy.

    „Zwykle nie zdajemy sobie sprawy, jak istotnym elementem niezawodności systemów biznesowych firmy są używane na co dzień urządzenia mobilne – laptopy i tablety” – mówi Marcin Jasiówka, Key Account Manager w BizTech Konsulting SA. „Dlatego oferowane przez nas oprogramowanie i kompleksowe rozwiązania, zapewniające ciągłość bezpiecznego dostępu do informacji biznesowych dla firm, uzupełniamy o wytrzymałe, a nawet pancerne, urządzenia DURABOOK. Pozwolą one na tworzenie jeszcze bardziej bezpiecznych rozwiązań wykorzystywanych w najbardziej nawet ekstremalnych warunkach.

    „Bardzo istotną zaletą produktów DURABOOK jest możliwość elastycznej konfiguracji ich wyposażenia i zakresu odporności, zależnie od potrzeb użytkownika – dodaje Marcin Jasiówka – użytkownik nie jest zmuszony do płacenia za funkcjonalności, których nie potrzebuje”.

    DURABOOK jest podstawową marką Twinhead International Corporation. Swój pierwszy wytrzymały komputer do zastosowań wojskowych firma wyprodukowała w 2000 roku, a dwa lata później wprowadziła na rynek markę DURABOOK – wytrzymałych rozwiązań mobilnych dla różnych sektorów gospodarki. Dziś są one cenione i używane na całym świecie, m.in. przez: większość oddziałów amerykańskich sił zbrojnych, agencji bezpieczeństwa publicznego, licznych organizacji serwisowych, w przemyśle naftowym i gazowym, logistyce, służbie zdrowia, zakładach użyteczności publicznej i z branży motoryzacyjnej.

    Precyzyjnie dopracowana konstrukcja mechaniczna i rygorystyczny dobór komponentów powodują, że produkty DURABOOK spełniają wiele wyśrubowanych norm szeroko pojętej wytrzymałości i bezpieczeństwa. Potwierdzają to certyfikaty, m.in.: MIL-STD-810G, MIL-STD-461F, ANSI 12.12.01 C1D2 oraz ochrony IP, co zapewnia ich odporność na wstrząsy, wibracje i upadki, a także pyły i wilgoć. Urządzenia DURABOOK mogą pracować w szerokim zakresie temperatur otoczenia, a nawet w środowiskach łatwopalnych, czy zagrożonych wybuchem (opary gazów, olejów, benzyny itp.).