Tag: Uber

  • Robotaxi w Europie: Uber inwestuje w chorwacki startup Verne

    Robotaxi w Europie: Uber inwestuje w chorwacki startup Verne

    Strategia Ubera dotycząca pojazdów autonomicznych wchodzi w nową, kluczową fazę. Gigant z San Francisco, zamiast budować własne samochody, konsekwentnie staje się globalnym agregatorem technologii. Najnowszym dowodem tej ewolucji jest ogłoszone właśnie partnerstwo z chińskim liderem Pony.ai oraz chorwackim startupem Verne. Wspólnie zamierzają one uruchomić pierwszą komercyjną usługę robotaxi w Europie, wybierając Zagrzeb na miasto startowe.

    Model biznesowy tego przedsięwzięcia jest precyzyjnie podzielony, co odzwierciedla dojrzałość sektora. Pony.ai, firma o ugruntowanej pozycji na rynku azjatyckim, dostarczy „mózg” systemu – zaawansowaną technologię autonomicznej jazdy. Verne, startup nazwany na cześć wizjonera Juliusza Verne’a, przejmie rolę operatora floty i zarządcy lokalnej infrastruktury. Uber natomiast domknie ekosystem, integrując usługę ze swoją globalną aplikacją, co zapewni natychmiastowy dostęp do szerokiej bazy klientów.

    Dla Ubera inwestycja w Verne to ruch czysto strategiczny. Spółka, która pod wodzą Dary Khosrowshahiego odeszła od kosztownych badań nad własnym Autonomy Corp, teraz pozycjonuje się jako niezbędny partner dla każdego, kto chce skomercjalizować autonomiczny transport. Dzięki współpracy z blisko dwudziestoma firmami z branży AV – od transportu ciężarowego po drony – Uber staje się systemem operacyjnym mobilności miejskiej, minimalizując jednocześnie ryzyko kapitałowe związane z produkcją sprzętu.

    Wybór Zagrzebia nie jest przypadkowy. Chorwacja staje się interesującym rynkiem dla innowacji transportowych, a Verne aktywnie koordynuje procesy regulacyjne, które w Unii Europejskiej są znacznie bardziej rygorystyczne niż w USA czy Chinach. Sukces w stolicy Chorwacji ma być fundamentem do skalowania usługi na kolejne europejskie metropolie. Partnerzy planują, że w ciągu najbliższych lat po ulicach miast będą poruszać się tysiące autonomicznych pojazdów pod szyldem tego sojuszu.

    Testy drogowe w Zagrzebiu już trwają. Jeśli trio zdoła pokonać bariery legislacyjne i techniczne specyficzne dla europejskiej infrastruktury, model ten może stać się złotym standardem wdrażania technologii autonomicznych. Przyszłość transportu nie należy do jednego gracza, ale do zintegrowanych ekosystemów, w których technologia, operacje i dostęp do klienta stanowią nierozerwalną całość.

  • Uber zaliczył pierwszy pełny rok zysku od czasu wejścia na giełdę

    Uber zaliczył pierwszy pełny rok zysku od czasu wejścia na giełdę

    W minionym roku, Uber Technologies Inc. osiągnął kamień milowy, o jakim wielu krytyków i obserwatorów rynku mogło tylko marzyć. Firma, która zrewolucjonizowała sposób, w jaki myślimy o transporcie miejskim, zanotowała swój pierwszy całoroczny zysk od czasu głośnego debiutu na giełdzie w 2019 roku. To wydarzenie nie tylko przeszło do historii firmy, ale również zasygnalizowało zmianę w percepcji jej modelu biznesowego. Akcje Ubera osiągnęły rekordowy poziom, wskazując na silną wiarę inwestorów w przyszłość firmy.

    Uber – od przetrwania do prosperity

    Pandemia COVID-19 stanowiła poważne wyzwanie dla branży współdzielenia przejazdów, zmuszając firmy do przemyślenia swoich strategii. Uber, podobnie jak jego konkurenci, znalazł się w trudnej sytuacji, gdy rządowe ograniczenia znacznie zmniejszyły zapotrzebowanie na tego typu usługi. Jednak firma z siedzibą w San Francisco nie tylko przetrwała ten trudny okres, ale również wykorzystała go jako okazję do dywersyfikacji i innowacji. Skoncentrowanie się na cięciu kosztów i rozbudowie działu dostaw żywności Uber Eats w czasie pandemii okazało się być strategicznym posunięciem, które teraz przynosi owoce.

    Zmiana paradygmatu

    Dyrektor generalny Ubera, Dara Khosrowshahi, wskazał rok 2023 jako punkt zwrotny dla firmy. To właśnie w tym roku Uber zaczął zarabiać na swoich operacjach, a nie tylko na inwestycjach zewnętrznych, co było kluczowym elementem poprzednich sukcesów finansowych. Ta zmiana paradygmatu w zarządzaniu dochodami z działalności podstawowej stanowi ważny sygnał dla inwestorów i rynku, że Uber jest na dobrej drodze do długoterminowej stabilności finansowej.

    Wzrost i dywersyfikacja

    Ostatnie kwartały pokazały imponujący wzrost w różnych segmentach działalności Ubera. Przychody z dostaw wzrosły o 6%, podczas gdy przychody z jazd – tradycyjnego filaru firmy – wzrosły o imponujące 34%. Ponadto, platforma członkowska Uber One, która teraz liczy około 19 milionów członków w 25 krajach, stała się ważnym elementem strategii wzrostu firmy, generując znaczącą część rezerwacji brutto.

    Wizja przyszłości

    Zamykanie aplikacji do dostarczania alkoholu Drizly na rzecz skoncentrowania się na Uber Eats świadczy o strategicznym podejściu firmy do konsolidacji swoich usług dostaw i wzmocnienia pozycji na rynku. Ta decyzja podkreśla chęć Ubera do dostosowania się do zmieniających się potrzeb konsumentów i zapewnienia im większej wygody poprzez jednolitą platformę.

    Rekordowy poziom akcji Ubera, osiągnięty na początku środy, jest nie tylko zwieńczeniem wyjątkowego roku dla firmy, ale także dowodzi jej odporności i zdolności do adaptacji. Wchodząc w nową erę, Uber wydaje się być lepiej przygotowany do stawienia czoła przyszłym wyzwaniom.

  • Piotr Kuberka nowym prezesem zarządu Shell Polska

    Piotr Kuberka nowym prezesem zarządu Shell Polska

    Piotr Kuberka, zajmujący stanowisko globalnego wicedyrektora ds. procesów podatkowych, z początkiem lutego br. został nominowany na prezesa zarządu Shell Polska. Piotr Kuberka przejął tę rolę po Piotrze Dziwoku, który będzie kontynuował karierę poza strukturami firmy.

    Piotr Kuberka jest związany z Shell Polska od 19 lat. Swoją karierę w firmie rozpoczął jako manager ds. podatków, wspierając rozwój biznesu w Polsce, a następnie na rynku Europy Środkowo-Wschodniej. Po oddelegowaniu do głównej siedziby Shell w Hadze, przez kolejne 5 lat zarządzał globalnymi projektami standaryzacji raportowania i rozliczeń podatkowych. Po powrocie do Polski w 2014 roku objął stanowisko Tax Process Owner w Shell Business Operations (SBO) w Krakowie. Następnie w 2019 roku został powołany na globalnego wicedyrektora ds. procesów podatkowych, a w ramach swojej roli zarządza ponad 600‑osobowym zespołem rozmieszczonym w 4 krajach w Europie i Azji. W tym samym roku Piotr Kuberka podjął się też kierownictwa Centrum Operacji Finansowych w SBO Kraków, jednym z globalnych centrów operacyjnych Shell. 

    Piotr jest absolwentem wydziału prawa Uniwersytetu im. Adama Mickiewicza w Poznaniu, ukończył również studia prawnicze i z międzynarodowego prawa podatkowego na Uniwersytecie w Hamburgu oraz studia finansowe dla managerów w Szkole Głównej Handlowej w Warszawie. Posiada także certyfikat specjalisty ds. zarządzania projektami (PMP – Project Management Professional). Jego wykształcenie i dotychczasowe doświadczenie będą cenne na nowym stanowisku, które do tej pory obejmował Piotr Dziwok. Dotychczasowy prezes zarządu Shell Polska, po 27 latach współpracy z Shell będzie kontynuował karierę poza strukturami firmy.

    Awans na prezesa zarządu Shell Polska to zdecydowanie wielkie wyróżnienie, ale również wyzwanie. Jest mi niezmiernie miło, że zostałem obdarzony takim zaufaniem oraz szansą realnego wpływu na rozwój firmy. Jestem pewien, że razem z ponad 4,7 tys. załogą Shell Polska będziemy udoskonalać naszą obecną ofertę jak również rozwijać firmę w nowych obszarach. Moją ambicją jest wykorzystanie doświadczeń z pracy z biznesem w Warszawie, kompetencji zdobytych w centrali w Hadze oraz wiedzy wyniesionej z Centrum Operacji Finansowych w Krakowie aby w pełni wykorzystać potencjał Shell Polska. W szczególności teraz, gdy Shell dąży do zeroemisyjności, chcę doprowadzić do dalszego rozwoju naszej spółki w Polsce na rynku odnawialnych źródeł energii mówi Piotr Kuberka, nowo powołany prezes zarządu Shell Polska.

    Shell Polska w ostatnich latach intensywnie inwestuje w swoje stacje, skupiając się na modernizacji istniejących obiektów, optymalizacji sieci, digitalizacji, podnoszeniu jakości obsługi oraz rozszerzaniu oferty pozapaliwowej. W lutym 2021 r. firma ogłosiła strategię neutralności klimatycznej, w ramach której celem jest stanie się przedsiębiorstwem energetycznym o zerowej emisji netto do 2050 r. zgodnie z oczekiwaniami społeczeństwa. Z tego względu Shell inwestuje m.in. w LNG (jako paliwo przejściowe) czy ładowarki elektryczne.

    Natomiast Shell Business Operations w Krakowie, w którym Piotr Kuberka pracował przez ostatnie lata, to jedno z największych i najbardziej nowoczesnych centrów biznesowych w Polsce. Z zatrudnieniem na poziomie 4,4 tys. osób, SBO jest jednym z najważniejszych pracodawców w Małopolsce. SBO Kraków działa od 16 lat i obsługuje 13 linii biznesowych, wspierając operacje Shell na całym świecie z obszarów m.in. finansów, zakupów, obsługi klienta, logistyki, IT czy zarządzania kadrami.

  • OVHcloud potwierdza pozycję na rynku PaaS i rozszerza ofertę DBaaS dzięki partnerstwu z Aiven

    OVHcloud potwierdza pozycję na rynku PaaS i rozszerza ofertę DBaaS dzięki partnerstwu z Aiven

    Dzięki sześciu nowo dostępnym rozwiązaniom DataBase-as-a-Service, OVHcloud oferuje swoim klientom jedno z największych portfolio DBaaS na rynku. Powiększenie oferty było możliwe dzięki partnerstwu z Aiven, europejską firmą programistyczną, która łączy najlepsze technologie open-source oraz infrastrukturę chmurową.

    OVHcloud oferuje swoim klientom najszerszy wybór zarządzanych baz danych – zarówno dzięki rozwiązaniom typu Database-as-a-Service (MySQL, PostgreSQL[i], Apache Kafka, Apache Kafka Mirror Maker, RedisTM[ii] i OpenSearch) jak również: Apache Cassandra, M3, M3 Aggregator, Grafana[iii] i Apache Kafka Connect[iv]; które trafią do oferty już wiosną 2022 roku.

    Dzięki bogatemu portfolio Public Cloud Database, OVHcloud wspiera firmy we wdrażaniu usług zarządzanego Platform-as-a-Service i ułatwia przyśpieszenie ich transformacji w ramach modernizacji aplikacji, wdrażania strategii native cloud, a także ekstrapolację danych, w oparciu o sztuczną inteligencję.

    OVHcloud oferuje bazy danych typu open source, dzięki czemu klienci mogą korzystać także z najnowszych aktualizacji i innowacji dostarczanych przez innych użytkowników. Zrównoważone rozwiązania, poziom usługi oraz wsparcie społeczności open source gwarantują możliwość przenoszenia systemów i odwracalność, a w konsekwencji pozwalają uniknąć vendor lock-ingu.

    Rozwiązania DBaaS bazują na podstawowych zaletach oferty OVHcloud: dostępności, niezrównanego stosunku ceny do wydajności, przewidywalnych kosztów oraz możliwości wyboru lokalizacji danych, a więc i niepodleganie eksterytorialnym prawom.

    Partnerstwo OVHcloud-Aiven dla innowacji

    „Odpowiadanie na zmieniające się potrzeby naszych klientów i dostosowywanie się do stale zmieniającego się rynku jest dla nas kluczowe. To właśnie dlatego zdecydowaliśmy się wesprzeć ich, oferując zarządzaną, zaufaną ofertę dla szerokiej gamy silników baz danych. Aby to osiągnąć, OVHcloud skorzystało z technologii europejskiego twórcy oprogramowania, firmy Aiven, z którym łączą nas wspólne wartości – innowacyjność w open source, standardy interoperacyjności, dostępność i prostota.” podkreśla Thierry Souche, Chief Technical Officer w OVHcloud

    „Dzięki naszemu partnerstwu z OVHcloud dostarczamy technologie open source, które umożliwiają organizacjom przyśpieszenie wdrażania infrastruktury chmury cyfrowej i wykorzystanie danych do napędzania biznesu i innowacji. Cieszymy się, że możemy być częścią zmieniającej się historii OVHcloud”powiedział Heikki Nousiainen, Chief Technology Officer w Aiven.

    Obszerny katalog dostosowany do różnych przypadków użycia

    Dzięki wykorzystaniu zarządzanych baz danych – co umożliwiło pominięcie zarządzania infrastrukturą i skoncentrowanie się na podstawowej działalności – beta-testerzy tego rozwiązania byli w stanie znacząco zwiększyć swoją wydajność.

    „Opracowaliśmy nasze aplikacje, aby dostarczać klientom dane o stanie floty pojazdów w czasie rzeczywistym. Musieliśmy znaleźć odpowiedniego dostawcę chmury do zarządzania naszą bazą danych MySQL: dostawcę zgodnego z RODO, który jest również w stanie szybko wdrożyć naszą usługę. Korzystanie z zarządzanego DBaaS OVHcloud pomaga naszemu zespołowi IT skoncentrować się na podstawowej misji przy jednoczesnym utrzymaniu wysokiej dostępności systemu. Cenimy bazę danych w chmurze publicznej dla MySQL właśnie za jej wydajność, bezpieczeństwo i łatwość użytkowania” – mówi Nick Chadaway, Managing Director w DMN Logistics. 

    Liv Systems GmbH, startup z siedzibą w Niemczech, przetestował wersję beta zarządzanego MySQL w połączeniu z Managed Kubernetes i load balancerem – „Dzięki oferowanemu rozwiązaniu DBaaS mogliśmy zbudować środowisko produkcyjne i wykorzystać bazy danych do zarządzania użytkownikami. Wszystko można było ustawić za pomocą prostej konsoli, co sprawiło, że konfiguracja była płynna i łatwa. Pozwoliło nam to na zaoszczędzenie znacznej ilości czasu!”

    Sébastien Gaïde, CTO i współzałożyciel startupu Tilkal, platformy blockchain do śledzenia łańcucha dostaw, wyjaśnia„Nasza działalność wymaga optymalnej ochrony danych naszych klientów. Dlatego rok temu dołączyliśmy do OVHcloud. Od listopada 2021 testujemy bazy danych PostgreSQL, dzięki czemu nie musimy już samodzielnie zarządzać nimi na serwerach dedykowanych. Nie tylko podwoiliśmy wydajność, ale także zyskaliśmy niezawodność i łatwość obsługi.”


    [i] PostgreSQL jest znakiem towarowym Stowarzyszenia Społeczności PostgreSQL w Kanadzie i jest używany za ich zgodą.
    [ii] Redis jest znakiem towarowym Redis Ltd. Wszelkie prawa w tym zakresie są zastrzeżone dla Redis Ltd. Jakiekolwiek użycie przez OVH SAS służy wyłącznie do celów referencyjnych i nie oznacza sponsorowania, poparcia ani powiązania między Redis i OVH SAS
    [iii] Znaki Grafana Labs są znakami towarowymi Grafana Labs i są używane za zgodą Grafana Labs. Nie jesteśmy powiązani, wspierani ani sponsorowani przez Grafana Labs ani jej podmioty stowarzyszone
    [iv] Wszystkie nazwy produktów, logo i marki są własnością ich odpowiednich właścicieli. Wszystkie nazwy firm, produktów i usług użyte w tej wersji służą wyłącznie do celów identyfikacyjnych. Użycie tych nazw firm, logo i znaków towarowych nie powinno sugerować poparcia, sponsorowania lub powiązania z właścicielem tych praw własności intelektualnej.

  • Co drugi Polak twierdzi, że firmy nie mają warunków do podnoszenia swojej innowacyjności

    Co drugi Polak twierdzi, że firmy nie mają warunków do podnoszenia swojej innowacyjności

    Zdaniem ponad połowy rodaków niebędących przedsiębiorcami, firmy w Polsce mają niesprzyjające warunki prawne i ekonomiczne do rozwoju innowacyjności. Więcej niż jedna piąta społeczeństwa twierdzi odwrotnie, a przeszło jedna czwarta nie umie tego ocenić. Trudności widzą głównie osoby zarabiające 5000-6999 zł netto. A nie dostrzegają ich przeważnie Polacy z niższymi dochodami. Co ciekawe, prawie połowa ankietowanych zauważa w swoim otoczeniu innowacyjne biznesy, a niewiele mniej osób w ogóle ich nie dostrzega. Tylko jedna dziesiąta badanych jest niezdecydowana. Eksperci komentujący wyniki przekonują, że konsumenci potrzebują edukacji w zakresie rozpoznawania faktycznych innowacji. Zyskać na tym mogą zwłaszcza seniorzy.     

    Brak warunków

    Według badania, przeprowadzonego przez UCE RESEARCH dla Akceleratora Innowacji Przemysłowych Industrylab (Grupa Kapitałowa DGA) wśród ponad 1,4 tys. Polaków nieprowadzących działalności gospodarczej, 52,9% ankietowanych uważa, że obecne otoczenie prawne i warunki ekonomiczne w Polsce nie sprzyjają rozwojowi firm w tym zakresie. 20,7% respondentów twierdzi odwrotnie. Natomiast 26,4% badanych nie umie tego ocenić.

    – Biorąc pod uwagę to, że ankietowani nie mają na co dzień do czynienia z biznesem, wysoki odsetek Polaków dostrzega ograniczenia w podnoszeniu innowacyjności firm. Gdyby badaniem objęto przedsiębiorców, zdecydowanie więcej rodaków zadeklarowałoby, że widzi poważne trudności w tej kwestii. Głównym utrudnieniem jest oczywiście brak stabilności prawnej. W praktyce polega to na ciągłych zmianach przepisówkomentuje ekonomista Marek Zuber.

    Jak podkreśla Adam Szumilas z Industrylab, nawet osoby niezwiązane z biznesem mają świadomość tego, że przedsiębiorcy muszą stale mierzyć się z niestabilnością prawa i dużym ryzykiem podatkowym oraz regulacyjnym. Zdaniem eksperta, znaczna część Polaków może też wiedzieć o tym, że nasz kraj znajduje się w ogonie Europy pod kątem stopy inwestycji. W ub.r. wyniosła ona tylko 16,7% i była najniższa od początku lat 90. XX wieku. Natomiast z sondażu wynika, że z ww. trudności zdają sobie sprawę głównie mieszkańcy miast liczących od 200 tys. do 499 tys. i powyżej 500 tys. ludności. Najczęściej widzą je Polacy w wieku 23-35 lat, z wyższym lub ze średnim wykształceniem i z zarobkami pomiędzy 5000 a 6999 zł netto. 

    – Młodzi, ambitni i dobrze zarabiający mieszkańcy dużych miast mają wiele okazji do tego, żeby obserwować trudności napotykane przez przedsiębiorców w podnoszeniu innowacji. Zauważają różnego rodzaju ograniczenia m.in. jako pracownicy korporacji, piastujący stanowiska wiążące się z R&D. Uczą się od swoich przełożonych i pracodawców. Mają też swoje wnioski, korzystając z usług innych firm. Oceniają ich stopień zaawansowania technologicznego komentuje Łukasz Klimek z Grupy Kapitałowej DGA.

    Z kolei osoby żyjące na wsiach i w miejscowościach liczących do 5 tys. mieszkańców oraz od 5 tys. do 19 tys. ludności przeważnie uważają, że firmy w Polsce mają odpowiednie warunki do zwiększania swojej innowacyjności. Zazwyczaj w ten sposób myślą rodacy w wieku 36-55 lat, którzy zdobyli średnie lub zawodowe wykształcenie i obecnie zarabiają od 3999 zł do 4999 zł lub od 1000 do 2999 zł netto. 

    – Te wyniki mnie absolutnie nie dziwią. Trudno jest dostrzegać ograniczenia w zakresie tego typu rozwoju, mieszkając w małym miasteczku, niewielkiej miejscowości czy na wsi. Nie ma tam zbyt wielu firm, które starają się o zwiększenie swojej innowacyjności. Oczywiście są wyjątki, które mogą dotyczyć np. firm zlokalizowanych w strefach przemysłowych w mniejszych miastach. Jednak nawet wówczas zaledwie część społeczności, obejmująca pracowników takiego przedsiębiorstwa i to nie wszystkich, może zdawać sobie sprawę z ww. ograniczeń dodaje Łukasz Klimek.

    Dostępność innowacji

    Polacy są natomiast niemal po równo podzieleni w kwestii tego, czy w swoim otoczeniu mają innowacyjne firmy. Według sondażu, blisko 46% ankietowanych zauważa je, np. w sąsiedztwie, swojej gminie, powiecie czy województwie. Z kolei przeszło 44% respondentów nie widzi takich podmiotów. Tylko ponad 10% badanych nie ma zdania na ten temat.

    – Osoby, które nie są specjalistami w zakresie innowacji, mają trudność w ocenianiu tego typu kwestii, znając jedynie definicję innowacyjności. Ich uwaga nie skupia się na tym w codziennym życiu. Zazwyczaj wyrabiają sobie opinie w oparciu o to, co mówią inni lub podają media bądź pokazują reklamy. I tak np. ktoś w otoczeniu może przedstawiać siebie jako innowatora, ale w rzeczywistości wcale nim nie być. Moim zdaniem, powyższe dane pokazują, że Polakom brakuje wiedzy w tym obszarze. I warto postawić na edukację konsumentów, dla których są tworzone innowacyjne rozwiązania przekonuje Marek Zuber.

    Natomiast Łukasz Klimek wskazuje, że polskie przedsiębiorstwa częściej wprowadzają innowacje procesów biznesowych niż modernizacje produktowe. I dlatego konsumentom trudno jest zauważyć istotne zmiany, nawet jeśli one zachodzą. Do tego z badania wynika, że głównie w dużych miastach, liczących co najmniej 200 tys. ludności, Polacy dostrzegają innowacyjne przedsiębiorstwa. Najczęściej widzą je osoby w wieku 23-35 lat, ze średnim lub z wyższym wykształceniem, których zarobki kształtują się od 3999 zł do 4999 zł na rękę.

    – Miejsce zamieszkania ma oczywiście znaczenie w kwestii większego bądź mniejszego dostępu do innowacji w codziennym życiu. Natomiast kluczową sprawą jest świadomość ich istnienia, np. w całym województwie. W dużej mierze zależy to od zainteresowania nowoczesnymi rozwiązaniami, które jest częściej spotykane wśród młodych ludzi, raczej dobrze wykształconych i nieźle zarabiających. Oni mogą wręcz szukać informacji na ten temat tłumaczy ekonomista Zuber.

    Wyniki badania pokazują, że na wsiach i w miejscowościach liczących do 5 tys. mieszkańców oraz od 5 tys. do 19 tys. ludności panuje głębokie przekonanie, że w najbliższym otoczeniu brakuje innowacyjnych firm. Zazwyczaj tak twierdzą mieszkający tam Polacy w wieku 56-80 lat, którzy osiągają dochody w przedziale od 1000 do 2999 zł na rękę.

    – Seniorzy sami często nie interesują się dostępnymi innowacjami, choć to właśnie oni mogą najbardziej potrzebować wszelkich udogodnień. A jeśli dodatkowo czerpią swoją wiedzę o świecie z programów i audycji, które nie przedstawiają rozwoju technologicznego w korzystnym świetle, to mogą nawet nie chcieć widzieć wokół siebie takich usprawnień. Warto szerzyć obiektywną wiedzę zwłaszcza wśród przedstawicieli starszego pokoleniapodsumowuje Marek Zuber.

  • Red Hat: Co przyniesie rok 2022?

    Red Hat: Co przyniesie rok 2022?

    Nie zawsze łatwo jest tworzyć prognozy na cały przyszły rok. Po pierwsze cała branża IT bardzo szybko się rozwija i rozwiązania, które dziś uznawane są za niszowe, jutro mogą stać się dominujące. Także pandemia nauczyła nas, że pomimo ustalonych planów, rzeczywistość wymaga od nas zupełnie innych działań, ale i często zmusza do przyśpieszenia cyfrowej transformacji. Jaki zatem będzie kolejny rok w technologii IT?

    Rosnąca rola kontenerów i Kubernetes

    Firma Gartner przewiduje, że do 2022 roku ponad 75% organizacji na świecie będzie uruchamiać aplikacje kontenerowe w środowisku produkcyjnym, co oznacza duży wzrost z poziomu niecałych 30% w roku 2020. Co jednak będzie motorem tak gwałtownego wzrostu?

    W ciągu ostatnich 7 lat Kubernetes ewoluował i stał się de facto standardem zarządzania aplikacjami kontenerowymi. I, podobnie jak w przypadku każdej nowej technologii, mamy do czynienia zarówno z dojrzewaniem jej samej, jak i z krzywą uczenia się użytkowników. W początkowym okresie użytkownicy często budowali własne lokalne platformy Kubernetes i wdrażali bardziej uproszczony zestaw aplikacji. Jednak wraz z ustabilizowaniem się platformy Kubernetes wzorce użytkowania znacznie dojrzały.

    – Organizacje dostrzegły sukces połączenia technologii Kubernetes z Red Hat (dzięki OpenShift), dlatego oczekują podobnych rezultatów biznesowych. Często jednak nie chcą inwestować w kwalifikacje niezbędne do zarządzania platformą Kubernetes i jej utrzymywania. To właśnie tutaj spodziewamy się szybkiej ekspansji wykorzystania zarządzanych usług chmurowych Kubernetes, takich jak OpenShift Dedicated, Red Hat OpenShift on AWS (ROSA) oraz Microsoft Azure Red Hat OpenShift (ARO) komentuje Adam Wojtkowski.

    Widzieliśmy już szeroką gamę aplikacji działających w kontenerach, a teraz zaczynamy dostrzegać, że coraz więcej organizacji przenosi na platformę Kubernetes swoje newralgiczne aplikacje. Oczekuje się, że bazy danych, komunikaty sterowane zdarzeniami oraz newralgiczne aplikacje będą przenoszone na platformę Kubernetes, aby wykorzystać skalowalność, bezpieczeństwo i przenośność, które Kubernetes zapewnia wszystkim aplikacjom.

    Jednak spośród wszystkich aplikacji działających na platformie Kubernetes wyróżnia się jeden obszar — to AI/ML. Wraz ze wzrostem znaczenia analizy danych w niemal każdej firmie rośnie także zdolność do ulepszania i usprawniania wielu rodzajów aplikacji. Kubernetes dodaje do AI/ML doskonałe możliwości platformowe: skalowalność, dostęp do procesorów graficznych, przenośność obciążeń i wiele więcej. Byliśmy już świadkami wspaniałych osiągnięć, do jakich zdolne są organizacje dzięki technologiom AI/ML opartym na platformie Kubernetes. Oczekujemy, że następna generacja aplikacji całkowicie odmieni branże.

    Zmierzch ery wirtualizacji

    Kontenery będą wypierać maszyny wirtualne, a to głównie przez to, że pozwalają znacznie uprościć cały stos infrastruktury aplikacyjnej. Jeśli posiadamy aplikacje, które wymagają dedykowanych maszyn wirtualnych to jest na to świetna metoda. Maszyna wirtualna nie jest niczym innym jak procesem, który z łatwością można uruchomić w kontenerze. Zabieg taki pozwala całkowicie wyeliminować warstwę wirtualizacji. Platformy wirtualne w dotychczasowej postaci powoli przechodzą już do lamusa. Obecnie obciążenia kontenerowe coraz częściej uruchamiane są bezpośrednio na warstwie sprzętowej (bare metal), dotyczy to również maszyn wirtualnych, które do tej pory wymagały osobnej platformy. Dzięki temu stos technologiczny można spłaszczyć, rezygnując zupełnie z warstwy wirtualizacji. Korzyści, jakie niesie taki zabieg, nie ograniczają się jedynie do oszczędności kosztów platformy wirtualnej ale przede wszystkim upraszczają operacje, dzięki wykorzystaniu tych samych narzędzi do zarządzania zarówno kontenerami jak i maszynami wirtualnymi. Łatwiejszy staje się proces powołania całego projektu, gdyż maszyny wirtualne tworzone są w sposób równie zwinny jak kontenery. Wspólne narzędzia CI/CD, cykl życia środowisk od rozwoju po produkcję wygląda teraz znacznie prościej. Eliminujemy również narzut wydajnościowy, jaki do tej pory konsumował wirtualizator.

    Rosnąca rola przetwarzania brzegowego

    Organizacje będą wykorzystywać przetwarzanie brzegowe do rozwiązywania najważniejszych problemów globalnych — w tym związanych ze zrównoważonym rozwojem, zmianą klimatu i niestabilnością łańcuchów dostaw. Będzie to naturalne rozszerzenie transformacji działalności, która na miejsce już dziś. Te wysiłki będą mieć charakter ekosystemowy, ponieważ zmuszą do współpracy wszystkie branże.

    – Wydaje się, że na tym polu jednym z głównych graczy będzie sektor telekomunikacyjny, który wykorzysta sieci 5G i przetwarzanie brzegowe, aby pomóc w rozwiązaniu problemu braku dostępności do najnowszych technologii IT w wielu branżach. Technologie te są już odpowiednio dojrzałe — stają się tańsze, bezpieczniejsze i mają bardziej globalny zasięg — dzięki czemu stworzą prawdziwe okno możliwości, które pozwoli rozwiązać problemy uważane dotychczas za niemożliwe do pokonania. Przykłady zastosowań są niemal nieograniczone.dodaje Adam Wojtkowski, General Manager na region CEE w Red Hat.

    Obliczenia na brzegu sieci będą oznaczać powrót przetwarzania heterogenicznego, które zapewni ogromny ekosystem z mocą specjalistycznego sprzętu — bez kompromisów, co zapewnia jedynie technologia open source, nieograniczana przez sztywne ramy, jak ma to miejsce w przypadku oprogramowania zastrzeżonego. Obliczenia będzie można przeprowadzać w dowolnym miejscu, mając do dyspozycji kompletny stos zbudowany zgodnie z konkretnym przeznaczeniem oraz optymalizujący aplikacje i infrastrukturę.

    Wraz z powstawaniem nowych projektów przetwarzania brzegowego organizacje zaczną zdawać sobie sprawę, że będą też musiały prowadzić więcej niż jeden projekt brzegowy w tym samym czasie. Podobnie jak to miało miejsce w przypadku przetwarzania w chmurze, klienci zaczną opracowywać zasady zarządzania, które określą to, z czego należy korzystać i w jaki sposób faktoryzować projekty.

    Mobilność, sztuczna inteligencja oraz uczenie maszynowe

    W ciągu najbliższych kilku lat zobaczymy, że przetwarzanie brzegowe oraz sztuczna inteligencja / uczenie maszynowe (AI/ML) będą wspólnie napędzać kolejną falę innowacji technologicznych. W większości rzeczywistych zastosowań zarówno technologie brzegowe, jak i AI/ML będą pracować ramię w ramię, aby dostarczać rozwiązania, które pomogą zwalczać największe problemy świata — związane m.in. ze zrównoważonym rozwojem, zmianą klimatu, obłożeniem szpitali i nie tylko.

    Nową klasą urządzeń brzegowych o dużej mobilności i mocy obliczeniowej staną się pojazdy. Technologie open source pomogą przyspieszyć transformację przemysłu motoryzacyjnego dzięki wspólnemu celowi, jakim jest poprawa bezpieczeństwa na drogach. Ostatecznie doprowadzi to do zbudowania bardziej solidnego ekosystemu mobilności, zwiększenia możliwości ponownego wykorzystania oprogramowania oraz bardziej wydajnego i zrównoważonego łańcucha wartości dla producentów samochodów.

    Bezpieczeństwo łańcuchów dostaw oprogramowania

    Jednym z głównych obszarów zainteresowania w nadchodzącym roku będzie bezpieczeństwo łańcuchów dostaw oprogramowania. Organizacje muszą chronić swój łańcuch dostaw przed włamaniami. Osiągnięcie tego celu będzie wymagało inwestycji w zastosowanie nowych technologii w potokach, np. łańcuchów Tekton CD, a także Sigstore, aby ułatwić dodawanie podpisów w potokach.

    – Zaczniemy dostrzegać zmiany w sposobie, w jaki firmy zabezpieczają aplikacje na etapie ich wdrażania. Ten proces już się rozpoczął wraz z przesunięciem w kierunku prostszego podejścia w samej platformie Kubernetes, zwanego kontrolą poza drzewem. Nadal będziemy obserwować wzrost w obszarze zarządzania wdrożeniami opartego na regułach — z wykorzystaniem narzędzi takich jak OPA Gatekeeper, Kyverno i Argo CD. Warto też zwrócić uwagę na nowe mechanizmy reguł, które dopiero się pojawiąpodsumowuje Adam Wojtkowski z Red Hat.

    Nastąpi wzrost zainteresowania zestawieniami komponentów oprogramowania (SBOM). Proponowane standardy dotyczące dostarczania SBOM istnieją już od dłuższego czasu, ale — ze względu na obawy związane z bezpieczeństwem łańcucha dostaw — doszliśmy do punktu, w którym wszystkie organizacje będą musiały wymyślić, jak dostarczać zestawienia komponentów oprogramowania. W branży będzie się toczyć dyskusja na temat statycznych informacji w zestawieniach komponentów w porównaniu z informacjami dynamicznymi, takimi jak dane dotyczące podatności wraz z informacją o tym, w którym przypadku pakiet nie uległ zmianie, ale podatności związane z takim pakietem — już tak. W związku z tym nastąpi gwałtowny rozwój automatyzacji wokół SBOM i powiązanych metadanych pakietów.

    Kubernetes będzie zawierać większą liczbę funkcji bezpieczeństwa dodanych bezpośrednio do poszczególnych dystrybucji tej platformy. Pomoże to zwiększyć ogólne bezpieczeństwo dystrybucji, a także obniżyć koszty zabezpieczania wdrożeń platformy Kubernetes.

  • Debata Związku Cyfrowa Polska: cyfrowy atak na urząd to atak na całą lokalną społeczność

    Debata Związku Cyfrowa Polska: cyfrowy atak na urząd to atak na całą lokalną społeczność

    Świadomość zagrożeń i otwartość samorządów na inwestycje w cyberbezpieczeństwo rośnie wraz z nagłaśnianiem przypadków ataków cyfrowych i wycieków danych w jednostkach samorządu terytorialnego. Rozwój wiedzy i kompetencji w obszarze bezpieczeństwa cyfrowego jest istotnym, lecz nie jedynym wyzwaniem na drodze do cyberbezpiecznej przyszłości polskiej administracji – mówił prezes Związku Polska Michał Kanownik na konferencji z serii #CyfryzujemyPolskę.

    Nad stanem cyberbezpieczeństwa w jednostkach administracji publicznej i wyzwaniami stojącymi w rozpoczętym roku przed aparatem państwowym w związku z rosnącą skalą zagrożeń cyfrowych debatowali uczestnicy panelu dyskusyjnego w trakcie konferencji pt. „Cyberzagrożenia w 2021 r. i wyzwania na 2022 r.”. Spotkanie zorganizował reprezentujący polską branżę cyfrową i nowych technologii Związek Cyfrowa Polska.

    Postęp cyfryzacji, rozwój zagrożeń

    Eksperci biorący udział w dyskusji odnosząc się do trwającej transformacji cyfrowej, która przyspieszyła w czasie pandemii, a w centralnej i lokalnej administracji publicznej objawia się udostępnianiem obywatelom nowych e-usług, byli zgodni co do faktu, że zjawisko to zbiega się ze wzrostem liczby incydentów bezpieczeństwa w urzędach. Te coraz częściej stanowią cel ataków cyfrowych. Proces cyfryzacji dotyczy m.in. Urzędu Zamówień Publicznych, a jego kierownictwo dostrzega znaczenie przygotowania się cyberzagrożenia. – Rok 2021 był dla UZP wyjątkowy. Uczyniliśmy w tym czasie proces postępowań zamówieniowych w pełni elektronicznym, a na nadchodzące lata planujemy cyfryzację kolejnych procesów. Prowadząc transformację cyfrową zdajemy sobie jednak sprawę, że istotny jest nie tylko komfort podmiotów korzystających z nowych, cyfrowych narzędzi, lecz również bezpieczeństwo ich danychprzekonywał Hubert Nowak, prezes UZP.

    O bezpieczeństwie użytkowników usług e-administracji mówił również Michał Kanownik, prezes Związku Cyfrowa Polska, wskazując również na inne niż urzędy obszary, którym sektor publiczny winien się bacznie przyglądać. – Oczywiście incydent cyberbezpieczeństwa na poziomie samorządu dotyczy nie tylko urzędu, ale przede wszystkim obywateli tworzących lokalną społeczność, których dane są zagrożone, a potencjalnie również kolejnych organów państwowych, z którymi połączona jest zaatakowana jednostka. Najistotniejszy cel cyberataków stanowi prawdopodobnie infrastruktura krytyczna. Nie jesteśmy w stanie zapobiec każdemu incydentowi i dlatego kluczowy jest nasz czas reakcji na przypadki ataków, szczególnie na wrażliwe cele wskazał gospodarz konferencji.

    Potrzebne wytyczne i fundusze

    Jan Maciej Czajkowski, reprezentujący Związek Miast Polskich wskazywał, że w kontekście cyberbezpieczeństwa samorządy nie są pod względem swoich możliwości i przygotowania na zagrożenia jednorodną grupą. – Jednostki samorządowe nie są jednolite w swoich kompetencjach i możliwościach. Każda z nich widzi kwestie cyberbezpieczeństwa nieco inaczej i przed każdą stoją nieco inne wyzwania ze względu na typ i liczebność świadczonych usług i przetwarzanych danych. Na czoło biegu ku cyberbezpieczeństwu wśród krajowych JST wysuwają się moim zdaniem duże miasta na prawach powiatumówił przedstawiciel Związku Miast Polskich. Gość dodał, że dla poprawy sytuacji lokalnej administracji istotny będzie nie tylko rozwój świadomości i kompetencji i zapewnienie dedykowanych środków finansowych, ale również udzielenie klarownych wytycznych, a następnie prowadzenie audytów w celu potwierdzenia ich wdrażania. – Większość małych i średnich JST, które potrzebują wsparcia w tym obszarze polega na ich własnych kompetencjach, które często nie są dostateczne. Należy zapewnić im oczywiście środki finansowe na ten cel, ale również prowadzić audyty po wcześniejszym ustaleniu oczekiwań wobec urzędówwymieniał Jan Maciej Czajkowski.

    Prezes Urzędu Zamówień Publicznych podkreślał, że we wdrażaniu rozwiązań cyberbezpieczeństwa pomocne mogłyby okazać się dedykowane regulacje.  – Jako organy publiczne przywykliśmy do działania w ramach ścisłych i często sztywnych schematów prawnych. Cyberzagrożenia wymykają się nam w tej sferze, a podmioty administracji publicznej potrzebują jasnych ram i wskazówek dotyczących bezpieczeństwa cyfrowegomówił Hubert Nowak.Póki administracja publiczna nie dysponuje odpowiednio przejrzystymi wytycznymi prawnymi dla wdrażania cyberbezpieczeństwa, musi dzielić się między sobą doświadczeniami i kompetencjami dodał.

    Wspólna praca, bezpieczną przyszłość

    O potencjale i potrzebie współpracy podczas debaty mówił również Przemysław Kania, Dyrektor Generalny Cisco Polska. – Branża cyberbezpieczeństwa również jest w pewien sposób zdefragmentowana. Podmioty ją tworzące są silnie wyspecjalizowane, a jednym z zadań naszych organizacji jest pomoc w tworzeniu spójnych, kompletnych cyberbezpiecznych ekosystemów. Ważne jest też, by samorządy miały odwagę nawiązywać dialog z dostawcami, ponieważ nasza branża jest otwarta na współpracę z administracją publiczną i pomoc nie tylko przez oferowanie rozwiązań, ale też budowanie świadomości urzędników zapewniał Przemysław Kania.

    Choć nadchodzący rok zdaniem ekspertów przyniesie wiele wyzwań dla rozwoju cyberbezpieczeństwa administracji publicznej w Polsce, to zdaniem organizatora konferencji należy zachować optymizm. – Rozwijajmy świadomość zagrożeń i budujmy kompetencje urzędników. Zabiegajmy o zapewnienie środków dedykowanych na inwestycje w cyberbezpieczeństwo dla samorządów oraz jasnych wytycznych, które wskażą im kierunek przemian. Jestem przekonany, że jeśli podejmiemy pracę w tych obszarach Polska administracja publiczna będzie gotowa, by radzić sobie z zagrożeniami ery cyfrowejpowiedział, podsumowując debatę Prezes Związku Cyfrowa Polska Michał Kanownik.

    Konferencja z cyklu #CyfryzujemyPolskę została zorganizowana 13 stycznia pod Patronatem Honorowym Sekretarz Stanu w KPRM, Pełnomocnika Rządu do Spraw Cyberbezpieczeństwa Janusza Cieszyńskiego oraz Urzędu Zamówień Publicznych. Partnerami wydarzenia były firmy Cisco oraz Samsung. Patronat medialny sprawowali portal Cyberdefence24.pl oraz agencja ISBtech.

  • Badanie: Polacy mocno podzieleni w sprawie ulgi podatkowej dla innowacyjnych firm

    Badanie: Polacy mocno podzieleni w sprawie ulgi podatkowej dla innowacyjnych firm

    Ponad 40% rodaków opowiada się za całkowitym lub częściowym zwolnieniem innowacyjnych firm działających w Polsce z płacenia podatków lub innych danin publicznych. Nieco więcej, bo przeszło 45%, jest temu przeciwnych. Zdaniem ponad 61% badanych, ewentualna ulga powinna zależeć od kraju pochodzenia kapitału. 73% ankietowanych w tej grupie dodatkowo uważa, że ulgowo trzeba traktować tylko rodzime podmioty. Natomiast komentujący wyniki eksperci zwracają uwagę na to, że nasza gospodarka ewidentnie potrzebuje innowacyjnych biznesów i to nawet tych z obcym kapitałem, bo to też jest dla nas korzystne. Jednocześnie ubolewają nad tym, że w świadomości społecznej brakuje szerszej wiedzy na ten temat.

    W grudniu ub.r. platforma analityczno-badawcza UCE RESEARCH przeprowadziła dla Grupy Kapitałowej DGA badanie wśród ponad 1,4 tys. dorosłych Polaków, którzy nie wykonują działalności gospodarczej i nie zasiadają w zarządach przedsiębiorstw czy też w radach nadzorczych spółek. Na wstępie ankiety wyjaśniono im, na czym polega innowacyjność przedsiębiorstw. Podano też jej bezpośrednie przykłady. I jak wykazał sondaż, 40,2% ankietowanych uważa, że innowacyjne firmy działające na terenie Polski powinny być zwalniane z płacenia części lub całości podatków bądź innych danin publicznych. 45,6% respondentów myśli odwrotnie. Natomiast 14,2% badanych nie ma zdania na ten temat.

    – Żałuję, że tylko 40% rodaków opowiada się za preferencjami dla tego typu przedsiębiorstw. Polska zdecydowanie nie jest innowacyjnym krajem. W tej kwestii znajduje się pod koniec tabeli państw Unii Europejskiej. I jeśli nasza gospodarka ma się liczyć w świecie za 15-20 lat, to musimy już teraz tworzyć szeroko rozumiane innowacje. To jest bardzo ważne w interesie nas wszystkich, również jako klientów różnego typu produktów i usług. Fakt, że mamy w kraju więcej przeciwników niż zwolenników wsparcia dla innowatorów, może wynikać z braku świadomości społecznej. Dlatego społeczeństwo trzeba lepiej edukować w tej materii komentuje ekonomista Marek Zuber.

    Z kolei Anna Szymańska, Wiceprezes Zarządu DGA, zauważa, że systemem ulg na prowadzenie firm innowacyjnych i badawczo-rozwojowych, który od kilku lat istnieje w Polsce, wpisał się już w zbiorową świadomość. Znane są sukcesy takich podmiotów, ale też przykłady złego wykorzystania środków finansowych i braku efektów przy dużych nakładach. Przeciwnicy takiego uprzywilejowania mogli słyszeć tego typu historie. Do tego z badania wynika, że najwięcej z nich mieszka w miejscowościach liczących 20-99 tys. ludności. Głównie są to starsze osoby, tj. będące w wieku od 56 do 80 lat. Z kolei zwolennicy ww. ulg najczęściej mieszkają w największych polskich miastach i mają od 23 do 35 lat.

    – Wsparcie dla innowacyjnych firm w postaci ulg najczęściej popierają młode osoby, bo one z reguły luźniej podchodzą do płacenia jakichkolwiek danin. Z kolei seniorzy z reguły nie widzą wokół siebie innowacji, mimo że naprawdę często z nich korzystają. Dlatego ich stosunek do tego może być bardziej sceptyczny tłumaczą autorzy badania.

    Według sondażu, aż 61,3% osób uważa, że uprzywilejowanie innowacyjnych firm w powiązaniu ze zwolnieniem z płacenia części lub całości podatków bądź innych danin publicznych powinno zależeć od kraju pochodzenia kapitału. Dla 32,5% respondentów ta kwestia nie ma znaczenia. Tylko 6,2% jest w tej sprawie niezdecydowanych. Ponadto w pierwszej i największej grupie ankietowanych niecałe 73% twierdzi, że tego typu wsparcie należy się wyłącznie przedsiębiorstwom z polskim kapitałem.

    – Rozumiem, że rodakom zależy na tym, aby rozwijać innowacje polskich przedsiębiorstw. I popieram to. Jednak uważam, że warto mieć na uwadze też inne możliwości. Gdyby dzięki uprzywilejowaniu powstało w Polsce np. wielkie laboratorium światowego giganta technologicznego, zatrudniające tysiące polskich pracowników i współpracujące z naszymi firmami, to też byłoby niezwykle korzystne dla naszego społeczeństwa. Niestety zagraniczni przedsiębiorcy często są przedstawiani w negatywnym świetle jako ci, którzy zabierają Polakom miejsce w biznesie czy na rynku pracy. A w rzeczywistości bywa dokładnie odwrotnie zaznacza Marek Zuber.

    W ocenie Anny Szymańskiej, respondenci są świadomi tego, że poprzez płacenie danin publicznych mają swój udział w finansowaniu zwolnień z opłat i podatków dla innych. Jeżeli innowatorem będzie firma z rodzimym kapitałem, to jej sukces na lokalnym rynku prawdopodobnie skonsumuje polski obywatel. Warto dodać, że według badania zwolennicy uprzywilejowania wyłącznie polskich firm zazwyczaj mieszkają w miastach liczących od 50 do 99 tys. oraz od 100 tys. do 199 tys. ludności. Najczęściej mają 36-55 lat i wyższe lub średnie wykształcenie. I przeważne zarabiają 5000-6999 zł netto lub 3000-4999 zł.

  • Zanim coś kupisz na święta – zastanów się dwa razy. Odpromiennik do telefonu nie zadziała

    Zanim coś kupisz na święta – zastanów się dwa razy. Odpromiennik do telefonu nie zadziała

    Taki „odpromiennik” nie ma prawa zadziałać, ponieważ samo zjawisko „elektrosmogu” nie istnieje. W jednym z polskich sklepów, specjalizującym się w sprzedaży towarów z gryki, trafiliśmy na ofertę „znakomitej” naklejki, która, wg współczynnika SAR, absorbuje do 99% promieniowania PEM pochodzącego z telefonu komórkowego. Prześledziliśmy historię powstania owego cuda techniki, a także sprawdziliśmy, co z tym wszystkim wspólnego ma WHO. Jak możecie się domyślić – niewiele, dlatego drogi kliencie – zanim klikniesz „kup teraz” w z pozoru interesujący gadżet, zastanów się dwa razy! 

    Co na ten temat sądzą inżynierowie? Felieton inżynierów przygotowany przez Instytut Łączności – zawiera opinie i oceny. 

    Z czym kojarzy się nam Szwajcaria? Z czekoladą, neutralnością w stosunkach międzynarodowych, a może systemem bankowym, który za swój priorytet stawia szeroko rozumianą tajemnicę w relacjach z klientem? Jeżeli pomyśleliście o którejś z tych rzeczy, jesteśmy zmuszeni zakomunikować dosyć smutny fakt… to wszystko stało się przeszłością. Dokładnie w tym momencie, w którym sadowicie się na swojej kanapie z kubkiem ulubionej herbaty i czytacie nasz tekst, Szwajcarzy podbijają szybko rozwijający się rynek pseudonaukowych gadżetów. Gadżetów, które według ich twórców mają za zadanie uchronić ludzkość przed kataklizmem jakim jest tzw. elektrosmog. 

    Idą święta – bum na odpromienniki „elektrosmogowe”. Nic, tylko kupować 

    Tematyka związana z „elektrosmogiem” obfituje wciąż w setki kwiecistych opowieści i anegdot. Jest to, co do zasady, „sztuka” sama w sobie, a do tego tak płodna, iż zebranie jej w kompendium przysporzyłoby kompleksów twórczości samym braciom Grimm. Zastosowana paralela wydaje się jak najbardziej trafiona z uwagi na to, iż koncepcja „elektrosmogu” należy do tych z kategorii dziwnych legend miejskich lub strasznych bajek, które mają służyć do dyscyplinowania krnąbrnych dzieci. Nie inaczej. Jednak biorąc pod uwagę wątpliwą wartość literacką oraz poziom intelektualnej indolencji, jakie zostały zainwestowane przez twórców koncepcji „elektrosmogu” w ich dzieło, należy jednoznacznie stwierdzić, iż ta baśń nie przejdzie do kanonu. 

    Kamieniem węgielnym, na którym zbudowano teorię „elektrosmogu” jest twierdzenie, że każdy rodzaj promieniowania elektromagnetycznego jest szkodliwy dla naszego zdrowia i otaczającego nas świata. Nie ma co, solidna podstawa. Zważywszy, że każde ciało o temperaturze wyższej od temperatury zera bezwzględnego emituje promieniowaniem, należałoby przestraszyć się nie na żarty – wszystko co nas otacza, a nawet my sami, emitujemy promieniowanie, które dąży do naszego unicestwienia. W jednym z naszych felietonów dokładnie opisaliśmy błędy logiczne i naukowe zawarte w tej hipotezie. Już sama etymologia „elektrosmogu” przywodzi na myśl kłęby trującego dymu, unoszącego się w powietrzu, którym wszyscy oddychamy. 

    Według środowisk sprzeciwiających się rozwojowi technologii mobilnych promieniowanie elektromagnetyczne jest niebezpiecznym „odpadem” powstałym w wyniku nieodpowiedzialnych działań operatorów komórkowych. Te argumenty nie uzyskały aprobaty środowiska naukowego. Specjaliści zajmujący się tematyką PEM jednoznacznie negują istnienie „elektrosmogu”, a samo określenie „elektrosmog” kwalifikują po prostu jako błąd logiczny. Niestety, mimo konsensusu środowiska, wiele osób inwestuje niebotyczne kwoty w tzw. odpromienniki czy odzież, która miałaby chronić przed pole elektromagnetycznym występującym w naszym otoczeniu, zwłaszcza w pobliżu stacji bazowych telefonii komórkowej. Sklepy oferujące tego typu gadżety przeżywają prawdziwe oblężenie. 

    Telefon w sypialni? Koniecznie kup gryczany odpromiennik! 

    Jednym z takich przedsiębiorstw jest polski sklep „I Love XXXXX”. Według jego założycielek jest on odpowiedzią na ignorancję medycyny akademickiej. Gdy wykwalifikowani lekarze docierają do granic swoich kompetencji, wówczas na scenę wkraczają one – właścicielki. Według manifestu znajdującego się na stronie sklepu, intencją jego powstania było zapewnienie klientom „…odpoczynku, równowagi oraz życia w zgodnie z naturą”, które są instrumentalne dla „zdrowia i samopoczucia”. 

    Oferta produktów może przyprawić o zawrót głowy. Od wałków do spania, przez opaski na oczy, po akcesoria dla zwierząt. Jednak klejnotem w koronie sklepu są poduszki z naturalnym wypełnieniem. Według pomysłodawczyń o sukcesie ich produktów stanowią łuski, takich zbóż jak proso czy orkisz. Zbożowe wypełnienie ma gwarantować szeroki wachlarz atrybutów. Przeglądając witrynę sklepu dowiemy się, że łuski orkiszu „posiadają wiele właściwości prozdrowotnych i leczniczych, często na poziomie niemal metafizycznym. Orkisz charakteryzuje się wyjątkowo korzystnym promieniowaniem, tworząc zdrowotne biopole”. Super, tylko czym jest biopole? 

    Wydaje się, że nawet osoby wykorzystujące ten termin w celach marketingowych nie są do końca pewne. Nie pozwólmy, aby metafizyka poduszek oraz sformułowań użytych do ich opisu zaburzyła naszą zakupową czakrę. Mimo cudownych właściwości orkiszu i prosa niekwestionowanym faworytem zostały poduszki z zawartością prawdziwego zbożowego mocarza, czyli gryki. Za jedyne 329 złotych otrzymujemy produkt, który poza działaniem antyalergicznym i komfortem termicznym, wykazuje „właściwości neutralizujące szkodliwe promieniowanie elektromagnetyczne i jest doskonałym odpromiennikiem”. Czy są jakiekolwiek badania potwierdzające taką tezę? Jednym słowem, nie. Ale z drugiej strony, czy muszą być… Albowiem w świecie metafizyki wysuwane hipotezy nie wymagają weryfikacji. Dlatego w kategorii abstrakcyjnych rozwiązań dla abstrakcyjnych problemów („elektrosmog”), poduszka z gryką bezwarunkowo otrzymuje sześć gwiazdek. 

    99% pochłaniania PEM wg współczynnika SAR, czyli historia kreatywnego marketingu 

    Gryka nie jest jedynym asem w rękawie sklepu. W tej grze – asów jest znacznie więcej, a karty są znaczone – takie zasady. Konfrontacja z „elektrosmogiem” nie pozwala na opuszczenie gardy. Jeśli Chuck Norris miał swój kopniak z półobrotu, to „I Love XXXXX” ma swoją… naklejkę na smartfona. 

    Pierwsze odczucie rozczarowania jest wynikiem przemyślanej strategii marketingowej zastosowanej przez właścicielki sklepu. Dopiero po bliższym zapoznaniu ze specyfikacją tego Ferrari wśród naklejek uzyskujemy świadomość jej nieprawdopodobnego potencjału. Pod płaszczykiem bezużytecznego gadżetu kryją się dwie anteny pasywne wykorzystujące zasadę przesunięcia fazowego o 180°. Oznacza to, że dwie fale o tej samej częstotliwości, ale o przeciwnych fazach, powodują wzajemną neutralizację. Dzięki tej zasadzie naklejka ma umożliwić redukcję współczynnika SAR w przedziale od 50% do 99%. Co kryje się za enigmatycznym skrótem SAR? 

    Jest to współczynnik absorpcji swoistej, który informuje o ilości energii fal radiowych pochłanianej przez ciało człowieka, np. podczas korzystania z telefonu komórkowego. W bardzo dużym uproszczeniu i nieco z przymrużeniem oka można skwitować, że jest to współczynnik promieniowania elektromagnetycznego telefonów komórkowych. Aktywiści środowisk antykomórkowych oczywiście wiążą SAR wyłącznie z telefonami komórkowymi i wykorzystują jego wartość jako definitywny dowód, który świadczy o szkodliwym wpływie telefonów komórkowych na zdrowie ludzkie. Od momentu, kiedy Międzynarodowa Agencja Badań nad Rakiem (IARC) umieściła pola elektromagnetyczne o częstotliwości radiowej na liście czynników potencjalnie rakotwórczych dla ludzi, argument systematycznie zyskuje na sile. Dla nadania kontekstu dodajmy, że w grupie 2B w której umieszczono PEM, znalazły się również aloes i talk. „I Love XXXXX” zapewnia o skuteczności swojego produktu, który pozwala redukować SAR na poziomie 99%. Ile jest prawdy w tej deklaracji? 

    Jak się okazuje niewiele. Sam fakt, iż „I Love XXXX” reklamuje naklejkę jako swój autorski projekt jest nadużyciem. Jedynym wkładem kieleckiego przedsiębiorstwa jest umieszczenie na antenie swojego logo. Po kilkuminutowym „śledztwie internetowym” okazuje się, że faktycznym producentem gadżetu jest szwajcarska firma „FAZUP”. Helweci zapewniają, że 10 lat ich wytężonej pracy zaowocowało powstaniem tego rewolucyjnego rozwiązania. Jako definitywny dowód swojego geniuszu „FAZUP” przedstawia pozytywną opinię francuskiego laboratorium pomiarowego „EMITECH”. 

    Według specjalistów „EMITECH-a” szwajcarska antena redukuje SAR w przedziale od 48% do 87%. Rzecznik laboratorium potwierdził tą informację w oficjalnym komunikacie. Wywołało to nie lada konsternację wśród inżynierów zajmujących się tematyką pól elektromagnetycznych. Znany youtuber technologiczny – Stephane Marty, postanowił zweryfikować tę informację na swoim kanale Deus Ex Silicum. Francuski mikroelektronik na potrzeby testu zastosował jeden z protokołów technicznych „FAZUP”. Jego konkluzja jest jednoznaczna: antena jest bezużyteczna, a deklarowane redukcje nie mają nic wspólnego z rzeczywistością. Szwajcarzy zarzucili mu brak fachowości, która w ich opinii rzutuje na mało wiarygodne wyniki testu. Jednak Marty reprezentuje konsensus naukowy o nieprzydatności tego typu urządzeń. 

    Kilka lat temu amerykańska Agencja Żywności i Leków (FDA) opublikowała raport, w którym rozprawia się z wieloma mitami propagowanymi przez firmy pokroju „FAZUP”. FDA podkreśla, że nie ma naukowych dowodów na szkodliwość pola elektromagnetycznego emitowanego przez telefony komórkowe. Według optymistycznego scenariusza amerykańskich naukowców urządzenia tego typu są nieszkodliwe. Jednak jak pokazały liczne testy i badania, samo umieszczenie takiej naklejki na telefonie może doprowadzić do pogorszenia siły odbieranego sygnału, ponieważ po prostu wewnętrzna antena zostaje celowo zasłonięta. Konsekwencją takiego stanu rzeczy jest zwiększona emisja PEM przez urządzenie. Powyższą ironię producent dorzuca do magicznej naklejki gratis. 

    Magiczna naklejka z aprobatą WHO?

    Mimo braku dowodów na skuteczną redukcję pola elektromagnetycznego wytwarzanego przez telefony komórkowe, zamknięte fora internetowe jeszcze nie raz zapłoną dzięki genialnym wynalazkom inżynierii alternatywnej. Nie pozwólmy jednak, aby ta samospełniająca się przepowiednia odwróciła naszą uwagę od prawdziwej rewelacji. Rewelacji, która będzie satysfakcjonującym zwieńczeniem tej wyczerpującej podróży. 

    Kreatywność wcześniej opisanej machinacji nie oddaje sprawiedliwości rozmachowi właścicielek. „I Love XXXXX” informuje potencjalnych nabywców naklejko-anteny (lub jak kto woli: anteno-naklejki, co zasadniczo pozostaje bez znaczenia, ponieważ i tak produkt nie działa) o jej zatwierdzeniu przez Światową Organizację Zdrowia. Co miałoby oznaczać stwierdzenie „produkt zatwierdzony przez WHO”? Ciężko powiedzieć. Jednak prawdziwą wisienką na tym niesmacznym torcie niedorzeczności jest brak świadomości samego WHO o wydaniu tzw. zatwierdzenia. Być może właścicielki sklepu, oczywiście przez przypadek, zapomniały poinformować o tym niesamowitym sukcesie samego zatwierdzającego, czyli WHO. Wydanie tego typu dokumentu byłoby niepokojącym objawem schizofrenii infekującej autorytet tej szanowanej organizacji. 

    Nasze prośby o przedstawienie dowodu (jakiegokolwiek, nawet najmniejszego) potwierdzającego uzyskanie „zatwierdzenia przez WHO” nie odniosły skutku. Jedynym wyjaśnieniem może być tu albo fizyka czarnej dziury, albo fakt, iż pasywne anteny-naklejki zgromadzone w magazynie „I Love XXXXX” zapewne w ilościach hurtowych, spowodowały pasywność w dostawach Internetu. Gdyby właścicielki sklepu posiadały elementarną wiedzę na temat produktów, które oferują, z całą pewnością nie popełniłyby takiego faux pas. Na szczęście oportunizm przedsiębiorców z sektora elektromagnetycznego placebo nie znalazł uznania w oczach ekspertów WHO. Ich opinia na temat potencjalnej szkodliwości PEM pochodzącego z infrastruktury komórkowej pozostaje niezmienna. Brak jest empirycznych dowodów na potwierdzenie tej hipotezy. Kolejną, niczym niepopartą deklarację o rekomendacjach środowiska lekarskiego pozwolimy sobie pozostawić bez komentarza. 

    Kliencie – zanim coś kupisz, zastanów się dwa razy 

    Komercjalizacja teorii spiskowych z pewnością nie przysporzy światu zbyt wielu laureatów ekonomicznego Nobla. Być może ekspansja amoralnego kapitalizmu w kierunku krainy orgonitów, odpromienników i ekranujących bokserek jest tylko kwestią czasu. Jednak nie musimy wybiegać w zbyt daleką przyszłość. Opisywany przez nas przypadek doskonale obrazuje już istniejący tragizm tego rynku. Cyniczni przedsiębiorcy wykorzystują niewiedzę i podatność na manipulację swoich klientów. Proponują kosztowne rozwiązania na nieistniejące problemy. Majstersztyk. 

    Większość odpowiedzialnych przedsiębiorców nie widzi dla siebie miejsca w tym dobrze zorganizowanym przekręcie. Intencją naszego materiału z całą pewnością nie jest krytykowanie osób rozważających zakup gryczanej poduszki. Chodzi nam jedynie o wyposażenie takich klientów w informacje, dzięki którym podejmą świadomą decyzję. Decyzję na temat lokowania swoich ciężko zarobionych pieniędzy w transakcje, których jedynym beneficjentem będą pionierzy szlaków elektromagnetycznej niedorzeczności. Popularny w USA komik Bill Maher podczas jednego ze swoich skeczy stwierdził: „nie chcę społecznego cynizmu. Chciałbym jednak dozy cynizmu, która pozwoli społeczeństwu odróżnić prawdę od fałszu”. Od czasu do czasu odrobina zdrowego cynizmu przydaje się nam wszystkim. Warto o tym pamiętać zanim klikniemy w baner „Kup teraz” w nudny sobotni wieczór. 

  • Raport F5: wzrost liczby API – wyzwania i możliwości w gospodarce opartej na API

    Raport F5: wzrost liczby API – wyzwania i możliwości w gospodarce opartej na API

    Raport F5 Continuous API Sprawl 2021[1] ujawnia, że ​​​​interfejsy API mają przekroczyć wielkość 1 mld do 2030 r. przy obecnej liczbie 200 mln.[2] Analiza podkreśla korzyści biznesowe i ryzyko związane z szybkim rozprzestrzenianiem się API w obszarach zarządzania i bezpieczeństwa. Już 43% firm wykorzystuje dziś interfejsy API jako źródło przychodów obok tradycyjnych rozwiązań. Jednak niekontrolowany rozrost powoduje ogromne zagrożenie bezpieczeństwa dla zasobów organizacji.

    Interfejsy programowania aplikacji pełnią rolę pośrednika umożliwiającego programistom budowanie nowych interakcji pomiędzy aplikacjami. Ich działanie jest związane z gospodarką internetową, od płatności cyfrowych po usługi rozrywki online i inteligentny dom. API umożliwiły aplikacjom dokonanie przewrotu w branży  transportowej, hotelarskiej i restauracyjnej poprzez usługi wspólnych przejazdów (Uber, Lyft itp.), wynajmu (Airbnb itp.) oraz dostawcze (DoorDash itp.). Przykłady Twilio (platforma komunikacji w chmurze) i Stripe (przetwarzanie płatności online) zapowiadają dopiero przyszłe możliwości wykorzystania interfejsów API jako narzędzia biznesowego.

    Nieuporządkowane interfejsy

    Kierunek rozwoju API jest jednak niepokojący – szybka dystrybucja tych interfejsów bez wspólnych standardów i silnego zarządzania. Jest to wynikiem trendów w tworzeniu oprogramowania: rosnącego zastosowania architektury mikrousług, popularności Continuous Development i modernizacji starszych aplikacji. Stąd interfejsy API są często wielowarstwowe, duplikowane, czy niewystarczająco udokumentowane – bez kontroli kolejnych wersji i potrzeb bezpieczeństwa.

    Wielość architektur

    Raport wskazuje też na złożoność organizacyjną infrastruktury. Ogólna preferencja zespołów programistycznych do pracy w silosach w oparciu o niezależne najlepsze praktyki skłoniła wiele organizacji do przyjęcia podejścia opartego na infrastrukturze hybrydowej. Raport F5 State of Application Strategy 2021 wykazał, że 68% respondentów korzystało z czterech lub pięciu różnych architektur aplikacji, w porównaniu z 41% w 2020 r. Przyczynia się to do dalszego rozproszenia i powielania interfejsów API oraz trudności w zapewnieniu niezbędnego nadzoru.

    Wszelkiego rodzaju API rozprzestrzeniają się i organizacje coraz częściej osiągają punkt, w którym nie są w stanie skutecznie nimi zarządzać i ich kontrolować. Nazywamy to rozrostem – stanem posiadania zbyt wielu interfejsów API różnych rodzajów, w różnych lokalizacjach, aby sobie z nimi poradzićpowiedział Rajesh Narayanan, Senior Director & Distinguished Technologist w F5.

    Przeszkody operacyjne i zagrożenia bezpieczeństwa

    Wraz ze wzrostem liczby interfejsów API i złożoności aplikacji organizacjom trudno jest śledzić, gdzie znajdują się interfejsy API, co może mieć wpływ na łączność typu end-to-end. Częste aktualizacje tych interfejsów powodują problemy z wersjonowaniem i dokumentacją.

    Równie pilne jest zagrożenie bezpieczeństwa. Ponad 90% przedsiębiorstw doświadczyło w zeszłym roku incydentu związanego z bezpieczeństwem API[3]. Interfejsy API są także jednym ze źródeł głównych zagrożeń w obszarze chmury: IBM odkrył, że dwie trzecie incydentów związanych z bezpieczeństwem w chmurze w ciągu ostatniego roku dotyczyło źle skonfigurowanych kluczy API, które umożliwiały niewłaściwy dostęp[4].

    Rozrost API bez możliwości odpowiedniego zarządzania, to wiszące nad organizacjami ryzyko naruszenia bezpieczeństwa. Rozwój tych interfejsów w rozproszonej infrastrukturze oznacza, że ​​tajne informacje, dane umożliwiające uprzywilejowany dostęp do systemu są szerzej rozprzestrzeniane i stają się bardziej podatne na zagrożenia. Wystarczy jeden klucz API, aby napastnik mógł uzyskać dostęp do infrastruktury krytycznej — dodał Narayanan.

    Konieczna kontrola

    Raport podkreśla, że API będą stanowić infrastrukturę krytyczną dla gospodarki cyfrowej. Są główną siłą napędową innowacji i budowania wartości. Jednak ich wzrost wymaga skoordynowanego zarządzania, aby nie dopuścić do problemów systemowych na dużą skalę.

    Rozrost API jest nieunikniony, dlatego musimy znaleźć praktyczne i skalowalne sposoby, żeby sobie z tym poradzić. Do 2030 r. pojawią się usługi, które zapewnią walidację i rzetelne informacje dotyczące obsługi i ochrony API oferowane jako SaaS. Potrzebne będą także spisy nieistniejących lub nieobsługiwanych interfejsów API, aby skutecznie oczyszczać infrastrukturę.  Dziś jest moment dla organizacji na zajęcie się tym obszarem, zanim niekontrolowany wzrost osiągnie skalę, która znacznie utrudni opanowanie sytuacji. Warto poważnie podejść do tworzenia, wykorzystywania i zarządzania API — podsumowuje Narayanan.

    [1] Ciągły wzrost API: wyzwania i możliwości w gospodarce opartej na interfejsach API: https://www.f5.com/pdf/reports/f5-office-of-the-cto-report-continuous-api-sprawl.pdf
    [2] Analiza raportu wykorzystuje model prognozowania trendu oparty na liczbie programistów oraz ich skłonności do pisania interfejsów API.
    [3] Salt Security, The State of API security – Q1 2021
    [4] IBM, 2021 IBM Security X-Force Cloud Threat Landscape Report

  • IBM X-Force – bezpieczeństwo w rękach ekspertów

    IBM X-Force – bezpieczeństwo w rękach ekspertów

    Mijający rok 2021 zapisze się w pamięci wielu osób jako czas utrwalania się zmian wywołanych globalną pandemią, pracy on-line, zerwanych łańcuchów dostaw i zawirowań gospodarczych. W sferze IT był to kolejny rok rosnącego zagrożenia ze strony cyberprzestępców i powiększających się strat wywołanych lukami w bezpieczeństwie wielu systemów. Jak pokazuje raport[i] IBM X-Force® Threat Intelligence Index, do najpopularniejszych metod ataku należy ransomware – to ponad 23% wszystkich incydentów. Według szacunków autorów raportu, tylko jedna grupa hakerów w 2020 roku na atakach tego typu zarobiła ponad 123 mln dolarów. Najczęściej atakowany jest sektor finansów i ubezpieczeń. Na drugie miejsce, z ósmego, awansował sektor produkcji przemysłowej.

    Każda organizacja i firma musi bezwzględnie i bezkompromisowo chronić swoje newralgiczne zasoby IT. Gdyby dane i systemy biznesowe były przez dłuższy czas niedostępne, np. z powodu ataku ransomware, byłaby to prosta droga do upadku. W sektorze publicznym, szczególnie w służbie zdrowia, takie ataki są bardzo niebezpieczne także dla życia i zdrowia ludzi[ii]. Zatem odpowiednia polityka zarządzania zagrożeniami stała się kluczowym zagadnieniem w każdej organizacji korzystającej z rozwiązań IT.

    Jedną z coraz częściej spotykanych strategii jest traktowanie zarządzania bezpieczeństwem jako usługi typu MMS – Managed Security Services. Wyspecjalizowana zewnętrzna firma przejmuje wszystkie zadania i obowiązki związane z wykrywaniem incydentów, odzyskiwaniem danych po atakach i ogólnie z zarządzaniem bezpieczeństwem. Plusem takiego podejścia jest możliwość skoncentrowania się firmy na swoim zasadniczym biznesie.

    „Zaryzykuje twierdzenie, że aktualnie IBM X-Force Threat Management Services to jedyna, tak kompleksowa i skalowalna usługa, która wykrywa i reaguje na incydenty bezpieczeństwa, wykorzystując przy tym mechanizmy sztucznej inteligencji (AI) do ciągłego doskonalenia swojego działania. X-Force to dobrze skomponowana mieszanka narzędzi kognitywnych, automatyzacji, orkiestracji i specjalistycznej wiedzy, która przyspiesza i usprawnia każdą fazę cyklu zarządzania zagrożeniami. Sprawdza się nie tylko w tradycyjnym IT, ale także w dynamicznie rozwijającym się Internecie Rzeczy IoT i technologii operacyjnej OT.”mówi Daniel Wysocki, Specjalista ds. bezpieczeństwa z firmy Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech, IBM
    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech

    Wraz z IBM X-Force Threat Management Services działają takie usługi i technologie, jak X-Force Investigate i X-Force Detect, które zostały zaprojektowane z myślą o średnich i dużych przedsiębiorstwach. Ułatwiają one dostęp do zaawansowanej technologii bezpieczeństwa i co za tym idzie, także do najwyższej klasy specjalistów. Działanie usługi bazuje na standardach amerykańskiego National Institute of Standards and Technology (NIST), a to zapewnia wspólne dla wszystkich ramy zarządzania zróżnicowanymi typami incydentów bezpieczeństwa, jednakowe procedury i reakcje na zagrożenia.

    „IBM X-Force rozpoznaje próby włamań, złośliwe oprogramowanie i inne problematyczne zjawiska, które mogą zagrozić bezpieczeństwu ochranianych zasobów. Wykorzystywane technologie uczenia maszynowego, sztucznej inteligencji i orkiestracji skracają czas wykrywania zdarzeń i przyśpieszają reakcje na nie, ale także minimalizują liczbę fałszywych alertów. Dostępne narzędzia do analizy i wizualizacji danych udostępniają użytkownikom stały i nieprzerwany obraz stanu bezpieczeństwa firmy”dodaje Daniel Wysocki z Advatech.

    Platforma kliencka IBM X-Force Protection Platform stosuje zaawansowane technologie do automatyzacji i orkiestracji kluczowych zadań w celu przyspieszenia wykrywania i reagowania na zagrożenia, oferując przy tym dostęp do aplikacji mobilnej wizualizującej stan bezpieczeństwa, konto w portalu Virtual Security Operations Center (SOC) oraz wiele raportów i analiz. Jej wielką zaletą jest możliwość integracji z ekosystemami firm partnerskich, jak Carbon Black, Cisco, Palo Alto Networks, Fortinet, czy Checkpoint. Dzięki temu zespoły ds. bezpieczeństwa korzystające z usługi IBM X-Force są w stanie sprawnie realizować zadania związane z identyfikacją zagrożonych zasobów, proaktywną ochroną, wykrywaniem zdarzeń i anomalii w ruchu sieciowym oraz nietypowego zachowania użytkowników, a także reagowaniem na wykryte naruszenia wraz z usuwaniem skutków takich naruszeń.

    „Działając jako dostawca usług MSS, zespół X-Force w czasie rzeczywistym reaguje na każde pojawiające się zagrożenie, analizując podejrzany ruch, czy też zachowania użytkowników, pozwalając na szybką reakcję zanim zostaną wyrządzone nieodwracalne szkody w sieci klienta. Wszystkie informacje na ten temat są udostępnione w bardzo przejrzysty sposób, poprzez automatycznie generowane alerty, z których użytkownik  uzyskuje pełen obraz zagrożeń w swojej sieci. Jest to bardzo ważne dla zapewnienia bezpieczeństwa i sprawności działania firmy. Z punktu widzenia klienta korzystanie z usług MSS zmniejsza ryzyko finansowe i prawne na wypadek np. naruszeń regulacyjnych, ochrony wrażliwych danych osobowych itp.”dodaje Daniel Wysocki z Advatech.

    W ramach dostępnych usług działa zespół X-Force Red, który próbuje włamać się wszędzie, gdzie jest to tylko możliwe. Ta grupa hakerów działająca po jasnej stronie mocy pozwala odkryć wszelkie luki w zabezpieczeniach, wykonując testy penetracyjne. X-Force Red, symulując cyberprzestępców, może np. testować bankomaty, czy weryfikować bezpieczeństwo usług i aplikacji w chmurze. Z kolei zespół X-Force Incident Response and Intelligence Services, czyli X-Force IRIS jest źródłem eksperckiej wiedzy z zakresu zarządzania incydentami i analizy bezpieczeństwa. Dzięki nim można szybko ograniczyć i złagodzić zagrożenia zanim się rozprzestrzenią i spowodują negatywne skutki biznesowe.

    IBM X-Force jest wspierane przez uczenie maszynowe i mechanizmy sztucznej inteligencji. IBM Watson for Cyber Security AI® to sprawdzone i bardzo efektywne narzędzie pozwalające na eksplorację bardzo dużych zbiorów danych praktycznie w każdym środowisku klienckim. Z kolei IBM Advanced Threat Dispositioning System, to opatentowane rozwiązanie do analizy bezpieczeństwa, które stosując uczenie maszynowe analizuje miliony alertów od setek klientów z różnych sektorów przemysłu i przetwarza ok. 2 mld dzienników miesięcznie. W ten sposób trenuje swoje zachowania i reakcje na pojawiające się zagrożenia, zapewniając przyśpieszenie działania o 70-80% w stosunku do tradycyjnych zespołów ekspertów ds. bezpieczeństwa. Taki zaawansowany system eliminowania zagrożeń w sposób ciągły kontynuuje naukę i adaptację z każdym pojawiającym się zdarzeniem, incydentem bezpieczeństwa, czy reakcją na ten incydent.

    Możliwości integracyjne usług X-Force są imponujące – jeśli organizacja używa już rozwiązań klasy SIEM (Security Information and Event Management) od innych dostawców typu Splunk, czy ArcSight, bez kłopotu mogą one współdziałać z X-Force, co znacząco ułatwia podjęcie decyzji o wykorzystaniu usług MSS. Sprzyja temu także elastyczna i rozsądna polityka cenowa.

    „X-Force Threat Management Services bazuje na cenach liczonych proporcjonalnie do użycia zasobów oraz ceny pakietowe plus zestaw opcji dla średnich i dużych przedsiębiorstw. Dzięki temu organizacje o mniejszych wymaganiach w zakresie bezpieczeństwa mogą odpowiednio dostosować swoje wydatki, nie rezygnując z dostępu do wiedzy i specjalistów na podobnym poziomie, jak większe i bardziej wymagające firmy”ocenia Daniel Wysocki.

    Wspomniany na początku wzrost liczby ataków hakerskich na firmy produkcyjne jest zrozumiały i dość naturalny, bo coraz częściej spotyka się połączenie operacyjnych systemów przemysłowych z siecią IT. Biznesowo ma to sens – informatyka zapewnia kompleksowy wgląd w stan, działanie i obciążenie poszczególnych maszyn i urządzeń oraz całych ekosystemów przemysłowych, co znacząco zwiększa efektywność zarządzania nimi. Wystawia je jednak na niebezpieczeństwo ataku, a to jest już poważne zagrożenie dla prowadzonego biznesu. Usługa X-Force Threat Management Services dla OT integruje zarządzalne przemysłowe systemy sterowania, monitorowanie sieci i integrację ekosystemu w środowiskach technologii operacyjnych OT. Eksperci z IBM wykorzystują logiczny model Purdue[iii] dla zapewnienia bezpieczeństwa w tym obszarze, a to za sprawą ciągłego monitorowania stanu i wydajności systemów. Inteligentne czujniki pozwalają wdrażać harmonogramy konserwacji predykcyjnej, co eliminuje kosztowne naprawy i przestoje w najmniej spodziewanych momentach. Ogólnie, poprawia to wydajność, jakość i produktywność firmy oraz zwiększa jej rentowność.

    „Są powody, aby mieć nadzieję, że rok 2022 będzie lepszy niż mijający. Co prawda, trudno mieć pewność, który trend weźmie górę, ale w sferze cyberbezpieczeństwa czekają nas na pewno duże wyzwania wymagające podejmowania działań strategicznych. Swoisty wyścig zbrojeń z grupami hakerów wymaga budowy systemów połączonego bezpieczeństwa i koalicji z partnerami technologicznymi o światowej skali działania takimi jak IBM. IBM X-Force Threat Intelligence Index pokazuje wszystkim zainteresowanym, gdzie są aktualne wektory zagrożeń i jak się na nie przygotować. Advatech niezmiennie będzie poszerzał swoje kompetencje w zakresie cyberbezpieczeństwa”podsumował Jacek Szubert, Prezes Zarządu firmy Advatech.

    Jacek Szubert, Prezes Zarządu Advatech, IBM
    Jacek Szubert, Prezes Zarządu Advatech

    [i] https://www.securityhq.com/reports/ibm-x-force-threat-intelligence-index-2021/
    [ii] https://pages.checkpoint.com/cyber-security-report-2021.html
    [iii] https://en.wikipedia.org/wiki/Purdue_Enterprise_Reference_Architecture

  • QRADAR – konieczność w niespokojnych czasach

    QRADAR – konieczność w niespokojnych czasach

    Jak pokazuje „Cyber Security Report 2021”[i] firmy Check Point, w sferze bezpieczeństwa trwa nieustający wyścig technologiczny. Codziennie na świecie ponad 100 000 złośliwych witryn i 10 000 plików jest wykorzystywanych do kradzieży lub wyłudzenia danych. W 2019 roku na forum hakerskim było do sprzedania 773 miliony adresów e-mail i ponad 22 miliony haseł[ii]. Jak się nieco później okazało się, była to tylko część większej całości o objętości 1 TB, podzielonej na siedem części, która została wystawiona na sprzedaż. Ponad pół miliarda rekordów użytkowników Facebooka przechowywano na niechronionych serwerach w chmurze Amazona – zostawili je tam zewnętrzni twórcy aplikacji Facebooka[iii]. Zdarzają się też skutki śmiertelne naruszenia bezpieczeństwa IT – pacjent szpitala w Niemczech zmarł, nie uzyskawszy pilnej pomocy lekarskiej, bo jego szpital został zaatakowany przez hakerów, którzy wykorzystali niezałataną lukę w oprogramowaniu, mimo, że poprawka była dostępna od miesięcy[iv].

    „Nie ma się co oszukiwać. Od lat bezpieczeństwo danych i systemów jest największym problemem praktycznie każdego działu IT. W sieci bez trudu można znaleźć informacje o liczbie incydentów bezpieczeństwa danych, średnim koszcie strat i kosztach odzyskiwania danych. Mówi się o kwotach rzędu 4 mln dolarów za każde naruszenie. Ale nie to jest najgorsze. Naprawdę o stanie bezpieczeństwa mówi czas, jaki upływa od ataku do wykrycia i usunięcia jego skutków – średnio wynosi on 280 dni, z medianą” – twierdzi Daniel Wysocki, Specjalista ds. Bezpieczeństwa z firmy Advatech, jednego z największych integratorów rozwiązań informatycznych w Polsce.

    Zgromadzone zasoby informatyczne, w szczególności bazy danych to często najcenniejsze aktywa firmy. Nic zatem dziwnego, że 37% polskich dyrektorów finansowych postrzega kwestie bezpieczeństwa na równi z szefami IT. Dzięki współdziałaniu wszystkich komórek organizacji można zbudować skuteczną politykę cyberbezpieczeństwa, ale jej realizacja wymaga odpowiedniej platformy monitorowania bezpieczeństwa pomagającej w agregacji i orkiestracji informacji, bez względu na ich źródło, pokazującej stan infrastruktury IT, wskazującej potencjalne zagrożenia i pozwalającej na zaawansowane analizy. Te ostatnie są często wspomagane uczeniem maszynowym (ML) i sztuczną inteligencją (AI).Przykładem takiego rozwiązania są systemy klasy SIEM – Security Information and Event Management.  Automatyzacja w zakresie bezpieczeństwa eliminuje powtarzalną i czasochłonną pracę człowieka, dzięki czemu specjaliści mogą poświęcić czas zagadnieniom o większej wartości, skupiając swoją uwagę na strategii i planowaniu bezpieczeństwa.

    „Nasi specjaliści ds. bezpieczeństwa bardzo wysoko oceniają możliwości platformy IBM QRadar, którą Gartner lokuje w ścisłej czołówce rozwiązań klasy SIEM[v]. W jednym przejrzystym interfejsie widać stan bezpieczeństwa firmy i najważniejsze zagrożenia, a to pozwala nadać kontekst i zrozumieć rozwój wydarzeń. Zespoły ds. bezpieczeństwa mogą również szybko identyfikować zmiany w zachowaniu użytkowników wskazujące na nieznane zagrożenie, co pozwala na podjęcie adekwatnych kroków bazując na informacjach pochodzących z jednej, centralnej konsoli. Słowem QRadar to zintegrowana widoczność, wykrywanie, badanie i reagowanie na cyberzagrożenia”podkreśla Daniel Wysocki z Advatech.

    QRadar, dzięki obsłudze szerokiego spektrum technologii, aplikacji i usług, zbiera i przetwarza dane z całej organizacji budując kompleksowy obraz aktywności w środowiskach tak lokalnych, jak i chmurowych, w tym hybrydowych. Po scentralizowaniu danych, wbudowane mechanizmy sztucznej inteligencji pozwalają w czasie rzeczywistym szybko i dokładnie wykrywać zagrożenia i ustalać ich priorytety. Alerty analizujące kontekst potencjalnych incydentów pozwalają analitykom bezpieczeństwa na szybką reakcję, aby ograniczyć wpływ i skutki ataku.

    Platforma QRadar® buduje mapę monitorowanej infrastruktury, a użytkownicy mogą wskazać szczególnie istotne segmenty sieci i krytyczne zasoby tak, aby automatycznie identyfikować i klasyfikować prawidłowy ruch w sieci na podstawie używanych aplikacji, protokołów, usług i portów. Jest to możliwe za sprawą ponad 450 wbudowanych modułów obsługi urządzeń (DSM – Device Support Modules), dzięki którym użytkownicy mogą wprost kierować swoje dzienniki zdarzeń do systemu, a QRadar automatycznie wykryje typ źródła i zastosuje poprawny system DSM, aby przeanalizować i znormalizować dane. Dodatkowo, aplikacja DSM Editor, z intuicyjnym interfejsem graficznym, pozwala definiować sposoby analizowania dzienników z niestandardowych źródeł, co zwiększa elastyczność i zakres zastosowań QRardar. W efekcie pozwala on na znacznie szybsze działanie, niż w alternatywnych rozwiązaniach.

    „W Cyber Security Report 2021 można znaleźć informację, że czas potrzebny na przełamanie zabezpieczeń i np. skopiowanie danych przez atakującego w 2019 r. miał globalną medianę wynoszącą około 21 dni. Mediana obrońców to 56 dni — bo tyle potrzebowali czasu na wykrycie incydentów. Szybkość ma zatem absolutnie najwyższy priorytet. W tym świetle widać jak na dłoni przewagi platformy QRadar – dzięki niej można reagować praktycznie natychmiast”ocenia Daniel Wysocki z Advatech.

    QRadar inteligentnie koreluje i analizuje dane o aktywności urządzeń sieciowych jak zapory sieciowe, czy routery, dane z dzienników zdarzeń Windows, informacje o lukach w zabezpieczeniach, systemów wykrywania lub zapobiegania włamaniom, zbiera dane o aktywności w chmurach ze środowisk SaaS i IaaS takich, jak Office 365, SalesForce.com, Amazon Web Services (AWS), Microsoft Azure, czy Google Cloud. Jako źródło danych dla QRadar mogą służyć systemy klasy ERP, bazy danych, aplikacje udostępnianie w modelu SaaS oraz źródła Threat Intelligence jak IBM X-Force®.

    „QRadar zawiera setki gotowych scenariuszy bezpieczeństwa opartych na algorytmach wykrywania anomalii, czy regułach korelacji w czasie rzeczywistym do wykrywania znanych i nieznanych zagrożeń. Po wykryciu zagrożenia system agreguje powiązane zdarzenia dotyczące bezpieczeństwa w pojedyncze alerty o określonym priorytecie, określane jako incydenty bezpieczeństwa. Nadawanie priorytetów odbywa się automatycznie z uwzględnieniem wagi zagrożenia i oceny, jak krytyczne są atakowane zasoby”wyjaśnia Specjalista ds. Bezpieczeństwa, Daniel Wysocki z Advatech.

    Analitycy bezpieczeństwa mogą zobaczyć pełny łańcuch działań związanych z zagrożeniami na jednym ekranie i łatwo prześledzić określone zdarzenia lub przepływy sieciowe, aby rozpocząć dochodzenie, podjąć odpowiednie środki zaradcze, czy przypisać analizę incydentu określonemu analitykowi. Wykroczenia są automatycznie aktualizowane w miarę pojawiania się nowej powiązanej aktywności, dzięki czemu analitycy mogą w dowolnym momencie zobaczyć najbardziej aktualne informacje. To unikalne podejście pomaga analitykom bezpieczeństwa w łatwym zrozumieniu najbardziej krytycznych zagrożeń w środowisku, zapewniając kompleksowy wgląd w każdy potencjalny incydent przy jednoczesnym zmniejszeniu całkowitej liczby alertów.

    Postęp technologiczny po stronie atakujących wymusza konieczność wykrywania nawet niewielkich zmian w zachowaniu sieci, użytkowników lub systemu, a mogących wskazywać na nieznane zagrożenia, takie jak obecność intruzów, kradzież poświadczeń, czy złośliwe oprogramowanie.

    „Jeśli liczba alertów przybiera niebezpieczne rozmiary, to konieczność ich analizowania pożera zasoby działów bezpieczeństwa IT. Mając do dyspozycji QRadar Advisor z Watson™ można do pracy zaprząc sztuczną inteligencję i uczenie maszynowe. Wtedy czas prowadzenia analiz skraca się do pojedynczych minut, a to zmniejsza ryzyko przestoju firmy, czy przeoczenia krytycznych incydentów. Dzięki takiemu podejściu cały zespół ds. bezpieczeństwa pracuje po prostu lepiej i wydajniej. Efekty mogliśmy obserwować wdrażając QRadar np. w Amica SA we Wronkach” dodaje Daniel Wysocki.

    Na wysoką oceną platformy IBM QRadar ma wpływ łatwość jej integracji z rozwiązaniami firm trzecich oraz elastyczna i skalowalna architektura pozwalająca dynamiczne dostosowywać ją do zmiennych potrzeb klienta i sytuacji. Nic zatem dziwnego, że to rozwiązanie cieszy się tak dużą popularnością wśród użytkowników.

    Jacek Szubert, Prezes zarządu Advatech
    Jacek Szubert, Prezes Zarządu Advatech

    „Advatech systematycznie zwiększa swoje przychody z wdrażania i integracji rozwiązań informatycznych własnych i naszych partnerów technologicznych. Szczególnie dużą dynamiką wzrostu wyróżnia się nasz dział Cyberbezpieczeństwa. Współpraca w zakresie cyberbezpieczeństwa z IBM pozwala na transfer technologii i wiedzy do naszych klientów, którzy zyskują bardzo wysoki poziom ochrony i stabilności prowadzonego biznesu”podsumowuje Jacek Szubert, Prezes Zarządu Advatech.


    [i] https://www.checkpoint.com/pages/cyber-security-report-2021/
    [ii] „The 773 Million Record “Collection #1” Data Breach”, Troy Hunt, Troyhunt.com, January 2019
    [iii] „Facebook Caught Asking Some Users Passwords for Their Email Accounts”, Swati Khendelwal, The Hacker News, April 3, 2019
    [iv] https://www.checkpoint.com/pages/cyber-security-report-2021/, s.10.
    [v] https://www.rapid7.com/c/2021-siem-mq/

  • Bezpieczeństwo danych w hybrydowych środowiskach chmurowych

    Bezpieczeństwo danych w hybrydowych środowiskach chmurowych

    Jak dowodzi badanie przeprowadzone w 2020 przez Forrester Consulting[i] wśród 350 globalnych decydentów IT z różnych branż, strategie rozwoju infrastruktury IT w ich organizacjach zmierzają w kierunku tworzenia środowisk chmury hybrydowej, czyli chmury łączącej usługi chmury publicznej i prywatnej. Na taki stan rzeczy mają wpływ rosnące wymagania użytkowników związane z dostępnością usług i danych, na co wskazało 58% respondentów; pojawiające się nowe technologie, które okazały się ważne w 56% odpowiedzi oraz konieczność zapewnienia bezpieczeństwa danych oraz aplikacji. Na ten ostatni czynnik wskazało 77% menedżerów IT.

    „Priorytetem praktycznie dla każdej firmy jest potrzeba zapewnienia bezpiecznego dostępu do danych. Dla nowoczesnych organizacji IT, które całościowo postrzegają swoją infrastrukturę, budowa hybrydowego środowiska chmurowego jest naturalnym posunięciem. Taki model zapewnia najlepszy balans pomiędzy elastycznością, dostępem i bezpieczeństwem danych –  komentuje Daniel Wysocki, Specjalista ds. Bezpieczeństwa z Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Daniel Wysocki, Specjalista ds. Bezpieczeństwa z Advatech
    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech

    Jak wskazało 40% respondentów wspomnianego badania, chmury publiczne nie spełniają wymagań w zakresie bezpieczeństwa. Jest to jeden z głównych powodów utrzymywania infrastruktury lokalnej, która w ten sposób staje się kluczowym elementem strategii chmury hybrydowej.

    „Nie trzeba oglądać serialu Mr. Robot na platformie Netflix, aby zdać sobie sprawę z faktu, że utrata danych i brak możliwości ich odtworzenia z kopii zapasowych stanowi prawdziwą katastrofę dla biznesu, bez względu na skalę działania. Dlatego procedury, zabezpieczenia i najwyższej klasy sprzęt do przechowywania danych z odpowiednim oprogramowaniem systemowym to minimum. Analiza ruchu w sieci, wykrywanie anomalii oraz błyskawiczne reagowanie na każde zagrożenie w dużym stopniu pomaga w utrzymaniu odpowiedniego poziomu bezpieczeństwa. Jednak ostatecznie i tak okazuje się, że najsłabszym ogniwem w tym całym łańcuchu najczęściej bywa człowiek” komentuje Daniel Wysocki z Advatech.

    Ryzyko rośnie z czasem – pojawiają się nowe, coraz bardziej wyrafinowane i złożone zagrożenia. Oprócz tak powszechnych ataków ransomware, organizacje borykają się również z kradzieżą lub utratą danych w wyniku klęsk żywiołowych[ii], czy błędów ludzkich. Wystarczy czasem opóźnienie w aktualizacji oprogramowania, czy błąd konfiguracji, aby narazić firmę na przestój lub nawet utratę danych. To w konsekwencji prowadzi do utraty przewagi konkurencyjnej, zmniejszonej wydajności pracy i plamy na wizerunku firmy.
    W tych okolicznościach na niedomagania w sferze bezpieczeństwa może pomóc holistyczna strategia rozwoju i aktualizacji infrastruktury w oparciu o jednego sprawdzonego dostawcę, który zapewni nie tylko sprzęt, ale i bezpieczne oprogramowanie, pozwalając nadążać za wciąż pojawiającymi się nowymi zagrożeniami. Trzeba także pamiętać, że budowa i rozwój infrastruktury, szczególnie systemów pamięci masowych w oparciu przede wszystkim o kryterium kosztów to ślepa uliczka i często popełniany błąd. Wiele firm w niezamierzony sposób wpada w taką pułapkę.

    „W dzisiejszych, tak niebezpiecznych dla infrastruktury IT czasach, zwykłe tworzenie kopii zapasowych i odzyskiwanie danych już nie wystarcza. W organizacjach konieczne są rozwiązania pamięci masowych, które zapewnią stały i bezpieczny dostęp do danych oraz odporność na różnego rodzaju cyberzagrożenia. Odpowiednio dobrane rozwiązania systemów pamięci masowej mogą stać się nie tylko polisą ubezpieczeniową na ciągłość działania biznesu, ale mogą także umożliwić i ułatwić transformację cyfrową opartą na danych”ocenia Daniel Wysocki, Specjalista ds. bezpieczeństwa danych w Advatech.

    Sprzęt i oprogramowanie plus odpowiedni dostawca oraz jego kompetencje wdrożeniowe powiązane z rozległym doświadczeniem na rynku są w stanie zbudować trwały fundament łączący wysoką wydajność infrastruktury z jej bezpieczeństwem. Jak oceniają firmy badawcze o światowym zasięgu, jedno naruszenie bezpieczeństwa średnio kosztuje 4,24 mln USD. Widać zatem, że ochrony wymaga nie tylko lokalne centrum przetwarzania danych, ale całe środowiska wirtualne, kontenerowe i hybrydowe. Głównym zaś celem jest nie tylko zapobieganie utracie danych, ale także szybkie i bezbłędne ich odzyskanie po usunięciu zagrożenia.

    „Dysponując wieloletnim doświadczeniem i prowadząc wdrożenia w naprawdę różnych firmach możemy zdecydowanie rekomendować kompleksowe rozwiązania firmy IBM. Cała linia urządzeń i ochrony systemów pamięci masowych zapewnia skuteczną i innowacyjną odporność danych, która jednocześnie upraszcza zarządzanie w środowiskach chmury hybrydowej, maksymalizuje czas pracy bez przestojów i obniża koszty — a wszystko to przy jednoczesnej poprawie odporności na zagrożenia cybernetyczne” twierdzi Daniel Wysocki z Advatech.

    IBM dysponuje nowoczesnymi, bardzo wydajnymi i bezpiecznymi urządzeniami z pamięcią flash oraz sprawdzoną i wielokrotnie wypróbowaną technologią taśmową. Obie linie są wspierane oprogramowaniem, którego funkcjonalność podnosi poziom bezpieczeństwa na najwyższy możliwy poziom.

    Flagowym rozwiązaniem w zakresie pamięci masowych jest rodzina IBM FlashSystem® z oprogramowaniem IBM Spectrum® Virtualize. Jest to platforma zaprojektowana z myślą o uproszczeniu tworzenia hybrydowych środowisk chmurowych. Jej cechami charakterystycznymi są szybkość, odpornością i rozliczne funkcje bezpieczeństwa klasy korporacyjnej gwarantujące błyskawiczne odtwarzanie danych po awarii i wysoką dostępność. IBM FlashSystem®, w powiązaniu z odpowiednim oprogramowaniem do zarządzania pełnym cyklem życia danych, tworzy kompleksowy układ cyberodporności danych całej organizacji na obecne i przyszłe zagrożenia.

    Wśród urządzeń taśmowych na uwagę zasługuje IBM TS7700 Virtual Tape Library, służące do odzyskiwania danych po awarii, optymalizacji ochrony i utrzymania ciągłości biznesowej. Ułatwia ono obsługę infrastruktury do tworzenia kopii zapasowych o znaczeniu krytycznym i archiwizacji danych w chmurze hybrydowej. Dla systemów wymagających wysokiej wydajności dostępne są mechanizmy wirtualizacji pamięci taśmowej z pamięcią podręczną typu all-flash. Innym, równie ciekawym rozwiązaniem jest energooszczędna taśmowa pamięć masowa IBM LTO 9 z funkcjami bezpieczeństwa i ochrony danych przed zagrożeniami cybernetycznymi. Ta niezawodna technologia przechowywania danych na taśmie w kasetach WORM jest stosowana w rozwiązaniach z fizyczną separacją centrów przechowywania danych oraz wszędzie tam, gdzie wymaga się bardzo długiego czasu przechowywania oraz niezmienności danych.

    „Przechowywanie danych na taśmach jest wbrew pozorom rozwiązaniem bardzo często spotykanym w praktyce biznesowej w naszym kraju. Wysoki poziom bezpieczeństwa i energooszczędność przy relatywnie niższych kosztach w porównaniu do innych nośników nadal czyni z taśmowych pamięci masowych rzecz wartą rozważenia”podkreśla Daniel Wysocki z Advatech.

    O bezpieczeństwie danych i całej infrastruktury IT decyduje przede wszystkim funkcjonalność dostępnego oprogramowania systemowego. IBM Spectrum® Protect zapewnia ochronę danych w środowiskach wirtualnych, fizycznych serwerach plików i aplikacjach. Wbudowane funkcje optymalizacji wydajności dostępu do danych umożliwiają organizacjom zmniejszenie kosztów infrastruktury kopii zapasowych, skalowanie w razie potrzeby i kopiowanie danych na taśmę, usługi chmury publicznej i lokalną obiektową pamięć masową. W wersji Spectrum Protect Plus dostępne są dodatkowo kompleksowe procesy do obsługi długoterminowego przechowywania danych i odzyskiwania operacyjnego. Natywna integracja z Kubernetes i Red Hat® OpenShift® zapewnia odporność danych dla kontenerów działających w środowiskach chmurowych.

    W całym kompleksie zagadnień związanych z bezpieczeństwem danych i szerzej – infrastruktury IT doskonale sprawdza się IBM QRadar – system klasy Security Information and Event Management (SIEM). To platforma posiadające duże możliwości w zakresie agregacji ogromnych ilości danych, bez ograniczeń związanych z liczbą obsługiwanych źródeł, ma wbudowane predefiniowane reguły korelacyjne co pozwala na automatyzację analiz pojawiających się zagrożeń.

    „IBM QRadar pozwala na centralizację zarządzania, gromadzenia i analizy informacji o wszelkich zdarzeniach związanych z bezpieczeństwem informacji, a pochodzących z licznych i różnych źródeł. Dzięki niemu możliwe jest monitorowanie, reagowanie i eliminowanie zagrożeń w czasie rzeczywistym, co znacząco poprawia bezpieczeństwo całej organizacji”ocenia Daniel Wysocki z firmy Advatech.

    [i] https://www.expresscomputer.in/downloads/resources/forrester-the-key-to-enterprise-hybrid-cloud-strategy/68792/
    [ii] https://www.ibm.com/security/data-breach

  • Pandemia i Polski Ład napędzają GIGekonomię w Polsce

    Pandemia i Polski Ład napędzają GIGekonomię w Polsce

    W 2025 roku GIGerzy stanowić będą 15 proc. pracowników w skali całego globu i 20 proc. w Polsce. Są jednak i takie kraje, w których już wkrótce GIGerem stanie się niemalże co drugi pracownik. Kim są GIGerzy? Czego oczekują? I… jak wpłynie na nich Polski Ład? Na te pytania odpowiada najnowszy raport EY & GIGLIKE: GIG on. Nowy Ład na rynku pracy.

    GIG – trzy litery, za którymi kryje się zmiana

    GIGekonomia to system pracy, który wyróżniają elastyczne formy zatrudnienia, ale też elastyczność w zakresie sposobu jej wykonywania. GIGerami są więc z jednej strony osoby pracujące tymczasowo, z drugiej – osoby posiadające specjalistyczne umiejętności, np. konsultanci, specjaliści, profesjonaliści, samozatrudnieni i niezależni kontraktorzy.
    EY, światowy lider rynku usług profesjonalnych obejmujących usługi audytorskie, consulting, doradztwo podatkowe i transakcyjne oraz GIGLIKE, platforma biznesowa wspierająca firmy w efektywnej współpracy z niezależnymi talentami (w modelu B2B)  zapewniająca dopasowaną ofertę benefitów, narzędzi i usług biznesowych dla GIGerów, przyjrzały się nowemu zjawisku. Efektem wspólnych działań jest raport: „GIG on. Nowy Ład na rynku pracy” opisujący wzrost znaczenia GIGekonomii.

    – Jeśli spojrzeć na wskaźniki demograficzne i dane z rynku pracy jedno jest pewne – nie jest to przejściowa moda. Ponieważ niedobór i niedopasowanie talentów osiągnęły już znaczną skalę w wielu branżach, wyzwaniem dla pracodawców będzie budowanie modeli biznesowych i modeli pracy umożliwiających elastyczne i mniej tradycyjne formy zatrudniania dla niezależnych ekspertów. Potwierdza to badanie EY 2021 Work Reimagined. W ankiecie wśród pracowników, na którą odpowiedziało ponad 16 000 respondentów, 9 na 10 osób chce elastyczności miejsca i czasu pracy, a 54% pracowników prawdopodobnie odejdzie jeśli nie zaoferuje się im elastyczności, jakiej oczekująmówi Artur Miernik, Partner EY Polska, Lider Praktyki Workforce Advisory w ramach People Advisory Services.

    – Możliwość pracy zdalnej czy upowszechnienie pracy projektowej sprawiły, że pojawiły się nowe możliwości. Jedną z nich jest GIGekonomia. GIGerzy obecni są na rynku niemalże od zawsze, nigdy nie byli jednak aż tak widoczni. Warto dodać, że to właśnie nowoczesne technologie ułatwiają zatrudnianie GIGerów i współpracę ze specjalistami, którzy oczekują coraz większej elastyczności ze strony pracodawcypodkreśla Tomasz Miłosz, Founder & CEO GIGLIKE.

    Portret GIGera

    W oczach Millenialsów i wchodzącej na rynek pracy generacji Z, poczucie niezależności, decyzyjności oraz potrzeba szybkiego zdobywania różnorodnych doświadczeń to jedne z najbardziej istotnych czynników w czasie szukania pracy.

    Aż 42% obecnych pracowników z pokolenia Y to freelancerzy, a więc potencjalni GIGerzy. Z kolei przedstawiciele pokolenia Z, którzy w 2030 roku będą stanowić aż 1/5 rynku pracy, będą chcieli działać w sposób jeszcze bardziej niezależny, w myśl zasady connect, communicate, change (dołącz, wymieniaj informacje, zmień). Obie wyżej wymienione grupy stanowią bazę GIGekonomii.

    – Również w Polsce społeczność GIGerów tworzą przede wszystkim Millenialsi. Nie zniechęca ich ilość i złożoność obowiązków nakładana na podmioty prowadzące działalność gospodarczą, ani brak jasnych uregulowań prawnych dotyczących GIGekonomii w przepisach prawa. Osobną grupą są natomiast osoby w wieku 40 plus, doświadczeni eksperci szukający nowych i bardziej opłacalnych form współpracy. Spodziewamy się, że w ciągu pięciu najbliższych lat podwoi się liczba GIGersów na polskim rynku pracy z obecnego 10% do 20%mówi Eliza Skotnicka, Senior Manager w Zespole People Advisory Services w Dziale Doradztwa Podatkowego EY Polska.

    Wśród GIGerów znajdziemy najczęściej pracowników branży kreatywnej: grafików, montażystów, fotografów, copywriterów czy tłumaczy, ale też specjalistów IT i marketingu. Przedstawiciele tych zawodów od zawsze preferowali elastyczne formy zatrudnienia, zmiany które dokonały się ostatnim czasie ułatwiają i upowszechniają to zjawisko.

    – Znakomita większość przedsiębiorców przygląda się z zainteresowaniem zmianom na rynku pracy i stopniowo zmienia własne modele biznesowe, uwalniając przestrzeń dla GIGerów. Przedsiębiorcy nie podchodzą do GIG-zjawisk bezkrytycznie czy bezrefleksyjnie, więcej, starają się zrozumieć bariery zmian i ich ewentualne negatywne implikacje. Szefowie kadr, prezesi i właściciele, dobrze rozumiejąc potencjał GIGekonomii, starają się racjonalizować ten trend i wprowadzać go u siebie w życie stopniowo. Sięgają oni do GIGerów, jako remedium na rosnącą rotację pracowniczą i niedobór siły roboczej do wykonywania bieżących działań. Sięgając po ten model funkcjonowania, przedsiębiorcy i menedżerowie chcą mieć pewność bezpieczeństwa i zgodności z prawem z wielu dziedzin: pracy, ubezpieczeń społecznych, podatków czy ochrony własności intelektualnej mówi Marek Jarocki, Partner EY Polska, Lider zespołu People Advisory Services. 

    Rzut oka na perspektywę zza Oceanu

    Już teraz GIGerzy stanowią ponad 35% pracowników w Stanach Zjednoczonych. Jak wynika z raportu Morgan Stanley, do 2027 roku odsetek ten zwiększy się aż o 15 punktów procentowych. W efekcie co drugi amerykański pracownik będzie GIGerem.

    Eksperci zwracają jednak uwagę, że GIGekonomia przynosi korzyści wyłącznie wtedy, gdy jest wynikiem dobrowolnej decyzji pracownika. Kolejnym problemem mogą się okazać przepisy – a raczej ich brak – co pokazuje choćby sytuacja w Stanach Zjednoczonych. W USA trwają jednak prace nad tym, aby GIGer, tak jak każdy inny pracownik, mógł mieć zagwarantowany dostęp na przykład do opieki zdrowotnej czy świadczeń społecznych.

    – Życzyłbym sobie i przede wszystkim GIGerom, żeby wybór tej ścieżki zawodowej był świadomy i dobrowolny. Niestety, nie zawsze tak jest. Wystarczy spojrzeć na przykład z rodzimego podwórka. „Jednoosobowe firmy” ratowników medycznych, którzy właśnie rozpoczęli swój protest, to doskonały przykład patologii, nad którymi zbyt łatwo przechodzimy do porządku dziennego. Mam nadzieję, że dyskusja wokół GIGekonomii i GIGerów pomoże nam w tym, aby chronić wszystkie potencjalnie narażone grupy pracownikówdodaje Piotr Palikowski, prezes Polskiego Stowarzyszenia Zarządzania Kadrami.

    GIGekonomię już dziś wspierają trendy, takie jak ekonomia współdzielenia czy platformizacja z nastawieniem na modele subskrypcyjne – co potwierdzają globalne sukcesy firm, takich jak Uber czy Netflix.

    – Powstają nowe platformy, które proponują specyficzne rozwiązania dla GIGekonomii i uczestników tego procesu. Mowa o platformach biznesowych pozwalających mitygować ryzyko prawno-podatkowe związane ze współpracą z GIGerami i oferujące modele subskrypcyjne odpowiadające na potrzeby GIGerów. Dzięki takim rozwiązaniom możliwe jest zaoferowanie w jednym miejscu wszelkich benefitów oraz narzędzi i usług biznesowych – wskazuje Tomasz Miłosz.

    Kiedy to się opłaca?

    Trend GIGekonomii zyskuje na popularności także w Polsce. Działający na tzw. „samozatrudnieniu” GIGer może dziś skorzystać z szeregu korzyści, jakie oferuje jednoosobowa działalność gospodarcza, w tym m.in. liniowego podatku PIT czy preferencyjnych składek ZUS w początkowym okresie działalności.

    – Pandemia COVID-19 przyspieszyła proces transformacji rynku pracy o około 5-10 lat. Jednym z najbardziej widocznych efektów jest upowszechnienie elastycznego modelu pracy. Menedżerowie w firmach zorientowali się, że mogą mieć zdecydowanie większy dostęp do talentów bez ograniczeń lokalizacyjnych, co zwiększa ich możliwości zatrudniania ekspertów w danej dziedzinie. Nowoczesne technologie ułatwiają zatrudnianie GIGerów i współpracę ze specjalistami, którzy oczekują coraz większej elastyczności ze strony pracodawcymówi Eliza Skotnicka.

    Istotnym czynnikiem, który wpłynie na popularyzację GIGekonomii może okazać się… Polski Ład. Według szacunków może on bowiem spowodować wzrost rocznego obciążenia spółek zatrudniających specjalistów średnio o 4-10%, za sprawą większych kosztów zatrudnienia spowodowanych presją płacową.

    – Spodziewam się, że efektem nowych rozwiązań będzie upowszechnienie usług opartych o elastyczny model zatrudnienia i rozwój GIGekonomiidodaje ekspertka.

    Na korzyść nowego systemu pracy przemawiać będą zmiany w przepisach podatkowych dla jednoosobowych działalności gospodarczych, takie jak niższy ryczałt PIT (podatek od przychodu) dla branży IT na poziomie 12% lub 14% dla osób wykonujących zawody medyczne, podmiotów świadczących usługi architektoniczne i inżynierskie, usługi badań i analiz technicznych oraz w zakresie specjalistycznego projektowania.

    Z obniżeniem dochodu netto dla większości będzie się jednak wiązać likwidacja zryczałtowanej składki zdrowotnej oraz możliwości jej odliczenia od PIT. W zależności od dochodu straty z tego tytułu mogą wynieść od kilkudziesięciu do nawet kilkunastu tysięcy złotych.

    Trend rozwoju GIGekonomii przyczyni się natomiast do coraz mniejszego strachu przed odejściem z zatrudnienia na podstawie tradycyjnej umowy o pracę, zaś ryzyko niestabilnego dochodu w dużym stopniu kompensowane będzie możliwością współpracy z wieloma podmiotami jednocześnie.

    – Uczniowie szkół średnich powinni zastanowić się, w jaki sposób powinni rozwijać swoje umiejętności zawodowe, tak aby byli przygotowani na ten zmieniający się model zatrudnienia. Następne pokolenie musi zrozumieć, że nadchodzi automatyzacja. Musisz stale zadawać sobie pytania: co robisz, czego nie da się zautomatyzować lub czego ktoś inny nie zrobi lepiej od Ciebie? Zastanów się, co naprawdę lubisz, a także, w czym jesteś naprawdę dobry doradza Jowita Michalska, CEO Digital University.

    GIG is on

    Do GIGekonomii przekonuje się coraz więcej firm w skali świata. Już jedna na trzy organizacje zrezygnowała z pracowników etatowych na rzecz niezależnych talentów. Ten nowoczesny model współpracy jest coraz szybciej i szerzej adaptowany przede wszystkim w firmach technologicznych i obejmuje coraz większą część społeczeństwa, stanowiąc o przyszłości rynku pracy.

  • IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    Raport Światowego Forum Ekonomicznego (The Future of Jobs Report 2018) wymienia cztery technologiczne zjawiska, które w opinii ekspertów zdominują najbliższe lata w biznesie: wszechobecny szybki mobilny internet, sztuczna inteligencja (AI), powszechne stosowanie analityki big data oraz technologie chmurowe. Dziejąca się już w wielu przedsiębiorstwach transformacja cyfrowa wymaga dostosowania infrastruktury IT do nowych wymagań biznesowych i organizacyjnych. Tym bardziej, że między rokiem 2018 a 2020, jak prognozuje wspomniany raport, udział pracy maszyn wzrośnie z 29% do 42%. A maszyny to wciąż nowe dane.

    „Trwająca pandemia przyśpieszyła tylko nieuchronne zmiany – praca on-line szybko stała się standardem wszędzie tam, gdzie było to możliwe. W ślad za tym poszły zmiany infrastrukturalne w IT – przecież gdzieś trzeba przechowywać lawinowo rosnącą ilość danych. Oprócz rozwiązań chmurowych, całkiem nieźle radzą sobie lokalne Data Center”ocenia Wojciech Raduła, Architekt Systemowy z firmy Advatech należącej do ścisłej czołówki integratorów rozwiązań informatycznych.  „Bez względu na lokalizację, wszystkie one wymagają bardzo wydajnych i elastycznych urządzeń pamięci masowych, na najwyższym poziomie zaawansowania  technologicznego. Przyczyny są proste – najcenniejsze zasoby firmy, czyli dane biznesowe możemy powierzyć tylko najlepszym i najbardziej zaufanym urządzeniom. To jak z ludźmi”dodaje Wojciech Raduła.  

    Wbrew pozorom, na rynku nie ma zbyt wielu rozwiązań pamięci masowych o optymalnej relacji funkcjonalności i możliwości do ceny. Bardzo ważny jest także dostęp do wsparcia techniczne na najwyższym poziomie. Powinno być one zapewnione przez rozwiniętą sieć kompetentnych, doświadczonych i solidnych partnerów handlowych producenta. Przy takich kryteriach oceny pamięci masowych, chyba nikogo nie dziwi, że maszyny IBM z serii FlashSystem® 5100 można zaliczyć do ścisłej czołówki.

    W dzisiejszych czasach połączenie wydajności pamięci flash z wszechstronnością pamięci NVMe (Non-Volatile Memory Express) samo w sobie nie ma już waloru unikalności. Ale IBM nie byłby tym IBM, gdyby nie stworzył nowej jakości przez połączenie zaawansowanej technologii  z doskonałym oprogramowaniem. W przypadku maszyn FlashSystem® 5100 w jednym urządzeniu użytkownik dostaje innowacyjną technologię IBM FlashCore®, rozbudowane możliwości funkcjonalne systemu IBM Spectrum Virtualize™ oraz aplikacje do zarządzania predykcyjnego i proaktywnego, które wykorzystują mechanizmy sztucznej inteligencji (AI). Ultraniskie opóźnienia to zasługa pamięci Storage Class Memory (SCM). Dopiero w ten sposób funkcjonalna całość ujawnia swoje przewagi i walory, nawet w środowisku wielochmurowym, z działającymi aplikacjami kontenerowymi.

    IBM FlashSystem

    Wysokie parametry techniczne, duża sprawność i wydajność oraz krótki czas dostępu do danych to po prostu szybsze działanie całej firmy i większa produktywność każdego pracownika z osobna. A to już są bardzo ważne czynniki w aspekcie wyścigu z konkurencją.

    Zalety posiadania IBM FlashSystem® 5100 przekładają się także wskaźniki finansowe. Można osiągnąć zdecydowanie większy zwrot z inwestycji i zredukować całkowity koszt posiadania (TCO), bo dostępne oprogramowanie IBM Spectrum Virtualize pozwala użytkownikom korzystać z wielu różnych usług przetwarzania danych we wszystkich jego systemach pamięci masowych. Co to oznacza? To między innymi, że dostępna jest obsługa hybrydowego środowiska wielochmurowego.

    „Użytkownik może zacząć od czegoś prostego i nieskomplikowanego, nabędzie odpowiedniego doświadczenia, wyrobi sobie prawidłowe nawyki, a potem wraz ze wzrostem potrzeb biznesowych i liczby klientów może sobie w prosty sposób rozbudowywać infrastrukturę aż po środowiska łączące chmury publiczne, prywatne i lokalne”twierdzi Wojciech Raduła z firmy Advatech.

    IBM FlashSystem® 5100 wspiera trzy rozwiązania wielochmurowe. W pierwszym z nich  pamięć masowa służy jako trwały nośnik dla aplikacji kontenerowych, które korzystają z platform Docker lub Kubernetes. W drugim wariancie systemy IBM Spectrum Copy Data Management oraz Spectrum Virtualize działające z IBM FlashSystem® 5100 tworzą kopie migawkowe do chmury IBM w celu ochrony przed awariami DR (Disaster Recovery). Dane można używać bezpośrednio w chmurze lub kopiować ponownie do oryginalnej lokalizacji lub innego centrum danych.

    W trzecim wariancie aplikacja pod nazwą IBM Spectrum Copy Data Management współdziałająca ze Spectrum Protect tworzą kopie migawkowe na wolumenach. Służą one nie tyle wyłącznie do ochrony danych, ale także do celów Dev/Test, DevOps lub analityki. To kompletne rozwiązanie zapewnia także ochronę przed zagrożeniami typu ransomware.

    „Zakup IBM FlashSystem® 5100 jest bez wątpienia trafną decyzją, choć zapewne nie najprostszą. Walory techniczne i funkcjonalność macierzy pokazują, że klienci otrzymują rozwiązanie klasy Enterprise, wraz ze wsparciem technicznym i zarządzaniem w chmurze w bardzo przystępnej cenie. Tu nie ma miejsca na kompromisy – nowa generacja pamięci, technologie redukcji objętości danych dają więcej miejsca na dane przy tych samych kosztach, co poprzednio. Jeśli dodamy do tego wysoką dostępność na poziomie sześciu dziewiątek, to oznacza, że wszystkie istotne wskaźniki ekonomiczno-techniczne mają wartości, które na pewno docenią osoby decydujące o inwestycjach w infrastrukturę IT”ocenia Wojciech Raduła.

    Jak widać, IBM FlashSystem®5100 wyznacza bardzo wysoki standard niezawodności. Jest to możliwe dzięki zastosowaniu technologicznych zabezpieczeń przed awariami całych modułów (VSR) i grup RAID-owych (DRAID). Sam system oferuje przewidywalną i stałą wydajność oraz dużą gęstość upakowania danych – użytkownicy dostają do 768 TiB w rozmiarze 2U. Dostępne są także wbudowane systemy kompresji i deduplikacji danych, szyfrowania zgodnego z GDPR, przy zachowaniu odpowiedniej pojemności nadmiarowej i odporności na efekt „Write Cliff”.

    Jak twierdzą specjaliści z Advatech„Te macierze szybko się nie zestarzeją. Nasze doświadczenia pokazują, że mimo szybkiego postępu i rozwoju technologicznego, solidne i rzetelnie zaprojektowane konstrukcie z powodzeniem służą długie lata, a co najważniejsze – działają niezawodnie”.

  • VMware liderem raportu Gartnera w obszarze oprogramowania do zarządzania infrastrukturą hiperkonwergentną

    VMware liderem raportu Gartnera w obszarze oprogramowania do zarządzania infrastrukturą hiperkonwergentną

    W grudniowym raporcie Gartnera „Magic Quadrant”, dotyczącym oprogramowania do zarządzania infrastrukturą hiperkonwergentną, VMware zajął najwyższą pozycję pod względem kompletności wizji. Co więcej, firma znajduje się również w kwadrancie liderów, już po raz czwarty z rzędu.

    „HCI szybko stało się domyślnie wybieraną infrastrukturą, która obejmuje centrum danych, lokalizacje brzegowe i chmurę publiczną. Niezależnie od branży, organizacje muszą przyspieszyć dostarczanie nowych aplikacji i skalowanie w miarę reagowania firm na zmieniające się wymagania”powiedział John Gilmartin, starszy wiceprezes i dyrektor generalny Cloud Platform Business Unit w VMware.Cieszymy się, że ponownie zdobyliśmy uznanie Gartnera. To najlepszy dowód naszego  zaangażowania w tworzenie i dostarczanie klientom zaufanych rozwiązań HCI klasy Enterprise”

    Jako podstawowa platforma dla tradycyjnych aplikacji, natywnych aplikacji chmurowych i chmury hybrydowej, HCI eliminuje silosy IT, przygotowując infrastrukturę do przyszłych wymagań. W ostatnim czasie VMware udostępnił aktualizację VMware vSAN 7 Update 1. Zawiera ona więcej nowych funkcji niż jakiekolwiek poprzednie wydanie z ostatnich trzech lat. Najnowsza oferta usprawnia wdrażanie Kubernetes przez klientów i obsługę aplikacji, które potrzebują zapisywać trwale dane.  Właśnie takie, gotowe do wykorzystania przez deweloperów rozwiązania, stanowią znaczące ułatwienie we wdrażaniu aplikacji nowej generacji wraz ze zwiększoną skalowalnością i możliwościami operacyjnymi. VMware wprowadził też kolejne funkcjonalności w swoich platformach HCI i chmurze hybrydowej. Dzięki temu jeszcze lepiej wspiera potrzeby klientów w zakresie nowoczesnych aplikacji. Więcej informacji o wspomnianych aktualizacjach znajdziesz na stronie internetowej VMware.

    VMware posiada najszerszy ekosystem HCI, w którego skład wchodzi 15 wspólnie certyfikowanych dostawców serwerów OEM lub vSAN ReadyNodes, z ponad 500 zatwierdzonymi konfiguracjami, i globalnymi urządzeniami partnerskimi upraszczającymi wdrażanie i utrzymanie rozwiązań HCI. To także wspólnie opracowane rozwiązanie, Dell EMC VxRail, i ponad 70 zweryfikowanych partnerów chmurowych, w tym wszyscy globalni hiperskalerzy, oferujących rozwiązanie VMware Cloud Foundation.

    Bezpłatną kopię raportu „Magic Quadrant” z grudnia 2020 roku dotyczącego oprogramowania do zarządzania infrastrukturą hiperkonwergentną można znaleźć tutaj.

  • HPE: rynek HPC wzrośnie o ponad 40 proc., osiągając niemal 55 mld dol. przychodu do 2024 roku

    HPE: rynek HPC wzrośnie o ponad 40 proc., osiągając niemal 55 mld dol. przychodu do 2024 roku

    Hewlett Packard Enterprise (HPE) ogłosiło możliwość wdrażania rozwiązań opartych na wysokowydajnych komputerach (HPC, z ang. High Performance Computing), z wykorzystaniem swoich wiodących na rynku rozwiązań HPC w modelu as a service – za pośrednictwem usług HPE GreenLake. Nowe usługi chmurowe HPE GreenLake dla HPC pozwalają klientom łączyć moc zwinnego oraz elastycznego rozwiązania chmurowego pay-per-use z najbardziej sprawdzonymi na świecie oraz wiodącymi na rynku systemami HPC firmy HPE. Od teraz, każde przedsiębiorstwo będzie w stanie poradzić sobie z najbardziej wymagającymi obciążeniami obliczeniowymi i kompleksowymi zbiorami danych, aby móc wdrażać inicjatywy AI i ML, skracać czas potrzebny do pozyskania wnikliwych informacji oraz tworzyć nowe produkty i zdobywać nowe doświadczenia za pomocą elastycznej platformy as-a-service, którą klienci będą mogli uruchomić lokalnie lub w kolokacji.

    Nowa oferta przede wszystkim upraszcza procesy oraz optymalizuje koszty związane z tradycyjnym modelem wdrażania HPC, dostarczając w pełni zarządzane usługi w pakiecie opartym na specjalnych, dedykowanych rozwiązaniach HPC – oprogramowaniu oraz rozwiązaniach pamięci masowej i sieciowej, Usługi te dostępne są w małych, średnich lub dużych pakietach zakupowych. Klienci mogą zamawiać je za pośrednictwem samoobsługowego portalu, który umożliwia w paru prostych kliknięciach, wybór właściwej konfiguracji dopasowanej do indywidualnych potrzeb klienta. Zamówienie jest realizowane w przeciągu zaledwie 14 dni.
     
    „Dynamiczny wzrost ilości danych, a z tym związany rozwój sztucznej inteligencji oraz wysoce wydajnej analityki, napędza zapotrzebowanie na HPC w przedsiębiorstwach każdej wielkości, od tych z Listy TOP 500 po start-upy”mówi Peter Ungaro, senior vice president i general manager, HPC and Mission Critical Solutions (MCS) w HPE. „Zmieniamy rynek, dostarczając rozwiązania HPC w postaci uproszczonych, wstępnie skonfigurowanych usług, które, dzięki zastosowaniu rozwiązania HPE GreenLake, umożliwiają pełną kontrolę kosztów oraz poprawiają zarządzanie, skalowalność i elastyczność. Usługi chmurowe HPC każdemu przedsiębiorstwu dają dostęp do najnowocześniejszych systemów HPC oraz otwierają możliwości, jakie oferuje sztuczna inteligencja, zapewniając podstawy do prowadzenia bardziej zaawansowanych badań oraz do realizowania śmiałych celów”dodaje Ungaro.

    Bogate portfolio rozwiązań HPC wchodzi do powszechnego użytku dzięki w pełni zarządzanym usługom na żądanie w rozliczeniu stosownie do zużycia

    HPC zapewnia niebywałą moc obliczeniową wraz z możliwościami modelowania i symulacji, dzięki którym możliwe jest przekształcenie złożonych danych w modele cyfrowe. Pozwala to naukowcom i inżynierom w lepszym zrozumieniu tego, jak badany model będzie wyglądał lub zachowywał się w rzeczywistości. HPC zapewnia również optymalną wydajność platformy dla sztucznej inteligencji i analizy danych w celu zwiększenia przewidywalności prowadzonych działań. Te połączone ze sobą możliwości wykorzystywane są do rozwiązywania rozmaitych problemów: od wynajdywania szczepionek i prognozowania pogody po ulepszanie projektów samochodów, samolotów, a nawet produktów typowo konsumenckich, takich jak szampony oraz detergenty do prania.

    Z raportu Intersect360 Research wynika, że rynek HPC wzrośnie o ponad 40 proc., osiągając niemal 55 miliardów dol. przychodu do 2024 roku. Tym samym rozwiązania HPC umożliwiają efektywne przetwarzanie danych oraz ich analizę, wspierają ciągły wzrost ich ilości w tym tych, wypływających z nieustannie  pojawiających się nowych aplikacji i źródeł danych, takich jak modele szkoleniowe AI i urządzenia brzegowe .

    Jednakże, tradycyjne wdrażanie i zarządzanie systemami HPC jest kosztowne, złożone i wymagające ogromnej ilości zasobów. Według Hyperion Research, główne problemy dotyczą kosztu systemów, kosztów operacyjnych związanych z zasilaniem i chłodzeniem systemu oraz z brakiem wykwalifikowanego personelu technicznego HPC.

    HPE zdecydowanie upraszcza cały proces, przyspieszając wdrażanie projektów nawet o 75 proc. i zmniejszając nakłady kapitałowe nawet o 40 proc. poprzez udostępnienie swojego portfolio HPC za pośrednictwem usług chmurowych HPE GreenLake. Przedsiębiorstwa będą mogły wdrażać te usługi w środowisku dowolnego centrum danych, zarówno lokalnie, we własnym przedsiębiorstwie jak i w kolokacji. Zyskają wówczas w pełni zarządzane usługi płatne w modelu „płać tylko za to, z czego korzystasz”. Tym samym przedsiębiorstwa będą mogły ograniczyć całe spektrum problemów, którymi zazwyczaj muszą się zajmować i będą mogły skupić się wyłącznie na prowadzeniu swoich projektów w celu maksymalnego wykorzystania czasu i dla przyspieszenia prac badawczo-rozwojowych.

    Usługi chmurowe HPE GreenLake dla wysokowydajnych mocy obliczeniowych (HPC)

    Początkowo HPE będzie oferować HPC-as-a-service bazując na systemach HPE Apollo w połączeniu z technologiami sieciowymi i pamięci masowej, które przeznaczone są do wykonywania zadań związanych z modelowaniem i symulacją. Usługa obejmie również kluczowe oprogramowanie HPC do zarządzania obciążeniami, do zarządzania i monitorowania klastrów, do obsługi kontenerów i do orkiestracji specyficznych dla HPC. HPE planuje, aby z czasem całe jej portfolio HPC było oferowane jako as-a-service.

    W ramach oferty, klienci otrzymają dostęp do szeregu funkcji ułatwiających zarządzanie, wdrażanie i kontrolowanie kosztów usługi:
    ·       HPE GreenLake Central – zaawansowana platforma oprogramowania do zarządzania i optymalizacji usług HPC.
    ·       Samoobsługowy pulpit nawigacyjny HPE – samodzielne uruchamianie i zarządzanie klastrami HPC dzięki funkcji nawigującej, bez zakłócania pracy systemu.
    ·       HPE Consumption Analytics – szybka analiza użycia i kosztów w oparciu o pomiary za pośrednictwem HPE GreenLake.
    ·       HPC, AI & App Services – standaryzowanie i pakowanie obciążeń HPC do kontenerów, ułatwiając modernizację, przesyłanie i dostęp do danych, aby w razie potrzeby szybko migrować aplikacje na platformę kontenerową.

    Od badań naukowych do rzeczywistości: poprawa dokładności, designu i jakości produktu

    Zenseact, twórca oprogramowania dla rozwiązań autonomicznej jazdy z siedzibą w Szwecji i Chinach, wykorzystuje rozwiązania HPC w modelu as-a-service za pośrednictwem HPE GreenLake, dzięki którym prowadzi modelowanie i symulację. W ten sposób firma prowadzi analizy setek petabajtów danych, które generuje w skali globalnej na bazie swojej sieci pojazdów testowych oraz siedzib rozwoju oprogramowania. Rozwiązania te pomagają realizować misję Zenseact – modelowanie i symulowanie doświadczenia jazdy autonomicznej w celu opracowania oprogramowania nowej generacji na rzecz bezpieczeństwa kierowców.

    „Wdrażając rozwiązania HPC as-a-service przy pomocy HPE GreenLake, realizujemy nasz cel. Przyspieszamy gromadzenie danych dotyczących projektowania oprogramowania umożliwiającego tworzenie bezpiecznych autonomicznych pojazdów, wykonując 10 000 symulacji na sekundę w oparciu o dane z naszych samochodów testowych”mówi Robert Tapper, CIO w Zenseact.

    Inne przykłady wykorzystania HPC as a service w biznesie:
    ·       Projektowanie bezpieczniejszych samochodów – producenci mogą modelować i testować funkcje pojazdu w celu ulepszenia projektów, od symulacji skuteczności rodzajów gumy zastosowanej w oponach po symulacje zderzeń przeprowadzenia badań pod kątem potencjalnych obrażeń kierowców i pasażerów.
    ·       Poprawa produkcji przy użyciu ekologicznych materiałów – symulacja pomaga w wyszukiwaniu nowych materiałów jako ekologicznych alternatyw dla opakowań aluminiowych i plastikowych dla zwiększenia wydajności i obniżenia kosztów.
    ·       Milisekundowe decyzje o krytycznym znaczeniu na rynkach finansowych – analitycy finansowi mogą przewidywać krytyczne trendy giełdowe i handlowe, a nawet usprawniać zarządzanie ryzykiem w ciągu milisekundy, aby lepiej radzić sobie w szybko zmieniającym się środowisku finansowym, w którym dokładna i natychmiastowa wiedza jest krytyczna.
    ·       Postępy w pracach nad terapiami farmakologicznymi – naukowcy z laboratoriów badawczych i firm farmaceutycznych mogą przeprowadzać złożone symulacje w celu zrozumienia biologicznych i chemicznych interakcji, które mogą prowadzić do wypracowania nowych terapii lekowych w leczeniu chorób.
    ·       Przyspieszenie poszukiwań w wydobywaniu ropy i gazu – przeprowadzanie symulacji w połączeniu z dedykowanymi analizami sejsmicznymi może zwiększyć wykrywalność i dokładność w lokalizowaniu złóż ropy naftowej, jednocześnie zmniejszając ogólne ryzyko i koszty związane z bezpieczeństwem wydobywania ropy poprzez dokładne określenie miejsca i czasu jej wydobycia.

    Optymalizacja usług HPC możliwa dzięki ekosystemowi partnerów HPC

    HPE dysponuje rozbudowanym ekosystemem partnerów HPC, którzy wspierają przedsiębiorstwa w procesie wdrażania rozwiązań wedle ich indywidualnych potrzeb i wymogów oraz w dowolnym środowisku centrum danych:
    ·       Obiekty kolokacyjne – klienci mogą zwolnić własne obiekty, decydując się na umieszczenie swoich systemów i sprzętu HPC w kolokacji oraz przechodząc na zdalne korzystanie z nich za pośrednictwem HPE GreenLake. Partnerzy kolokacyjni HPE zapewniają skalowalne i energooszczędne centra danych, takich jak atNorth (dawniej Advania Data Center), CyrusOne i ScaleMatrix) dla systemów HPC.
    ·       Niezależni dostawcy oprogramowania (Independent Software Vendors, ISV) – HPE współpracuje z Activeeon, Ansys, Core Scientific i TheUberCloud, aby dostarczać rozwiązania optymalizujące szereg potrzeb w zakresie oprogramowania: od automatyzacji, sztucznej inteligencji, analityki i łańcucha bloków po inżynierię wspomaganą komputerowo (CAE) i projektowanie wspomagane komputerowo (CAD), które mają kluczowe znaczenie dla skrócenia czasu wprowadzania na rynek nowych produkcji, inżynierii i projektów produktu.

  • Powstaje aplikacja oparta o AI, mająca zastąpić projektanta wnętrz

    Powstaje aplikacja oparta o AI, mająca zastąpić projektanta wnętrz

    Polacy na potęgę kupują i urządzają mieszkania, ale na każde 14 osób wyposażających i wykańczających swoje lokum, tylko jedna korzysta z pomocy projektanta wnętrz. Twórcy Lofty chcą sprawić, by usługa dostępna dotąd dla niewielu stała się powszechna. Wykorzystują do tego sztuczną inteligencję.

    Wnętrzarskie magazyny i programy telewizyjne cieszą się w Polsce ogromną popularnością, instagramowe profile o wnętrzach mają tysiące obserwujących, a sklepy z wyposażeniem wnętrz nieustająco przeżywają oblężenie. Pandemia tylko pogłębiła ten trend.

    Lofty, czyli wirtualny projektant wnętrz

    Wybór i dostęp do inspiracji wnętrzarskich jest dziś nieograniczony. I to jest problem, bo z ogromu propozycji ciężko jest coś wybrać. Lofty ma pomóc uporządkować ten chaos: jest brakującym ogniwem między markami a inspiracjami.

    Jak przebiega proces? Użytkownik zaczyna od rozmowy z botem, który zadaje kilka praktycznych pytań i poprosi o wskazanie podobających się wnętrz. Pozwala również załadować kartę mieszkania i wkleić link do swojej tablicy inspiracji na Pintereście. W efekcie otrzymujemy dobrany do wskazanego stylu projekt optymalnego ułożenia wnętrza oraz moodboard z propozycją mebli i wykończenia. Lofty ma już umówione warunki współpracy z ponad 50 producentami, sprzedawcami i marketplacami w branży, w tym Cersanit, Allegro, Lectus24 czy Pakamera. Co więcej, system dopuszcza także wykorzystanie własnych mebli i je również uwzględnia w wizualizacji. W czasie kiedy większość zakupów musiała przenieść się do sfery on-line, to ogromne ułatwienie.

    „Jako architekt z wykształcenia, który swoją karierę związał z technologią, widzę narastające problemy związane z projektowaniem wnętrz i budynków. Ten proces nie zmienił się od dziesiątek, nawet setek lat! Indywidualny projekt nadal wymaga zatrudnienia wysoko wykwalifikowanego, kreatywnego człowieka i opłacenia każdej godziny pracy nad projektem. To czasochłonne i bardzo kosztowne, a przez to wciąż dostępne tylko dla nielicznych. Ja wiem, że można to zmienić”.wyjaśnia Tomek Wiszniewski, założyciel i CEO Lofty.

    Tym sposobem usługa do tej pory dostępna dla nielicznych, teraz może być dostępna dla każdego. Lofty opiera się na zaawansowanych technologiach sztucznej inteligencji takich jak uczenie głębokie czy widzenie komputerowe. I to właśnie technologia odróżnia polską aplikację od podobnych tego typu istniejących za oceanem, działających bardziej jak wnętrzarski Uber.

    Chłonny i rosnący rynek

    Grupą docelową Lofty są wszyscy, którzy urządzają dom, mieszkanie czy nawet pokój, a według danych GUS to około 460 tys. potencjalnych klientów rocznie. Projektanci wnętrz docierają do ok. 7% z nich. Pozostali, czyli ponad 90% rynku, na stworzenie funkcjonalnej i estetycznej przestrzeni poświęcają dziesiątki wieczorów, przeglądając zakamarki internetu i często nie znajdując zadowalających produktów. Lofty chce rozwiązać ten problem.

    „Lofty jest pierwszą aplikacją, która oferuje aranżację wnętrza z indywidualnie dobranym zestawem produktów, tak aby odpowiadała wymiarom urządzanej przestrzeni i potrzebom mieszkańców oraz była w stylu, który im się podoba. Oprócz oszczędności czasu daje to pewność, że przestrzeń jest optymalnie zagospodarowana, a zwizualizowanie urządzonej przestrzeni pomaga dokonać potem właściwych zakupów”.przekonuje Wiszniewski.

    Pierwsi klienci pojawili się w Lofty w sierpniu. Co miesiąc w aplikację odwiedza ok. 10 tys. osób, z czego 7% odpowiada na wszystkie pytania chatbota Lofty, spędzając z nim średnio 5 minut – mimo, że w wersji beta chatbota liczba pytań jest bardzo ograniczona.

    „Dane pokazują bardzo wysokie zaangażowanie użytkowników w pracę nad aranżacją wnętrza z chatbotem Lofty. Dzięki temu widzimy, że są gotowi na wsparcie sztucznej inteligencji w tym ważnym procesie nadawania charakteru wnętrzom”. – komentuje Wiszniewski. Wśród osób, które kontynuują współpracę i otrzymują indywidualny projekt wnętrza, ponad 34% decyduje się na zakup rekomendowanych produktów.

    W lutym 2020 Lofty wygrało w ramach ReaktorX Demo Night zarówno nagrodę jury, jak i nagrodę publiczności. Ostatnim sukcesem jest zebranie przez twórców ok. 1,5 mln zł finansowania na dalszy rozwój w programie PARP Rozwój Startupów w Polsce Wschodniej oraz od dziewięciorga aniołów biznesu. Jeden z nich – Michał Jaskólski – tak tłumaczy swoje zaangażowanie: “Kiedy usłyszałem o modelu biznesowym Lofty, zorientowałem się, że jest na styku dwóch bardzo atrakcyjnych i znanych mi obszarów: agregacji ofert e-commerce oraz nieruchomości. To sprawiło, że uwierzyłem w powodzenie tego projektu.” Wśród doradców Lofty znaleźli się specjaliści w dziedzinie uczenia maszynowego i algorytmiki: Piotr Czubak, Ric Szopa i Łukasz Czerwiński.

    „Od momentu wybuchu pandemii zauważyliśmy zwiększone zainteresowanie funduszy VC, które dostrzegły nadchodzące zmiany na rynku. Ludzie mają obawy przed spotkaniami z projektantem wnętrz i wizytami w sklepach – w niektórych krajach i okresach sklepy stacjonarne są wręcz zamykane. Rynek przenosi się do e-commerce, a nie ma jeszcze miejsca online, w którym można zaaranżować i zwizualizować wnętrze przy użyciu produktów od różnych marek. Nie wspominając o tym, że wszyscy spędzają teraz w domu znacznie więcej czasu niż kiedyś, więc naturalne jest to, że jakość tej przestrzeni i jej funkcjonalność (np. home office) jest dla nich o wiele ważniejsza niż wcześniej”.podsumowuje Wiszniewski.

  • W czasie pandemii Polacy szukają alternatyw dla transportu zbiorowego

    W czasie pandemii Polacy szukają alternatyw dla transportu zbiorowego

    Pierwsza fala pandemii koronawirusa przyczyniła się do spadku przychodów branży mikromobilności i sharing economy. W ujęciu długofalowym branże te znacznie zyskają – głównie dzięki temu, że ludzie będą poszukiwali alternatywy dla transportu zbiorowego. Wraz z zainteresowaniem klientów pojazdami mikromobilnymi rośnie ich poziom zaawansowania technologicznego. Hulajnogi już same odnajdują miejsce ładowania, a sam proces ładowania jest optymalizowany przez sztuczną inteligencję, by pojazdy były zawsze w pełni naładowane. Innowacje będą też dotyczyły programowania doświadczeń użytkowników, tak aby pojazdy zapewniały możliwie największy komfort użytkowania i współdzielenia.

    – Cała branża mikromobilności, jak i sharing economy zostały wystawione na próbę związaną z pandemią, podobnie jak wiele innych. Tutaj podejścia były dwa: jedno mówiło o tym, że branża zostanie dosyć mocno spowolniona i sharing economy nie będzie miał zastosowania, a drugie podejście twierdziło, że ta branża będzie rosła dzięki temu, że ludzie będą unikali transportu publicznego i bardziej skierują się na środki transportu indywidualnego – wskazuje Karol Żebrowski, odpowiedzialny za rozwój biznesu i sprzedaż w MorAmp.

    Pandemia koronawirusa zachwiała rynkiem sharing economy, zjawiska polegającego na współdzieleniu lub współużytkowaniu pewnych dóbr, a nie ich posiadaniu. Z danych opublikowanych przez Elsevier wynika, że między 29 stycznia 2020 roku a 7 marca 2020 roku chiński Didi i francuski BlaBlaCar odnotowały spadek pobrań aplikacji o odpowiednio 75 i 65 proc. Z tego samego opracowania wynika, że 53 proc. kierowców Ubera obawia się znacznego spadku zarobków. Uber w wyniku pandemii zmniejszył zatrudnienie o 14 proc., a Lyft o 17 proc. Okazuje się jednak, że w miarę nabierania przez społeczeństwo i rynek doświadczeń związanych z sytuacją epidemiczną to się zmienia.

    – Przy pierwszej fali koronawirusa wiele firm sharingowych świadczących swoje usługi w tej gałęzi przemysłu ograniczyło swoje usługi bądź całkowicie zamknęło, wycofało się z wielu miast, złomowało pojazdy. Teraz obserwujemy dosyć gwałtowny wzrost wypożyczeń i użytkowania tego typu pojazdów. Cały rynek mikromobilności, jak i współdzielonej mobilności będzie bardzo gwałtownie rósł w kolejnych latach – przewiduje Karol Żebrowski.

    Sprzyjać temu trendowi może fakt, że miasta są coraz bardziej zatłoczone. Z raportu TomTom Traffic Index wynika, że kierowcy spędzili w ubiegłym roku w korkach średnio 87 minut. Najwyższy wskaźnik zakorkowania zanotowano 23 stycznia w Kijowie, ale w pierwszej dziesiątce najbardziej zatłoczonych miast Europy znalazły się dwa polskie: Łódź i Kraków.

    – Miasta są coraz bardziej zatłoczone. Obserwujemy coraz więcej korków na ulicach i utrudnień dojazdu. Pojazdy mikromobilne będą wykorzystywały swoją przewagę dzięki swojej mobilności. Prognozy są takie, że w ciągu najbliższych pięciu lat rynek mikromobilności i pojazdów współdzielonych wzrośnie około 60-krotnie – podkreśla ekspert MorAmp.

    Wraz z popularyzacją pojazdów mikromobilnych zmienia się też ich specyfikacja techniczna. W hulajnogach elektrycznych znajdziemy m.in. szereg rozwiązań z zakresu sztucznej inteligencji. Współczesne hulajnogi są w stanie samodzielnie wrócić na miejsce parkowania, a także tak zoptymalizować proces ładowania baterii, by pełne naładowanie nastąpiło dokładnie wtedy, kiedy użytkownik będzie musiał wyruszyć w trasę. Innowacje obejmują również takie funkcjonalności jak np. wykrywanie wypadków czy interakcja z użytkownikiem (np. komunikaty audiowizualne).

    – Technologie wewnątrz pojazdów będą się rozwijały. Wiele innowacji będzie powstawało w związku z systemami elektronicznymi, z systemami zarządzania pojazdem, jak i flotą pojazdów, czyli również rozwiązania IoT dotyczące ogólnego managementu i programowania user experiences użytkowników. W tym zakresie wiele innowacji będzie mogło powstawać – twierdzi Karol Żebrowski.

    Z raportu P&S Intelligence wynika, że do 2025 roku przychody z rynku mikromobilności osiągną pułap 9,8 mld dol.

  • Red Hat nawiązał współpracę z WHO

    Red Hat nawiązał współpracę z WHO

    Red Hat, Inc. poinformował o nawiązaniu współpracy ze Światową Organizacją Zdrowia (WHO), wyspecjalizowaną agencją Organizacji Narodów Zjednoczonych odpowiedzialną za międzynarodowe zdrowie publiczne. Celem współpracy było utworzenie infrastruktury programistycznej opartej na technologiach open source, która pomoże zbudować platformę nauczania (ang. Learning Experience Platform ― LXP) na potrzeby Akademii WHO, nowoczesnego centrum szkoleniowego tej organizacji.

    W przedsięwzięciu tym wykorzystano nowoczesne praktyki programistyczne udostępnione przez ośrodek Red Hat Open Innovation Labs i bibliotekę Open Practice Library oraz technologie open source pochodzące z projektów realizowanych przez społeczność Red Hat. W efekcie Światowa Organizacja Zdrowia zbudowała skalowalną, elastyczną platformę DevOps w celu wsparcia takich działań jak zarządzanie, testowanie nowych produktów, analizowanie kodu i wizualizacja danych. Zapewni to szybszy dostęp do wartościowej wiedzy medycznej i pomoże w walce z dezinformacją.

    Globalne zapotrzebowanie na informacje

    Nowe dane dotyczące pandemii COVID-19 pojawiają się praktycznie każdego dnia. Pracownicy służby zdrowia muszą zawsze znać najnowsze, dokładne informacje na ten temat. Szybkość przekazywania takich informacji nabiera więc znaczenia krytycznego. Światowa Organizacja Zdrowia uświadomiła sobie, że musi zwiększyć swoje możliwości w zakresie technologii cyfrowych, aby sprostać coraz większym oczekiwaniom w tym zakresie. Chcąc szybciej przekazywać najnowszą wiedzę i informacje dotyczące zdrowia lekarzom, decydentom i własnym pracownikom, nawiązała ścisłą współpracę z firmą Red Hat w celu wdrożenia nowych praktyk.

    Szybkość i dokładność dzięki otwartym technologiom

    Nowa platforma DevOps pomaga Światowej Organizacji Zdrowia w sprostaniu bieżącym wyzwaniom, takim jak walka z dezinformacją, oraz zdobywaniu dodatkowych umiejętności dzięki nowym metodom nauczania. Ponadto celem WHO było stworzenie podstaw otwartego modelu danych, który dostosuje się do potrzeb pracowników służby zdrowia również w przyszłości m.in. poprzez zapewnienie im bardziej spersonalizowanych szkoleń.

    Podczas ośmiotygodniowego wirtualnego pobytu w ośrodku Red Hat Open Innovation Labs zespół WHO współpracował ze specjalistami Red Hat. Celem tego ośrodka jest pomoc przedsiębiorstwom w łączeniu ludzi, procedur i technologii w sposób, który umożliwia elastyczne tworzenie oprogramowania i produktów, wspiera innowacje i przyspiesza rozwiązywanie wewnętrznych problemów.

    W ramach tej inicjatywy zespół WHO ds. technologii i zarządzania informacjami zapoznał się z nową metodyką Agile, tworzeniem produktów metodą lean oraz praktykami DevOps, i połączył je z dotychczas stosowanym, bardziej tradycyjnym modelem zarządzania projektami. W efekcie może lepiej dostosowywać się do zmieniających się potrzeb oraz efektywnie skalować platformę DevOps Światowej Organizacji Zdrowia zgodnie z bieżącymi i przyszłymi potrzebami. Dzięki umiejętnościom i narzędziom zdobytym we współpracy z ośrodkiem Red Hat Open Innovation Labs zespół WHO mógł zbudować rozwiązanie szkoleniowe, które nie jest powiązane z jedną osobą lub technologią. Zyskał całościową wiedzę oraz biegłość w zarządzaniu swoją nową platformą i procesami wewnętrznymi.

    Walka z wykluczeniem cyfrowym

    Światowa Organizacja Zdrowia od początku chciała utworzyć platformę opartą na technologii open source. Technologia ta, zgodnie ze swoimi zasadami, umożliwia współpracę między różnymi podmiotami, jest łatwo dostępna i nie wymaga dużych nakładów. Można ją więc z powodzeniem wykorzystać w krajach o niskich i średnich dochodach.

    Nowa platforma LXP będzie oparta w całości na otwartych, hybrydowych technologiach chmurowych Red Hat, które zwiększą jej skalowalność, elastyczność i bezpieczeństwo. Red Hat OpenShift jest chmurowym, uproszczonym środowiskiem tworzenia i wdrażania aplikacji kontenerowych oraz oceny parametrów tych aplikacji, z kolei technologia Red Hat CodeReady Workspaces zapewnia programistom tworzącym LXP infrastrukturę, która umożliwia szybkie i niezawodne budowanie kontenerów Kubernetes. Platforma LXP jest oparta na otwartej strukturze technicznej, dzięki czemu Światowa Organizacja Zdrowia będzie mogła lepiej wykorzystać nowe architektury i aplikacje w sposób iteracyjny i przyrostowy, co przyniesie pracownikom służby zdrowia na całym świecie natychmiastowe korzyści. Ponadto Red Hat OpenShift jest platformą Kubernetes, która może działać w każdej chmurze. WHO może więc skalować platformę LXP stosownie do potrzeb bez uzależniania się od konkretnego dostawcy chmury.

  • Uber, Tesla i 26 innych firm zawiązuje nowe stowarzyszenie

    Uber, Tesla i 26 innych firm zawiązuje nowe stowarzyszenie

    Elektromobilność staje się coraz popularniejszym trendem. Tylko w 2020 roku sprzedane zostaną 24 mln pojazdów elektrycznych. 90 proc. z nich to jednak pojazdy jednośladowe, takie jak hulajnogi czy skutery. Auta elektryczne są wciąż mało popularne wśród konsumentów. Zmienić chce to nowo zawiązane amerykańskie stowarzyszenie ZETA, które zrzesza 28 firm działających w branży transportu zeroemisyjnego, takich jak Uber, Siemens, Lucid Motors, Rivian czy Tesla. To pierwsza koalicja branżowa, której celem jest  przyspieszenie pełnego przejścia na elektromobilność do 2030 roku.

    Według szacunków IDTechEx w 2020 roku zostaną sprzedane łącznie 24 mln pojazdów elektrycznych, z czego jednak 90 proc. to pojazdy jednośladowe. Elektryczne auta to wciąż niewielki odsetek.

    – Po raz pierwszy w naszym pokoleniu transport jest głównym emitentem emisji dwutlenku węgla w Stanach Zjednoczonych. Dzięki zastosowaniu pojazdów elektrycznych decydenci federalni mogą wspierać innowacje, tworzyć setki tysięcy nowych miejsc pracy oraz poprawiać jakość powietrza i zdrowie publiczne – podkreśla Joe Britton, dyrektor Zero Emission Transportation Association.

    Działalność stowarzyszenia ma się koncentrować wokół pięciu zasadniczych filarów, w obrębie których członkowie chcieliby wpływać na kształtowanie polityki USA. Pierwszym jest wzmocnienie zachęt dla osób decydujących się na zakup pojazdu zeroemisyjnego. Drugi to wpływ na cele w zakresie emisji. ZETA dąży również do tego, by rząd federalny wzmocnił inwestycje w infrastrukturę stacji ładowania, a także tak kształtował politykę, by zachęcać przedsiębiorców do tworzenia miejsc pracy w całym łańcuchu dostaw i cyklu życia pojazdów elektrycznych, od materiałów aż po gotowe pojazdy.

    Stany Zjednoczone chcą w ten sposób utrzymać pozycję światowego lidera branży elektromobilności.

    – Kolejna dekada będzie miała kluczowe znaczenie dla wdrażania polityki zeroemisyjności, która przyspieszy przejście na pojazdy elektryczne – podkreśla Joe Britton. – Ten segment już teraz zatrudnia w Stanach Zjednoczonych setki tysięcy osób, ale jego dalsze wspieranie jest kluczowe, by wygrać globalny wyścig o nową, czystą ekonomię transportu.

    W Polsce konwersja na elektromobilność będzie przebiegała dużo wolniej. Zgodnie z Planem Rozwoju Elektromobilności do 2025 roku po naszych drogach ma jeździć milion samochodów elektrycznych. Dla porównania, według danych z systemu Centralnej Ewidencji Pojazdów i Kierowców, w samym tylko 2019 roku zarejestrowano ogółem niemal 2 mln samochodów.

    Analitycy KBV Research przewidują, że do 2025 roku wielkość światowego rynku elektromobilności osiągnie wartość 478,9 mld dol. Średnioroczne tempo wzrostu utrzyma się na poziomie 24,7 proc. Jak wskazują autorzy raportu, na takie kształtowanie się wzrostu przychodów branży decydujący wpływ będą miały takie czynniki jak wdrażanie krajowych regulacji w zakresie promowania elektromobilności, a także spadający koszt baterii litowo-jonowych, dzięki czemu auta elektryczne będą się stawały coraz bardziej przystępne cenowo.