Tag: Red Hat

  • Hitachi Vantara i Red Hat łączą siły: nowa droga od VMware do chmury hybrydowej

    Hitachi Vantara i Red Hat łączą siły: nowa droga od VMware do chmury hybrydowej

    W środowisku enterprise coraz silniej rysuje się trend odchodzenia od klasycznych platform wirtualizacji na rzecz bardziej elastycznych rozwiązań Kubernetes-native. Hitachi Vantara i Red Hat wychodzą naprzeciw tym oczekiwaniom, przedstawiając zintegrowane rozwiązanie łączące funkcjonalność Red Hat OpenShift Virtualization z platformą Hitachi Vantara VSP One. Celem: uproszczenie migracji istniejących maszyn wirtualnych i konsolidacja infrastruktury w jednym, hybrydowym środowisku. 

    Co faktycznie oferuje integracja?

    Nowy stack umożliwia uruchamianie maszyn wirtualnych (VM) i kontenerów obok siebie, co pozwala uniknąć dublowania infrastruktury i redukuje koszt licencji dla obu warstw. W centrum leży integracja komponentów:

    • Hitachi VSP One pełni rolę warstwy pamięci masowej (blokowej, plikowej i obiektowej), obsługując zarówno operacje VM (przez CSI) jak i kontenerowe.
    • Global Active Device (GAD) umożliwia aktywny dostęp do danych w wielu lokalizacjach, co sprzyja odporności rozproszonej.
    • Wspólnie opracowana referencyjna architektura wspiera wysoką dostępność – w klastrach rozciągniętych, z opcjonalnym kworum trzeciej lokalizacji, w tym z masterem OpenShift w chmurze publicznej lub odizolowanej lokalizacji.
    • Hitachi dostarcza wtyczkę dla kontenerów (HSPC / CSI driver), która obsługuje m.in. model dostępu ReadWriteMany, snapshoty, klonowanie oraz dynamiczne przydziały przestrzeni.
    • Dodatkowo oferowane jest odciążanie pamięci masowej podczas migracji „na zimno”, czyli przenoszenie zadań kopiowania danych z sieci/serwera na macierz, co redukuje przestoje. 

    Ta konfiguracja pozwala firmom łatwiej wychodzić z ekosystemów VMware (lub innych klasycznych hypervisorów) i budować platformę chmurową opartą o Kubernetes i OpenShift. W praktyce Hitachi kieruje tę ofertę w stronę organizacji „od VMware migratorów”.

    Dlaczego teraz?

    Kilka trendów wspiera tempo przyjęcia tego typu rozwiązań:

    1. Narastające koszty licencji — według komunikatu, 73 % przedsiębiorstw przeszło audyt licencyjny, a ponad 1/3 wskazuje zgodność licencyjna jako główny problem. 

    2. Rosnące wymagania w zakresie mobilności obciążeń — przedsiębiorstwa chcą przenosić komponenty między lokalizacjami i chmurą z minimalnym przestojem.

    3. Presja konsolidacji infrastruktury — zamiast utrzymywać dwa stosy (VM + kontenery), pożądane jest jednorodne, spójne środowisko.

    4. Rośnie rynek rozwiązań open source wirtualizacji w Kubernetes, m.in. dzięki KubeVirt jako silnikowi OpenShift Virtualization.

    Przypadek wdrożenia: Alior Bank

    Alior Bank, działający w Polsce, został wskazany jako wczesny adopter integracji. Bank zdecydował się na migrację do platformy Red Hat OpenShift Virtualization z wykorzystaniem VSP One, w odpowiedzi na wzrost kosztów licencji i ograniczenia elastyczności dotychczasowego środowiska. W jego kontekście kluczową motywacją była chęć stworzenia infrastruktury „gotowej na przyszłość”, odpornej i skalowalnej.

    Nowe rozwiązanie niesie istotne korzyści: możliwość konsolidacji VM i kontenerów, redukcja kosztów licencyjnych, uproszczenie migracji i wzrost odporności w środowiskach rozproszonych. Jednak pozostają wyzwania:

    • Migracja dużych środowisk — nawet z opcją offloadu — wymaga przemyślanego planowania i testów; nie każdy VM jest natychmiast konwertowalny.
    • Złożoność referencyjnej architektury – rozbudowane klastry rozciągnięte wymagają zaawansowanego zarządzania siecią i zgodności operacyjnej.
    • Ryzyko lock-in w warstwie storage i CSI — choć rozwiązanie wychodzi naprzeciw unikaniu zależności od hypervisorów, klient wciąż korzysta z połączenia Red Hat + Hitachi.
    • Dojrzałość ekosystemu – adoptowanie nowego stacka od OpenShift Virtualization + VSP One wymaga, by integracje i obsługa operacyjna były dojrzałe w środowisku klienta.
  • Open source w polskim kanale IT: strategia czy konieczność?

    Open source w polskim kanale IT: strategia czy konieczność?

    Moment przejęcia Red Hat za astronomiczną kwotę 34 miliardów dolarów, był czymś więcej niż tylko kolejną wielką transakcją w branży technologicznej. To był ostateczny dowód na to, że open source przestał być domeną pasjonatów i stał się centralnym punktem strategii korporacyjnej. Dla polskiego kanału partnerskiego – integratorów, resellerów i firm konsultingowych – pytanie nie brzmi już „czy” włączyć rozwiązania open source do swojej oferty. Prawdziwe pytanie brzmi: „jak” to zrobić w sposób strategiczny, skalowalny i, przede wszystkim, rentowny. Ignorowanie tego trendu nie jest już wyrazem ostrożności, lecz strategicznym zaniedbaniem.

    Analiza twardych danych rynkowych, trendów kształtujących preferencje deweloperów oraz strategii biznesowych globalnych gigantów technologicznych prowadzi do jednoznacznego wniosku: rola oprogramowania open source w przedsiębiorstwach stała się fundamentalną i nieodwracalną zmianą. Prawdziwa wartość, a co za tym idzie, potencjał do generowania wysokich marż, kryje się w warstwach budowanych wokół tego kodu: w eksperckiej wiedzy, certyfikowanych kompetencjach, niezawodnych usługach i, co najważniejsze, w zaufaniu, jakim klient obdarza swojego partnera technologicznego.

    Podwójna siła napędowa rynku – popyt od deweloperów i walidacja przez korporacje

    Dynamiczny wzrost znaczenia open source to rezultat potężnego, dwukierunkowego procesu. Z jednej strony mamy do czynienia z organicznym, oddolnym popytem generowanym przez społeczność deweloperską, a z drugiej – z odgórną walidacją rynkową, dostarczaną przez komercyjnych gigantów.

    Głos z okopów: popyt generowany oddolnie

    Aby zrozumieć, dlaczego open source jest nie do zatrzymania, należy wsłuchać się w głos deweloperów. To ich preferencje tworzą potężną, wewnętrzną presję na organizacje. Analiza danych z corocznego raportu Stack Overflow Developer Survey dostarcza niezbitych dowodów. PostgreSQL od lat jest najpopularniejszą bazą danych, wyprzedzając komercyjne alternatywy. Wśród technologii, które deweloperzy nie tylko używają, ale i „kochają”, w ścisłej czołówce znajdują się narzędzia open source, a Rust od lat utrzymuje pozycję najbardziej podziwianego języka programowania.   

    Deweloperzy sięgają po te narzędzia, ponieważ są one synonimem efektywności, elastyczności i są wspierane przez gigantyczne, globalne społeczności. W rezultacie, przedsiębiorstwa, które chcą przyciągnąć najlepsze talenty, muszą zapewnić im dostęp do narzędzi, które cenią i w których są najbardziej produktywne.   

    Pieczęć jakości: walidacja rynkowa od góry

    Sam popyt deweloperów nie wystarczyłby, aby technologie open source zagościły w krytycznych systemach korporacji. Drugim filarem sukcesu jest odgórna walidacja rynkowa, dostarczana przez firmy takie jak Red Hat i Canonical.

    Przychody Red Hat, od lat przekraczające miliardy dolarów, nie pochodzą ze sprzedaży licencji. Zgodnie z raportami finansowymi firmy, ponad 85% jej przychodów generowanych jest przez model subskrypcyjny. Klienci płacą nie za oprogramowanie, ale za dostęp do ekosystemu wartości dodanej: gwarantowane aktualizacje bezpieczeństwa, certyfikację i wsparcie techniczne na poziomie korporacyjnym. Podobną ścieżką podąża Canonical, twórca Ubuntu. Jego oferta komercyjna, Ubuntu Pro, koncentruje się na zapewnieniu 10-letniego wsparcia w zakresie bezpieczeństwa i narzędzi do zapewnienia zgodności z regulacjami, co jest kluczowe dla sektorów regulowanych.   

    Klienci korporacyjni doskonale rozumieją, że nie płacą za kod, który z definicji jest darmowy. Płacą za spokój ducha, przewidywalność, bezpieczeństwo i przeniesienie odpowiedzialności. To są wartości, które partnerzy IT mogą z łatwością komunikować i sprzedawać.

    Polski kanał partnerski w obliczu otwartej rewolucji

    Polski rynek IT, z jego specyfiką i strukturą, nie jest wyjątkiem od globalnych trendów. Analiza ofert krajowych integratorów pokazuje, że rewolucja open source jest już faktem

    Systematyczny przegląd ofert wiodących polskich integratorów – od największych, jak Asseco  i Comarch , po wyspecjalizowanych graczy, jak Linux Polska  czy Hawatel  – pozwala zidentyfikować wyraźne wzorce. Dominują rozwiązania z obszaru infrastruktury: systemy operacyjne (Red Hat Enterprise Linux), platformy do konteneryzacji (Kubernetes w dystrybucjach jak OpenShift) i narzędzia do automatyzacji (Ansible). Coraz śmielej na rynek wkraczają też otwarte bazy danych (PostgreSQL), systemy do monitoringu (Zabbix) czy zarządzania treścią (Alfresco).   

    tabela open source scaled

    Gdzie kryje się prawdziwa wartość biznesowa open skource?

    Aby skutecznie sprzedawać rozwiązania open source, partnerzy muszą umiejętnie zakomunikować klientom, gdzie leży ich prawdziwa wartość. Rzadko sprowadza się ona do „braku opłat licencyjnych”.

    Pułapka „Darmowego Lunchu”: analiza TCO

    Mit „darmowego oprogramowania” jest jednym z największych nieporozumień. W kontekście biznesowym, dyskusja powinna dotyczyć całkowitego kosztu posiadania (TCO). Porównując wdrożenie bazy danych w modelu własnościowym (np. MS SQL Server) i open source (np. PostgreSQL ze wsparciem EDB), należy uwzględnić nie tylko licencje, ale też koszty personelu, elastyczność skalowania i ukryte koszty, takie jak vendor lock-in. Raporty wskazują, że wykorzystanie oprogramowania własnościowego w firmach ma spaść o 8 punktów procentowych w ciągu dwóch lat na rzecz rozwiązań open source.   

    Strategiczna przewaga: ucieczka z „Złotej Klatki” vendor Lock-in

    Unikanie uzależnienia od jednego dostawcy to prawdopodobnie najważniejszy argument strategiczny. W tradycyjnym modelu klient często wpada w pułapkę „złotej klatki”, stając się zakładnikiem swojego pierwotnego wyboru technologicznego. Open source, oparty na otwartych standardach, daje wolność wyboru. Aplikacja skonteneryzowana na platformie OpenShift może być uruchomiona na AWS, Azure, GCP, a także we własnym centrum danych. To daje firmie ogromną siłę negocjacyjną. Polscy integratorzy, tacy jak Comarch, otwarcie promują strategię „No vendor lock-in” opartą na rozwiązaniach open source. Również w projektach dla sektora publicznego, jak „e-zdrowie”, unikanie zależności od jednego dostawcy jest kluczową zaletą.   

    4 drogi do monetyzacji open source w kanale B2B

    Analiza rynku pozwala wyodrębnić cztery podstawowe, sprawdzone ścieżki monetyzacji, które stanowią naturalną ścieżkę ewolucji dla firmy partnerskiej.

    1. Sprzedaż Wartości Dodanej (Value-Added Reselling): To najbardziej fundamentalny model, polegający na odsprzedaży komercyjnych subskrypcji od dostawców takich jak Red Hat czy Canonical. Marżowość jest niska, ale stanowi doskonały punkt wejścia. Kluczem do sukcesu jest łączenie subskrypcji z większym rozwiązaniem, np. sprzedaż serwera z preinstalowanym i wspieranym systemem RHEL.
    2. Usługi Profesjonalne (Professional Services): To najpopularniejszy krok w ewolucji partnera. Model ten opiera się na świadczeniu jednorazowych, projektowych usług o wysokiej wartości, takich jak wdrożenia, integracje, konsulting i szkolenia. Marżowość jest średnia do wysokiej, ale wymaga inwestycji w zespół certyfikowanych ekspertów. Polscy gracze, jak Linux Polska, mocno opierają swój model na tego typu usługach.  
    3. Usługi Zarządzane (Managed Services): Ten model, często określany jako „Święty Graal” monetyzacji, pozwala na generowanie stabilnych, cyklicznych przychodów. Polega na przejęciu od klienta odpowiedzialności za utrzymanie, monitoring i zarządzanie jego środowiskiem open-source. Przykłady to „Managed Kubernetes” czy „Managed Database”. Marżowość jest wysoka, ale model jest najbardziej wymagający operacyjnie, wymagając zespołu 24/7 i umów SLA. Comarch oferuje szerokie portfolio usług w chmurze, w tym zarządzanie środowiskami multi-cloud.  
    4. Rozwój Oprogramowania i Customizacja (Custom Development): To najbardziej zaawansowany model, w którym partner staje się twórcą oprogramowania, budując dedykowane rozwiązania na otwartych platformach. Przykładem jest projekt „e-zdrowie” realizowany przez S&T i podwykonawców, gdzie na bazie technologii open source (Java, Spring, Angular, PostgreSQL) stworzono kluczową platformę dla państwa. Model ten pozwala na zbudowanie najsilniejszej relacji z klientem i ma najwyższy potencjał marżowości.   

    Te cztery modele tworzą logiczną ścieżkę ewolucji. Firma może rozpocząć od odsprzedaży, by zyski przeznaczyć na budowę kompetencji do świadczenia usług profesjonalnych. Udane projekty otwierają drogę do oferowania usług zarządzanych, a stabilne przychody z tego modelu mogą sfinansować rozwój działu deweloperskiego.

    Ostateczny sukces w nowej erze należeć będzie do tych, którzy przestaną sprzedawać oprogramowanie, a zaczną sprzedawać konkretne, mierzalne rezultaty biznesowe: bezpieczeństwo, elastyczność, redukcję kosztów i innowacyjność.

  • Red Hat rozbudowuje AI dla chmury hybrydowej. Nowe wersje OpenShift i RHEL

    Red Hat rozbudowuje AI dla chmury hybrydowej. Nowe wersje OpenShift i RHEL

    Red Hat kontynuuje rozbudowę swojego portfolio narzędzi do zarządzania sztuczną inteligencją, koncentrując się na integracji z infrastrukturą chmury hybrydowej i zwiększaniu kontroli nad rozwojem modeli AI. Firma udostępniła właśnie nowe wersje Red Hat OpenShift AI (2.18) oraz Red Hat Enterprise Linux AI (1.4), adresując rosnące zapotrzebowanie na skalowalne, bezpieczne środowiska do pracy z modelami językowymi i uczeniem maszynowym.

    Red Hat wyraźnie stawia na budowanie otwartego, kontrolowanego i zgodnego z regulacjami podejścia do sztucznej inteligencji – zarówno na poziomie technologii, jak i kompetencji użytkowników. W przeciwieństwie do czysto chmurowych platform AI, jego propozycja wyróżnia się elastycznością i naciskiem na adaptację modeli do lokalnych danych i warunków. Dla partnerów kanałowych oznacza to szansę na nowe projekty wdrożeniowe – zwłaszcza w sektorach, które cenią sobie przewidywalność, bezpieczeństwo i pełną kontrolę nad infrastrukturą AI.

    Szybsze, bardziej elastyczne OpenShift AI

    Wersja 2.18 OpenShift AI przynosi kilka usprawnień, które mają uprościć pracę zespołów zajmujących się MLOps i LLMOps. Jedną z ważniejszych nowości jest integracja z serwerem wnioskowania vLLM, co umożliwia rozproszoną obsługę dużych modeli AI. Dzięki wykorzystaniu wielu GPU, przetwarzanie danych i generowanie wyników staje się szybsze i bardziej wydajne – co może mieć znaczenie dla firm planujących wdrożenia generatywnej AI na większą skalę.

    Platforma zyskuje też nowe narzędzia do personalizacji modeli. Moduł InstructLab, zintegrowany z pipeline’ami OpenShift AI, upraszcza proces dostosowywania modeli do specyfiki danych firmowych, bez konieczności budowania wszystkiego od podstaw. Dodatkowo pojawiają się tzw. poręcze AI – mechanizmy ograniczające ryzyko generowania niepożądanych treści lub ujawniania poufnych informacji.

    Organizacje zainteresowane oceną jakości modeli mogą teraz skorzystać z narzędzia lm-eval, które pozwala na ich testowanie pod kątem rozumienia tekstu czy zdolności logicznego wnioskowania.

    RHEL AI z mocniejszym modelem i nowym interfejsem

    Równolegle Red Hat udostępnia aktualizację RHEL AI – lekkiego środowiska AI opartego na CentOS Stream i zoptymalizowanego pod kątem edge computingu oraz lokalnych wdrożeń. Wersja 1.4 wprowadza obsługę nowego modelu Granite 3.1 8B, który oferuje zwiększone okno kontekstowe i obsługę wielu języków. To kolejny krok w stronę bardziej uniwersalnych modeli, lepiej dopasowanych do zróżnicowanych przypadków użycia.

    Nowością jest również graficzny interfejs do eksploracji danych oraz narzędzie DK-bench, służące do porównywania modeli pod kątem wydajności i jakości wyników.

    InstructLab w IBM Cloud i nowa oferta szkoleń

    Wiosną Red Hat udostępni InstructLab także w IBM Cloud, oferując klientom dodatkową przestrzeń do bezpiecznego trenowania i wdrażania modeli. Rozwiązanie ma zapewniać pełną kontrolę nad danymi i być alternatywą dla organizacji, które z różnych względów unikają publicznych środowisk AI-as-a-Service.

    Dla klientów zainteresowanych rozwinięciem kompetencji AI, Red Hat przygotował bezpłatne szkolenie AI Foundations – skierowane zarówno do osób zaczynających pracę z AI, jak i tych, którzy chcą pogłębić wiedzę i poznać najlepsze praktyki wdrożeniowe.

  • Chmura w kosmosie: Red Hat i Axiom Space testują orbitalne centrum danych

    Chmura w kosmosie: Red Hat i Axiom Space testują orbitalne centrum danych

    Red Hat i Axiom Space łączą siły, aby uruchomić pierwsze orbitalne centrum danych. Wiosną 2025 roku na pokład Międzynarodowej Stacji Kosmicznej trafi AxDCU-1, prototypowy serwer, który przetestuje możliwości chmury obliczeniowej, sztucznej inteligencji i cyberbezpieczeństwa w przestrzeni kosmicznej.

    AxDCU-1: prototyp orbitalnego centrum danych

    AxDCU-1 to prototyp systemu przetwarzania danych w kosmosie, który posłuży jako środowisko testowe dla aplikacji chmurowych, sztucznej inteligencji (AI), uczenia maszynowego (ML) oraz rozwiązań z zakresu cyberbezpieczeństwa.Jego głównym celem jest przetwarzanie danych bliżej ich źródła, co wpisuje się w ideę edge computing, z tą różnicą, że „krawędź” znajduje się tym razem w przestrzeni kosmicznej. Takie podejście ma na celu zmniejszenie opóźnień związanych z transmisją danych między Ziemią a kosmosem, co pozwoli na szybsze i bardziej bezpieczne podejmowanie decyzji na orbicie.​

    Technologiczne fundamenty: Red Hat Device Edge i MicroShift

    Sercem AxDCU-1 jest oprogramowanie dostarczone przez Red Hat, w tym Red Hat Device Edge, które łączy w sobie MicroShift — lekką dystrybucję Kubernetes opartą na Red Hat OpenShift — oraz Red Hat Enterprise Linux.MicroShift to kompaktowe rozwiązanie Kubernetes, zaprojektowane z myślą o urządzeniach o ograniczonych zasobach, co czyni je idealnym do zastosowań w przestrzeni kosmicznej. Dodatkowo, platforma Red Hat Ansible Automation Platform wspiera automatyczne zarządzanie, umożliwiając uruchamianie hybrydowych aplikacji chmurowych i natywnych obciążeń chmurowych w środowisku brzegowym w kosmosie. ​

    Praktyczne zastosowania orbitalnego centrum danych

    Możliwości zastosowania Orbitalnego Centrum Danych (ODC) są imponujące. Obejmują one przetwarzanie danych w czasie rzeczywistym dla satelitów obserwacyjnych Ziemi, szkolenie modeli AI/ML w kosmosie, uwierzytelnianie wieloskładnikowe, wykrywanie cyberataków, zautomatyzowane misje kosmiczne, analizę pogody kosmicznej oraz tworzenie zapasowych rozwiązań dla krytycznej infrastruktury na Ziemi. Przetwarzanie danych na orbicie pozwala na selekcję i analizę istotnych informacji bez konieczności przesyłania ogromnych ilości surowych danych na Ziemię, co jest nie tylko efektywne, ale i oszczędza cenne zasoby transmisyjne.​

    Kierunek przyszłość: komercjalizacja przestrzeni kosmicznej

    Wprowadzenie AxDCU-1 na ISS to istotny krok w planach Axiom Space dotyczących przeniesienia komercyjnych aplikacji IT w kosmos. Projekt ten jest częścią szerszej inicjatywy budowy komercyjnej stacji kosmicznej Axiom Station oraz tworzenia skalowalnych rozwiązań centrów danych na orbicie. Warto zauważyć, że Axiom Space nie jest osamotniony w tych dążeniach. Inne firmy, takie jak Lonestar Data Holdings, również pracują nad koncepcjami pozaziemskich centrów danych, planując budowę takiego obiektu na Księżycu. Chociaż praktyczność i opłacalność takich planów wciąż pozostają do udowodnienia, to inicjatywy te pokazują rosnące zainteresowanie komercjalizacją przestrzeni kosmicznej.​

  • Certyfikacja Red Hat dla Panasonic TOUGHBOOK – co to oznacza dla użytkowników?

    Certyfikacja Red Hat dla Panasonic TOUGHBOOK – co to oznacza dla użytkowników?

    Panasonic wprowadza przełomową nowość na rynek wytrzymałych urządzeń mobilnych – modele TOUGHBOOK 55 i TOUGHBOOK 33 zostały pierwszymi urządzeniami z tej serii, które otrzymały certyfikację Red Hat Enterprise Linux (RHEL). To istotny krok w kierunku zwiększenia bezpieczeństwa, elastyczności i wydajności w zastosowaniach militarnych oraz przemysłowych. Dlaczego ta certyfikacja jest tak ważna? Wyjaśnia to Hubert Schweinesbein, EMEA Enterprise Ecosystem Leader w Red Hat.

    Stabilność i wsparcie kluczowe dla użytkowników TOUGHBOOK

    Dotychczas wielu użytkowników urządzeń TOUGHBOOK instalowało systemy Linux samodzielnie, co pozwalało na ich optymalizację pod kątem specyficznych wymagań aplikacyjnych i bezpieczeństwa. Jednak bez certyfikacji RHEL nie było gwarancji pełnej kompatybilności i stabilności. Jak tłumaczy Schweinesbein, może to prowadzić do trudności w konserwacji i utrzymaniu sprzętu, szczególnie w warunkach terenowych. Certyfikacja Red Hat Enterprise Linux zapewnia użytkownikom pełne wsparcie, stabilność i zgodność urządzeń z oprogramowaniem, eliminując potencjalne problemy z integracją.

    TOUGHBOOK w zastosowaniach wojskowych

    Sprzęt IT wykorzystywany w sektorze obronnym musi spełniać wyjątkowo rygorystyczne wymagania. Nowoczesne wojska potrzebują wytrzymałych, niezawodnych i bezpiecznych urządzeń, które sprawdzą się zarówno w ćwiczeniach, planowaniu operacyjnym, jak i na polu walki. Połączenie Panasonic TOUGHBOOK i Red Hat Enterprise Linux zapewnia niezawodne wsparcie w zakresie ochrony krytycznych danych i aplikacji. Co więcej, sprzęt musi działać sprawnie także w trybie offline, bez dostępu do wojskowych sieci komunikacyjnych.

    Infrastruktura IT w armii – strategiczny rdzeń i taktyczny brzeg

    Jak wygląda typowa infrastruktura IT w wojsku? Schweinesbein wskazuje na cztery kluczowe poziomy:

    • Strategiczny rdzeń – tradycyjne centra danych, w których przechowywane i przetwarzane są ogromne ilości informacji.
    • Chmura – coraz częściej wykorzystywana do skalowania obliczeń i analizowania danych.
    • Serwerownie brzegowe – rozmieszczone w terenie, zwiększają szybkość przetwarzania danych.
    • Taktyczny brzeg – urządzenia mobilne, które wspierają działania żołnierzy i operatorów dronów.

    Dzięki Red Hat Enterprise Linux użytkownicy mogą korzystać z jednolitej platformy, która zapewnia płynne działanie na każdym z tych poziomów, niezależnie od lokalizacji czy dostępności połączenia sieciowego.

    Bezpieczeństwo, elastyczność i łatwość obsługi

    Red Hat Enterprise Linux to nie tylko stabilność, ale również elastyczność i bezpieczeństwo. System ten wspiera rozwój aplikacji opartych na sztucznej inteligencji i analizie danych w czasie rzeczywistym, co jest kluczowe w zastosowaniach wojskowych. Automatyczne zarządzanie urządzeniami, zabezpieczenie łańcucha dostaw oprogramowania i pełna kontrola nad pochodzeniem aplikacji – to tylko niektóre z korzyści wynikających z wdrożenia tej platformy na urządzeniach TOUGHBOOK.

    Certyfikacja i długoterminowe wsparcie

    Jednym z najważniejszych aspektów certyfikacji RHEL dla TOUGHBOOK jest gwarancja długoterminowego wsparcia. Red Hat zobowiązuje się do zapewnienia aktualizacji zabezpieczeń i poprawek przez co najmniej 10 lat, co odpowiada typowemu cyklowi życia sprzętu wojskowego. Klienci mogą także przedłużyć ten okres w zależności od potrzeb operacyjnych.

    Przykłady zastosowania

    W jaki sposób Panasonic TOUGHBOOK i Red Hat Enterprise Linux wspierają działania militarne? Przykłady praktycznego zastosowania:

    • Autonomiczne drony rozpoznawcze, które zbierają dane w czasie rzeczywistym i przekazują je operatorom w terenie.
    • Mini centra danych w Siłach Powietrznych Włoch, które optymalizują przepustowość sieci i wspierają szybkie podejmowanie decyzji.
    • Bezpieczne aplikacje sterujące dronami, których autentyczność można zweryfikować, eliminując ryzyko cyberzagrożeń.

    Nowa era wytrzymałego IT

    Dzięki certyfikacji Red Hat Enterprise Linux, urządzenia TOUGHBOOK 55 i TOUGHBOOK 33 wchodzą na nowy poziom niezawodności, bezpieczeństwa i elastyczności. To istotny krok zarówno dla sektora obronnego, jak i dla użytkowników cywilnych, którzy wymagają najwyższej jakości sprzętu odpornego na ekstremalne warunki. Panasonic i Red Hat udowadniają, że wytrzymałość i nowoczesne technologie mogą iść w parze, zapewniając użytkownikom sprzęt gotowy na każde wyzwanie.

  • Red Hat wzmacnia integrację AI w środowiskach chmurowych

    Red Hat wzmacnia integrację AI w środowiskach chmurowych

    Red Hat ogłosił rozszerzenie kompatybilności swoich rozwiązań AI, w tym RHEL AI i Red Hat OpenShift AI, z szerokim ekosystemem dostawców sprzętu i oprogramowania. Nowe optymalizacje umożliwiają lepsze działanie systemów akcelerowanych przez GPU i inne układy obliczeniowe dostarczane przez takie firmy jak Nvidia, Lenovo, Dell, Microsoft, AWS i Intel.

    Szersza integracja AI w ekosystemach IT

    Nowe wsparcie obejmuje m.in.:

    • RHEL AI na serwerach Lenovo ThinkSystem SR675 V3, Dell PowerEdge i w chmurze Microsoft Azure,
    • Obsługę akceleratorów AMD Instinct dla RHEL AI,
    • Red Hat OpenShift AI zoptymalizowane pod Intel Gaudi AI, Xeon i Core,
    • Integrację z Nvidia AI Enterprise,
    • Obsługę OpenShift AI i RHEL AI na AWS.

    Rozszerzone wsparcie umożliwia firmom wydajniejsze wdrażanie modeli AI w różnych środowiskach IT, eliminując złożoność integracji.

    AI w środowiskach chmury hybrydowej

    Nowoczesne aplikacje AI powinny działać tam, gdzie znajdują się dane – zarówno w centrach danych, chmurach publicznych, jak i na urządzeniach brzegowych. Red Hat dąży do ułatwienia wdrażania i zarządzania AI w środowiskach hybrydowych, co ma kluczowe znaczenie dla optymalizacji wydajności i minimalizacji opóźnień.

    Dzięki nowym integracjom Red Hat wzmacnia swoją pozycję w segmencie AI i wspiera organizacje w skutecznej implementacji oraz zarządzaniu sztuczną inteligencją w infrastrukturze IT.

  • Dell pokazał oprogramowanie do automatyzacji i rozszerzenia infrastruktury telekomunikacyjnej

    Dell pokazał oprogramowanie do automatyzacji i rozszerzenia infrastruktury telekomunikacyjnej

    W erze cyfrowej transformacji, kiedy dostawcy usług komunikacyjnych (CSP) stają przed wyzwaniami związanymi z zarządzaniem złożoną infrastrukturą telekomunikacyjną i przechodzą do chmury sieciowej, Dell Technologies rzuca rękawicę, prezentując nowe rozwiązania mające na celu automatyzację i uproszczenie tego procesu. Ale czy za obietnicami Dell kryje się prawdziwa wartość dla branży telekomunikacyjnej?

    Automatyzacja na czele innowacji

    Dell Technologies wprowadza pakiet automatyzacji – Dell Telecom Infrastructure Automation Suite – mający na celu rewolucjonizowanie zarządzania cyklem życia infrastruktury chmurowej sieci wielu dostawców. Z zastosowaniem otwartych standardów i interfejsów API, pakiet obiecuje CSP elastyczność w zarządzaniu sieciami, skrócenie czasu wdrożenia i redukcję kosztów operacyjnych. W teorii, jest to krok naprzód ku bardziej zintegrowanej i efektywnej infrastrukturze telekomunikacyjnej. Jednak praktyczne implikacje tych obietnic pozostają niejasne, biorąc pod uwagę złożoność i różnorodność środowisk telekomunikacyjnych.

    Współpraca z Red Hat: klucz do sukcesu?

    Znaczącym aspektem ogłoszenia jest współpraca Dell z Red Hat, mająca na celu obsługę podstawowych obciążeń 5G na obrzeżach sieci. Ta synergia może być kluczowa dla realizacji obietnic Dell, oferując potencjalnie mocne wsparcie dla obciążeń 5G, które są krytyczne dla przyszłości telekomunikacji. Jednak zacieśnienie współpracy z jednym dostawcą oprogramowania niesie ryzyko zbytniego uzależnienia i ograniczenia w wyborze dla CSP.

    Przesadne obietnice vs. rzeczywista wartość

    Dell obiecuje nie tylko automatyzację i uproszczenie zarządzania infrastrukturą, ale także bezproblemową integrację z istniejącymi systemami wsparcia telekomunikacyjnego i kompleksową telemetrię. Chociaż te inicjatywy są godne pochwały, kluczowe będzie zobaczenie, jak Dell zamierza przekuć te obietnice w realne korzyści dla CSP. Historia branży technologicznej jest pełna obietnic, które okazały się trudne do spełnienia.

    Znaczenie dla branży

    Ruch Dell wskazuje na ważny trend w telekomunikacji: przejście od zamkniętych, monolitycznych systemów do otwartych, elastycznych rozwiązań. Jest to zgodne z ogólnym kierunkiem branży w kierunku większej interoperacyjności i otwartości. Jednakże, kluczem do sukcesu będzie nie tylko wprowadzenie nowych technologii, ale także zapewnienie, że te technologie mogą być skutecznie zintegrowane i zarządzane w ramach istniejących ekosystemów.

    Podsumowanie: Ogłoszenie Dell Technologies o wprowadzeniu pakietu automatyzacji i rozszerzeniu portfolio Telecom Infrastructure Block jest bez wątpienia ekscytujące i potencjalnie przełomowe dla branży telekomunikacyjnej. Jednak podczas gdy obietnice Dell brzmią obiecująco, realizacja tych wizji będzie prawdziwym testem ich wartości dla CSP.

  • Red Hat Developer Hub już dostępny

    Red Hat Developer Hub już dostępny

    W świecie technologii, gdzie efektywność i szybkość są kluczowe, Red Hat wprowadza swoje najnowsze narzędzie – Developer Hub. Jest to przełomowy moment dla programistów w organizacjach, który obiecuje zmienić sposób, w jaki zespoły programistyczne współpracują i rozwijają oprogramowanie.

    Główne cechy Red Hat Developer Hub:

    • Dostępność i współpraca: Developer Hub, oparty na projekcie Backstage Cloud Native Foundation, jest teraz ogólnie dostępny. Jego centralna platforma ma na celu zwiększenie produktywności i efektywności pracy programistów.
    • Centralizacja zasobów: Narzędzie centralizuje istotne informacje w łatwo dostępnym portalu samoobsługowym. Oferuje to programistom bezpośredni dostęp do różnych konsol, katalogów oprogramowania, dokumentacji, a także szablonów oprogramowania.
    • Ułatwienie integracji nowych członków: Developer Hub jest nie tylko cenny dla istniejących zespołów, ale także ułatwia integrację nowych członków, co jest kluczowe w dynamicznie zmieniającym się środowisku technologicznym.
    • Rozszerzalność i kontrola dostępu: Podobnie jak w Backstage, Developer Hub oferuje możliwość dodawania wtyczek. Użytkownicy mogą dynamicznie zarządzać tymi wtyczkami, instalując je lub usuwając według potrzeb. Znaczącą funkcją jest wtyczka do kontroli dostępu oparta na rolach, pozwalająca na lepszą kontrolę nad dostępem do różnych części systemu.
    • Integracja z OpenShift: Red Hat oferuje również integrację Developer Hub z własnym rozwiązaniem OpenShift, co zwiększa elastyczność i możliwości narzędzia.

    Wpływ na pracę programistów

    Red Hat Developer Hub jest nie tylko narzędziem technologicznym, ale także rozwiązaniem, które adresuje wyzwania stojące przed programistami. Pomaga ono w zarządzaniu złożonością projektów, brakiem standaryzacji oraz zmniejsza obciążenie psychiczne związane z wymagającymi projektami programistycznymi.

  • Samsung jako pierwszy w branży weryfikuje interoperacyjność pamięci CXL w środowisku Red Hat

    Samsung jako pierwszy w branży weryfikuje interoperacyjność pamięci CXL w środowisku Red Hat

    Samsung ogłosił, że jego pamięć CXL (Compute Express Link) została przetestowana i zweryfikowana w realistycznym środowisku IT opartym na Red Hat Enterprise Linux (RHEL) 9.3. Ale co to właściwie oznacza dla przyszłości centrów danych?

    CXL: nowy standard w świecie pamięci

    Compute Express Link to nie tylko kolejny termin techniczny; to krok ku przyszłości pamięci w centrach danych. Jest to standard otwartej pamięci, umożliwiający chipom, takim jak procesory i GPU, dostęp do współdzielonej pamięci. Co więcej, łączy się z systemem za pośrednictwem PCIe, co zapewnia rozszerzalność i wydajność, nawet jeśli nieco ustępuje tradycyjnej pamięci DDR5 pod względem opóźnień.

    Samsung i Red Hat: współpraca na rzecz innowacji

    Współpraca Samsunga z Red Hat w zakresie integracji CXL wskazuje na poważne zaangażowanie obu firm w rozwój tej technologii. Wspólnie pracują nad przewodnikiem po pamięci RHEL 9.3 CXL, co jest znaczącym krokiem w kierunku ułatwienia użytkownikom implementacji tej nowej technologii. Jest to wyraźny sygnał, że Samsung i Red Hat są zdecydowani uczynić CXL dostępnym i łatwym w użyciu w szerokim zakresie aplikacji.

    Zalety CXL dla centrów danych

    Testy Samsunga w realistycznym środowisku IT pokazują, że pamięć CXL jest gotowa do zastosowania w tradycyjnych centrach danych. Oznacza to, że integracja CXL z istniejącymi systemami jest łatwa i nie wymaga znacznych inwestycji sprzętowych. Dla dostawców IaaS i PaaS, szczególnie tych używających środowisk RHEL, CXL oferuje szybszą drogę do wdrażania, otwierając drzwi do większej elastyczności i efektywności w zarządzaniu zasobami.

    Pomimo obiecujących perspektyw, wdrożenie CXL niesie ze sobą wyzwania. Integracja z istniejącymi systemami wymaga dokładnego planowania i testowania, a także zrozumienia potencjalnych ograniczeń związanych z opóźnieniami i wydajnością w porównaniu do DDR5. Jednakże, elastyczność i skalowalność oferowana przez CXL, w połączeniu z ciągłym wsparciem ze strony firm takich jak Samsung i Red Hat, wskazuje na jasną przyszłość tej technologii w centrach danych.

    Ogłoszenie Samsunga to znaczący postęp w kierunku przyszłości zarządzania pamięcią w centrach danych, który może zrewolucjonizować sposób, w jaki przechowujemy i przetwarzamy dane. Czas pokaże, jak CXL zmieni krajobraz IT, ale jedno jest pewne – zmiany nadchodzą, a Samsung i Red Hat są na czele tej transformacji.

  • Dlaczego w obszarze innowacyjności potrzebna jest demokratyzacja?

    Dlaczego w obszarze innowacyjności potrzebna jest demokratyzacja?

    Umożliwić osobom z zewnątrz wgląd we własne technologie? Podjąć współpracę z konkurencją? Dla wielu firm to wciąż rzeczy niewyobrażalne: tego, co uważają za swoje skarby, strzegą tak, jak się strzeże złota w Fort Knox. Taki model myślenia – izolacja zamiast wspólnego rozwijania nowych rozwiązań – przestał się już jednak sprawdzać.

    Wzrost presji konkurencyjnej w wyniku globalizacji, krótszy cykl życia produktów, a tym samym silniejsza presja na innowacyjność – to czynniki, które w istotnym stopniu wymuszają optymalizację i jakąś formę otwarcia procesu tworzenia innowacji. Wiele podmiotów nie posiada po prostu środków finansowych koniecznych do tworzenia przełomowych nowych rozwiązań, często brakuje im także wewnętrznych zasobów i specjalistycznej wiedzy. To niemal automatycznie rodzi konieczność łączenia sił z parterami, dostawcami, a nawet z innymi graczami na rynku, w celu zminimalizowania ryzyka. Ten trend, dążenie do tak zwanej konkuperacji (ang. coopetition), czyli współpracy między konkurentami, nie wynika bynajmniej z bezinteresowności, lecz z silnego przekonania, że przedsiębiorstwa mogą zdobyć i trwale utrzymać udział w rynku wyłącznie poprzez poszukiwanie nowych dróg.

    W sferze prywatnej błyskawiczną popularność zyskała gospodarka platformowa – portale internetowe oferujące możliwość robienia zakupów, rezerwacji noclegu czy znalezienia partnera życiowego stanowią dziś w oczywisty sposób element codziennego życia. Należy zatem oczekiwać, że siłą rzeczy gospodarka platformowa rozpowszechni się również w obszarze B2B. Bardzo dobrym przykładem jest branża motoryzacyjna – żadna inna nie przeszła w ostatnich latach tak głęboko sięgającej transformacji. Biorąc pod uwagę fakt, że pojazdy stają się coraz bardziej autonomiczne, a mobilność już dawno stała się usługą, menedżerowie z tej branży muszą uważać, żeby lukratywna część biznesu nie przypadła w udziale innym, pozostawiając ich własnym firmom skromną rolę „blacharzy”.

    To prawda, że wszyscy producenci samochodów dążą do zwiększania poziomu kompetencji informatycznych wewnątrz własnej firmy – ale stawiają także na współpracę z innymi podmiotami. W tym celu łączą się oni w ekosystemy, których elementy składowe są odzwierciedleniem całego łańcucha wartości dodanej w branży motoryzacyjnej. Producenci zrozumieli już bowiem, że współpraca w obszarze nieróżnicujących cech produktów zwiększa konkurencyjność w zakresie ich cech różnicujących. Pozwala to na znaczne oszczędności nakładów na te technologie, które nie należą do obszaru zasadniczej działalności firmy, a także zapewnia sytuację, w której producenci oprogramowania, w warunkach już i tak ogromnego popytu na ich usługi, mogą w swojej pracy skoncentrować się na tym, co w oczach klienta wyróżnia daną ofertę spośród otoczenia konkurencyjnego. Gospodarka platformowa jest rozsądniejszą opcją nie tylko ze względów ekonomicznych, ale także ekologicznych. W czasach, gdy rośnie poziom zanieczyszczenia środowiska, topnieją surowce i zwiększa się presja organów regulacyjnych, podjęcie współpracy międzyfirmowej pozwala zaoszczędzić cenne zasoby. Tym samym stanowi ona klucz do bardziej zrównoważonego rozwoju.

    To prawda, że tak zwany próg innowacyjności jest bardzo wysoki. Niezależnie od tego, jaką nazwą się posłużymy – open innovation, platform economy, czy gospodarka informacyjna – idea jest jedna i ta sama: „Po co marnować czas na ponowne odkrywanie czegoś, co odkrył już ktoś inny i to posiadający prawdopodobnie lepszy know-how?”. Fundamentem innowacji są dziś ekosystemy i platformy cyfrowe, będące również głównym hasłem ruchu open source. Zamiast wydatkować znaczne kwoty i zasoby w tworzenie produktów i rozwiązań od zera, przedsiębiorcy mogą wykorzystywać technologie już istniejące, „uszlachetniając” je własnymi pomysłami. Szczególnie w czasach kryzysu, kiedy ogranicza się budżety na nowe projekty, koncepcja platformy w istotny sposób obniża próg innowacyjności dla przedsiębiorstw. I właśnie ta demokratyzacja jest nam pilnie potrzebna.

  • Red Hat z nowym liderem w Europie Środkowo-Wschodniej

    Red Hat z nowym liderem w Europie Środkowo-Wschodniej

    Agnes Dora Fabok została dyrektorem generalnym Red Hat w regionie Europy Środkowo-Wschodniej, wraz z zespołem liderów skupionych wokół Dietera Fernera-Pandolfi, Richarda Zobrista, Gregora von Jagow i Dinko Eror.

    Fabok wnosi ze sobą ponad 20-letnie doświadczenie w kierowaniu działami IT, zdobyte podczas pracy w firmach technologicznych, takich jak Serrala Group GmbH, Kofax Austria GmbH i Iron Mountain, gdzie pełniła funkcję szefa sprzedaży EMEA Global Digital Solutions. W Red Hat będzie aktywnie wspierać klientów i partnerów w rozwijaniu biznesu w regionie, poprzez pełne wykorzystanie otwartych technologii chmury hybrydowej Red Hat i koncentrację na wspieraniu partnerów w Europie Środkowo-Wschodniej.

    Fabok skupi się na zapewnianiu klientom wyjątkowych doświadczeń i sukcesów, a wszystko to przy jednoczesnym wzmacnianiu otwartej, integracyjnej kultury Red Hat.

  • Red Hat wprowadza na rynek rozwiązanie Ansible Automation Platform on Google Cloud

    Red Hat wprowadza na rynek rozwiązanie Ansible Automation Platform on Google Cloud

    Red Hat Inc., największy na świecie dostawca rozwiązań open source, poinformował o udostępnieniu produktu Red Hat Ansible Automation Platform on Google Cloud – elastycznego rozwiązania do automatyzacji infrastruktur informatycznych, które obejmuje obszar od chmury poprzez centrum przetwarzania danych po brzeg sieci. Rozwiązanie to jest proste w obsłudze i nie wymaga od użytkowników dodatkowych umiejętności. Ansible Automation Platform on Google Cloud ułatwia informatykom dostęp do znanej im już znakomitej platformy automatyzacji infrastruktur informatycznych, zintegrowanej z używanymi przez nich procesami. Umożliwia im szybsze rozpoczęcie automatyzacji na dużą skalę w całym ekosystemie informatycznym.

    Jak wynika z raportu firmy IDC1, „w celu uproszczenia procesów i obniżenia kosztów szkolenia w zakresie obsługi środowisk wielochmurowych działy informatyczne szukają rozwiązań, które umożliwią im automatyzację opartą o zasadę „naucz się raz – stosuj wszędzie”. Udziały w rynku będą zwiększać ci dostawcy, którzy oferują infrastrukturę jako kod, aby udostępniać zasoby w chmurze w ścisłym powiązaniu z automatyzacją” . 

    Zarządzanie wieloma chmurami jest coraz bardziej złożone, z czym często wiąże się brak wykwalifikowanego personelu. Firmy potrzebują więc technologii, które są elastyczne i innowacyjne, a równocześnie umożliwiają maksymalne wykorzystanie dostępnych zasobów i kwalifikacji. Ansible Automation Platform zapewnia krytyczną infrastrukturę, która umożliwia wdrażanie bardziej skalowalnych rozwiązań do automatyzacji, opartych na natywnej architekturze chmurowej. Pomaga to w zwiększeniu roli automatyzacji w całym dziale informatycznym oraz obniżeniu barier, które dotychczas nie pozwalały na stosowanie takich technologii. Odciąża również informatyków, dzięki czemu mogą oni generować większe korzyści dla firmy. Ta nowa platforma jest dostępna w serwisie Google Cloud Marketplace, co ułatwia użytkownikom szybki dostęp do prostych w obsłudze i zoptymalizowanych pod kątem chmury rozwiązań do automatyzacji, gotowych do użycia natychmiast po zainstalowaniu.

    To rozwiązanie Red Hat, zarządzane samodzielnie przez użytkowników, firmy mogą instalować bezpośrednio z serwisu Google Cloud Marketplace, aby szybko rozpocząć automatyzację procesów zarządzania swoimi zasobami w chmurze Google Cloud. Dzięki rozwiązaniu Ansible Automation Platform użytkownicy serwisu Google Cloud mogą uzyskać dostęp do wstępnie zintegrowanych usług, które są im już znane, takich jak chmura Google Virtual Private Cloud, grupy bezpieczeństwa, moduły równoważące obciążenie, Google Compute i grupy instancji. Ułatwi im to wdrożenie automatyzacji i zarządzanie nią. Należności za korzystanie z rozwiązania Ansible Automation Platform klienci mogą rozliczać za pomocą zintegrowanych narzędzi bądź w ramach zawartych wcześniej umów z Google dotyczących zadeklarowanych wydatków. 

    Pakiety treści dostępnych w chmurze, takie jak Red Hat Ansible Certified Content Collection for Google Cloud, pomagają w automatyzacji procesów w środowisku informatycznym i całej firmie. Zapewniają bardziej efektywne sposoby tworzenia i udostępniania treści oraz zarządzania nimi, z możliwością bezpiecznego korzystania z nich w dowolnym miejscu i czasie. Informatycy mogą zintegrować procesy automatyzacji z procesami używanymi już w przedsiębiorstwie oraz procedurami nadzoru na dużą skalę, w sposób dostosowany do potrzeb. Dzięki temu wszystkie procesy automatyzacji w chmurze są spójne.

    Firma Red Hat dąży do zapewnienia klientom jak największego wyboru. Rozwiązanie Ansible Automation Platform on Google Cloud Marketplace rozszerza ten wybór na chmurę hybrydową. Klienci mogą teraz łatwiej kupować i wdrażać rozwiązania Red Hat w chmurach największych dostawców. Wdrażając rozwiązania Red Hat Enterprise Linux, Red Hat Enterprise Linux for SAP i Red Hat OpenShift w serwisie Google Cloud Marketplace, klienci i partnerzy mogą korzystać z rozwiązań Red Hat w sposób najlepiej dopasowany do swoich potrzeb informatycznych i biznesowych.

    Dostępność

    Rozwiązanie Red Hat Ansible Automation Platform, zarządzane samodzielnie przez użytkownika, jest teraz dostępne bezpośrednio dla klientów w serwisie Google Cloud Marketplace.

  • Red Hat i Oracle rozszerzają współpracę

    Red Hat i Oracle rozszerzają współpracę

    Red Hat oraz Oracle poinformowali o nawiązaniu wieloetapowej współpracy mającej na celu zaoferowanie klientom większej możliwości wyboru systemów operacyjnych uruchamianych na platformie Oracle Cloud Infrastructure (OCI). Pierwszym owocem tej strategicznej współpracy jest wprowadzenie obsługi systemu operacyjnego Red Hat Enterprise Linux na platformie OCI. Zwiększa to komfort działania firmom, które wykorzystują zarówno OCI, jak i Red Hat Enterprise Linux do przeprowadzania transformacji cyfrowej oraz migracji newralgicznych aplikacji do chmury.

    W raporcie firmy Gartner pt. „Forecast: Public Cloud Services, Worldwide, 2020-2026, 4Q22 Update” (Prognoza: usługi chmury publicznej w ujęciu globalnym, 2020-2026, IV kw. 2022 – aktualizacja) czytamy, że „w 2023 roku przewiduje się wzrost wartości globalnego rynku usług chmury publicznej o 18,5% ”, podczas gdy „przedsiębiorstwa nadal przyspieszają wdrażanie chmury, co przekłada się na pięcioletni skumulowany roczny wskaźnik wzrostu (CAGR) na poziomie 19,6%”. Wzrost ten wskazuje na potrzebę zapewnienia klientom szerokich możliwości wyboru, zarówno w zakresie dostawcy chmury, jak i systemu operacyjnego stanowiącego podstawę środowisk chmurowych.

    Dziewięćdziesiąt procent firm z listy Fortune 500 wykorzystuje obecnie rozwiązania Red Hat i Oracle. Dla wielu z tych firm Red Hat Enterprise Linux służy jako podstawowy system operacyjny, z kolei OCI udostępnia im wysoce wydajne, newralgiczne usługi w chmurze, aby umożliwić realizację działań związanych z cyfrowym rozwojem. Obecnie przedsiębiorstwa te mogą ujednolicić swoje działania w chmurze dzięki systemowi Red Hat Enterprise Linux działającemu na platformie OCI. Dzięki temu klienci uzyskują wspólną platformę rozciągającą się od ich centrum przetwarzania danych po rozproszoną chmurę OCI.

    Dzięki tej strategicznej współpracy certyfikowane konfiguracje elastycznych maszyn wirtualnych OCI mogą teraz wykorzystywać system Red Hat Enterprise Linux, a klienci mogą z kolei z większym zaufaniem migrować istniejące obciążenia – które już teraz są uruchamiane w systemie Red Hat Enterprise Linux – do Red Hat Enterprise Linux na platformie OCI. Elastyczne maszyny wirtualne OCI mogą być skalowane w przyrostach nawet tak małych jak pojedynczy procesor. Pozwala to zoptymalizować stosunek ceny do wydajności oraz zminimalizować marnowanie zasobów. Klienci mogą również skontaktować się z działem wsparcia technicznego zarówno Red Hat, jak i Oracle, aby uzyskać pomoc w rozwiązaniu potencjalnych problemów dzięki rozszerzonej, przejrzystej, wspólnej umowie o świadczenie wsparcia.

    Red Hat Enterprise Linux stanowi podstawę oferty rozwiązań chmury hybrydowej firmy Red Hat, w skład której wchodzą Red Hat OpenShift, Red Hat Ansible Automation Platform oraz dodatkowe technologie obsługujące nowoczesny stos chmurowy. Dzięki tej współpracy wspólni klienci firm Red Hat i Oracle mogą teraz stworzyć podstawy pod przyszłe wdrożenia w oparciu o system Red Hat Enterprise Linux, zachowując jednocześnie wartość dotychczasowych inwestycji informatycznych.

    Dostępność

    Red Hat Enterprise Linux jest obecnie certyfikowany na elastycznych maszynach wirtualnych OCI, które oferują od jednego do 80 rdzeni CPU w przyrostach jednoprocesorowych oraz od 1 GB pamięci na procesor do łącznej ilości 1024 GB, w zależności od procesora. Na początek Red Hat Enterprise Linux będzie obsługiwany na najnowszych typach maszyn wirtualnych OCI wykorzystujących procesory AMD, Intel i ARM.

  • „Przyszłość IT jest hybrydowa” – nowa współpraca na rynku pamięci masowych

    „Przyszłość IT jest hybrydowa” – nowa współpraca na rynku pamięci masowych

    Red Hat i IBM Storage łączą siły w zakresie pamięci masowej i tworzą jedną grupę w ramach IBM. Dzięki połączeniu celów, zespołów i technologii możliwe będzie pełniejsze wykorzystanie atutów obu firm, aby dalej i szybciej rozwijać ten obszar działalności i przyspieszyć wprowadzanie innowacji w zakresie chmurowej pamięci masowej sterowanej programowo. Synergia zapewni także nowe możliwości klientom IBM i Red Hat oraz umożliwić IBM zdobycie pozycji lidera rynku pamięci masowej dla przedsiębiorstw oraz oprogramowania do obsługi pamięci masowej w chmurze hybrydowej.

    Grupa ta będzie odpowiedzialna za rozwój i dostarczanie rozwiązań Red Hat OpenShift Data Foundation i Red Hat Ceph Storage oraz powiązanych ofert usług chmurowych. Red Hat OpenShift Data Foundation i Red Hat Ceph Storage mają swoje korzenie w oddolnych społecznościach open source Rook i Ceph, w których Red Hat wnosi swój zasadniczy wkład od kilku lat. Ponadto obejmują bramę wielochmurową wskutek wcześniejszego przejęcia NooBaa przez Red Hat. Uważamy, że ważne jest, aby te działania były kontynuowane. Zachowają one charakter open source, a IBM zobowiązał się do prowadzenia społeczności Rook i Ceph oraz kontynuowania silnego związku z nimi po połączeniu.

    Dotychczasowi klienci nie zauważą żadnych zmian w użytkowaniu. Red Hat będzie nadal sprzedawać i wspierać rozwiązania Red Hat OpenShift Data Foundation i Red Hat Ceph Storage wraz z platformami Red Hat, tak jak zawsze przez ostatnie kilka lat, aby umożliwić klientom zachowanie ciągłości i uzyskanie większych korzyści z tego połączenia. Technologie te będą nadal służyć jako zintegrowane rozwiązania pamięci masowej odpowiednio dla platformy Red Hat OpenShift Container Platform i Red Hat OpenStack Platform, a platforma Red Hat OpenShift Platform Plus będzie nadal obejmować rozwiązanie Red Hat OpenShift Data Foundation Essentials. Ponadto Red Hat OpenShift Data Foundation stanie się podstawową warstwą usług danych dla oprogramowania IBM Spectrum Fusion w środowiskach chmury hybrydowej i publicznej. To połączenie zapewnia klientom spójny zestaw usług pamięci masowej dla aplikacji działających na platformie Red Hat OpenShift, niezależnie od tego, czy są one uruchamiane w środowisku fizycznym, czy w chmurach publicznych.

    Wierzymy, że przyszłość IT jest hybrydowa. Dostrzegamy to każdego dnia, ponieważ środowiska te stają się normą dla wielu organizacji, zwłaszcza jako siła napędowa transformacji cyfrowej. Z kolei wdrożenie strategii chmury hybrydowej przyspiesza rozwój rynku oprogramowania do obsługi pamięci masowej, a elastyczność architektur chmurowych umożliwia przedsiębiorstwom udostępnianie aplikacji i danych w czasie, miejscu i w sposób, w jaki dana firma tego potrzebuje. Firma analityczna IDC również zwraca uwagę na tę zmianę, przewidując w 2021 roku, że „85% przedsiębiorstw będzie korzystać z oprogramowania i infrastruktury opartej na chmurze, aby zwiększyć o 35% zrównoważoną wydajność obciążeń i centrów przetwarzania danych do 2025 roku”.1

    Wybiegając w przyszłość, jesteśmy podekscytowani możliwościami, jakie te technologie oferują, oraz rolą, jaką będą nadal odgrywać w cyfrowej transformacji naszych klientów.


    Autor: Ashesh Badani, starszy wiceprezes ds. produktów, Red Hat


    1 IDC FutureScape: Worldwide Cloud 2022 Predictions (October 2021, Doc #US47241821)

  • Open source – dlaczego warto postawić na otwartość?

    Open source – dlaczego warto postawić na otwartość?

    Jeżeli ostatnie 15 lat czegoś nas nauczyło, to tego, aby oczekiwać nieprzewidywalnego. Niewiele osób przewidziało kryzys finansowy w 2009 roku. Nikt nie przewidział pandemii COVID-19. Każde takie wydarzenie pokazuje, że to, co ma sens dziś, jutro może się okazać bezsensowne. Parafrazując często wypowiadane przez przywódców powiedzenie: żaden plan nie przetrwa konfrontacji z czasem.

    Wydarzenia te mają daleko idące skutki – nie tylko dla życia jednostek, ale dla całych społeczeństw i działalności biznesowej. Chcę dziś skupić się na tym, w jaki sposób przedsiębiorstwa mogą chronić się przed takimi wstrząsami. A dokładniej, w jaki sposób wybór technologii może zwiększyć ich odporność.

    Linia argumentacji

    Wstrząsy są – ze swojej natury – nieprzewidywalne. Jeśli nie da się przewidzieć zagrożenia, to jak łagodzić jego skutki, gdy nadejdzie? Często kluczem jest szybkość reagowania – umiejętność odsunięcia od siebie zagrożenia, zanim nas dotknie. Problem tkwi w tym, jak zapewnić to szybkie reagowanie.

    Każda dobrze zarządzana firma przyjmuje takie podejście w sferze finansów – często utrzymuje rezerwy w różnych aktywach i walutach, aby ograniczyć skutki nagłej utraty wartości jednej z nich i zachować płynność umożliwiającą dywersyfikację na bezpieczniejsze inwestycje. To samo dotyczy krajów i ich bezpieczeństwa energetycznego.

    Odnieśmy to teraz do branży technologicznej. Gdy przedsiębiorstwo uzależnia się całkowicie od jednego dostawcy, to koniec końców jest zdane na jego łaskę i niełaskę. Jeśli coś pójdzie nie tak albo relacje z dostawcą ulegną pogorszeniu, takie przedsiębiorstwo nie ma alternatywy. A przynajmniej nie od razu. Historia pokazuje, że to może się wydarzyć. 2e2, Nirvanix, Fusion – oto kilka przykładów renomowanych firm zajmujących się przetwarzaniem i przechowywaniem danych w chmurze, które niestety upadły.

    Nagła podwyżka cen, naruszenie bezpieczeństwa lub pojawienie się w branży nowego, innowacyjnego gracza – wszystkie te czynniki mogą skłaniać do zmiany dostawcy rozwiązań. Ale im większa zależność od aktualnego dostawcy, tym trudniej to osiągnąć.

    Gdy firma ma możliwość swobodnego przemieszczania aplikacji i obciążeń między poszczególnymi środowiskami, może zwiększać lub zmniejszać ich wykorzystanie w zależności od potrzeb. Dlatego właśnie rozsądną strategią stało się hybrydowe podejście do infrastruktury – łączenie środowiska lokalnego z chmurą, chmury prywatnej z chmurą publiczną, a także różnych chmur publicznych ze sobą.

    I również dlatego infrastrukturę hybrydową uzupełnia oprogramowanie open source. Nie chodzi tylko o to, że mając dane bazowe, można przenieść aplikację do innej infrastruktury albo przenieść dane do całkiem nowej aplikacji. Oprogramowanie open source sprzyja elastyczności, ponieważ stoi za nim społeczność, a indywidualni współtwórcy zwykle szybciej reagują na kryzys niż duże firmy, gdzie panuje ścisła hierarchia i złożone struktury decyzyjne.

    Jak być w czołówce innowacyjności

    Na szczęście duże wstrząsy zdarzają się dość rzadko. Na co dzień w firmach więcej czasu poświęca się na myślenie o rozwoju i zdobywaniu rynku, oraz odpowiednie planowanie. W takiej sytuacji połączenie oprogramowania open source z infrastrukturą hybrydową jest doskonałym sposobem na wprowadzanie innowacji.

    Także tutaj źródłem wartości jest społeczność open source. Logika jest prosta. W pokoju jest 100 osób. Czy stawiasz na to, że najlepszy pomysł będzie dziełem jednej osoby, czy może efektem zbiorowego wysiłku pozostałych 99 osób? Innowacyjność nigdy nie rodzi się w jednym miejscu. Technologia open source daje dostęp do wszystkich i wszędzie. To oznacza więcej osób z pomysłem, więcej osób czuwających nad poprawnością oraz więcej osób zapewniających wsparcie.

    Innowacyjność nie polega na kupowaniu „nowinek”. Jak niedawno wyjaśnił nasz dyrektor generalny Paul Cormier, takie podejście nie jest ani praktyczne, ani zrównoważone. W innowacyjności chodzi o modernizację, czyli udoskonalanie tego, co mamy. Jeżeli pod względem wprowadzania innowacji jesteśmy uzależnieni od chęci i możliwości dostawcy, to zawsze będziemy w tyle. Technologia open source daje kontrolę i zgodność operacyjną, które sprzyjają myśleniu w kategoriach „zbuduj to lepiej”, co z kolei rodzi bardziej proaktywne podejście do szukania nowych możliwości komercyjnych.

    Wiedzą o tym prywatne firmy technologiczne. Google ma Kubernetes i Fluttera; Microsoft – Azure Docs i VS Code; AWS i Apple używają Linuksa. Najlepszym przykładem potencjału innowacyjności, jaki ma w sobie technologia open source, jest bitcoin. Ta kryptowaluta osiągnęła kapitalizację rynkową rzędu 800 miliardów dolarów dzięki pomysłowości i zaangażowaniu społeczności, która ją stworzyła i utrzymuje.

    Eliminowanie nadmiernej złożoności

    Im więcej czegoś mamy, z tym większą złożonością musimy się mierzyć. Środowisko lokalne, w którym działa tylko kilka programów, jest uporządkowane i łatwo nim zarządzać. Jednak infrastruktura hybrydowa z oprogramowaniem open source działająca na dużą skalę musi być dopracowana.

    Bez odpowiedniej orkiestracji – czyli koordynacji – sytuacja może stać się skomplikowana i kosztowna.

    Wiemy o tym intuicyjnie. Biblioteki pozwalają uporządkować informacje; w samochodach znajdują się skoordynowane systemy mechaniczne, nawigacyjne i rozrywkowe; smartfony aranżują nasze życie. Orkiestracja usuwa ograniczenia, umożliwiając wybór i skalowanie.

    Dotyczy to również technologii wykorzystywanych w przedsiębiorstwach. Platforma orkiestracji – na przykład Red Hat OpenShift – eliminuje złożoność poprzez umożliwienie współdziałania oprogramowania (i jego poszczególnych składników) niezależnie od tego, gdzie jest uruchomione. Ma to kluczowe znaczenie dla skutecznego modernizowania aplikacji, ponieważ umożliwia przedsiębiorstwu refaktoryzację albo całkowitą przebudowę oprogramowania z użyciem kontenerów i mikroserwisów. Dodatkowa warstwa automatyzacji zapewnia płynność działania.

    Kultura – ostatni element układanki

    Orkiestracja to nie tylko kwestia organizacji i automatyzacji produktów i reguł. Technologia sama w sobie jest pozbawiona wartości, jeśli nie ma wsparcia ze strony ludzi. To ludzie wdrażają technologię i sprawiają, że staje się produktywna.

    A zatem należy objąć orkiestracją ludzi. Tylko co to właściwie znaczy? Odpowiedzią na oba te pytania jest kultura. A bardziej konkretnie: otwarta kultura.

    Nie ma sensu umożliwiać wyboru technologii, jeśli jednocześnie ludzie nie będą mieć odpowiednich zdolności do dokonywania wyborów. To właśnie rozumiemy przez otwartą kulturę. Zaufanie do współpracowników i ocenianie ich pomysłów na podstawie wartości merytorycznej, a nie stażu pracy osoby, która je proponuje. Wspieranie „cichych talentów” wewnątrz firmy i ich pomysłów. Logicznym efektem tego podejścia jest zróżnicowanie wiedzy i doświadczenia.

    Aby czerpać korzyści z kontroli i elastyczności infrastruktury hybrydowej i oprogramowania open source, trzeba też przyjąć otwartą kulturę.

    Wkład w tworzenie historii

    Oto strategia, po którą sięga większość przedsiębiorstw. Niedawne badanie ankietowe przeprowadzone przez Red Hat wśród prawie 1300 szefów działów IT z całego świata pokazuje, jak te argumenty odzwierciedlają się w praktyce: aż 95% respondentów stwierdziło, że technologia open source jest ważna dla całej infrastruktury organizacji, a wśród najważniejszych powodów wymieniło wzrost elastyczności (79%), dostęp do innowacji (77%) i wsparcie dla strategii chmur hybrydowych (77%).

    Wyniki tej analizy branżowej dostarczają przekonujących argumentów za technologią open source. Firma dobrze przygotowana na przetrwanie wstrząsów i wykorzystywanie szans odniesie większy sukces niż przedsiębiorstwo działające w sztywnych ramach. Rezygnacja z technologii open source i infrastruktury hybrydowej jest równoznaczna z przekonaniem, że jesteśmy u kresu historii i widzieliśmy już wszystkie możliwe zawirowania, jakie mogą się wydarzyć na świecie i na rynkach. Wystarczy jednak rozejrzeć się wokół, aby stwierdzić, że wcale tak nie jest.


    Autor: Hans Roth, starszy wiceprezes i dyrektor generalny w EMEA, Red Hat

  • Innowacyjność nie idzie w parze z bezpieczeństwem? Niekoniecznie…

    Innowacyjność nie idzie w parze z bezpieczeństwem? Niekoniecznie…

    W tradycyjnym spojrzeniu bezpieczeństwo stanowi blokadę dla innowacyjności. Zespoły DevOps chcą mieć możliwość uwolnienia swojego potencjału i kreatywności oraz wdrażania technologii chmurowych, takich jak Docker, Kubernetes, PaaS i architektur bezserwerowych.

    Jednakże kwestia bezpieczeństwa wiąże się z wprowadzaniem zasad i protokołów, które ograniczają wybór i wolność. Tym bardziej, jeśli bezpieczeństwo opiera się na odizolowanych od siebie rozwiązaniach i procesach operacyjnych. Takie fragmentaryczne podejście zwiększa złożoność oraz bardziej obciąża zespoły ds. bezpieczeństwa, które z kolei stają się bardziej defensywne w zarządzaniu ryzykiem.

    99% oprogramowania komercyjnego zawiera przynajmniej jeden komponent open-source i ta powszechność czyni je celem. Nie dziwi więc fakt, że w 2021 roku nastąpił 650% wzrost liczby ataków na łańcuchy dostaw oprogramowania, których celem były luki w zabezpieczeniach w oddolnych społecznościach open source.

    Pojedyncza luka może kosztować miliony w karach, a jeszcze więcej w utraconym zaufaniu. Przedsiębiorstwa muszą być świadome tego, jakie oprogramowanie open source wdrożyły i jak aktywnie nim zarządzają.

    Zabezpieczenie się przed tymi zagrożeniami nie jest łatwym zadaniem. Nie należy bagatelizować kwestii zarządzania bezpieczeństwem we własnym zakresie oraz inwestycji w wiedzę i pracowników. „Czy wiesz, jakie oprogramowanie wdrożyłeś? Czy jest ono kompatybilne z zabezpieczeniami Twojej infrastruktury? Czy dysponujesz narzędziami identyfikacji luk w zabezpieczeniach? Czy potrafisz naprawić znalezione problemy?” To tylko niektóre z podstawowych pytań, jakie musi zadać sobie zespół ds. bezpieczeństwa.

    Jeśli nie potrafi na nie odpowiedzieć, to co przedsiębiorstwo powinno zrobić? Przestać korzystać z oprogramowania open source? To jest równie ryzykowne. W 2021 r. wprowadzono sześć milionów nowych wersji oprogramowania open source, które pomogły przedsiębiorstwom wprowadzać innowacje, a ostatecznie także osiągać zyski.

    Pozytywne podejście do kwestii bezpieczeństwa

    Jest jeszcze inny sposób, aby ograniczyć nieodłączne zagrożenia związane z oprogramowaniem open source bez konieczności angażowania znacznych zasobów wewnętrznych. W ramach tego podejścia nie należy odpowiadać „nie”, gdy ktoś mówi: „Chcę spróbować tego, chcę pracować z tym narzędziem”. Bezpieczeństwo powinno raczej stać się powodem, dla którego możesz powiedzieć „tak”.

    Bezpieczeństwo to zasadniczo kwestia kultury. A konkretnie: otwartej kultury. W otwartej kulturze innowacyjność i bezpieczeństwo nie stoją ze sobą w sprzeczności. Wzajemnie się przenikają. Chodzi o bezpieczeństwo i tworzenie oprogramowania, czyli DevSecOps.

    Kwestia bezpieczeństwa nie jest już ograniczona do konkretnego zespołu w końcowej fazie tworzenia. Biorąc pod uwagę dzisiejsze szybkie cykle wydawnicze, bezpieczeństwo musi być traktowane priorytetowo i zostać włączone w przepływy pracy DevOps, a nie dopiero na etapie, gdy aplikacja ma być wdrożona w środowisku produkcyjnym.

    Często wymaga to zmian organizacyjnych, innych praktyk pracy i „resetu kulturowego”.

    78% przedsiębiorstw objętych badaniem Red Hat pt. „State of Kubernetes Security Report 2022” realizuje projekty DevSecOps, a 27% integruje i automatyzuje zabezpieczenia w całym cyklu życia aplikacji.

    Jednakże bezpieczeństwo oprogramowania open source wykracza poza procesy wewnętrzne. To kwestia przewagi liczebnej: Ty kontra napastnicy. Cyberprzestępcy myślą jak programiści. W ten sposób planują swoje ataki. Tak więc, im więcej programistów po Twojej stronie, którzy szukają błędów i luk w kodzie, tym bezpieczniejszy jest ten kod i tym bardziej sfrustrowani będą atakujący.

    Kluczem jest przejrzystość. Zmienia ona bezpieczeństwo z czegoś tajnego na coś, co jest wspólne. Każdy jest jego właścicielem, a wszystko dzieje się publicznie. Open source oznacza więcej osób, które mogą zidentyfikować lukę w zabezpieczeniach, więcej osób do jej zbadania, więcej do opracowania i przetestowania poprawki oraz więcej użytkowników końcowych świadomych i zdolnych do podjęcia działań.

    Luki w zabezpieczeniach należy doceniać. Znajdź je szybko, napraw je szybko i ucz się na nich. Jest to wysiłek grupowy i spirala sukcesu, w której im więcej uczestników i otwartości, tym lepsze efekty. Porównajmy to z własnościowym spojrzeniem na bezpieczeństwo, które ostatecznie opiera się na świadomości i umiejętnościach stosunkowo niewielu osób.

    Dużym wyzwaniem dla bezpieczeństwa oprogramowania open source jest to, że narzędzia i technologie DevOps – kontenery, Kubernetes, Docker, mikrousługi – zapewniają wiele opcji konfigurowania, które mogą wpłynąć na poziom bezpieczeństwa aplikacji. Błędna konfiguracja stanowi zagrożenie dla bezpieczeństwa. Automatyzacja zarządzania konfiguracją, tak aby technologia (a nie człowiek) zapewniała barierę ochronną, ogranicza te problemy.

    Poznaj swoje źródło

    Liczy się jednak pochodzenie. Wiedza o tym, skąd pochodzi oprogramowanie open source, to Twoja pierwsza linia obrony. Jedną z najwspanialszych rzeczy w open source jest to, że przedsiębiorstwo dowolnej wielkości może swobodnie wdrażać technologie open source i używać ich. Minusem jest związana z tym inwestycja, którą należy poczynić, aby upewnić się, że projekty te są odpowiednio sprawdzone, zweryfikowane i zabezpieczone przez Twoich własnych programistów, zanim zostaną wprowadzone do produkcji.

    Opcjonalnie możesz poszukać oprogramowania open source udostępnianego przez dostawców, którzy wykonują za Ciebie kontrole bezpieczeństwa i aktualizacje. Im mniej dostawców, od których uzyskujesz swoje oprogramowanie, tym mniej partnerów, którym musisz zaufać lub od których otrzymujesz wsparcie. Mniej systemów to także mniejsza złożoność, a więc mniej pracy do wykonania. Lista zakupów powinna zawierać:

    oprogramowanie, które jest pozyskiwane ze zweryfikowanych i bezpiecznych sieci dystrybucji oraz certyfikowane pod kątem autentyczności;
    kod, który jest przechowywany w bezpiecznych wewnętrznych repozytoriach;
    pakiety, które są certyfikowane i silnie zabezpieczone przed manipulacją;
    oraz podlegają minimalnym modyfikacjom kodu w okresie eksploatacji produktu.

    Więcej niż bezpieczeństwo

    Jeśli zostawisz bezpieczeństwo na koniec, to będzie ono przeszkadzać, przerywać pracę, ograniczać Cię, a w efekcie odciągać Twoją uwagę i zasoby od działań, które naprawdę mogą pomóc w rozwoju Twojego przedsiębiorstwa. Z kolei uwzględniane od samego początku – w pakiecie oprogramowania, procesach bezpieczeństwa dystrybutora i platformie wdrożeniowej – bezpieczeństwo napędza innowacje. Staje się niewidocznym, działającym w tle elementem, który zapewnia produktywność, a nie ją ogranicza.


    Autor: Wojciech Furmankiewicz, Head of Technology & Solutions Red Hat w regionie Europy Środkowo-Wschodniej

  • Banki przyszłości będą tworzone z gotowych elementów

    Banki przyszłości będą tworzone z gotowych elementów

    Zacznijmy od tego, iż mowa tutaj nie o fizycznych placówkach bankowych, a ich cyfrowych odpowiednikach, w formie aplikacji, które konsekwentnie i coraz szybciej zastępują tradycyjne banki. Najnowsza analiza firmy Self Financial Inc., dość prowokacyjne zatytułowana „The death of the banks”, przekonuje, że absolutnie wszystkie „klasyczne” placówki bankowe mają zniknąć z ulic na całym świecie już do 2034 roku.

    W zmieniającym się otoczeniu konkurencyjnym, najwięcej do osiągnięcia mają więc te instytucje finansowe, które podążają za duchem czasu. Banki, które podejmują śmielsze kroki na rzecz budowania strategicznych partnerstw mają szansę dokonać radykalnej transformacji zarówno samych siebie i całego sektora. Mimo tego, że „reformy” w ramach otwartej bankowości zachęcają firmy z branży do otwierania dla siebie nawzajem architektur swoich systemów, to wciąż jest tu wiele potencjału do uwolnienia. W modelach biznesowych zakładających współdziałanie mamy bowiem mnóstwo możliwości dla kreatywnych rozwiązań, oprócz standardowego dostosowania się do obowiązujących przepisów w wymaganym terminie i udostępniania API dla usług agregacji. Szanse tego rodzaju już od dawna wykorzystują firmy oferujące infrastrukturę w chmurze (web-scale) i startupy dostarczające technologie dla sektora finansowego.

    Deutsche Bank, BBVA oraz neobank bunq to przykłady banków, które zdają sobie sprawę z wartości jaką niesie tworzenie społeczności otwartych usług finansowych. Większość firm z branży finansowej wciąż jednak nie skorzystała z szansy na zacieśnienie współpracy i wykorzystanie gotowych rozwiązań podmiotów zewnętrznych, które pozwolą zaoszczędzić czas i zasoby, a pracownikom działów wewnętrznych umożliwią koncentrację na innych ważnych zadaniach. Jak można uwolnić się od skostniałych struktur i postaw, by poszerzyć i ulepszyć współpracę z partnerami?

    Krok 1: Nastawienie na rozwój

    Zbudowanie bliższych relacji strategicznych z partnerami wymaga od większości firm z branży zmiany nastawienia. W tradycyjnym środowisku banki najczęściej traktowały podmioty zewnętrzne jako dostawców, a relację z nimi jako transakcję wymiany w kontekście umów regulujących szczegółowo kwestię świadczenia usług. Teraz banki powinny raczej nastawić się na rozwój, który zachęca do uwzględnienia środowiska poza murami własnej instytucji i zakłada gotowość do funkcjonowania w szerszej społeczności. Współdziałając w ekosystemie partnerów i traktując ich jako cenny, dodatkowy zasób ekspercki, banki będą mogły szybciej rozwiązywać problemy i szybciej realizować swoje cele.

    Krok 2: Wewnętrzne dostosowanie organizacji

    Zanim będzie można zaprosić partnera, by zmierzył się z danym problemem biznesowym, organizacja, która go zaprasza, powinna przeprowadzić wewnętrzną ocenę. Ważne, by wszystkie działy w ramach organizacji (IT, sprzedaż, marketing, itd.) zastanowiły się, dlaczego ich zdaniem w instytucji występuje dany problem, a także jakie problemy powoduje w zakresie zgodności z przepisami i jakie inne ryzyka generuje. Jakie problemy występują po stronie technicznej? W jaki sposób wpływa to na działalność firmy? Kiedy wszyscy wiedzą już, dlaczego należy zlikwidować problem, łatwiej jest określić zasoby biznesowe i technologiczne konieczne do jego rozwiązania. Mówiąc wprost – szybko zdefiniować jakie narzędzia i umiejętności będą potrzebne. Jeżeli poszczególne działy nie są zorganizowane tak, by ze sobą współpracować, to znaczy, że czas zlikwidować bariery i budować mosty, tak by każdy brał udział w fazie rozpoznania.

    Krok 3: Otwartość wobec partnerów

    Gdy organizacja skupi się już na głównych celach i na tym, czego potrzebuje do realizacji, może wówczas rozejrzeć się za partnerami do współpracy, posiadającymi doświadczenie i wiedzę w odpowiednich obszarach. Im więcej taki partner wie o wyzwaniach, szansach i celach, tym bardziej będzie zaangażowany i tym chętniej będzie samodzielnie realizował zadania w celu osiągnięcia pożądanych wyników. Uzbrojony w wyniki analiz partner sprawniej łączy kropki i zaprasza kolejne podmioty do wspólnej realizacji, tworząc sieć, z której korzysta zarówno inicjująca organizacja jak i szerszy ekosystem. By zapewnić, że wszyscy cały czas idą w jednym kierunku, niezwykle istotne są otwarte dyskusje, podczas których można swobodnie wymieniać poglądy i podejmować decyzje w otwarty i kolegialny sposób. Należy również umożliwić swobodne wyrażanie odmiennego zdania i konstruktywnej krytyki. Partnerzy muszą mieć możliwość zgłaszania swoich wątpliwości, ponieważ to istotna część działań na rzecz redukcji ryzyk.

    Krok 4: Element ludzki w stosunkach biznesowych

    Stosunki biznesowe to stosunki osobiste. Najbardziej udane relacje buduje się na wzajemnym zrozumieniu potrzeb, motywacji do określonych zachowań i czynników, na które składają się wyniki firmy. Poznanie partnera biznesowego na bardziej osobistym poziomie może pomóc zbudować głęboką relację, w której każdy ma poczucie, że jest doceniany, a to z kolei przekłada się na pomyślny dalszy przebieg projektu. Sektor bankowości niekoniecznie słynie z tego, że promuje tego typu relacje, jednak odsłonienie nieco siebie jako człowieka to kluczowy krok do budowy relacji opartych na zaufaniu. Pandemia jeszcze bardziej ujawniła potrzebę okazywania większej empatii wobec osób w trudnej sytuacji a także to, że wspólne doświadczenia pomagają lepiej radzić sobie z tym co nas dzieli.

    Krok 5: Konsekwentne wykorzystanie platformy technologicznej

    Technicznym fundamentem budowy nowych partnerstw jest prawidłowa strategia integracji. Być może w organizacji trzeba będzie zmienić logikę działania architektury systemu i przestawić się na bardziej otwarte platformy. W przypadku konteneryzacji na potrzeby wykorzystania skali rozwiązań w chmurze, stworzenie wspólnej platformy u podstawy stosu technologicznego, która funkcjonuje we wszystkich częściach organizacji, przełoży się na wyższy poziom kontroli, bezpieczeństwa i stabilności. Wspólna warstwa zarządzania aplikacjami, niezależna od technologii i otwarta na otwarte API daje pracownikom organizacji oraz zewnętrznym partnerom więcej wolności przy współpracy, co wspiera innowacyjność. Pozwala też uniknąć ryzyka pracy z wieloma integracjami indywidualnymi, które mogą spowodować znaczne przekroczenie budżetu, brak działania usług lub szereg innych problemów z obsługą klientów.

    Odkrywanie przyszłych możliwości

    Postęp dokonuje się szybciej, gdy współpracujemy. Widzimy, że coraz więcej firm z sektora bankowości i pokrewnych sektorów zaczyna wykorzystywać możliwości, jakie odkrywa większa otwartość. Oznacza to, że w usługach finansowych i wielu innych obszarach życia czeka nas bezprecedensowy skok innowacyjności, pozytywnie oddziałujący na doświadczenie klienta na całym świecie. Banki przyszłości będą składane z wzajemnie „wymienianych” elementów, a nie budowane od zera.


    Autorka: Kelly Switt, Senior Director, Global Head of Intelligent Edge Business Development, Red Hat

  • Nowoczesny pojazd, czyli centrum danych na kołach

    Nowoczesny pojazd, czyli centrum danych na kołach

    Sterowane oprogramowaniem, autonomiczne i podłączone do sieci – tak wygląda auto przyszłości. Transformacja w kierunku pojazdu zdefiniowanego przez kierujące nim oprogramowanie dawno już się rozpoczęła. Harald Ruckriegel, główny technolog i szef działu Strategic Business Development Automotive w Red Hat, naświetla najważniejsze trendy, szanse i wyzwania, które będą miały największy i długofalowy wpływ na branżę, prowadząc do jej przemiany:

    Przy projektowaniu pojazdów nie zwraca się dziś już tak bardzo uwagi na takie czynniki jak moc silnika czy wystrój wnętrza. W branży samochodowej obserwujemy obecnie lata przełomu. Dominują takie kwestie jak jazda autonomiczna, systemy łączności, napędy elektryczne i elastyczne użytkowanie – tu słowem kluczowym jest car sharing.

    Tym wyzwaniom producenci typu OEM mogą stawić czoła tylko za pomocą kompleksowej digitalizacji oraz dzięki wprowadzaniu nowych koncepcji architektonicznych i technologicznych. Szczególnego znaczenia nabierają przy tym przede wszystkim takie pojęcia jak software-defined („programowalny”), Edge Computing czy Open Source.

    1. Software-defined

    Trendu ku pojazdom programowalnym nie da się już zatrzymać. Ale co to tak naprawdę znaczy? Oznacza to, że funkcje, które normalnie były na stałe zakodowane na przykład w firmware albo ROM, zostają przeniesione do takiej warstwy oprogramowania, która działa na standardowym sprzęcie. Oderwanie oprogramowania od sprzętu pozwala nie tylko na uniezależnienie się od tego ostatniego, ale także zwiększenie poziomu standaryzacji oraz przynosi korzyści, takie jak większa skalowalność i elastyczność, uproszczone zarządzanie, a wreszcie także mniejsze koszty. Dzięki oddzieleniu sofware’u od hardware’u możliwe jest także szybkie udostępnianie funkcji.

    Niesie to znaczącą zmianę paradygmatu w sektorze motoryzacyjnym. Przecież w przeszłości pojazd był zdefiniowany przez osprzęt, na który oprogramowanie było zdane – teraz punkt ciężkości przenosi się na drugą stronę.

    Konkretnym przykładem rosnącego znaczenia oprogramowania jest następująca zmiana: w pojazdach aktualnych generacji może znajdować się nawet ponad 150 urządzeń sterujących, tzw. ECU (Electronic Control Units), a wszystkie stworzone są z myślą o konkretnym zastosowaniu, dajmy na to – hamowaniu przy wykorzystaniu systemu ABS. Obecny trend w branży idzie w kierunku mniejszej liczby, ale za to efektywniejszych ECU, które mogą wykonywać dużą liczbę różnych funkcji, a jednocześnie spełniać wszystkie wymogi bezpieczeństwa. I tak na przykład zmiana pozycji siedzenia nie może mieć wpływu na sterowanie silnikiem. Rozwój tego rodzaju zintegrowanych, kompleksowych funkcjonalnie urządzeń sterujących jest napędzany głównie przez poszukiwanie rozwiązań typu software-defined.

    2. Edge Computing

    Pojazdy przyszłości nieuchronnie zmierzają ku temu, by stać się prawdziwymi centrami obliczeniowymi na kółkach. W końcu przecież inteligentne, usieciowione auto musi być w stanie analizować dane w czasie rzeczywistym i podejmować decyzje, zwłaszcza w zakresie jazdy autonomicznej. Oznacza to, że technologie IT muszą zostać umieszczone w miejscu ich zastosowania – to znaczy w samochodzie. Tu do gry wchodzi Edge Computing w formie Vehicle Edge. Przetwarzanie danych zostaje przy tym przeniesione ze scentralizowanych centrów obliczeniowych bezpośrednio do samochodu. Vehicle Edge oznacza więc, że w pojeździe znajduje się jednostka obliczeniowa, która pracuje albo niezależnie, albo w połączeniu ze znajdującym się w pobliżu pojazdu, na przykład na poboczu, Edge Gateway. To jedyny sposób na to, aby spełnić podstawowe wymagania w zakresie przetwarzania danych w czasie rzeczywistym, zapewnienia bezpieczeństwa i ochrony. Ponadto Vehicle Edge stanowi bazę dla pojazdu programowalnego, w którym poszczególne funkcje mogą być ściągane i uruchamiane w sposób dynamiczny.

    Strategie Edge Computing i pojazdy programowalne określają zatem przyszłość branży motoryzacyjnej. Jednak nie chodzi tu bynajmniej wyłącznie o komponenty w samym pojeździe, liczy się też usieciowienie i chmura, które wspierają to, co dzieje się w aucie. Oznacza to, że wzrastające usieciowienie i digitalizacja branży wymuszają też korzystanie z hybrydowej infrastruktury sieciowej czy też infrastruktury typu multi cloud. To jedyny sposób na to, aby aplikacje były udostępniane w dynamicznie skalowalnym otoczeniu w krótkich cyklach rozwojowych. Im więcej różnych funkcji oferuje dany pojazd, tym większe są w ostatecznym rozrachunku wyzwania, zwłaszcza w odniesieniu do ciągłych aktualizacji tych funkcji i zwiększania bezpieczeństwa. Edge oznacza więc także duże wymagania integracyjne, a w istocie mamy tu do czynienia ze scenariuszem chmury hybrydowej.

    3. Open Source

    Co do zasady pojazdy programowalne będą wzmacniały trend ku standaryzacji oraz zwiększały popyt na szybko integrujące się komponenty oprogramowania. Na znaczeniu będą zyskiwały przede wszystkim, ogólnie ujmując, nowoczesne koncepcje architektoniczne, takie jak wizualizacja, kontenery, Linux i Open Source. Wszystkie pochodzą z obszaru offboard, jednak w coraz większym stopniu będą stawać się częściami składowymi samych pojazdów. Kluczowe znaczenie dla rozwoju będą miały przy tym platformy samochodowe z systemem operacyjnym opartym na Linuksie, na którym będą działały aplikacje i usługi. Konieczne jest przy tym zapewnienie wysokiego stopnia bezpieczeństwa. Oznacza to także, że niezbędne będą certyfikacje, np. wg normy ISO 26262, określającej bezpieczeństwo działania systemów z komponentami elektrycznymi i elektronicznymi w pojazdach mechanicznych.

    Wokół Linuksa jako systemu operacyjnego w pojeździe powstaje ponadto otwarty ekosystem, który aktywnie wspiera dalsze prace rozwojowe w segmencie motoryzacyjnym. Mówimy tu o pracy producentów pojazdów, ale także dostawców usług integracyjnych, aplikacji i rozwiązań Open Source, czy wreszcie o całej społeczności Open Source.

    Inicjatywy w zakresie transformacji cyfrowej pojawiają się obecnie w bardzo wielu przedsiębiorstwach, nie omijają więc także motoryzacji. A przy tym taka transformacja cyfrowa odbywa się także w samym produkcie, czyli w pojeździe. Tradycyjny samochód zmienia się w inteligentny, usieciowiony i programowalny pojazd, pełniący funkcję inteligentnego węzła i stanowiący część szerokiego ekosystemu. I wreszcie – będzie on stanowił wsparcie dla innowacyjnych koncepcji mobilności, takich jak Car-as-a-Service, Mobility-as-a-Service czy Smart City. Dla nabywcy samochodów przyszłości oznacza to, że będzie on otrzymywał pojazd zapewniający łączność, personalizację i bezpieczeństwo.

  • Cyfryzacja poprzez 5G: czy technologia może uratować nasz świat?

    Cyfryzacja poprzez 5G: czy technologia może uratować nasz świat?

    „Cudowna sieć przyszłości”, „kluczowa technologia dla społeczeństwa sieciowego” lub „nadejście ery cyfrowej”: czytając nagłówki o najnowszym standardzie komunikacji mobilnej, można by pomyśleć, że 5G rozwiąże wszystkie nasze problemy i przyniesie ze sobą możliwości, o których nawet nie wiedzieliśmy, że są nam potrzebne. W porównaniu z ostatnim standardem bezprzewodowym 5G obiecuje wielokrotnie większą prędkość i niezwykle małe opóźnienia. 5G może też obsługiwać o wiele więcej urządzeń jednocześnie. W połączeniu z innymi kluczowymi technologiami, takimi jak przetwarzanie brzegowe, Internet rzeczy i sztuczna inteligencja, sprawia to, że nowa generacja rozwiązań w zakresie komunikacji mobilnej zapewnia podstawę do kompletnego usieciowienia wszystkich dziedzin życia, ale przede wszystkim przemysłu. Wynika to z faktu, że najwięcej korzyści z funkcji 5G czerpią przedsiębiorstwa. Do najlepszych przykładów z pewnością należą predykcyjna konserwacja maszyn, roboty mobilne w produkcji, autonomiczne pojazdy w sektorze transportu i logistyki czy aplikacje rozszerzonej rzeczywistości dla serwisantów.

    Jednak czy 5G to także technologia, która może uratować nasz świat — innymi słowy zapewnić bardziej zrównoważony rozwój i większą sprawiedliwość społeczną? Oczywiście każdy rodzaj cyfryzacji może mieć początkowo negatywny wpływ na bilans ekologiczny ze względu na zasoby i energię, które zużywa przy produkcji i eksploatacji. Z drugiej strony cyfryzacja pozwala nam pracować wydajniej, pomaga oszczędzać energię i ma potencjał, aby rozwiązać palące problemy naszych czasów. Dobrym przykładem jest opieka medyczna nad coraz bardziej starzejącym się społeczeństwem: dzięki inteligentnym połączeniom sieciowym i zaawansowanym sieciom komórkowym pojawiają się zupełnie nowe możliwości leczenia, a nawet zapobiegania. Bo dzięki 5G urządzenia do noszenia na sobie mogą na przykład stale przesyłać pomiary ciśnienia krwi i wiele innych danych w czasie rzeczywistym do lekarza prowadzącego, aby mógł on w porę zareagować. „Inteligentne ambulanse” wyposażone w technologię 5G umożliwiają z kolei precyzyjną wideodiagnostykę, a tym samym optymalizację leczenia już w drodze do szpitala. Ponadto 5G zapewnia każdemu pacjentowi dostęp do opieki medycznej na najwyższym światowym poziomie: dzięki wirtualnej rzeczywistości lekarze mogą na przykład uczestniczyć w operacjach zdalnie.

    W rolnictwie 5G może pomóc zwiększyć wydajność przy jednoczesnym zmniejszeniu wpływu na środowisko: autonomiczne maszyny rolnicze lub drony mogą być wykorzystywane do wykrywania zmian w kondycji roślin, jakości gleby i wilgotności oraz stosowania dokładnej ilości pestycydów, wody lub nawozów w zależności od potrzeb. Kolejnym obszarem zastosowania 5G są inteligentne sieci energetyczne. Zapewniają one, że w danym momencie wytwarzana jest dokładnie taka ilość energii elektrycznej, jaka jest potrzebna – z dokładnością do jednego wata. Ogólnie rzecz biorąc, miasta będą lepiej połączone i będą funkcjonować bardziej efektywnie niż obecnie dzięki niesamowitej prędkości 5G.

    Jednakże aby zapewnić, że nowa technologia szybko się przyjmie i będzie dostępna dla wszystkich, w naszym zglobalizowanym świecie decydującym czynnikiem jest współpraca. W przypadku standardu 5G branża od samego początku pracowała nad specyfikacją techniczną w ramach organizacji 5G ACIA (5G Alliance for Connected Industries and Automation) i 5GAA (5G Automotive Association). Zamiast polegać na standaryzacji ustanowionej pomiędzy operatorami, jak to miało miejsce w przypadku poprzednich generacji rozwiązań w zakresie komunikacji mobilnej, tym razem to zastosowania przemysłowe są czynnikiem rozwoju funkcjonalności 5G. Zasadniczo to właśnie dzięki współpracy powstają standardy, narzędzia i ramy, które umożliwiają szybsze wprowadzanie innowacji. Można się wiele nauczyć ze sposobu funkcjonowania społeczności open source. Co więcej, nie ma lepszego przykładu niż szybkość, z jaką wyprodukowano i rozprowadzono szczepionki na Covid-19, gdy firmy farmaceutyczne, rządy, organy regulacyjne i instytucje opieki zdrowotnej połączyły siły. Pokazuje to również, jak głęboko zakorzenione i nieproduktywne sposoby pracy mogą w jednej chwili odejść do lamusa, jeśli jest ku temu wola.

    Dla mnie jedno jest pewne: technologia 5G nie tylko zmieni nasz świat, lecz także przyczyni się do bardziej zrównoważonego rozwoju i większej sprawiedliwości społecznej. Nowy standard komunikacji mobilnej będzie ogromną siłą napędową przyszłych innowacji.


    Autor: Jens Kühner, dyrektor ds. sprzedaży rozwiązań telekomunikacyjnych w regionie EMEA, Red Hat

  • Ericsson i Red Hat łączą siły dla nowoczesnych sieci telekomunikacyjnych

    Dostawcy usług telekomunikacyjnych mają dziś wyjątkowe możliwości, aby zaoferować swoim klientom immersyjne, spersonalizowane i wysoce niezawodne usługi, aplikacje i rozwiązania nowej generacji. Ericsson i Red Hat chcą pomóc takim dostawcom w szybszym wprowadzaniu na rynek usług nowej generacji, opartych na technologiach wielu producentów. W tym celu firmy rozszerzyły swoją współpracę na wspólne weryfikowanie funkcji i platform sieciowych.

    Dzięki współpracy technicznej, która obejmuje weryfikację platform Red Hat pod kątem funkcji sieciowych firmy Ericsson, dostawcy usług telekomunikacyjnych mogą realizować swoje projekty ekspansji przy mniejszym ryzyku.

    Sieci oparte na technologiach wielu producentów wymagają innego planu działania

    Dostawcy usług telekomunikacyjnych, którzy wdrażają technologię 5G, skupiają się głównie na zwiększaniu elastyczności i innowacyjności swoich firm, aby szybciej osiągać korzyści z inwestycji. Podejmując się takiej transformacji, muszą znaleźć równowagę między kosztami, ryzykiem i czasem wprowadzania nowych produktów na rynek.

    Ericsson i Red Hat zdają sobie sprawę, że budowa sieci opartych na technologiach wielu producentów wymaga innych planów działania niż sytuacja, w której decydujemy się na wybór jednego dostawcy ze zintegrowanym pionowo rozwiązaniem i zarządzaniem cyklem życia produktu. Sprawdzona zgodność operacyjna jest niezbędna do osiągnięcia maksymalnych korzyści z elastyczności i możliwości wyboru. Oprócz podejmowania wspólnych działań nasze firmy współpracują w ramach szerszego ekosystemu, aby uprościć integrację technologii oferowanych przez różnych dostawców.

    Ericsson i Red Hat chcą, aby dostawcy usług telekomunikacyjnych mogli lepiej skupić się na rozwijaniu swoich usług 5G w sposób, który pozwoli im wyróżnić się na rynku, oraz na zwiększaniu korzyści oferowanych klientom. Od wielu miesięcy pracujemy nad optymalnym modelem budowania sieci opartej na technologiach wielu producentów. Chcemy doradzać firmom, jak wdrażać i dostrajać kombinacje technologii Ericssona i Red Hat, aby zaoszczędzić czas i zasoby.

    Sieć Ericssona działa na platformach Red Hat

    Współpraca między firmami Ericsson i Red Hat umożliwia dostawcom usług telekomunikacyjnych bezpieczne przyspieszenie transformacji sieci oraz zmniejszenie ryzyka związanego z łączeniem technologii wielu producentów. Otwarte platformy chmur hybrydowych firmy Red Hat są testowane pod kątem funkcji sieciowych firmy Ericsson, co umożliwia wstępne utworzenie konfiguracji referencyjnej, która upraszcza wdrażanie rozproszonych sieci. Inżynierowie z obu firm wkładają dużo pracy, aby przygotować nasze połączone technologie do wdrożenia komercyjnego w wymagającym środowisku sieci dostawców usług telekomunikacyjnych.

    Ericsson i Red Hat oferują rozwiązania już zweryfikowane i gotowe do wdrożenia, które zapewniają dostawcom usług telekomunikacyjnych otwartą platformę obejmującą sieć opartą na technologiach vEPC, 5G Core, IMS, OSS i BSS. Nasze zespoły integrują rozwiązania firmy Ericsson wyposażone w funkcje sieciowe z platformami Red Hat OpenShift i Red Hat OpenStack. Przeprowadzamy weryfikację koncepcji z udziałem dostawców usług telekomunikacyjnych na całym świecie. Mamy już na koncie pierwsze komercyjne wdrożenia sieci rdzeniowych 5G.

    Ericsson i Red Hat zaangażowały się w wiele projektów współpracy o charakterze technicznym, znajdujących się na różnych etapach rozwoju i w różnych fazach dojrzałości. Przykładem jest sieć Cloud RAN (Radio Access Network). W ramach tego projektu Red Hat uczestniczy w warsztatach Open Lab firmy Ericsson, których celem jest tworzenie innowacji w oparciu o interaktywne kontakty z klientami sieci Ericsson Cloud RAN oraz partnerami ekosystemu na całym świecie.

    Wszystkie te projekty współpracy technicznej łączy stosowanie znanych i dopracowanych metod.

    Ustalony proces współpracy technicznej

    Rozpoczynając nasze projekty współpracy technicznej, zajmujemy się w pierwszej kolejności określeniem funkcji sieciowych firmy Ericsson wymaganych dla infrastruktury Red Hat, opracowaniem projektu sieci oraz zdefiniowaniem wymagań w zakresie technologii obliczeniowych. Pozwala to przygotować platformę do wdrożenia i udostępniania funkcji sieciowych oraz zdefiniować wstępną, wspólną, docelową konfigurację referencyjną.

    Kolejny etap to rygorystyczna i dokładna weryfikacja. Docelowa konfiguracja referencyjna jest wdrażana we wspólnym technicznym środowisku laboratoryjnym, gdzie zostaje poddana wielu testom dotyczącym np. uruchamiania, bezpieczeństwa, solidności, odporności czy automatyzacji. Podczas tych testów inżynierowie wprowadzają ewentualne poprawki, aby uzyskać ostateczną, zweryfikowaną wersję konfiguracji referencyjnej. Wykorzystując tę wersję, dostawcy usług telekomunikacyjnych mogą łatwiej i efektywniej wdrażać, uruchamiać i udostępniać funkcje sieciowe oraz bezpiecznie je skalować.

    Podstawy oprogramowania, zalecenia dotyczące wdrażania oraz projekty związane ze zweryfikowaną konfiguracją referencyjną funkcji sieciowych i platformy są dokładnie dokumentowane wraz z wynikami testów. Umożliwia to dostawcom usług telekomunikacyjnych, jako głównych integratorów, przyspieszenie instalacji, zredukowanie ryzyka oraz zmniejszenie zapotrzebowania na pracę związaną z szeroką integracją systemu.

    Sieci 5G Core i Cloud RAN

    Natywne projekty chmurowe dla dwutrybowej sieci 5G Core i sieci Cloud RAN firmy Ericsson na platformie Red Hat OpenShift Container spotkały się z dużym zainteresowaniem rynku. Projekt współpracy dotyczący sieci Cloud RAN na platformie OpenShift znajduje się na etapie końcowym. Nasze wspólne zespoły inżynierów przygotowują platformę OpenShift do wymagań sieci Cloud RAN firmy Ericsson związanych z przetwarzaniem w chmurze. Jeśli chodzi o dwutrybową sieć 5G Core firmy Ericsson na platformie OpenShift, ma ona już pierwsze zastosowania komercyjne. Obsługuje realny ruch, a jej udostępnienie na szerszą skalę jest planowane na IV kwartał 2022 roku. Choć sieci 5G Core i Cloud RAN mają różny zakres, a związane z nimi wyzwania są zróżnicowane, w obu przypadkach nasza współpraca jest oparta na tej samej metodyce i partnerstwie technicznym.

    Dwutrybowa sieć 5G Core, sieć Cloud RAN i wszystkie pozostałe chmurowe funkcje sieciowe firmy Ericsson są tworzone zgodnie z zasadami natywnego przetwarzania w chmurze i spełniają wszystkie wymagania organizacji CNCF (Cloud Native Computing Foundation), podobnie jak platforma Red Hat OpenShift.

    Dwutrybowa sieć 5G Core firmy Ericsson jest zbudowana w natywnej architekturze chmurowej opartej na mikrousługach. Łączy funkcje sieciowe Evolved Packet Core (EPC) i 5G Core (5GC) na wielodostępnej, natywnej platformie chmurowej, która obsługuje zarówno technologię 5G, jak i wcześniejsze generacje technologii Mobile Packet Core. Ta sieć powstała w wyniku ewolucji wydajnych zwirtualizowanych rozwiązań firmy Ericsson, zaprojektowanych z myślą o wdrożeniu w chmurze, takich jak Cloud Packet Core, Cloud Unified Data Management (UDM) oraz Policy and Signaling Controller.

    Ericsson Cloud RAN to natywne chmurowe rozwiązanie programowe udostępniające niezagregowane funkcje RAN. Stanowi ono atrakcyjną ofertę dla dostawców usług telekomunikacyjnych, umożliwiającą szybsze świadczenie usług oraz zwiększenie elastyczności i skalowalność sieci.

    Podsumowanie:

    • Partnerstwo między firmami Ericsson i Red Hat jest oparte na wielu projektach współpracy technicznej.
    • Wybrane kombinacje technologii firm Ericsson i Red Hat są dokładnie testowane, optymalizowane i dokumentowane przed wdrożeniem w sieciach dostawców usług telekomunikacyjnych, co zapewnia klientom większe korzyści.
    • Dostawcy usług telekomunikacyjnych, którzy wykorzystają przetestowaną konfigurację referencyjną, zmniejszą zapotrzebowanie na prace związane z lokalną integracją systemu oraz ryzyko dotyczące projektu, a także przyspieszą wprowadzanie nowych produktów na rynek.
    • Ericsson i Red Hat ponoszą indywidualną odpowiedzialność za swoje części oferty.
    • Firmy współpracują, łącząc mocne strony, aby stać się zaufanymi partnerami dla dostawców usług telekomunikacyjnych, którzy chcą budować elastyczne, otwarte sieci obejmujące technologie wielu producentów. Żadne dwie firmy nie idą tą samą drogą. Udostępniając dostawcom usług telekomunikacyjnych skalowalną architekturę sieciową oraz zapewniając im wybór i elastyczność, pomagają ich przedsiębiorstwom niezależnie od tego, jakie strategie realizują.
  • Bogactwo open source

    Bogactwo open source

    Trochę otartych i zupełnie nie robiących na nikim wrażenia stwierdzeń ze świata IT? Proszę bardzo: swobodnie skalowane zasoby, płatność wyłącznie za wykorzystaną moc obliczeniową. całodobowa dostępność wsparcia technicznego…Można by dodać ich jeszcze wiele, jednak jedno jest pewne: dziś to zwyczajne standardy ery cyfrowej transformacji, w której ewidentnie czas na nowe rozdania.

    Jedno z nich pojawiło się już „na stołach” decydentów IT w przedsiębiorstwach, a obecni przy nim gracze starają się ułożyć z otrzymanych kart „układ” znany jako Open Source. Jak wynika z najnowszego opracowania Red Hat – The State of Enterprise Open Source 2022, ośmiu na dziesięciu liderów zespołów IT z firm z całego świata wybiera dziś dostawców usług oferujących otwarty kod swoich rozwiązań.

    A wraz z nim dostęp do wiedzy i doświadczeń społeczności użytkowników liczonych w milionach.

    Gra w otwarte karty

    Od lat firmy i instytucje, przechodząc kolejne szczeble cyfrowej transformacji, borykają się z pewnym problemem, który zamiast otwierać szereg nowych możliwości dzięki zaawansowanym aplikacjom z SI, automatyzacją procesów czy wskazywaniem nowych kierunków działań na podstawie analiz, uzależnia ich od konkretnego dostawcy. Mowa o tzw. vendor-locku, a więc pozostaniu przywiązanym do usług jednego technologicznego partnera i braku kompatybilności jego narzędzi z innymi, dostępnymi na rynku.

    Zmiana wykorzystywanego w firmie oprogramowania wiąże się wówczas ze znacznym kosztem oraz potrzebą przeznaczenia dużej ilości czasu i pracy, co zwykle odwodzi decydentów IT od decyzji o technologicznej „rewolucji” w przedsiębiorstwie. – W przypadku oprogramowania licencyjnego, firmy bywają nierzadko przywiązane do swojego dostawcy ze względu na swoisty, wewnętrzny „monopol” jego rozwiązań. Zmiana poszczególnych narzędzi czy systemów wiąże się wówczas z potrzebą wstrzymania wielu operacji wewnątrz organizacji, przeszkolenia personelu na nowo czy na pewien czas pozostaje wręcz niedopuszczalna przez treść licencji. W przeciwieństwie do oprogramowania otwartego, które można swobodnie modyfikować oraz bez ograniczeń „odpinać i podpinać” do firmowych systemówdodaje Severin Bonnet, Software Compliance Expert z Red Hat.

    Jedno z badań Flexery, już przed dwoma laty przekonywało, że blisko dwie trzecie decydentów IT z całego świata obawia się „blokady dostawcy” usług chmurowych. To jedna z głównych przyczyn systematycznego dywersyfikowania technologicznych partnerów i przechodzenia na strategię multi-cloud. Im większa różnorodność, tym większy dostęp do wielu źródeł know-how, przydatnej wiedzy i wsparcia wielu dostawców – ale to wciąż zaledwie przedsmak tego, z czym wiąże się adaptacja oprogramowania otwartego.

    Płacić za Open Source?

    Wielu osobom termin Open Source kojarzy się automatycznie z rozwiązaniami w pełni darmowymi. Tak rzeczywiście jest w przypadku większości aplikacji dla użytkowników indywidualnych. Jeśli jednak mówimy o biznesie, w ramach subskrypcji podobnej do tych z Netflixa czy Spotify, firmy otrzymują dostęp do efektów wieloletniej pracy milionów developerów z całego globu, a przez to niemal gotowe do przeniesienia na swój grunt rozwiązania cyfryzujące poszczególne obszary, automatyzujące procesy czy dbające o cyberbezpieczeństwo. – Mamy świadomość tego, że za nasze usługi klienci płacą subskrypcją niczym za popularne platformy rozrywkowe. Mogą kupić je dosłownie na godzinę, w każdej chwili wyłączyć i w ciągu minuty przestać być naszymi partnerami. Ale to kierunek, w którym podąża ekonomia współdzielenia i nie pozostaje ona obojętna również na zaawansowane narzędzia IT dla firm – stwierdza France Marie z Red Hata.Te, coraz częściej nie chcą być dziś przywiązani licencjami do konkretnej technologicznej marki i doceniają możliwość swobodnego edytowania i modyfikowania oprogramowania, za które płacą. W taki sposób powstaje największa na świecie społeczność Open Source, w którą zaangażowane jest już ponad 15 milionów osób z całego świata. Zarówno same przedsiębiorstwa jak i niezależni programiści i specjaliści IT dzielą się tam swoimi doświadczeniami i efektami prac nad „usprawnianiem” otwartego oprogramowania, przez co nierzadko trafiają tam rozwiązania przewyższające swoimi możliwościami produkty największych gigantów ITdodaje France Marie z Red Hata.

    Ma to ogromne znaczenie zwłaszcza w przypadku nieustannie rosnącego ryzyka związanego z działalnością cyberprzestępców. Nietrudno wyobrazić sobie jak skuteczne mogą być narzędzia ochrony przed różnego rodzaju atakami sieciowymi, nad którymi nieustannie pracują setki tysięcy doświadczonych developerów. – Wszyscy członkowie społeczności Open Source mają wtedy na bieżąco dostęp do informacji o koniecznych do załatania lukach w posiadanym oprogramowaniu, częstości i rodzajach notowanych cyberataków a także są objęci systemem alertowym, który natychmiast alarmuje firmy mogące być narażone na dane zagrożenie, z gotową instrukcją postępowania dla zabezpieczenia się przed nim a nawet auto-łataniem luk. Wraz z niezobowiązującą subskrypcją Open Source, subskrybuje się więc nie tylko pomysły na innowacje, ale i bezpieczeństwotłumaczy Wojciech Wrona z Red Hata.

    Prawie 90% liderów IT uczestniczących w badaniu Red Hat – The State of Enterprise Open Source twierdzi, że firmowe narzędzia Open Source są co najmniej tak samo lub bardziej bezpieczne niż dostarczane przez liczne przedsiębiorstwa IT oprogramowanie zamknięte.

    „Kontrola”, którą warto zaprosić

    Nie od dziś wiadomo, że firmy realizujące projekty cyfrowej transformacji nie zawsze trafnie lokują swój budżet. Zwłaszcza jeśli mowa o mniej doświadczonych w tej kwestii przedsiębiorstwach, z regionów nieco zdystansowanych pod kątem cyfryzacji jak choćby z Europy Środkowo – Wschodniej, w tym z Polski. Rola dostawców aplikacji biznesowych przestaje być więc zredukowana do ich dostarczenia czy zapewnienia wsparcia technicznego, ale rozszerza się o budowanie kompetencji i wyjaśnienie klientom do czego realnie mogą służyć konkretne rozwiązania, a których nawet choć wydają się atrakcyjne, zwyczajnie nie potrzebują – Jako dostawcy otwartego kodu z założenia nie mamy czego ukrywać i nie idziemy w stronę maksymalizacji sprzedaży, nawet gdy firma jest mocno zainteresowana danym narzędziem. W trakcie szkoleń czy warsztatów przedstawiamy, jak używać danych aplikacji czy systemów zgodnie z ich przeznaczaniem i mówimy wprost po które nie warto sięgać, bo nie oferują szybkiego zwrotu z inwestycji bądź ich udział w automatyzacji procesów jest marginalny. To swojego rodzaju kontrola, ale ta dobrze pojmowana, której efektem są środki pozostałe w budżecie, które mogłyby zostać „przepalone” czy wiedza, po którą część z tego ogromnego open-source’owego tortu firma powinna sięgnąć – podsumowuje Antoni Johnson z Red Hat. Firma w ramach programu Subscription Education and Awareness Program (SEAP) prowadzi wraz ze swoimi klientami warsztaty i szkolenia podczas których klarownie tłumaczy warunki korzystania z modelu subskrypcji Open Source tak, aby mogli oni ich przestrzegać i wykorzystywać oferowane tam rozwiązania zgodnie z ich przeznaczeniem. Eliminuje to także ryzyko przepłacania i kupowania narzędzi, które nie przyniosłyby żadnych dodatkowych korzyści konkretnemu przedsiębiorstwu.

    Efekty działań dostawców oprogramowania otwartego, które bez ograniczeń oddaje dostęp do bogactwa świata IT, bez licencji czy ukrytych zapisków w umowach, dają się zaobserwować już dzisiaj. Między innymi we wspominanym już raporcie The State of Enterprise Open Source 2022. Obecnie, 77% liderów IT patrzy znacznie bardziej przychylnym okiem na aplikacje z otwartym kodem niż miało to miejsce przed rokiem, zaś 8 na 10 z nich spodziewa się zwiększenia ich udziału w firmowych środowiskach informatycznych. Głównie po to, by „poradzić” sobie z wdrażaniem nowych technologii cyfrowej transformacji, bez towarzyszącemu temu dotąd ryzyka.