Tag: Kubernetes

  • Obserwowalność Kubernetes – co naprawdę mogą zyskać zespoły IT

    Obserwowalność Kubernetes – co naprawdę mogą zyskać zespoły IT

    Wiele firm stawia na Kubernetes jako podstawę swojej infrastruktury aplikacyjnej. Popularność tego rozwiązania wynika z potrzeby budowy środowisk skalowalnych, elastycznych i odpornych na błędy. Jednak w miarę jak systemy oparte na kontenerach ewoluują, stają się one nie tylko potężniejsze, ale też trudniejsze do zarządzania. Jednym z kluczowych narzędzi w walce ze wzrostem złożoności staje się obserwowalność – czyli zdolność do zrozumienia stanu systemu poprzez analizę danych telemetrycznych. Bez niej trudno dziś mówić o stabilnym i przewidywalnym zarządzaniu aplikacjami produkcyjnymi.

    Złożoność środowisk kontenerowych – zarówno techniczna, jak i organizacyjna – prowadzi do eksplozji danych operacyjnych. Logi, metryki, ślady – wszystkie te elementy stanowią niezbędne źródło wiedzy dla zespołów DevOps i inżynierów SRE. W odpowiedzi na to zapotrzebowanie rynek narzędzi obserwowalności szybko ewoluuje. Pojawiają się rozwiązania, które obiecują uproszczenie monitoringu Kubernetes poprzez automatyzację, wizualizację danych i zastosowanie sztucznej inteligencji. Pytanie jednak brzmi: czy te rozwiązania faktycznie wspierają modernizację aplikacji, czy też wprowadzają kolejne warstwy narzędzi i kompetencji do opanowania?

    Obserwowalność w praktyce: gdzie leżą prawdziwe problemy?

    Kubernetes jest dynamiczny z założenia. Kontenery mogą znikać i pojawiać się w ciągu minut, a mikroserwisy komunikują się przez sieci zależności trudne do uchwycenia przy użyciu klasycznych narzędzi. W takich warunkach monitorowanie „punktowe” czy oparte na statycznych metrykach staje się niewystarczające.

    Największe wyzwania z perspektywy organizacji obejmują:

    • Trwałość i kontekst danych telemetrycznych – wiele danych jest efemerycznych, a ich właściwa korelacja (np. logi z trace’ami) wymaga spójnej architektury obserwowalności.
    • Skala i koszty – duże środowiska produkują ogromne ilości danych, których agregacja i przechowywanie mogą generować istotne obciążenia finansowe.
    • Widoczność międzywarstwowa – zrozumienie, gdzie dokładnie występuje problem (kod, infrastruktura, sieć, konfiguracja) bez spójnego widoku pozostaje trudne.
    • Odbiorca informacji – dane powinny być użyteczne zarówno dla dewelopera, jak i dla osób odpowiadających za operacje i bezpieczeństwo, co wymaga elastycznych, kontekstowych interfejsów.

    Zewnętrzna perspektywa: kiedy UX ma większe znaczenie niż AI

    „Podczas gdy wiodąca w branży technologia OSS wśród zespołów DevOps jest bardzo obiecująca, Kubernetes nadal zniechęca w swojej obecnej formie, głównie z powodu braku wykonalnego interfejsu użytkownika. Pozostaje stroma krzywa uczenia się związana z implementacjami Kubernetes wraz ze wszystkimi ruchomymi elementami związanymi z konfiguracjami, w tym siecią, bezpieczeństwem, obserwowalnością i siatką usług.” – zauważa Charlotte Dunlap z GlobalData

    To nie brak funkcjonalności jest główną przeszkodą, lecz brak przystępności. Obserwowalność często istnieje, ale jest rozproszona między wiele narzędzi i poziomów. Firmy mogą mieć dostęp do potrzebnych danych, ale niekoniecznie potrafią je szybko zinterpretować. A to właśnie zdolność do operacyjnego wykorzystania tych danych decyduje o sukcesie.

    Rozwiązania nowej generacji: krok w stronę automatyzacji, ale nie panaceum

    Rozwój narzędzi obserwowalności przybrał ostatnio dwa główne kierunki: poprawę doświadczenia użytkownika oraz automatyzację analizy danych. W praktyce oznacza to:

    • Lepsze interfejsy – nowoczesne pulpity nawigacyjne agregują dane z wielu źródeł i prezentują je w sposób zrozumiały. Zmniejszają barierę wejścia i skracają czas reakcji.
    • Wykorzystanie AI i GenAI – coraz więcej narzędzi oferuje proaktywne powiadomienia, identyfikację anomalii, analizę przyczyn źródłowych (RCA) czy rekomendacje działań optymalizacyjnych.
    • Wzrost znaczenia OSS – narzędzia takie jak Perses, Backstage czy Headlamp pokazują, że open source wciąż napędza innowacje. Nie są to jednak rozwiązania „plug-and-play” – wymagają integracji i umiejętności technicznych.

    Warto zauważyć, że wiele rozwiązań nadal nie jest gotowych do masowej adopcji w firmach, które nie posiadają wyspecjalizowanych zespołów DevOps. Łatwo o powtórzenie scenariusza z Hadoopem: technologia obiecująca, ale zbyt kosztowna i złożona dla większości.

    Obserwowalność z perspektywy ról: jedno środowisko, wiele potrzeb

    Zrozumienie danych to jedno – ich odpowiednie wykorzystanie to drugie. W zróżnicowanych zespołach IT potrzeby są inne:

    • DevOps – oczekują automatyzacji i szybkiej identyfikacji awarii. Liczy się czas reakcji.
    • Deweloperzy – potrzebują kontekstu wykonania kodu i wglądu w zachowanie mikroserwisów w warunkach produkcyjnych.
    • Zespoły bezpieczeństwa – obserwowalność może wspierać detekcję anomalii i analizę incydentów bezpieczeństwa.
    • Kadra zarządzająca – potrzebuje agregatów danych i metryk biznesowych, które przekładają się na decyzje strategiczne.
    • Brak jednolitego języka i interfejsu pomiędzy tymi grupami to realna bariera adopcji.

    Nie każde narzędzie rozwiązuje problem organizacyjny

    Obserwowalność w ekosystemie Kubernetes nie sprowadza się wyłącznie do wdrożenia narzędzi. To przede wszystkim kwestia architektury systemów, procesów i kompetencji zespołu. Narzędzia mogą pomóc, ale nie zastąpią zrozumienia, jak i dlaczego dane są generowane.

    Postęp w dziedzinie AI i open source zdecydowanie zwiększa dostępność i funkcjonalność platform obserwowalnych, ale równocześnie podnosi oczekiwania co do umiejętności ich wykorzystania. Firmy, które chcą realnie czerpać wartość z obserwowalności, powinny zacząć nie od narzędzi, lecz od audytu własnych procesów i zespołów.

  • Optymalizacja kosztów Kubernetes – jak nie przepłacać za chmurę?

    Optymalizacja kosztów Kubernetes – jak nie przepłacać za chmurę?

    W ostatnich latach chmura obliczeniowa stała się fundamentem nowoczesnych przedsiębiorstw, oferując elastyczność i skalowalność. Jednakże, mimo tych korzyści, zarządzanie kosztami chmury stanowi rosnące wyzwanie, zwłaszcza w kontekście wykorzystania platform takich jak Kubernetes.​

    Nadmierne zaopatrzenie w zasoby – skala problemu

    Zarządzanie infrastrukturą w chmurze stało się jednym z kluczowych wyzwań dla przedsiębiorstw, które dążą do efektywnego wykorzystania zasobów IT. Kubernetes, jako dominująca platforma do zarządzania kontenerami, oferuje wysoką elastyczność, ale jednocześnie może prowadzić do nadmiernego przydzielania mocy obliczeniowej. Według raportu CAST AI, niemal wszystkie klastry Kubernetes były w zeszłym roku niedostatecznie wykorzystywane – średnio tylko 10% przydzielonych zasobów procesora było realnie wykorzystywane, a zużycie pamięci wahało się poniżej 25% dostępnej pojemności. Problem ten jest szczególnie widoczny w dużych organizacjach, które przydzielają zasoby na wyrost, by uniknąć ryzyka niedoborów.

    Tego typu nadmierne alokowanie zasobów jest często skutkiem strategii opartych na ostrożności – firmy wolą zapewnić sobie większy margines bezpieczeństwa, zamiast ryzykować zakłócenia działania aplikacji. W efekcie, zespoły IT przydzielają więcej mocy obliczeniowej, niż jest faktycznie potrzebne, co prowadzi do nieefektywności kosztowej. Dodatkowo, wielu przedsiębiorstwom brakuje narzędzi do monitorowania i optymalizacji wykorzystania zasobów, co utrudnia eliminowanie zbędnych kosztów. W kontekście globalnej konkurencji i presji na redukcję wydatków, takie podejście może stanowić istotne obciążenie dla budżetu IT.

    Co więcej, wzrastające zapotrzebowanie na moc obliczeniową, napędzane przez obciążenia związane ze sztuczną inteligencją i analizą danych, tylko pogłębia problem nadmiernego przydzielania zasobów. Wiele aplikacji AI wymaga ogromnej ilości procesorów graficznych (GPU) i pamięci operacyjnej, co skłania firmy do rezerwowania dużych mocy obliczeniowych „na zapas”. Jednak jeśli te zasoby nie są optymalnie wykorzystywane, prowadzi to do znacznych strat finansowych. W połączeniu ze zmiennymi kosztami usług chmurowych, przedsiębiorstwa, które nie wdrożyły skutecznych strategii zarządzania wydajnością Kubernetes, mogą ponosić wielomilionowe straty rocznie.

    Wpływ sztucznej inteligencji na koszty chmury

    Rosnące wykorzystanie sztucznej inteligencji (AI) staje się jednym z głównych czynników zwiększających koszty infrastruktury chmurowej. Modele AI, zwłaszcza te oparte na uczeniu głębokim, wymagają ogromnych zasobów obliczeniowych, w tym mocy procesorów graficznych (GPU) oraz pamięci operacyjnej. W odpowiedzi na to dostawcy chmury, tacy jak AWS, Microsoft Azure i Google Cloud, inwestują w rozwój specjalistycznych instancji obliczeniowych zoptymalizowanych pod kątem AI. Jednak wysokie ceny tych instancji sprawiają, że firmy często ponoszą znaczne wydatki na utrzymanie infrastruktury, nawet jeśli zasoby te nie są wykorzystywane w pełni przez całą dobę.

    Dodatkowym wyzwaniem jest dynamiczna natura obciążeń AI. W odróżnieniu od tradycyjnych aplikacji biznesowych, modele uczenia maszynowego często wymagają intensywnych mocy obliczeniowych w krótkich okresach – na przykład podczas trenowania nowych algorytmów. Wiele organizacji, aby uniknąć ryzyka przerw w działaniu, alokuje znacznie więcej zasobów, niż faktycznie potrzebuje, co prowadzi do marnotrawstwa. Według raportu CAST AI, wykorzystanie GPU w chmurze można zoptymalizować nawet o 90% poprzez stosowanie instancji spot i dynamiczne skalowanie klastrów Kubernetes. Jednak bez odpowiednich narzędzi do automatyzacji, wiele firm nadal ponosi nadmierne koszty.

    Dostawcy chmury starają się ułatwić przedsiębiorstwom zarządzanie wydatkami na AI, oferując elastyczne modele cenowe, takie jak rezerwacje instancji i rozliczenia oparte na faktycznym zużyciu. AWS umożliwia zakup niewykorzystanej pojemności EC2 z rabatami sięgającymi 90%, ale ceny tych instancji mogą zmieniać się nawet 197 razy w ciągu miesiąca. Google Cloud i Azure również oferują atrakcyjne rabaty na instancje GPU, jednak ich dostępność bywa ograniczona. W rezultacie firmy, które nie mają skutecznych strategii zarządzania obciążeniami AI, mogą przepłacać za moc obliczeniową, której nie potrzebują przez większość czasu.

    Strategie optymalizacji kosztów

    Efektywne zarządzanie kosztami chmury wymaga kompleksowego podejścia, które łączy monitorowanie zużycia zasobów, dynamiczne skalowanie oraz optymalizację modeli rozliczeń. Wiele organizacji nie wykorzystuje pełnego potencjału narzędzi do automatyzacji i analityki, co prowadzi do niepotrzebnych wydatków. Kluczowym elementem oszczędności jest precyzyjne dostosowanie przydzielanych zasobów do rzeczywistych potrzeb obliczeniowych. Wdrożenie mechanizmów dynamicznego skalowania (np. Kubernetes Autoscaler) pozwala na automatyczne zwiększanie lub zmniejszanie zasobów w zależności od aktualnego obciążenia, co ogranicza marnotrawstwo.

    Jednym z najskuteczniejszych sposobów na redukcję kosztów jest korzystanie z elastycznych modeli cenowych oferowanych przez dostawców chmury. Instancje spot (AWS), preemptible (Google Cloud) i Azure Spot VMs pozwalają na uruchamianie obciążeń z dużymi rabatami, sięgającymi 90%. Są one szczególnie przydatne dla aplikacji, które mogą tolerować przerwy w działaniu lub wymagają dużej mocy obliczeniowej na krótki czas. Z kolei rezerwacje instancji na dłuższy okres (np. Reserved Instances w AWS) mogą obniżyć koszty nawet o 75%, pod warunkiem, że organizacja jest w stanie przewidzieć swoje potrzeby na kilka miesięcy lub lat do przodu.

    Automatyzacja zarządzania klastrami Kubernetes to kolejny kluczowy element optymalizacji. Narzędzia takie jak CAST AI czy Karpenter pozwalają na inteligentne przydzielanie zasobów i automatyczne skalowanie w odpowiedzi na zmieniające się zapotrzebowanie. Dzięki zastosowaniu algorytmów analizy obciążeń można identyfikować niewykorzystane zasoby i eliminować nadmierne przydzielanie CPU i pamięci. Dodatkowo, przenoszenie obciążeń do regionów o niższych kosztach może obniżyć wydatki nawet sześciokrotnie – różnice cenowe między regionami chmurowymi bywają znaczące, zwłaszcza w przypadku wysoko obciążonych instancji GPU wykorzystywanych do zadań AI.

    Ponadto, firmy mogą wdrożyć strategię FinOps, która łączy monitorowanie kosztów z praktykami biznesowymi, umożliwiając podejmowanie bardziej świadomych decyzji dotyczących wydatków na chmurę. Regularne audyty wykorzystania zasobów, dostosowywanie polityk rezerwacji oraz ścisła współpraca między działami IT a finansowymi pozwalają na długoterminowe oszczędności. W kontekście rosnących kosztów obliczeniowych, optymalizacja wydatków w chmurze staje się kluczowym elementem strategii IT każdej organizacji.

    Efektywne zarządzanie kosztami chmury wymaga świadomego podejścia do przydzielania i wykorzystywania zasobów.W obliczu rosnącej popularności technologii takich jak Kubernetes oraz intensywnego wykorzystania AI, przedsiębiorstwa muszą zwrócić szczególną uwagę na optymalizację swojej infrastruktury, aby uniknąć niepotrzebnych wydatków i zapewnić efektywność operacyjną.​

  • Konteneryzacja nie dla każdego. 7 faktów o Kubernetes, które musisz znać

    Konteneryzacja nie dla każdego. 7 faktów o Kubernetes, które musisz znać

    W 2024 roku technologie chmurowe i kontenerowe zdominowały krajobraz IT, stając się jednym z najpopularniejszych rozwiązań w firmach na całym świecie. Z danych wynika, że co trzecia organizacja inwestuje znaczną część swoich zasobów w te technologie, wskazując na ich strategiczne znaczenie. Jednak ich wdrożenie niesie za sobą zarówno nieoczywiste korzyści, jak i wyzwania, szczególnie dla mniej doświadczonych zespołów. Jakie są zalety i wady konteneryzacji? W jakich przypadkach jest ona najlepszym wyborem, a kiedy warto poszukać alternatyw?

    Zalety kontenerów: szybkość, niezależność, skalowalność

    Kontenery to narzędzie umożliwiające dekompozycję aplikacji na mniejsze, niezależne mikroserwisy. Zamiast aktualizować całą aplikację, zespoły mogą modyfikować i rozwijać pojedyncze komponenty, co przekłada się na szybkość wdrażania zmian i efektywność pracy. Tomasz Dziedzic, CTO Linux Polska, podkreśla, że takie podejście pozwala na niemal autonomiczną pracę zespołów nad różnymi elementami projektu.

    • Skalowalność: Kontenery umożliwiają niezależne skalowanie poszczególnych serwisów, co jest szczególnie korzystne w aplikacjach o zmiennym obciążeniu. Dzięki temu zasoby są lepiej wykorzystywane, co zmniejsza koszty operacyjne.
    • Wolność technologiczna: Konteneryzacja pozwala deweloperom dobierać narzędzia i technologie najbardziej odpowiednie dla każdego mikroserwisu. To rozwiązanie sprzyja innowacyjności, eliminując ograniczenia technologiczne typowe dla aplikacji monolitycznych.
    • Lepsza organizacja pracy zespołów: Dzięki mikroserwisom zespoły mogą pracować niemal niezależnie, co przyspiesza realizację projektów i pozwala na częste wydawanie aktualizacji.

    Wyzwania: złożoność i potrzeba doświadczenia

    Choć zalety kontenerów są niepodważalne, ich wdrożenie wiąże się z wieloma wyzwaniami.

    • Kompleksowość architektury: Mikroserwisy wymagają skutecznej komunikacji między komponentami. Brak doświadczenia w projektowaniu rozproszonych systemów może prowadzić do błędów ujawniających się dopiero podczas integracji.
    • Wymóg koordynacji zespołów: Mimo autonomii, praca nad mikroserwisami wymaga ścisłej współpracy między zespołami, szczególnie w przypadku dużych zmian w jednym z serwisów. Jak wskazuje Radosław Klewin, Senior Solutions Architect w Linux Polska, niespójność tempa rozwoju poszczególnych komponentów może zaburzyć funkcjonowanie całej aplikacji.
    • Trudności dla mniej doświadczonych zespołów: Konteneryzacja wymaga znajomości narzędzi i zasad CI/CD. Niedostateczne kompetencje mogą prowadzić do nieefektywnego wdrożenia, co obniża potencjalne korzyści.

    Kiedy kontenery, a kiedy nie?

    Konteneryzacja najlepiej sprawdza się w dużych, złożonych projektach, gdzie wymagana jest wysoka skalowalność, częste aktualizacje i praca wielozespołowa. Statystyki potwierdzają, że technologie te są kluczowe dla 38% dużych organizacji zatrudniających ponad 5 tys. pracowników. Jednak dla małych firm i prostych aplikacji, które nie wymagają rozbudowanych funkcji ani dynamicznego skalowania, kontenery mogą być nadmiarowym rozwiązaniem.

    Technologie kontenerowe to przyszłość IT, zwłaszcza w środowiskach o dużej skali i złożoności. Jednak ich skuteczne wdrożenie wymaga doświadczonego zespołu, świadomego wyzwań związanych z architekturą mikroserwisową i CI/CD. Dla organizacji początkujących lub z ograniczonym budżetem, alternatywy takie jak aplikacje monolityczne mogą być bardziej odpowiednie. Ostateczny wybór technologii powinien uwzględniać specyfikę projektu oraz dostępne zasoby, by maksymalizować efektywność i minimalizować ryzyko błędów.

    źródło: Linux Polska

  • IBM przejmuje Kubecost, aby wzmocnić swoją ofertę FinOps

    IBM przejmuje Kubecost, aby wzmocnić swoją ofertę FinOps

    IBM ogłosił przejęcie Kubecost, innowacyjnej firmy specjalizującej się w monitorowaniu i optymalizacji kosztów w środowiskach Kubernetes. To ruch zgodny z długoterminową strategią giganta technologicznego, który intensywnie inwestuje w rozwój rozwiązań FinOps, wspierających zarządzanie kosztami w chmurze. Dzięki temu przejęciu IBM planuje jeszcze bardziej wzmocnić swoją ofertę narzędzi optymalizacyjnych, zwłaszcza w kontekście dynamicznie rozwijającej się infrastruktury kontenerowej.

    Kubernetes i rosnące potrzeby optymalizacyjne

    Kubernetes, otwartoźródłowa platforma do zarządzania kontenerami, zyskuje na popularności wśród firm na całym świecie. Zgodnie z danymi, aż 84% organizacji na całym świecie korzysta z Kubernetes lub rozważa jego wdrożenie. Wraz ze wzrostem skali zastosowań tej technologii, rośnie również zapotrzebowanie na narzędzia umożliwiające ścisłą kontrolę nad kosztami operacyjnymi w chmurze. Kubecost, dzięki swojej specjalistycznej technologii, dostarcza zespołom FinOps i DevOps narzędzia pozwalające na monitorowanie kosztów Kubernetes w czasie rzeczywistym, co ma kluczowe znaczenie w kontekście unikania nadmiernych wydatków i marnotrawstwa zasobów.

    Dzięki integracji Kubecost z platformami Kubernetes oraz API rozliczeniowymi dostawców chmury, IBM umożliwia swoim klientom uzyskanie szczegółowego wglądu w ich obciążenia chmurowe. Tego typu transparentność pozwala zespołom IT na bieżąco kontrolować zużycie zasobów oraz wdrażać optymalizacje, które mogą przełożyć się na istotne oszczędności.

    Rozbudowa portfolio FinOps

    Przejęcie Kubecost to kolejny krok w kierunku rozwoju oferty FinOps, która staje się jednym z kluczowych filarów strategii IBM. W 2023 roku firma przejęła Apptio, innowatora w dziedzinie zarządzania kosztami IT, a teraz integruje rozwiązania Kubecost ze swoimi narzędziami, takimi jak IBM Turbonomic. Turbonomic, wspierany sztuczną inteligencją, umożliwia optymalizację infrastruktury chmurowej w sposób automatyczny i zminimalizowanie złożoności zarządzania obciążeniami.

    Kubecost w ramach oferty IBM stanie się integralną częścią pakietu FinOps Suite, zapewniając użytkownikom pełen przegląd kosztów i zasobów Kubernetes. IBM podkreśla, że nowa integracja nie tylko przyczyni się do optymalizacji kosztów, ale również wesprze szerszą społeczność open-source, do której Kubecost aktywnie wnosił swoje rozwiązania.

    Nowa era automatyzacji w chmurze

    Przejęcie Kubecost wpisuje się w szerszą strategię IBM, która zakłada rozwój automatyzacji poprzez innowacje i przejęcia strategiczne. W ostatnich latach IBM dokonał kilku kluczowych przejęć, w tym Turbonomic i Apptio, aby sprostać rosnącej potrzebie uproszczenia złożoności zarządzania nowoczesnymi środowiskami IT.

    Kubecost, założony w 2019 roku przez Webba Browna i Ajay’a Tripathy, szybko stał się liderem w dziedzinie monitorowania kosztów Kubernetes. Siedziba firmy znajduje się w San Francisco, a jej technologia doskonale wpisuje się w globalne ambicje IBM, które zakładają uproszczenie zarządzania kosztami chmury dla organizacji na całym świecie.

    Przejęcie Kubecost przez IBM to istotny krok w kierunku dalszej ekspansji na rynku rozwiązań FinOps, które stają się kluczowym elementem strategii optymalizacji kosztów w chmurze. Dzięki temu IBM umacnia swoją pozycję jako lidera w dostarczaniu narzędzi ułatwiających kontrolę nad dynamicznie rozwijającymi się środowiskami kontenerowymi i chmurowymi. Wraz z rosnącą popularnością Kubernetes, rola efektywnego zarządzania kosztami staje się priorytetem dla coraz większej liczby organizacji, a Kubecost ma potencjał, by odegrać w tym procesie kluczową rolę.

  • Kubernetes ma już 10 lat! Historia innowacji, która zmieniła świat IT

    Kubernetes ma już 10 lat! Historia innowacji, która zmieniła świat IT

    Dziesięć lat temu, na technologicznej scenie przetwarzania w chmurze pojawił się gracz, który na zawsze odmienił sposób zarządzania aplikacjami. Kubernetes, narzędzie do orkiestracji kontenerów opracowane przez Google, choć początkowo mało znane, szybko stało się standardem w tej dziedzinie. Nazwa pochodząca z greckiego słowa oznaczającego „sternik” nie była przypadkowa — Kubernetes rzeczywiście wyznaczył nowy kurs w świecie IT.

    Początki tej technologii sięgają potrzeb Google, które zmagało się z zarządzaniem ogromnymi, złożonymi aplikacjami kontenerowymi. Inżynierowie w Google dostrzegli, że kontenery zmieniają krajobraz IT, ale brakowało narzędzia, które umożliwiłoby efektywne i elastyczne zarządzanie nimi. Zespół trzech inżynierów, Craig McLuckie, Joe Beda i Brendan Burns, postanowił opracować zewnętrzną, open-source’ową wersję wewnętrznego systemu, który wykorzystywali w Google.

    Od momentu wprowadzenia Kubernetes w 2014 roku, narzędzie to zrewolucjonizowało sposób, w jaki przedsiębiorstwa wdrażają, zarządzają i skalują swoje aplikacje. Jego otwarta natura oraz bogaty zestaw funkcji przyciągnęły uwagę nie tylko gigantów technologicznych, ale także mniejszych firm i indywidualnych deweloperów.

    Dziś Kubernetes jest wszechobecny w świecie IT. Wdrożenia kontenerów na dużą skalę są możliwe dzięki tej platformie, która umożliwia dynamiczne skalowanie, automatyzację i przenośność aplikacji. Odgrywa kluczową rolę w środowiskach chmurowych, od publicznych usług takich jak Google Cloud, AWS i Microsoft Azure, po prywatne chmury w przedsiębiorstwach.

    Kubernetes nie tylko uprościł zarządzanie infrastrukturą IT, ale także stworzył nowe możliwości dla rozwoju aplikacji natywnych dla chmury. Firmy mogą teraz skupić się na innowacjach, zamiast martwić się o złożoność operacyjną swoich systemów. Kubernetes oferuje nowy paradygmat, który umożliwia programistom skupienie się na kodzie, a nie na infrastrukturze.

    Patrząc w przyszłość, Kubernetes obiecuje jeszcze więcej. Z planami integracji z obliczeniami bezserwerowymi i wdrożeniami na krawędzi, jego rola w przetwarzaniu w chmurze tylko rośnie. W świecie, który staje się coraz bardziej zależny od technologii chmurowych, Kubernetes jest latarnią morską prowadzącą innowacje i postęp.

    Narodziny Kubernetes: Jak Google stworzyło sternika kontenerów

    Każda wielka innowacja ma swoje korzenie w potrzebie rozwiązania konkretnego problemu. Dla Kubernetes, historia zaczyna się na początku drugiej dekady XXI wieku w sercu Google — jednej z najbardziej zaawansowanych technologicznie firm na świecie. Inżynierowie w Google musieli stawić czoła rosnącemu wyzwaniu: zarządzaniu aplikacjami kontenerowymi w ogromnej skali.

    W tamtych czasach, kontenery — lekkie, przenośne jednostki wirtualizacji, które pozwalają aplikacjom działać w izolowanym środowisku — zyskiwały na popularności. Docker, jedno z pierwszych narzędzi do zarządzania kontenerami, stał się rewolucją w sposobie tworzenia i uruchamiania oprogramowania. Jednakże, jak to bywa z szybko rozwijającymi się technologiami, rosły też wyzwania związane z ich wdrażaniem i zarządzaniem.

    Inżynierowie Google, widząc potencjał kontenerów, zdali sobie sprawę, że potrzebują czegoś więcej niż tylko narzędzia do ich tworzenia. Potrzebowali kompleksowego systemu zarządzania, który umożliwiłby automatyzację i skalowanie wdrożeń kontenerów na ogromną skalę. W odpowiedzi na te potrzeby, trzech wizjonerów: Craig McLuckie, Joe Beda i Brendan Burns, postanowiło wprowadzić rewolucyjne zmiany.

    W 2013 roku, McLuckie, Beda i Burns zaprezentowali swoje pomysły Ursowi Hölzle’owi, starszemu wiceprezesowi odpowiedzialnemu za infrastrukturę techniczną Google. Propozycja była odważna: stworzenie zewnętrznej, open-source’owej wersji wewnętrznego narzędzia do orkiestracji kontenerów, które mogłoby być używane przez każdego. Hölzle, znany ze swojego wizjonerskiego podejścia, natychmiast dostrzegł potencjał projektu i dał zielone światło do dalszych prac.

    Kubernetes, nazwany od greckiego słowa oznaczającego „sternik”, zrodził się z wewnętrznego systemu Google, znanego jako Borg, który był używany do zarządzania ich własną infrastrukturą od 2003 roku. Borg zapewniał stabilność i skalowalność na ogromną skalę, której potrzebowała firma o rozmiarze i zasięgu Google. Kubernetes miał być jego zewnętrznym odpowiednikiem, oferującym te same zaawansowane funkcje, ale dostępne dla całego świata jako open source.

    Kiedy Kubernetes został oficjalnie zaprezentowany na pierwszej konferencji DockerCon w czerwcu 2014 roku, świat technologii szybko zauważył jego potencjał. Wydawało się, że każdy technologiczny gigant pracuje nad własnym systemem orkiestracji kontenerów. Apache, Red Hat, a nawet Facebook mieli swoje propozycje. Jednakże, to Kubernetes szybko wyrósł na lidera, przyciągając uwagę nie tylko dzięki wsparciu Google, ale także dzięki swojej dojrzałości i zaawansowanym możliwościom, które odziedziczył po Borgu.

    Otwarta natura Kubernetes okazała się być kluczem do jego szybkiej adopcji. Google, decydując się na udostępnienie tego narzędzia jako open source, zyskało coś więcej niż tylko społeczność użytkowników. Stworzyło ekosystem, który nieustannie rozwijał Kubernetes, dostosowując go do różnych potrzeb i scenariuszy użytkowania. Dzięki temu Kubernetes szybko stał się wszechobecny, dominując w sektorze aplikacji i obciążeń natywnych dla chmury.

    Od momentu, gdy trójka inżynierów Google wprowadziła swój pomysł do Urs Hölzle’a, Kubernetes przeszedł długą drogę, stając się jednym z najważniejszych narzędzi w świecie IT. Jego historia jest dowodem na to, że nawet największe innowacje zaczynają się od prostego pomysłu na rozwiązanie konkretnego problemu.

    Od prototypu do lidera – szybki wzrost kubernetes

    Kiedy Kubernetes po raz pierwszy pojawił się na scenie technologicznej w 2014 roku, świat IT już zaczął dostrzegać potencjał kontenerów. To jednak Kubernetes, z jego nowatorskim podejściem do orkiestracji, szybko wyprzedził konkurencję, stając się niekwestionowanym liderem w tej dziedzinie. Jego rozwój i szybka adopcja przez firmy na całym świecie to historia nie tylko technologicznego przełomu, ale także wyjątkowej społeczności, która go wspierała.

    W czerwcu 2014 roku, podczas pierwszej edycji konferencji DockerCon, Kubernetes został oficjalnie zaprezentowany publicznie. Wydarzenie to, choć głównie skupione na Dockerze, przyciągnęło uwagę wielu firm, które pracowały nad swoimi własnymi systemami orkiestracji kontenerów. Apache, Red HatFacebook to tylko niektóre z przedsiębiorstw, które w tamtym czasie rozwijały swoje rozwiązania. Pomimo tej różnorodności, Kubernetes zdołał przyciągnąć uwagę nie tylko dzięki swojemu wsparciu od Google, ale także dzięki zaawansowanym funkcjom, które odziedziczył po wewnętrznym systemie Google, Borgu.

    Jednym z kluczowych momentów w historii Kubernetes było jego przyjęcie jako projektu open-source. Google postanowiło nie tylko udostępnić kod źródłowy, ale także aktywnie wspierać rozwój społeczności wokół Kubernetes. To posunięcie otworzyło drzwi do szerokiego grona użytkowników i deweloperów, którzy zaczęli testować, modyfikować i ulepszać Kubernetes. W 2015 roku Kubernetes osiągnął wersję 1.0, a Google, razem z Linux Foundation, uruchomiło Cloud Native Computing Foundation (CNCF), której zadaniem było promowanie technologii natywnych dla chmury z Kubernetes jako główną technologią.

    CNCF odegrało kluczową rolę w dalszym rozwoju Kubernetes. Dzięki ich wsparciu, społeczność Kubernetes szybko się rozrosła, a setki firm i programistów zaczęły przyczyniać się do jego rozwoju. Organizacja regularnie organizowała konferencje i warsztaty, które promowały wymianę wiedzy i najlepszych praktyk. To stworzyło solidny fundament, na którym Kubernetes mógł się rozwijać i adaptować do zmieniających się potrzeb rynku.

    Już w 2017 roku, zaledwie trzy lata po swoim debiucie, Kubernetes wyraźnie dominował na rynku orkiestracji kontenerów. Wiele z pierwotnie konkurencyjnych systemów zostało zintegrowanych z Kubernetes lub po prostu przestało istnieć. Firmy IT na całym świecie zaczęły zdawać sobie sprawę, że Kubernetes jest kluczem do efektywnego zarządzania aplikacjami w środowiskach chmurowych. Jego zdolność do dynamicznego skalowania, automatyzacji wdrożeń i łatwej przenośności aplikacji sprawiła, że stał się nieodzownym narzędziem w arsenale każdego dewelopera i administratora systemów.

    Przyspieszony rozwój Kubernetes można przypisać nie tylko jego zaawansowanym funkcjom, ale także elastyczności i otwartej naturze. Od samego początku, Kubernetes był projektowany jako narzędzie, które może być dostosowane i rozszerzane przez społeczność. To podejście przyciągnęło setki partnerów, w tym największych dostawców usług chmurowych, takich jak Amazon Web Services (AWS), Microsoft Azure i Google Cloud, którzy włączyli Kubernetes jako kluczowy element swoich ofert chmurowych.

    Kubernetes nie tylko uprościł zarządzanie infrastrukturą IT, ale także stał się katalizatorem dla nowej generacji narzędzi i technologii. Wraz z jego rozwojem, pojawiły się projekty takie jak Helm, menedżer pakietów dla Kubernetes, który ułatwia wdrażanie i zarządzanie aplikacjami, oraz Prometheus, system monitorowania i ostrzegania zaprojektowany specjalnie do pracy z Kubernetes. Te narzędzia stały się integralną częścią ekosystemu Kubernetes, wspierając jego funkcjonalność i przyczyniając się do dalszej ekspansji.

    Kubernetes, dzięki swojej otwartej naturze i wsparciu społeczności, stał się nie tylko narzędziem, ale i ruchem w przetwarzaniu chmurowym. Jego adopcja przez setki firm i tysiące deweloperów na całym świecie jest dowodem na to, że dobrze zaprojektowane, elastyczne rozwiązanie może stać się standardem branżowym w zaskakująco krótkim czasie. Patrząc wstecz na jego szybki rozwój i adopcję, nie ma wątpliwości, że Kubernetes zmienił krajobraz technologii chmurowych na zawsze.

    Kubernetes

    Kubernetes: architektura przyszłości dla zarządzania kontenerami

    Kubernetes, jako narzędzie orkiestracji kontenerów, stał się fundamentem nowoczesnych aplikacji chmurowych dzięki swojemu zaawansowanemu zestawowi funkcji. Jego wszechstronność, elastyczność i zdolność do automatyzacji sprawiają, że jest nieodzownym elementem dla firm, które pragną skutecznie zarządzać swoimi aplikacjami. Przyjrzyjmy się, jakie kluczowe cechy i funkcje czynią Kubernetes tak wyjątkowym w świecie IT.

    1. Automatyczne skalowanie

    Jednym z największych atutów Kubernetes jest jego zdolność do automatycznego skalowania aplikacji w odpowiedzi na zmieniające się zapotrzebowanie. Kontenery, które są podstawowymi jednostkami w Kubernetes, mogą być dynamicznie uruchamiane lub wyłączane w zależności od bieżącego obciążenia systemu. Funkcja ta, znana jako Autoscaling, jest kluczowa dla firm, które doświadczają nieregularnych wzrostów ruchu, umożliwiając im utrzymanie wydajności bez konieczności ręcznej interwencji. Dzięki temu, przedsiębiorstwa mogą optymalizować wykorzystanie zasobów i minimalizować koszty operacyjne.

    2. Automatyzacja wdrożeń i utrzymania

    Kubernetes znacząco upraszcza proces wdrażania aplikacji dzięki zaawansowanym mechanizmom automatyzacji. System wspiera takie funkcje jak Rolling Updates, które umożliwiają stopniowe wprowadzanie nowych wersji aplikacji bez przerywania działania systemu. Ponadto, Kubernetes obsługuje strategię Rollback, co pozwala na szybkie cofnięcie się do poprzedniej wersji w przypadku problemów z nowym wdrożeniem. Ta automatyzacja minimalizuje ryzyko przestojów i zapewnia stabilność operacyjną nawet podczas aktualizacji aplikacji.

    3. Samonaprawa

    W świecie IT, gdzie niezawodność jest kluczowa, Kubernetes wyróżnia się funkcją samonaprawy. Jeśli jakiś element systemu — taki jak kontener, węzeł czy pod — ulegnie awarii, Kubernetes automatycznie podejmuje działania naprawcze. System jest w stanie monitorować stan aplikacji i podejmować kroki w celu przywrócenia ich do stanu zdrowia, na przykład przez automatyczne ponowne uruchomienie awaryjnych kontenerów lub przeniesienie obciążenia na inne węzły. Dzięki temu aplikacje działają stabilnie, a firmy mogą uniknąć przestojów i utraty usług.

    4. Deklaratywne zarządzanie

    Kubernetes korzysta z modelu deklaratywnego zarządzania, co oznacza, że użytkownicy mogą definiować pożądany stan systemu za pomocą prostych plików konfiguracyjnych. System automatycznie dąży do osiągnięcia i utrzymania tego stanu, co eliminuje potrzebę ręcznego zarządzania zasobami. Ten podejście ułatwia wdrażanie i zarządzanie aplikacjami, umożliwiając programistom skoncentrowanie się na kodzie, zamiast na operacyjnych aspektach zarządzania infrastrukturą.

    5. Zarządzanie obciążeniem

    Kubernetes jest zaprojektowany z myślą o efektywnym zarządzaniu obciążeniem aplikacji. System jest w stanie inteligentnie rozdzielać zasoby na poszczególne kontenery, aby zapewnić optymalne wykorzystanie dostępnych mocy obliczeniowych i pamięci. Dzięki tej funkcji, Kubernetes może dynamicznie przydzielać zasoby w odpowiedzi na bieżące potrzeby aplikacji, co zwiększa efektywność operacyjną i umożliwia lepsze zarządzanie infrastrukturą.

    6. Przenośność i niezależność od platformy

    Jedną z najważniejszych cech Kubernetes jest jego przenośność. Aplikacje uruchomione na Kubernetes mogą działać na dowolnym środowisku chmurowym lub infrastrukturze lokalnej, co sprawia, że jest idealny dla hybrydowych i wielochmurowych strategii chmurowych. Ta elastyczność pozwala firmom unikać zablokowania się w ekosystemie jednego dostawcy chmury, a także umożliwia optymalizację strategii chmury z pełną elastycznością i swobodą wyboru.

    7. Szerokie wsparcie społeczności i ekosystemu

    Kubernetes cieszy się ogromnym wsparciem społeczności open source, co przyczynia się do jego szybkiego rozwoju i innowacji. Dzięki setkom aktywnych projektów i narzędzi, takich jak Helm do zarządzania pakietami i Prometheus do monitorowania, Kubernetes oferuje bogaty ekosystem, który wspiera różnorodne potrzeby użytkowników. Społeczność Kubernetes jest jednym z najważniejszych czynników napędzających jego sukces, zapewniając ciągłe ulepszanie i dostosowywanie do zmieniających się wymagań technologicznych.

    8. Integracja z nowymi technologiami

    Kubernetes nieustannie ewoluuje, integrując się z nowymi technologiami, które pojawiają się na rynku. Projekty takie jak Kubeless i Fission przynoszą funkcje serwerless do Kubernetes, umożliwiając programistom wdrażanie funkcji jako usługi w klastrach Kubernetes. Dodatkowo, rozwijają się narzędzia do wdrożeń na krawędzi, takie jak KubeEdge i MicroK8s, które umożliwiają efektywne korzystanie z Kubernetes na urządzeniach brzegowych. Te integracje poszerzają możliwości Kubernetes, czyniąc go jeszcze bardziej wszechstronnym narzędziem.

    Siła społeczności: jak Kubernetes stał się globalnym ruchem

    Kubernetes, od momentu swojego powstania jako projekt open source, zyskał nie tylko zaawansowane technologicznie funkcje, ale także wsparcie jednej z najbardziej aktywnych społeczności technologicznych na świecie. To właśnie ta społeczność i rozbudowany ekosystem narzędzi sprawiły, że Kubernetes stał się liderem w zarządzaniu kontenerami, a jego wpływ wykracza daleko poza same funkcje techniczne.

    1. Początki społeczności Kubernetes

    Decyzja Google o udostępnieniu Kubernetes jako projektu open source w 2014 roku była kluczowa dla jego sukcesu. Dzięki otwartej naturze, Kubernetes szybko przyciągnął uwagę deweloperów, firm technologicznych i organizacji na całym świecie. Społeczność open source zaczęła testować, modyfikować i ulepszać Kubernetes, co pozwoliło na dynamiczny rozwój projektu.

    Od samego początku, Kubernetes stał się miejscem dla innowatorów, którzy chcieli wspólnie rozwijać technologię orkiestracji kontenerów. Pierwsze spotkania społeczności, takie jak KubeCon, gromadziły entuzjastów i profesjonalistów, którzy dzielili się swoimi doświadczeniami i najlepszymi praktykami. Te wydarzenia stały się platformą do wymiany wiedzy i promowania nowych pomysłów, co znacząco przyczyniło się do szybkiego rozwoju Kubernetes.

    2. Rola Cloud Native Computing Foundation (CNCF)

    Kluczowym momentem w rozwoju społeczności Kubernetes było utworzenie Cloud Native Computing Foundation (CNCF) w 2015 roku. CNCF, jako część Linux Foundation, miało na celu promowanie technologii natywnych dla chmury, z Kubernetes jako jednym z głównych projektów. Organizacja ta zapewniła strukturę i wsparcie niezbędne do koordynacji rozwoju Kubernetes oraz jego promocji na globalną skalę.

    CNCF zorganizowało szereg inicjatyw mających na celu wsparcie społeczności Kubernetes. Od regularnych konferencji i warsztatów po programy certyfikacyjne i edukacyjne, CNCF stworzyło ekosystem, który nieustannie rozwijał Kubernetes. Dzięki CNCF, firmy mogły łatwiej wdrażać Kubernetes, korzystając z bogatej oferty zasobów edukacyjnych i wsparcia technicznego.

    3. Ekosystem narzędzi i rozwiązań

    Jednym z największych atutów Kubernetes jest jego szeroki ekosystem narzędzi i projektów, które wspierają jego funkcjonalność i umożliwiają adaptację do różnorodnych scenariuszy użytkowania. Wokół Kubernetes wyrosły setki projektów open source, które rozszerzają jego możliwości i ułatwiają zarządzanie aplikacjami.

    Helm, menedżer pakietów dla Kubernetes, stał się standardowym narzędziem do wdrażania i zarządzania aplikacjami. Dzięki Helm, użytkownicy mogą łatwo instalować, aktualizować i usuwać aplikacje w Kubernetes, korzystając z gotowych „chartów”, czyli predefiniowanych pakietów konfiguracyjnych. Helm uprościł proces wdrażania aplikacji, co przyczyniło się do szybszej adopcji Kubernetes przez firmy na całym świecie.

    Prometheus, system monitorowania i ostrzegania, zaprojektowany specjalnie do pracy z Kubernetes, stał się kolejnym kluczowym elementem ekosystemu. Prometheus umożliwia szczegółowe monitorowanie wydajności aplikacji i infrastruktury, co jest kluczowe dla utrzymania wysokiej dostępności i wydajności systemów w Kubernetes. Jego zdolność do gromadzenia i analizowania dużej ilości danych w czasie rzeczywistym sprawiła, że stał się nieodzownym narzędziem w środowiskach produkcyjnych.

    Ponadto, Istio, platforma zarządzania usługami, dostarcza zaawansowane funkcje, takie jak routing ruchu, bezpieczeństwo i monitoring, które ułatwiają zarządzanie rozproszonymi aplikacjami. Istio jest szczególnie przydatne w architekturach mikroserwisowych, gdzie zarządzanie komunikacją między wieloma komponentami staje się wyzwaniem.

    4. Wsparcie głównych dostawców chmurowych

    Kubernetes zdobył wsparcie wszystkich głównych dostawców usług chmurowych, co znacząco przyczyniło się do jego globalnej adopcji. Amazon Web Services (AWS), Microsoft Azure, Google Cloud i inni dostawcy zintegrowali Kubernetes z własnymi platformami, oferując zarządzane usługi Kubernetes, które upraszczają wdrażanie i zarządzanie klastrami Kubernetes.

    Te zarządzane usługi, takie jak Amazon EKS, Azure AKS i Google GKE, umożliwiają firmom szybkie i efektywne wdrażanie Kubernetes bez potrzeby zarządzania infrastrukturą. Dzięki temu, nawet organizacje bez dużego doświadczenia w zarządzaniu kontenerami mogą korzystać z zaawansowanych funkcji Kubernetes i czerpać korzyści z jego przenośności i elastyczności.

    5. Globalna społeczność deweloperów

    Dziś społeczność Kubernetes to globalna sieć deweloperów, inżynierów i użytkowników, którzy wspólnie pracują nad rozwojem i ulepszaniem tej platformy. Społeczność ta jest niezwykle aktywna, co widać po liczbie projektów, które stale rosną wokół Kubernetes, oraz po regularnych aktualizacjach i nowych funkcjach, które są wprowadzane do systemu.

    Dzięki tej wspólnocie, Kubernetes stał się nie tylko narzędziem technologicznym, ale również ruchem, który promuje innowacje i współpracę w świecie IT. Społeczność Kubernetes organizuje spotkania, hackathony i warsztaty na całym świecie, dzieląc się wiedzą i inspirując innych do odkrywania nowych możliwości tej technologii.

    Kubernetes to nie tylko zbiór zaawansowanych funkcji technicznych, ale także potężna społeczność i ekosystem, które wspólnie napędzają jego rozwój. Od małych start-upów po gigantów technologicznych, organizacje na całym świecie korzystają z Kubernetes, aby optymalizować swoje operacje i tworzyć nowoczesne, skalowalne aplikacje. To właśnie dzięki tej społeczności i ekosystemowi, Kubernetes utrzymuje swoje miejsce na czele technologii przetwarzania chmurowego, prowadząc nas ku nowym wyżynom innowacji.

  • Nutanix rewolucjonizuje zarządzanie kontenerami z nową platformą kubernetes

    Nutanix rewolucjonizuje zarządzanie kontenerami z nową platformą kubernetes

    Firma Nutanix ogłosiła wprowadzenie nowej platformy Nutanix Kubernetes Platform (NKP). Zaprojektowana, aby ułatwić przedsiębiorstwom zarządzanie aplikacjami kontenerowymi, NKP oferuje zintegrowany interfejs do obsługi zarówno lokalnych, jak i chmurowych środowisk.

    Nowa platforma, zaprezentowana podczas ostatniej konferencji w Barcelonie, stanowi odpowiedź na rosnące potrzeby firm w zakresie zarządzania złożonymi środowiskami IT. Jak podaje firma, NKP jest zbudowany na czystej, zgodnej z CNCF wersji Kubernetes, co zapewnia pełną kompatybilność bez ryzyka blokady dostawcy. W przeciwieństwie do konkurencyjnych rozwiązań, takich jak te oferowane przez VMware, Nutanix stawia na otwartość i elastyczność, co jest istotne dla firm poszukujących alternatyw w obliczu rosnących kosztów i ograniczeń technologicznych.

    NKP integruje się z ekosystemem Nutanix, oferując zaawansowane funkcje automatyzacji, które minimalizują potrzebę ręcznej interwencji. Automatyzacja obejmuje procesy wdrażania, zabezpieczeń, monitorowania i aktualizacji. Centralny pulpit nawigacyjny pozwala administratorom na efektywne zarządzanie całym środowiskiem z jednego miejsca.

    Platforma jest dostępna w trzech wersjach: NKP Starter, NKP Pro i NKP Ultimate, każda dostosowana do różnego stopnia dojrzałości technologicznej przedsiębiorstw. NKP Starter integruje się z infrastrukturą chmurową Nutanix, zastępując dotychczasowe rozwiązanie Nutanix Kubernetes Engine. NKP Pro oferuje most do natywnych środowisk chmurowych, natomiast NKP Ultimate rozszerza możliwości zarządzania flotą aplikacji kontenerowych.

    Projekt Beacon, ogłoszony rok temu przez Nutanix, również wpisuje się w rozwijane przez firmę portfolio. Dzięki projektowi, Nutanix dąży do umożliwienia klientom elastycznego uruchamiania i przenoszenia obciążeń w dowolnym miejscu, co stanowi kluczowy element strategii firmy opartej na otwartych standardach.

    Ogłoszenie NKP to kolejny krok Nutanix na drodze do umocnienia swojej pozycji na rynku technologii chmurowych i kontenerowych, podkreślający zobowiązanie firmy do dostarczania otwartych, skalowalnych i efektywnych rozwiązań dla swoich klientów.

  • Kubernetes wchodzi do mainstreamu

    Kubernetes wchodzi do mainstreamu

    VMware w raporcie „The State of Kubernetes 2022” dowodzi, że konteneryzacja weszła już do powszechnego użytku – 99% respondentów twierdzi, że odniosło korzyści z wdrożenia tej technologii. Deweloperzy wykorzystują również strategie multi-cloud – obecnie 2/3 z nich uruchamia Kubernetes w wielu chmurach.

    Na podstawie badań przeprowadzonych wśród 776 specjalistów ds. rozwoju oprogramowania i IT, jako kluczowe korzyści wskazywano: lepsze wykorzystanie i wydatkowanie zasobów (59%), łatwiejsze aktualizacje aplikacji (49%) oraz sprawniejszą migrację do chmury (42%). Raport potwierdza także, że bezpieczeństwo jest nadal głównym problemem wśród prawie wszystkich respondentów (99%), a ponad połowa (51%) przyznaje, że nie ma wystarczającego doświadczenia i wiedzy, aby wdrożyć Kubernetes czy zarządzać nim.

    Ostatnie kilka lat utwierdziło użytkowników w przekonaniu, aby używać Kubernetes jako standardowej platformy w infrastrukturze, w chmurze prywatnej i publicznej, a często w obu. Użycie tej technologii wykracza już poza obszar aplikacji testowych i jest wykorzystywana produkcyjnie powiedział Andrzej Szymczak, starszy inżynier rozwiązań w VMware. Dziś trudno znaleźć przedsiębiorstwa, które nie planują wdrożenia Kubernetes. Takie upowszechnienie zwiększa zapotrzebowanie na narzędzia do zarządzania Kubernetes, zwłaszcza jeśli chodzi o bezpieczeństwo i wsparcie dla deweloperów. I rzeczywiście, prawie 100% osób biorących udział w naszym badaniu jest zainteresowana narzędziami, które pomogą im w pełni wykorzystać zalety tego środowiska. 

    Kubernetes pokonał pewną barierę:

    Jednym z najwyraźniejszych sygnałów świadczących o tym, że K8wchodzi do “mainstreamu” jest szybki wzrost liczby wdrażanych klastrów: 29% organizacji posiada ich ponad 50, a prawie połowa (48%) spodziewa się, że liczba obsługiwanych klastrów Kubernetes wzrośnie o ponad 50%.

    Czynniki, które przyczyniły się do wzrostu adopcji:

    • Lepsze projektowanie oprogramowania: 62% jako główny powód podało zwiększenie elastyczności aplikacji, a 54% – lepszą wydajność programistów.
    • Adopcja chmury: 59% respondentów wskazało na poprawę wykorzystania chmury, a 46% wymieniło zmniejszenie kosztów chmury jako ważne czynniki adopcji K8s.
    • Wydajność operatorów: Ponad jedna trzecia (37%) stwierdziła, że potrzeba poprawy wydajności operatora była jednym z czynników wyboru.

    Dominuje multi-cloud:

    Jednym z głównych powodów, dla których organizacje przyjmują Kubernetes, jest fakt, że oferuje on wyraźne korzyści dla dynamicznego rozwoju operacji w chmurze. Coraz częściej odchodzi się od wdrożeń Kubernetes typu on-premises i single-cloud na rzecz wdrożeń hybrydowych i multi-cloud:

    • Respondenci, którzy wykorzystują K8s głównie do prac rozwojowych, preferują rozwiązania lokalne (62%) lub jednego dostawcę usług w chmurze publicznej (42%).
    • Dla porównania ci, którzy wykorzystują Kubernetes do celów produkcyjnych, preferują wielu dostawców usług w chmurze publicznej (52%), a następnie usługi świadczone lokalnie (47%) i jednego dostawcę usług w chmurze publicznej (42%).

    Kubernetes tylko do majsterkowania to już przeszłość:

    Ze względu na szybki rozwój i ewolucję K8s, wiele organizacji ma problemy — zarówno z dostosowaniem aktualnego personelu (i utrzymywaniem go na poziomie), jak i z zatrudnieniem osób z odpowiednimi kompetencjami:

    • 95% ma trudności z wyborem, wdrożeniem i zarządzaniem platformą Kubernetes:
    • 51% zgadza się, że brakuje firmom wewnętrznego doświadczenia i wiedzy fachowej
    • 37% uważa, że trudno jest pozyskać wymaganą wiedzę specjalistyczną
    • 34% ma problemy z tempem zmian związanych z Kubernetes/Cloud

    Przy deficycie wiedzy specjalistycznej wiele zespołów stara się wypełnić luki za pomocą prostszych rozwiązań Kubernetes połączonych ze wsparciem i usługami: 97% zapłaciłoby za usługi i wsparcie dla ważnych narzędzi K8s.

    Strategia „zrób to sam”, wewnętrzne procesy i narzędzia mogły się do tej pory sprawdzać, ale powoli przestają wystarczać. Szczególnie biorąc pod uwagę fakt, że brak odpowiedniego doświadczenia i wiedzy specjalistycznej pozostaje wyzwaniem dla większości organizacji. Zespoły zwracają się ku gotowym narzędziom ekosystemu Kubernetes, aby wypełnić luki, przy czym priorytetowo traktują oprogramowanie do zabezpieczania, ochrony i szyfrowania danych, zarządzania cyklem życia klastra, monitorowania, alarmowania oraz automatyzacji platformypodsumowuje Tomasz Doligalski, członek zarządu, dyrektor Usług IT z Grupy 3S.   

    Zmienne względy bezpieczeństwa:

    Biorąc pod uwagę wzrost liczby klastrów Kubernetes i wdrożeń w wielu chmurach — oraz rosnącą liczbę zagrożeń cybernetycznych — wyzwania związane z bezpieczeństwem znajdują się w centrum uwagi:

    • 97% organizacji ma obawy dotyczące bezpieczeństwa Kubernetes.
    • Sprostanie wymogom bezpieczeństwa i zgodności jest wyzwaniem nr 1 zarówno w przypadku wdrażania Kubernetes (59% respondentów), jak i zarządzania nim (47%).

    Metodologia badań

    Badanie, przeprowadzone wspólnie z firmą Dimensional Research, objęło 776 wykwalifikowanych specjalistów z dziedziny rozwoju oprogramowania i IT. Uczestnicy badania to osoby odpowiedzialne za Kubernetes w firmach zatrudniających 1000 lub więcej pracowników, reprezentujących szeroki zakres ról, branż, regionów i poziomów stanowisk. Wszystkie badane organizacje mają znaczący wpływ na rozwój oprogramowania.

  • Kubernetes wchodzi do mainstreamu 
— bezpieczeństwo i kompetencje wymieniane jako krytyczne

    Kubernetes wchodzi do mainstreamu 
— bezpieczeństwo i kompetencje wymieniane jako krytyczne

    VMware w raporcie „The State of Kubernetes 2022” dowodzi, że konteneryzacja weszła już do powszechnego użytku – 99% respondentów twierdzi, że odniosło korzyści z wdrożenia tej technologii. Deweloperzy wykorzystują również strategie multi-cloud – obecnie 2/3 z nich uruchamia Kubernetes w wielu chmurach.

    Na podstawie badań przeprowadzonych wśród 776 specjalistów ds. rozwoju oprogramowania i IT, jako kluczowe korzyści wskazywano: lepsze wykorzystanie i wydatkowanie zasobów (59%), łatwiejsze aktualizacje aplikacji (49%) oraz sprawniejszą migrację do chmury (42%). Raport potwierdza także, że bezpieczeństwo jest nadal głównym problemem wśród prawie wszystkich respondentów (99%), a ponad połowa (51%) przyznaje, że nie ma wystarczającego doświadczenia i wiedzy, aby wdrożyć Kubernetes czy zarządzać nim.

    Ostatnie kilka lat utwierdziło użytkowników w przekonaniu, aby używać Kubernetes jako standardowej platformy w infrastrukturze, w chmurze prywatnej i publicznej, a często w obu. Użycie tej technologii wykracza już poza obszar aplikacji testowych i jest wykorzystywana produkcyjnie — powiedział Andrzej Szymczak, starszy inżynier rozwiązań w VMware. Dziś trudno znaleźć przedsiębiorstwa, które nie planują wdrożenia Kubernetes. Takie upowszechnienie zwiększa zapotrzebowanie na narzędzia do zarządzania Kubernetes, zwłaszcza jeśli chodzi o bezpieczeństwo i wsparcie dla deweloperów. I rzeczywiście, prawie 100% osób biorących udział w naszym badaniu jest zainteresowana narzędziami, które pomogą im w pełni wykorzystać zalety tego środowiska. 

    Kubernetes pokonał pewną barierę

    Jednym z najwyraźniejszych sygnałów świadczących o tym, że K8wchodzi do “mainstreamu” jest szybki wzrost liczby wdrażanych klastrów: 29% organizacji posiada ich ponad 50, a prawie połowa (48%) spodziewa się, że liczba obsługiwanych klastrów Kubernetes wzrośnie o ponad 50%.

    Czynniki, które przyczyniły się do wzrostu adopcji:

    • Lepsze projektowanie oprogramowania: 62% jako główny powód podało zwiększenie elastyczności aplikacji, a 54% – lepszą wydajność programistów.
    • Adopcja chmury: 59% respondentów wskazało na poprawę wykorzystania chmury, a 46% wymieniło zmniejszenie kosztów chmury jako ważne czynniki adopcji K8s.
    • Wydajność operatorów: Ponad jedna trzecia (37%) stwierdziła, że potrzeba poprawy wydajności operatora była jednym z czynników wyboru.

    Dominuje multi-cloud

    Jednym z głównych powodów, dla których organizacje przyjmują Kubernetes, jest fakt, że oferuje on wyraźne korzyści dla dynamicznego rozwoju operacji w chmurze. Coraz częściej odchodzi się od wdrożeń Kubernetes typu on-premises i single-cloud na rzecz wdrożeń hybrydowych i multi-cloud:

    • Respondenci, którzy wykorzystują K8s głównie do prac rozwojowych, preferują rozwiązania lokalne (62%) lub jednego dostawcę usług w chmurze publicznej (42%).
    • Dla porównania ci, którzy wykorzystują Kubernetes do celów produkcyjnych, preferują wielu dostawców usług w chmurze publicznej (52%), a następnie usługi świadczone lokalnie (47%) i jednego dostawcę usług w chmurze publicznej (42%).
      Kubernetes tylko do majsterkowania to już przeszłość:

    Ze względu na szybki rozwój i ewolucję K8s, wiele organizacji ma problemy — zarówno z dostosowaniem aktualnego personelu (i utrzymywaniem go na poziomie), jak i z zatrudnieniem osób z odpowiednimi kompetencjami:

    • 95% ma trudności z wyborem, wdrożeniem i zarządzaniem platformą Kubernetes:
    • 51% zgadza się, że brakuje firmom wewnętrznego doświadczenia i wiedzy fachowej
    • 37% uważa, że trudno jest pozyskać wymaganą wiedzę specjalistyczną
    • 34% ma problemy z tempem zmian związanych z Kubernetes/Cloud

    Przy deficycie wiedzy specjalistycznej wiele zespołów stara się wypełnić luki za pomocą prostszych rozwiązań Kubernetes połączonych ze wsparciem i usługami: 97% zapłaciłoby za usługi i wsparcie dla ważnych narzędzi K8s.

    Strategia „zrób to sam”, wewnętrzne procesy i narzędzia mogły się do tej pory sprawdzać, ale powoli przestają wystarczać. Szczególnie biorąc pod uwagę fakt, że brak odpowiedniego doświadczenia i wiedzy specjalistycznej pozostaje wyzwaniem dla większości organizacji. Zespoły zwracają się ku gotowym narzędziom ekosystemu Kubernetes, aby wypełnić luki, przy czym priorytetowo traktują oprogramowanie do zabezpieczania, ochrony i szyfrowania danych, zarządzania cyklem życia klastra, monitorowania, alarmowania oraz automatyzacji platformy – podsumowuje Tomasz Doligalski, członek zarządu, dyrektor Usług IT z Grupy 3S.   

    Zmienne względy bezpieczeństwa:

    Biorąc pod uwagę wzrost liczby klastrów Kubernetes i wdrożeń w wielu chmurach — oraz rosnącą liczbę zagrożeń cybernetycznych — wyzwania związane z bezpieczeństwem znajdują się w centrum uwagi:

    97% organizacji ma obawy dotyczące bezpieczeństwa Kubernetes.
    Sprostanie wymogom bezpieczeństwa i zgodności jest wyzwaniem nr 1 zarówno w przypadku wdrażania Kubernetes (59% respondentów), jak i zarządzania nim (47%).
    Metodologia badań

    Badanie, przeprowadzone wspólnie z firmą Dimensional Research, objęło 776 wykwalifikowanych specjalistów z dziedziny rozwoju oprogramowania i IT. Uczestnicy badania to osoby odpowiedzialne za Kubernetes w firmach zatrudniających 1000 lub więcej pracowników, reprezentujących szeroki zakres ról, branż, regionów i poziomów stanowisk. Wszystkie badane organizacje mają znaczący wpływ na rozwój oprogramowania.

  • OVHcloud potwierdza pozycję na rynku PaaS i rozszerza ofertę DBaaS dzięki partnerstwu z Aiven

    OVHcloud potwierdza pozycję na rynku PaaS i rozszerza ofertę DBaaS dzięki partnerstwu z Aiven

    Dzięki sześciu nowo dostępnym rozwiązaniom DataBase-as-a-Service, OVHcloud oferuje swoim klientom jedno z największych portfolio DBaaS na rynku. Powiększenie oferty było możliwe dzięki partnerstwu z Aiven, europejską firmą programistyczną, która łączy najlepsze technologie open-source oraz infrastrukturę chmurową.

    OVHcloud oferuje swoim klientom najszerszy wybór zarządzanych baz danych – zarówno dzięki rozwiązaniom typu Database-as-a-Service (MySQL, PostgreSQL[i], Apache Kafka, Apache Kafka Mirror Maker, RedisTM[ii] i OpenSearch) jak również: Apache Cassandra, M3, M3 Aggregator, Grafana[iii] i Apache Kafka Connect[iv]; które trafią do oferty już wiosną 2022 roku.

    Dzięki bogatemu portfolio Public Cloud Database, OVHcloud wspiera firmy we wdrażaniu usług zarządzanego Platform-as-a-Service i ułatwia przyśpieszenie ich transformacji w ramach modernizacji aplikacji, wdrażania strategii native cloud, a także ekstrapolację danych, w oparciu o sztuczną inteligencję.

    OVHcloud oferuje bazy danych typu open source, dzięki czemu klienci mogą korzystać także z najnowszych aktualizacji i innowacji dostarczanych przez innych użytkowników. Zrównoważone rozwiązania, poziom usługi oraz wsparcie społeczności open source gwarantują możliwość przenoszenia systemów i odwracalność, a w konsekwencji pozwalają uniknąć vendor lock-ingu.

    Rozwiązania DBaaS bazują na podstawowych zaletach oferty OVHcloud: dostępności, niezrównanego stosunku ceny do wydajności, przewidywalnych kosztów oraz możliwości wyboru lokalizacji danych, a więc i niepodleganie eksterytorialnym prawom.

    Partnerstwo OVHcloud-Aiven dla innowacji

    „Odpowiadanie na zmieniające się potrzeby naszych klientów i dostosowywanie się do stale zmieniającego się rynku jest dla nas kluczowe. To właśnie dlatego zdecydowaliśmy się wesprzeć ich, oferując zarządzaną, zaufaną ofertę dla szerokiej gamy silników baz danych. Aby to osiągnąć, OVHcloud skorzystało z technologii europejskiego twórcy oprogramowania, firmy Aiven, z którym łączą nas wspólne wartości – innowacyjność w open source, standardy interoperacyjności, dostępność i prostota.” podkreśla Thierry Souche, Chief Technical Officer w OVHcloud

    „Dzięki naszemu partnerstwu z OVHcloud dostarczamy technologie open source, które umożliwiają organizacjom przyśpieszenie wdrażania infrastruktury chmury cyfrowej i wykorzystanie danych do napędzania biznesu i innowacji. Cieszymy się, że możemy być częścią zmieniającej się historii OVHcloud”powiedział Heikki Nousiainen, Chief Technology Officer w Aiven.

    Obszerny katalog dostosowany do różnych przypadków użycia

    Dzięki wykorzystaniu zarządzanych baz danych – co umożliwiło pominięcie zarządzania infrastrukturą i skoncentrowanie się na podstawowej działalności – beta-testerzy tego rozwiązania byli w stanie znacząco zwiększyć swoją wydajność.

    „Opracowaliśmy nasze aplikacje, aby dostarczać klientom dane o stanie floty pojazdów w czasie rzeczywistym. Musieliśmy znaleźć odpowiedniego dostawcę chmury do zarządzania naszą bazą danych MySQL: dostawcę zgodnego z RODO, który jest również w stanie szybko wdrożyć naszą usługę. Korzystanie z zarządzanego DBaaS OVHcloud pomaga naszemu zespołowi IT skoncentrować się na podstawowej misji przy jednoczesnym utrzymaniu wysokiej dostępności systemu. Cenimy bazę danych w chmurze publicznej dla MySQL właśnie za jej wydajność, bezpieczeństwo i łatwość użytkowania” – mówi Nick Chadaway, Managing Director w DMN Logistics. 

    Liv Systems GmbH, startup z siedzibą w Niemczech, przetestował wersję beta zarządzanego MySQL w połączeniu z Managed Kubernetes i load balancerem – „Dzięki oferowanemu rozwiązaniu DBaaS mogliśmy zbudować środowisko produkcyjne i wykorzystać bazy danych do zarządzania użytkownikami. Wszystko można było ustawić za pomocą prostej konsoli, co sprawiło, że konfiguracja była płynna i łatwa. Pozwoliło nam to na zaoszczędzenie znacznej ilości czasu!”

    Sébastien Gaïde, CTO i współzałożyciel startupu Tilkal, platformy blockchain do śledzenia łańcucha dostaw, wyjaśnia„Nasza działalność wymaga optymalnej ochrony danych naszych klientów. Dlatego rok temu dołączyliśmy do OVHcloud. Od listopada 2021 testujemy bazy danych PostgreSQL, dzięki czemu nie musimy już samodzielnie zarządzać nimi na serwerach dedykowanych. Nie tylko podwoiliśmy wydajność, ale także zyskaliśmy niezawodność i łatwość obsługi.”


    [i] PostgreSQL jest znakiem towarowym Stowarzyszenia Społeczności PostgreSQL w Kanadzie i jest używany za ich zgodą.
    [ii] Redis jest znakiem towarowym Redis Ltd. Wszelkie prawa w tym zakresie są zastrzeżone dla Redis Ltd. Jakiekolwiek użycie przez OVH SAS służy wyłącznie do celów referencyjnych i nie oznacza sponsorowania, poparcia ani powiązania między Redis i OVH SAS
    [iii] Znaki Grafana Labs są znakami towarowymi Grafana Labs i są używane za zgodą Grafana Labs. Nie jesteśmy powiązani, wspierani ani sponsorowani przez Grafana Labs ani jej podmioty stowarzyszone
    [iv] Wszystkie nazwy produktów, logo i marki są własnością ich odpowiednich właścicieli. Wszystkie nazwy firm, produktów i usług użyte w tej wersji służą wyłącznie do celów identyfikacyjnych. Użycie tych nazw firm, logo i znaków towarowych nie powinno sugerować poparcia, sponsorowania lub powiązania z właścicielem tych praw własności intelektualnej.

  • Red Hat: Co przyniesie rok 2022?

    Red Hat: Co przyniesie rok 2022?

    Nie zawsze łatwo jest tworzyć prognozy na cały przyszły rok. Po pierwsze cała branża IT bardzo szybko się rozwija i rozwiązania, które dziś uznawane są za niszowe, jutro mogą stać się dominujące. Także pandemia nauczyła nas, że pomimo ustalonych planów, rzeczywistość wymaga od nas zupełnie innych działań, ale i często zmusza do przyśpieszenia cyfrowej transformacji. Jaki zatem będzie kolejny rok w technologii IT?

    Rosnąca rola kontenerów i Kubernetes

    Firma Gartner przewiduje, że do 2022 roku ponad 75% organizacji na świecie będzie uruchamiać aplikacje kontenerowe w środowisku produkcyjnym, co oznacza duży wzrost z poziomu niecałych 30% w roku 2020. Co jednak będzie motorem tak gwałtownego wzrostu?

    W ciągu ostatnich 7 lat Kubernetes ewoluował i stał się de facto standardem zarządzania aplikacjami kontenerowymi. I, podobnie jak w przypadku każdej nowej technologii, mamy do czynienia zarówno z dojrzewaniem jej samej, jak i z krzywą uczenia się użytkowników. W początkowym okresie użytkownicy często budowali własne lokalne platformy Kubernetes i wdrażali bardziej uproszczony zestaw aplikacji. Jednak wraz z ustabilizowaniem się platformy Kubernetes wzorce użytkowania znacznie dojrzały.

    – Organizacje dostrzegły sukces połączenia technologii Kubernetes z Red Hat (dzięki OpenShift), dlatego oczekują podobnych rezultatów biznesowych. Często jednak nie chcą inwestować w kwalifikacje niezbędne do zarządzania platformą Kubernetes i jej utrzymywania. To właśnie tutaj spodziewamy się szybkiej ekspansji wykorzystania zarządzanych usług chmurowych Kubernetes, takich jak OpenShift Dedicated, Red Hat OpenShift on AWS (ROSA) oraz Microsoft Azure Red Hat OpenShift (ARO) komentuje Adam Wojtkowski.

    Widzieliśmy już szeroką gamę aplikacji działających w kontenerach, a teraz zaczynamy dostrzegać, że coraz więcej organizacji przenosi na platformę Kubernetes swoje newralgiczne aplikacje. Oczekuje się, że bazy danych, komunikaty sterowane zdarzeniami oraz newralgiczne aplikacje będą przenoszone na platformę Kubernetes, aby wykorzystać skalowalność, bezpieczeństwo i przenośność, które Kubernetes zapewnia wszystkim aplikacjom.

    Jednak spośród wszystkich aplikacji działających na platformie Kubernetes wyróżnia się jeden obszar — to AI/ML. Wraz ze wzrostem znaczenia analizy danych w niemal każdej firmie rośnie także zdolność do ulepszania i usprawniania wielu rodzajów aplikacji. Kubernetes dodaje do AI/ML doskonałe możliwości platformowe: skalowalność, dostęp do procesorów graficznych, przenośność obciążeń i wiele więcej. Byliśmy już świadkami wspaniałych osiągnięć, do jakich zdolne są organizacje dzięki technologiom AI/ML opartym na platformie Kubernetes. Oczekujemy, że następna generacja aplikacji całkowicie odmieni branże.

    Zmierzch ery wirtualizacji

    Kontenery będą wypierać maszyny wirtualne, a to głównie przez to, że pozwalają znacznie uprościć cały stos infrastruktury aplikacyjnej. Jeśli posiadamy aplikacje, które wymagają dedykowanych maszyn wirtualnych to jest na to świetna metoda. Maszyna wirtualna nie jest niczym innym jak procesem, który z łatwością można uruchomić w kontenerze. Zabieg taki pozwala całkowicie wyeliminować warstwę wirtualizacji. Platformy wirtualne w dotychczasowej postaci powoli przechodzą już do lamusa. Obecnie obciążenia kontenerowe coraz częściej uruchamiane są bezpośrednio na warstwie sprzętowej (bare metal), dotyczy to również maszyn wirtualnych, które do tej pory wymagały osobnej platformy. Dzięki temu stos technologiczny można spłaszczyć, rezygnując zupełnie z warstwy wirtualizacji. Korzyści, jakie niesie taki zabieg, nie ograniczają się jedynie do oszczędności kosztów platformy wirtualnej ale przede wszystkim upraszczają operacje, dzięki wykorzystaniu tych samych narzędzi do zarządzania zarówno kontenerami jak i maszynami wirtualnymi. Łatwiejszy staje się proces powołania całego projektu, gdyż maszyny wirtualne tworzone są w sposób równie zwinny jak kontenery. Wspólne narzędzia CI/CD, cykl życia środowisk od rozwoju po produkcję wygląda teraz znacznie prościej. Eliminujemy również narzut wydajnościowy, jaki do tej pory konsumował wirtualizator.

    Rosnąca rola przetwarzania brzegowego

    Organizacje będą wykorzystywać przetwarzanie brzegowe do rozwiązywania najważniejszych problemów globalnych — w tym związanych ze zrównoważonym rozwojem, zmianą klimatu i niestabilnością łańcuchów dostaw. Będzie to naturalne rozszerzenie transformacji działalności, która na miejsce już dziś. Te wysiłki będą mieć charakter ekosystemowy, ponieważ zmuszą do współpracy wszystkie branże.

    – Wydaje się, że na tym polu jednym z głównych graczy będzie sektor telekomunikacyjny, który wykorzysta sieci 5G i przetwarzanie brzegowe, aby pomóc w rozwiązaniu problemu braku dostępności do najnowszych technologii IT w wielu branżach. Technologie te są już odpowiednio dojrzałe — stają się tańsze, bezpieczniejsze i mają bardziej globalny zasięg — dzięki czemu stworzą prawdziwe okno możliwości, które pozwoli rozwiązać problemy uważane dotychczas za niemożliwe do pokonania. Przykłady zastosowań są niemal nieograniczone.dodaje Adam Wojtkowski, General Manager na region CEE w Red Hat.

    Obliczenia na brzegu sieci będą oznaczać powrót przetwarzania heterogenicznego, które zapewni ogromny ekosystem z mocą specjalistycznego sprzętu — bez kompromisów, co zapewnia jedynie technologia open source, nieograniczana przez sztywne ramy, jak ma to miejsce w przypadku oprogramowania zastrzeżonego. Obliczenia będzie można przeprowadzać w dowolnym miejscu, mając do dyspozycji kompletny stos zbudowany zgodnie z konkretnym przeznaczeniem oraz optymalizujący aplikacje i infrastrukturę.

    Wraz z powstawaniem nowych projektów przetwarzania brzegowego organizacje zaczną zdawać sobie sprawę, że będą też musiały prowadzić więcej niż jeden projekt brzegowy w tym samym czasie. Podobnie jak to miało miejsce w przypadku przetwarzania w chmurze, klienci zaczną opracowywać zasady zarządzania, które określą to, z czego należy korzystać i w jaki sposób faktoryzować projekty.

    Mobilność, sztuczna inteligencja oraz uczenie maszynowe

    W ciągu najbliższych kilku lat zobaczymy, że przetwarzanie brzegowe oraz sztuczna inteligencja / uczenie maszynowe (AI/ML) będą wspólnie napędzać kolejną falę innowacji technologicznych. W większości rzeczywistych zastosowań zarówno technologie brzegowe, jak i AI/ML będą pracować ramię w ramię, aby dostarczać rozwiązania, które pomogą zwalczać największe problemy świata — związane m.in. ze zrównoważonym rozwojem, zmianą klimatu, obłożeniem szpitali i nie tylko.

    Nową klasą urządzeń brzegowych o dużej mobilności i mocy obliczeniowej staną się pojazdy. Technologie open source pomogą przyspieszyć transformację przemysłu motoryzacyjnego dzięki wspólnemu celowi, jakim jest poprawa bezpieczeństwa na drogach. Ostatecznie doprowadzi to do zbudowania bardziej solidnego ekosystemu mobilności, zwiększenia możliwości ponownego wykorzystania oprogramowania oraz bardziej wydajnego i zrównoważonego łańcucha wartości dla producentów samochodów.

    Bezpieczeństwo łańcuchów dostaw oprogramowania

    Jednym z głównych obszarów zainteresowania w nadchodzącym roku będzie bezpieczeństwo łańcuchów dostaw oprogramowania. Organizacje muszą chronić swój łańcuch dostaw przed włamaniami. Osiągnięcie tego celu będzie wymagało inwestycji w zastosowanie nowych technologii w potokach, np. łańcuchów Tekton CD, a także Sigstore, aby ułatwić dodawanie podpisów w potokach.

    – Zaczniemy dostrzegać zmiany w sposobie, w jaki firmy zabezpieczają aplikacje na etapie ich wdrażania. Ten proces już się rozpoczął wraz z przesunięciem w kierunku prostszego podejścia w samej platformie Kubernetes, zwanego kontrolą poza drzewem. Nadal będziemy obserwować wzrost w obszarze zarządzania wdrożeniami opartego na regułach — z wykorzystaniem narzędzi takich jak OPA Gatekeeper, Kyverno i Argo CD. Warto też zwrócić uwagę na nowe mechanizmy reguł, które dopiero się pojawiąpodsumowuje Adam Wojtkowski z Red Hat.

    Nastąpi wzrost zainteresowania zestawieniami komponentów oprogramowania (SBOM). Proponowane standardy dotyczące dostarczania SBOM istnieją już od dłuższego czasu, ale — ze względu na obawy związane z bezpieczeństwem łańcucha dostaw — doszliśmy do punktu, w którym wszystkie organizacje będą musiały wymyślić, jak dostarczać zestawienia komponentów oprogramowania. W branży będzie się toczyć dyskusja na temat statycznych informacji w zestawieniach komponentów w porównaniu z informacjami dynamicznymi, takimi jak dane dotyczące podatności wraz z informacją o tym, w którym przypadku pakiet nie uległ zmianie, ale podatności związane z takim pakietem — już tak. W związku z tym nastąpi gwałtowny rozwój automatyzacji wokół SBOM i powiązanych metadanych pakietów.

    Kubernetes będzie zawierać większą liczbę funkcji bezpieczeństwa dodanych bezpośrednio do poszczególnych dystrybucji tej platformy. Pomoże to zwiększyć ogólne bezpieczeństwo dystrybucji, a także obniżyć koszty zabezpieczania wdrożeń platformy Kubernetes.

  • Bezpieczeństwo danych w hybrydowych środowiskach chmurowych

    Bezpieczeństwo danych w hybrydowych środowiskach chmurowych

    Jak dowodzi badanie przeprowadzone w 2020 przez Forrester Consulting[i] wśród 350 globalnych decydentów IT z różnych branż, strategie rozwoju infrastruktury IT w ich organizacjach zmierzają w kierunku tworzenia środowisk chmury hybrydowej, czyli chmury łączącej usługi chmury publicznej i prywatnej. Na taki stan rzeczy mają wpływ rosnące wymagania użytkowników związane z dostępnością usług i danych, na co wskazało 58% respondentów; pojawiające się nowe technologie, które okazały się ważne w 56% odpowiedzi oraz konieczność zapewnienia bezpieczeństwa danych oraz aplikacji. Na ten ostatni czynnik wskazało 77% menedżerów IT.

    „Priorytetem praktycznie dla każdej firmy jest potrzeba zapewnienia bezpiecznego dostępu do danych. Dla nowoczesnych organizacji IT, które całościowo postrzegają swoją infrastrukturę, budowa hybrydowego środowiska chmurowego jest naturalnym posunięciem. Taki model zapewnia najlepszy balans pomiędzy elastycznością, dostępem i bezpieczeństwem danych –  komentuje Daniel Wysocki, Specjalista ds. Bezpieczeństwa z Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Daniel Wysocki, Specjalista ds. Bezpieczeństwa z Advatech
    Daniel Wysocki, Specjalista ds. Bezpieczeństwa, Advatech

    Jak wskazało 40% respondentów wspomnianego badania, chmury publiczne nie spełniają wymagań w zakresie bezpieczeństwa. Jest to jeden z głównych powodów utrzymywania infrastruktury lokalnej, która w ten sposób staje się kluczowym elementem strategii chmury hybrydowej.

    „Nie trzeba oglądać serialu Mr. Robot na platformie Netflix, aby zdać sobie sprawę z faktu, że utrata danych i brak możliwości ich odtworzenia z kopii zapasowych stanowi prawdziwą katastrofę dla biznesu, bez względu na skalę działania. Dlatego procedury, zabezpieczenia i najwyższej klasy sprzęt do przechowywania danych z odpowiednim oprogramowaniem systemowym to minimum. Analiza ruchu w sieci, wykrywanie anomalii oraz błyskawiczne reagowanie na każde zagrożenie w dużym stopniu pomaga w utrzymaniu odpowiedniego poziomu bezpieczeństwa. Jednak ostatecznie i tak okazuje się, że najsłabszym ogniwem w tym całym łańcuchu najczęściej bywa człowiek” komentuje Daniel Wysocki z Advatech.

    Ryzyko rośnie z czasem – pojawiają się nowe, coraz bardziej wyrafinowane i złożone zagrożenia. Oprócz tak powszechnych ataków ransomware, organizacje borykają się również z kradzieżą lub utratą danych w wyniku klęsk żywiołowych[ii], czy błędów ludzkich. Wystarczy czasem opóźnienie w aktualizacji oprogramowania, czy błąd konfiguracji, aby narazić firmę na przestój lub nawet utratę danych. To w konsekwencji prowadzi do utraty przewagi konkurencyjnej, zmniejszonej wydajności pracy i plamy na wizerunku firmy.
    W tych okolicznościach na niedomagania w sferze bezpieczeństwa może pomóc holistyczna strategia rozwoju i aktualizacji infrastruktury w oparciu o jednego sprawdzonego dostawcę, który zapewni nie tylko sprzęt, ale i bezpieczne oprogramowanie, pozwalając nadążać za wciąż pojawiającymi się nowymi zagrożeniami. Trzeba także pamiętać, że budowa i rozwój infrastruktury, szczególnie systemów pamięci masowych w oparciu przede wszystkim o kryterium kosztów to ślepa uliczka i często popełniany błąd. Wiele firm w niezamierzony sposób wpada w taką pułapkę.

    „W dzisiejszych, tak niebezpiecznych dla infrastruktury IT czasach, zwykłe tworzenie kopii zapasowych i odzyskiwanie danych już nie wystarcza. W organizacjach konieczne są rozwiązania pamięci masowych, które zapewnią stały i bezpieczny dostęp do danych oraz odporność na różnego rodzaju cyberzagrożenia. Odpowiednio dobrane rozwiązania systemów pamięci masowej mogą stać się nie tylko polisą ubezpieczeniową na ciągłość działania biznesu, ale mogą także umożliwić i ułatwić transformację cyfrową opartą na danych”ocenia Daniel Wysocki, Specjalista ds. bezpieczeństwa danych w Advatech.

    Sprzęt i oprogramowanie plus odpowiedni dostawca oraz jego kompetencje wdrożeniowe powiązane z rozległym doświadczeniem na rynku są w stanie zbudować trwały fundament łączący wysoką wydajność infrastruktury z jej bezpieczeństwem. Jak oceniają firmy badawcze o światowym zasięgu, jedno naruszenie bezpieczeństwa średnio kosztuje 4,24 mln USD. Widać zatem, że ochrony wymaga nie tylko lokalne centrum przetwarzania danych, ale całe środowiska wirtualne, kontenerowe i hybrydowe. Głównym zaś celem jest nie tylko zapobieganie utracie danych, ale także szybkie i bezbłędne ich odzyskanie po usunięciu zagrożenia.

    „Dysponując wieloletnim doświadczeniem i prowadząc wdrożenia w naprawdę różnych firmach możemy zdecydowanie rekomendować kompleksowe rozwiązania firmy IBM. Cała linia urządzeń i ochrony systemów pamięci masowych zapewnia skuteczną i innowacyjną odporność danych, która jednocześnie upraszcza zarządzanie w środowiskach chmury hybrydowej, maksymalizuje czas pracy bez przestojów i obniża koszty — a wszystko to przy jednoczesnej poprawie odporności na zagrożenia cybernetyczne” twierdzi Daniel Wysocki z Advatech.

    IBM dysponuje nowoczesnymi, bardzo wydajnymi i bezpiecznymi urządzeniami z pamięcią flash oraz sprawdzoną i wielokrotnie wypróbowaną technologią taśmową. Obie linie są wspierane oprogramowaniem, którego funkcjonalność podnosi poziom bezpieczeństwa na najwyższy możliwy poziom.

    Flagowym rozwiązaniem w zakresie pamięci masowych jest rodzina IBM FlashSystem® z oprogramowaniem IBM Spectrum® Virtualize. Jest to platforma zaprojektowana z myślą o uproszczeniu tworzenia hybrydowych środowisk chmurowych. Jej cechami charakterystycznymi są szybkość, odpornością i rozliczne funkcje bezpieczeństwa klasy korporacyjnej gwarantujące błyskawiczne odtwarzanie danych po awarii i wysoką dostępność. IBM FlashSystem®, w powiązaniu z odpowiednim oprogramowaniem do zarządzania pełnym cyklem życia danych, tworzy kompleksowy układ cyberodporności danych całej organizacji na obecne i przyszłe zagrożenia.

    Wśród urządzeń taśmowych na uwagę zasługuje IBM TS7700 Virtual Tape Library, służące do odzyskiwania danych po awarii, optymalizacji ochrony i utrzymania ciągłości biznesowej. Ułatwia ono obsługę infrastruktury do tworzenia kopii zapasowych o znaczeniu krytycznym i archiwizacji danych w chmurze hybrydowej. Dla systemów wymagających wysokiej wydajności dostępne są mechanizmy wirtualizacji pamięci taśmowej z pamięcią podręczną typu all-flash. Innym, równie ciekawym rozwiązaniem jest energooszczędna taśmowa pamięć masowa IBM LTO 9 z funkcjami bezpieczeństwa i ochrony danych przed zagrożeniami cybernetycznymi. Ta niezawodna technologia przechowywania danych na taśmie w kasetach WORM jest stosowana w rozwiązaniach z fizyczną separacją centrów przechowywania danych oraz wszędzie tam, gdzie wymaga się bardzo długiego czasu przechowywania oraz niezmienności danych.

    „Przechowywanie danych na taśmach jest wbrew pozorom rozwiązaniem bardzo często spotykanym w praktyce biznesowej w naszym kraju. Wysoki poziom bezpieczeństwa i energooszczędność przy relatywnie niższych kosztach w porównaniu do innych nośników nadal czyni z taśmowych pamięci masowych rzecz wartą rozważenia”podkreśla Daniel Wysocki z Advatech.

    O bezpieczeństwie danych i całej infrastruktury IT decyduje przede wszystkim funkcjonalność dostępnego oprogramowania systemowego. IBM Spectrum® Protect zapewnia ochronę danych w środowiskach wirtualnych, fizycznych serwerach plików i aplikacjach. Wbudowane funkcje optymalizacji wydajności dostępu do danych umożliwiają organizacjom zmniejszenie kosztów infrastruktury kopii zapasowych, skalowanie w razie potrzeby i kopiowanie danych na taśmę, usługi chmury publicznej i lokalną obiektową pamięć masową. W wersji Spectrum Protect Plus dostępne są dodatkowo kompleksowe procesy do obsługi długoterminowego przechowywania danych i odzyskiwania operacyjnego. Natywna integracja z Kubernetes i Red Hat® OpenShift® zapewnia odporność danych dla kontenerów działających w środowiskach chmurowych.

    W całym kompleksie zagadnień związanych z bezpieczeństwem danych i szerzej – infrastruktury IT doskonale sprawdza się IBM QRadar – system klasy Security Information and Event Management (SIEM). To platforma posiadające duże możliwości w zakresie agregacji ogromnych ilości danych, bez ograniczeń związanych z liczbą obsługiwanych źródeł, ma wbudowane predefiniowane reguły korelacyjne co pozwala na automatyzację analiz pojawiających się zagrożeń.

    „IBM QRadar pozwala na centralizację zarządzania, gromadzenia i analizy informacji o wszelkich zdarzeniach związanych z bezpieczeństwem informacji, a pochodzących z licznych i różnych źródeł. Dzięki niemu możliwe jest monitorowanie, reagowanie i eliminowanie zagrożeń w czasie rzeczywistym, co znacząco poprawia bezpieczeństwo całej organizacji”ocenia Daniel Wysocki z firmy Advatech.

    [i] https://www.expresscomputer.in/downloads/resources/forrester-the-key-to-enterprise-hybrid-cloud-strategy/68792/
    [ii] https://www.ibm.com/security/data-breach

  • Red Hat uruchomił darmowe szkolenie z Kubernetes

    Red Hat uruchomił darmowe szkolenie z Kubernetes

    Istnieje duże prawdopodobieństwo, że pracownicy IT – zarówno działów rozwoju jak i operacyjnych – w przeciągu ostatnich sześciu lat mieli do czynienia z Kubernetes, które nie bez powodu stało się standardem wdrażania, zarządzania i skalowania skonteneryzowanych aplikacji. Architektura oprogramowania jest prawdopodobnie jednym z najważniejszych zasobów przyszłości każdej firmy, a Kubernetes jest podstawą hybrydowych architektur chmurowych.

    Można śmiało powiedzieć, że Kubernetes odgrywa obecnie kluczową rolę w dostarczaniu wartości dla klientów i umożliwia szybką adaptację do warunków biznesowych w przyszłości. Doskonalenie kompetencji i bycie na bieżąco z rozwojem tej szybko zmieniającej się technologii powinno być zatem priorytetem dla przedsiębiorstw.

    Kubernetes by Example to platforma stworzona po to, by uczyć. Strona jest darmowym źródłem wiedzy, opracowanym przez specjalistów Red Hat, które zapewnia dostęp do szerokiej oferty szkoleń z zakresu Kubernetes, jak również newsów ze świata technologii i oferuje możliwość nawiązywania kontaktów. Platforma wyróżnia się praktycznym podejściem, które pozwala uczestnikom kursu ćwiczyć zdobytą wiedzę w praktyce.

    Strona została pierwotnie uruchomiona w 2017 roku i tak jak projekt Kubernetes dojrzał i rozwinął się w tym czasie, tak samo ewoluowała platforma Kubernetes By Example. Dziś zawiera wiele ścieżek szkoleniowych uczących zarówno podstaw Kubernetes i kontenerów, jak i tematów związanych z tworzeniem aplikacji. Poza tym, na platformie znajdziemy kursy “krok po kroku” prowadzone przez uznanych ekspertów z zakresu:
    l  Podstaw Linux’a,
    l  Podstaw Command Line,
    l  Podstaw kontenerów,
    l  Podstaw Kubernetes,
    l  Programowania aplikacji na Kubernetes,
    l  Programowania z Java na Kubernetes,
    l  Programowania ze Spring Boot na Kubernetes.

    Kursy zostały zaprojektowane tak, aby były kompatybilne z wieloma różnymi klastrami. Dostępne są dwa środowiska, które umożliwiają ćwiczenia: minikube lub OpenShift Playground. minikube daje możliwość uruchomienia jednowęzłowego klastra Kubernetes na prywatnym komputerze, natomiast OpenShift Playgroundzapewnia dostęp do klastra Red Hat OpenShift przez 60 minut. Można wtedy wdrożyć własny obraz kontenera lub skonfigurować pipeline w celu zbudowania aplikacji ze źródła.

    Programiści poszukujący bardziej rozbudowanych funkcji mogą również skorzystać z darmowych wersji próbnych OpenShift, takich jak Developer Sandbox for Red Hat OpenShift – prywatnego środowiska OpenShift we współdzielonym, multi-tenant klastrze OpenShift, które jest wstępnie skonfigurowane z zestawem narzędzi deweloperskich.

    Zadbano także o to, aby dostęp i korzystanie z kursów było jak najłatwiejsze. Dzięki temu kursy są całkowicie darmowe, bez jakichkolwiek dodatkowo płatnych rozszerzeń. Wystarczy jedynie wejść w kurs, a następnie po skończonym szkoleniu wybrać i skonfigurować swój klaster.

    Na stronie jest również dostępny nowy program streamingowy o nazwie KBE Insider, który pokazuje na bieżąco jak rozwija się Kubernetes. Programiści dzięki temu mają dostęp do wiedzy z pierwszej ręki, która umożliwia im dalszy rozwój. Premiera programu miała miejsce 29 czerwca. W pierwszym odcinku wystąpił Clayton Coleman z Red Hat – programista, architekt i wieloletni twórca Kubernetes.

    Link do Kubernetes by Example

    Autor: Mithun Dhar, vice president and general manager, Developer Tools and Programs w Red Hat
  • Jak zapewnić bezpieczeństwo kontenerom i Kubernetes w chmurze?

    Jak zapewnić bezpieczeństwo kontenerom i Kubernetes w chmurze?

    W ostatnim czasie powstaje coraz więcej rozwiązań zaprojektowanych z myślą o chmurze i coraz częściej stosowana jest platforma Kubernetes. Według badań prowadzonych przez firmę 451 Research niemal trzy czwarte przedsiębiorstw już korzysta z tej technologii albo planuje jej wdrożenie w ciągu najbliższych dwóch lat. Wiele firm, szczególnie reprezentujących branże, w których produkuje się i przetwarza ogromne ilości danych, m.in. sektor usług finansowych, jeszcze przed pandemią szukało sposobów skrócenia cyklu wytwarzania oprogramowania. W roku 2020 duża część działalności gospodarczej przeniosła się do środowiska online, a ponieważ przedsiębiorstwa i instytucje dążą do zbudowania lub rozszerzenia oferty usług i produktów cyfrowych, potrzeby tego rodzaju nabierają szczególnego znaczenia.

    Aby zrozumieć, dlaczego technologia Kubernetes cieszy się tak dużą popularnością i jakie są tego konsekwencje dla przedsiębiorstw, posłużymy się często stosowaną w branży informatycznej metaforą mówiącą o różnicy między zwierzętami domowymi i hodowlanymi. W skrócie rzecz ujmując, niektórzy szefowie działów informatycznych skłonni są traktować serwery i systemy wchodzące w skład infrastruktury informatycznej firmy mniej więcej tak, jak traktuje się psy, koty i papugi. Nadają im imiona, dbają o nie i wkładają wiele wysiłku w to, by były zadowolone, zdrowe i nie zakończyły przedwcześnie życia. Kiedy w danej organizacji zwiększa się skala środowiska, stadko składające się do tej pory z 3-4 maszyn rozrasta się do 10-20 serwerów, pewnej liczby maszyn wirtualnych i kilku różnego typu chmur. To już raczej stado zwierząt hodowlanych, a nie grupka ulubionych czworonogów. Oczywiście nadal trzeba o nie dbać, ale poszczególne elementy łatwo możemy zastąpić innymi.

    Jeśli mielibyśmy kontynuować tę analogię, obecnie praca zespołów informatyków przypomina raczej prowadzenie hodowli przemysłowej. Nie możemy policzyć wszystkich osobników w stadzie ani nawet zobaczyć ich jednocześnie. Duża część znajduje się na innych farmach i korzystamy z usług innych osób odpowiedzialnych za opiekę nad nimi, mimo że to my ponosimy stratę, kiedy zwierzę zachoruje, zaginie albo zostanie skradzione. Nie ma już większego znaczenia, gdzie zwierzęta się znajdują i w jakich pomieszczeniach są przetrzymywane. Liczy się tylko wartość produkcji — w świecie technologii jej odpowiednikiem są oferowane możliwości przetwarzania. Oczywiście mamy na myśli nowoczesną infrastrukturę cyfrową, obejmującą obciążenia fizyczne, wirtualne i działające w chmurze.

    Konteneryzacja przyspiesza procesy DevOps

    W ostatnich latach rozpowszechniły się technologie kontenerowe. Maszyny wirtualne umożliwiają uruchomienie na sprzęcie wielu instancji systemu operacyjnego, natomiast kontenery pozwalają uruchamiać wiele obciążeń w ramach jednej instancji. Są mniej skomplikowane, bardziej elastyczne i łatwiejsze do skonfigurowania niż maszyny wirtualne, które korzystają z własnego systemu operacyjnego i zajmują znacznie więcej miejsca. To istotne, ponieważ decydenci zwracają uwagę nie tylko na szybkość i pojemność infrastruktury pamięci masowej, ale również na kwestie wydajności używanych aplikacji i produktywności użytkowników końcowych (wewnętrznych lub zewnętrznych).

    Wartością technologii Kubernetes jako platformy jest możliwość pogrupowania kontenerów tworzących aplikacje w logiczne jednostki. Środowisko Kubernetes pozwala zespołom informatycznym skrócić proces tworzenia aplikacji i skalowania systemów, zwiększyć jego niezawodność i znacznie ograniczyć ryzyko, szczególnie związane z wprowadzaniem zmian. Umożliwia również automatyzację dostarczania aplikacji, wprowadzanie ciągłych udoskonaleń, modernizację i wymianę rozwiązań na nowsze, eliminując konieczność ręcznego wykonywania powtarzalnych procesów.  Informatycy mogą działać sprawniej i z większą elastycznością, jeśli chodzi o zaspokajanie zmiennego zapotrzebowania na moc obliczeniową i pojemność, a przy tym stale zwiększać korzyści uzyskiwane dzięki aplikacjom. Zyskują także możliwość równoczesnego uruchamiania wielu aplikacji na różnych platformach. Technologia Kubernetes pozwala również stworzyć mechanizmy koordynacji działań programistów, zespołów ds. zapewnienia jakości i jednostek operacyjnych. Istotą metodyk DevOps jest budowa środowiska pracy zespołowej i eliminacja odizolowanych obszarów. Wszystkie zespoły starają się osiągnąć wspólny cel, którym jest dostarczenie korzyści zarówno przedsiębiorstwu, jak i jego klientom. I właśnie to jest największą wartością technologii w przedsiębiorstwie: możliwość szybszego dostarczania aplikacji bardziej dopasowanych do potrzeb i na większą skalę.

    Kluczowym elementem podejścia DevOps jest proces zgodny z koncepcją funkcjonowania w chmurze, zatem technologia Kubernetes idealnie wpisuje się w szerszy kontekst działania każdej jednostki organizacyjnej uczestniczącej w realizacji wspólnego przedsięwzięcia. Nie wszyscy zdają sobie sprawę z korzyści, jakie można dzięki temu osiągnąć. Konsekwencją wykorzystania automatyzacji i skalowalności technologii Kubernetes przez zespoły DevOps jest skrócenie cyklu wytwórczego — mówiąc prościej, przedsiębiorstwa mogą zdecydowanie częściej aktualizować aplikacje, wprowadzać w nich poprawki i prowadzić działania modernizacyjne. W sektorze usług finansowych może to okazać się szczególnie istotne. W roku 2020 na całym świecie banki zostały zmuszone do zamknięcia swoich placówek, jednak ogromna większość była przygotowana do cyfrowej obsługi klientów za pomocą systemów bankowości internetowej i mobilnej. Taki poziom elastyczności wynika częściowo z działań nowych banków detalicznych, które wkroczyły na rynek w ostatnim dziesięcioleciu — firmy takie jak Monzo czy Revolut wywarły presję na funkcjonujące od lat globalne korporacje. W rezultacie aplikacje i usługi bankowe muszą obecnie być aktualizowane i usprawniane raz na miesiąc, a nie tylko kilka razy w roku.

    Możemy spodziewać się dalszej automatyzacji usług bankowych dzięki zastosowaniu technologii sztucznej inteligencji i uczenia maszynowego. Klienci będą w stanie łatwiej zarządzać osobistymi finansami, gromadzić oszczędności i monitorować wydatki. Platformy chmurowe i środowiska DevOps ułatwią szybkie wdrażanie innowacji w wielu obszarach, a banki skupią się na tworzeniu najlepszych aplikacji i spersonalizowanych usług, starając się wyróżnić na konkurencyjnym rynku.

    Nowoczesne mechanizmy ochrony danych

    Kiedy mówimy o skalowalności technologii chmurowych i platformy Kubernetes, warto wspomnieć również o powtarzalności i skuteczności procesu wdrażania nowych, skonteneryzowanych środowisk. Wracając do naszego przykładu dotyczącego usług finansowych: po zakończeniu pandemii fizyczne oddziały banków detalicznych zmienią sposób działania, zmuszone do zastosowania bardziej zaawansowanych systemów cyfrowych i zbliżeniowych. Wprowadzenie nowych rozwiązań technicznych i urządzeń w placówkach stanie się nowym standardem — klienci wrócą do oddziałów, jednak będą oczekiwali przede wszystkim cyfrowej obsługi. Zapewne będzie to oznaczało potrzebę modernizacji infrastruktury informatycznej w wielu lokalizacjach, tak aby klienci mogli korzystać z usług w jednolity sposób niezależnie od miejsca.

    Dlatego przedsiębiorstwa, które mają zamiar zapewnić jednolitą, zintegrowaną obsługę klientów w placówkach fizycznych, powinny skorzystać z podejścia, w którym infrastruktura jest traktowana jako kod (IaC). Model IaC oznacza zarządzanie infrastrukturą i jej udostępnianie za pośrednictwem przygotowanych do odczytu maszynowego plików definicji, nie zaś ręcznej konfiguracji, procesu podatnego na błędy popełniane przez ludzi. Powtarzalne zadania mogą być realizowane za każdym razem w taki sam sposób. Kiedyś replikacja środowisk informatycznych między różnymi siedzibami mogła rzeczywiście polegać na skonfigurowaniu jednego ośrodka, a następnie przeprowadzeniu analogicznego procesu w każdej lokalizacji przez ten sam zespół. Jednak trudno praktycznie zrealizować takie działania, jeśli bank dysponuje ponad 100 oddziałami w każdym większym mieście w Polsce, nie mówiąc o instalacjach w skali globalnej. Dzięki zastosowaniu podejścia IaC metody konfiguracji stosowane w pierwszym ośrodku są w zasadzie definiowane w kodzie oprogramowania, które można przenosić w inne miejsca i wykorzystać do utworzenia wielu identycznych replik. Ponadto w przedsiębiorstwach, w których działają zespoły „Platform Ops” udostępniające usługi operacyjne zespołom programistycznym w modelu samoobsługowym dzięki współpracy z inżynierami ds. niezawodności proces tworzenia nowych obciążeń nie jest czasochłonnym zadaniem. Niezależnie od tego, czy chodzi o obciążenia działające w chmurze, czy w środowisku lokalnym, w maszynie wirtualnej czy w kontenerach, infrastruktura jako kod oznacza większą szybkość i efektywność, a także powtarzalność wykonywanych zadań. Pozwala to nie tylko skrócić czas wdrażania infrastruktury cyfrowej w wielu ośrodkach, ale również zmniejszyć prawdopodobieństwo ludzkich błędów, niekoniecznie wynikających ze złych intencji, jednak prowadzących do przestojów w działaniu systemów i pojawienia się luk w zabezpieczeniach.

    W sektorze usług finansowych, zresztą podobnie jak w wielu innych branżach, problemy związane z ochroną danych utrudniają realizację projektów transformacji cyfrowej. Według raportu firmy Veeam na temat ochrony danych w 2021 roku nieudane i niepełne operacje tworzenia kopii zapasowych są przyczyną potencjalnego braku ochrony danych w 58% organizacji. Technologia Kubernetes i platformy projektowane z myślą o chmurze są fundamentalnymi elementami strategii ciągłej transformacji cyfrowej przedsiębiorstwa, jednak nie zwalniają z konieczności realizacji wymagań dotyczących zarządzania danymi. Co więcej, pojawiają się dodatkowe kwestie związane z ochroną danych wynikające z zastosowania kodu do wdrażania i tworzenia wersji aplikacji, ponieważ zapisywane są w nich pełnostanowe informacje pochodzące ze źródeł zewnętrznych, np. z baz danych albo od użytkowników końcowych. Dane te nie znajdują się w kodzie, ale opisują stan systemu. Należy je objąć ochroną w ramach procesów ciągłej integracji i ciągłego dostarczania, z uruchamianiem tworzenia kopii zapasowej za pomocą macierzystej funkcji API po wprowadzeniu dowolnej zmiany w kodzie. Można również zdefiniować reguły tworzenia kopii zapasowych przy użyciu narzędzi przeznaczonych dla środowiska Kubernetes. Przedsiębiorstwa, które chcą wykorzystać potencjał technologii Kubernetes, powinny zatem nawiązać współpracę z liderami w dziedzinie nowoczesnych metod ochrony danych, dysponującymi specjalistycznymi kompetencjami w obszarze platform i narzędzi chmurowych.

    Przez cały czas rośnie popularność i znaczenie technologii kontenerowych, dlatego firmy muszą zadbać o zapewnienie ochrony i budowę mechanizmów tworzenia kopii zapasowych danych w środowiskach fizycznych, wirtualnych i chmurowych oraz na platformach Kubernetes. Firmy, które pragną uzyskać elastyczność, skalowalność i automatyzację oferowaną przez technologię Kubernetes, nie mogą zapomnieć o konieczności zmodernizowania przyjętych strategii i stosowanych funkcji ochrony danych.

    Autor: Michael Cade, Senior Global Technologist, Veeam
  • Red Hat przejmuje StackRox

    Red Hat przejmuje StackRox

    Red Hat, Inc. poinformował o zamiarze przejęcia spółki StackRox ― lidera i innowatora w dziedzinie zabezpieczeń zaprojektowanych z myślą o kontenerach i platformie Kubernetes. Red Hat OpenShift, platforma Kubernetes dla przedsiębiorstw, zostanie rozszerzona o efektywne funkcje zabezpieczeń StackRox. Pomoże to firmie Red Hat w realizacji wizji, jaką jest udostępnienie użytkownikom jednej, kompleksowej platformy umożliwiającej utworzenie, wdrożenie i bezpieczne uruchomienie praktycznie każdej aplikacji w całej chmurze hybrydowej.

    Firma StackRox została założona w roku 2014 w celu tworzenia nowych typów zabezpieczeń informatycznych dla przedsiębiorstw. Od dwóch lat skupia się na bezpieczeństwie platformy Kubernetes. W odróżnieniu od platform zabezpieczeń kontenerów pierwszej generacji, które często były tylko zorientowane na kontenery, StackRox udostępnia platformę utworzoną specjalnie z myślą o technologii Kubernetes. Ułatwia ona przedsiębiorstwom kontrolę nad środowiskiem informatycznym i egzekwowanie reguł w oparciu o to samo deklaratywne podejście, które stosowane jest w technologii Kubernetes. Umożliwia skalowanie aplikacji przy zachowaniu niezbędnego bezpieczeństwa.

    Oprogramowanie StackRox zapewnia widoczność wszystkich klastrów Kubernetes dzięki temu, że komponenty potrzebne do wdrażania reguł i głębokiego gromadzenia danych są instalowane bezpośrednio w infrastrukturze klastrów Kubernetes. Znacznie przyspiesza to i upraszcza wdrażanie zabezpieczeń, a ponadto usprawnia analizę bezpieczeństwa, prowadzenie dochodzeń i stosowanie środków zaradczych. Mechanizm reguł rozwiązania StackRox zawiera kilkaset wbudowanych mechanizmów kontrolnych, które pomagają we wdrażaniu najlepszych procedur dotyczących bezpieczeństwa i standardów branżowych (np. CIS Benchmarks i NIST), zarządzaniu konfiguracją kontenerów i klastrów Kubernetes oraz ochronie środowisk wykonawczych.

    Oprócz platformy Red Hat OpenShift, StackRox będzie nadal obsługiwać inne platformy Kubernetes, takie jak Amazon Elastic Kubernetes Service (EKS), Microsoft Azure Kubernetes Service (AKS) i Google Kubernetes Engine (GKE).

    StackRox pomaga również w uproszczeniu procesów DevSecOps i zapewnieniu dogłębnego bezpieczeństwa środowisk chmurowych dzięki bezpośredniej integracji z potokami aplikacji oraz narzędziami klienta służącymi do prowadzenia rejestrów, skanowania obrazów i ciągłej integracji / ciągłego rozwoju (CI/CD). W październiku 2020 r. StackRox rozpoczął projekt open source o nazwie KubeLinter, którego celem jest analiza plików YAML i wykresów Helm dotyczących platformy Kubernetes pod kątem poprawności konfiguracji, ze szczególnym uwzględnieniem gotowości do wdrożenia w środowisku produkcyjnym i zapewnienia bezpieczeństwa na wcześniejszych etapach procesu programowania.

    Red Hat zamierza po przejęciu przekształcić rozwiązania StackRox w technologie open source. Red Hat będzie nadal wspierać społeczność KubeLinter oraz nowe społeczności, ponieważ pracuje nad przekształceniem oferty StackRox w rozwiązania open source.

    Transakcja ma zostać sfinalizowana w pierwszym kwartale 2021 roku i jest uzależniona od spełnienia zwyczajowych warunków końcowych.

  • IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    Raport Światowego Forum Ekonomicznego (The Future of Jobs Report 2018) wymienia cztery technologiczne zjawiska, które w opinii ekspertów zdominują najbliższe lata w biznesie: wszechobecny szybki mobilny internet, sztuczna inteligencja (AI), powszechne stosowanie analityki big data oraz technologie chmurowe. Dziejąca się już w wielu przedsiębiorstwach transformacja cyfrowa wymaga dostosowania infrastruktury IT do nowych wymagań biznesowych i organizacyjnych. Tym bardziej, że między rokiem 2018 a 2020, jak prognozuje wspomniany raport, udział pracy maszyn wzrośnie z 29% do 42%. A maszyny to wciąż nowe dane.

    „Trwająca pandemia przyśpieszyła tylko nieuchronne zmiany – praca on-line szybko stała się standardem wszędzie tam, gdzie było to możliwe. W ślad za tym poszły zmiany infrastrukturalne w IT – przecież gdzieś trzeba przechowywać lawinowo rosnącą ilość danych. Oprócz rozwiązań chmurowych, całkiem nieźle radzą sobie lokalne Data Center”ocenia Wojciech Raduła, Architekt Systemowy z firmy Advatech należącej do ścisłej czołówki integratorów rozwiązań informatycznych.  „Bez względu na lokalizację, wszystkie one wymagają bardzo wydajnych i elastycznych urządzeń pamięci masowych, na najwyższym poziomie zaawansowania  technologicznego. Przyczyny są proste – najcenniejsze zasoby firmy, czyli dane biznesowe możemy powierzyć tylko najlepszym i najbardziej zaufanym urządzeniom. To jak z ludźmi”dodaje Wojciech Raduła.  

    Wbrew pozorom, na rynku nie ma zbyt wielu rozwiązań pamięci masowych o optymalnej relacji funkcjonalności i możliwości do ceny. Bardzo ważny jest także dostęp do wsparcia techniczne na najwyższym poziomie. Powinno być one zapewnione przez rozwiniętą sieć kompetentnych, doświadczonych i solidnych partnerów handlowych producenta. Przy takich kryteriach oceny pamięci masowych, chyba nikogo nie dziwi, że maszyny IBM z serii FlashSystem® 5100 można zaliczyć do ścisłej czołówki.

    W dzisiejszych czasach połączenie wydajności pamięci flash z wszechstronnością pamięci NVMe (Non-Volatile Memory Express) samo w sobie nie ma już waloru unikalności. Ale IBM nie byłby tym IBM, gdyby nie stworzył nowej jakości przez połączenie zaawansowanej technologii  z doskonałym oprogramowaniem. W przypadku maszyn FlashSystem® 5100 w jednym urządzeniu użytkownik dostaje innowacyjną technologię IBM FlashCore®, rozbudowane możliwości funkcjonalne systemu IBM Spectrum Virtualize™ oraz aplikacje do zarządzania predykcyjnego i proaktywnego, które wykorzystują mechanizmy sztucznej inteligencji (AI). Ultraniskie opóźnienia to zasługa pamięci Storage Class Memory (SCM). Dopiero w ten sposób funkcjonalna całość ujawnia swoje przewagi i walory, nawet w środowisku wielochmurowym, z działającymi aplikacjami kontenerowymi.

    IBM FlashSystem

    Wysokie parametry techniczne, duża sprawność i wydajność oraz krótki czas dostępu do danych to po prostu szybsze działanie całej firmy i większa produktywność każdego pracownika z osobna. A to już są bardzo ważne czynniki w aspekcie wyścigu z konkurencją.

    Zalety posiadania IBM FlashSystem® 5100 przekładają się także wskaźniki finansowe. Można osiągnąć zdecydowanie większy zwrot z inwestycji i zredukować całkowity koszt posiadania (TCO), bo dostępne oprogramowanie IBM Spectrum Virtualize pozwala użytkownikom korzystać z wielu różnych usług przetwarzania danych we wszystkich jego systemach pamięci masowych. Co to oznacza? To między innymi, że dostępna jest obsługa hybrydowego środowiska wielochmurowego.

    „Użytkownik może zacząć od czegoś prostego i nieskomplikowanego, nabędzie odpowiedniego doświadczenia, wyrobi sobie prawidłowe nawyki, a potem wraz ze wzrostem potrzeb biznesowych i liczby klientów może sobie w prosty sposób rozbudowywać infrastrukturę aż po środowiska łączące chmury publiczne, prywatne i lokalne”twierdzi Wojciech Raduła z firmy Advatech.

    IBM FlashSystem® 5100 wspiera trzy rozwiązania wielochmurowe. W pierwszym z nich  pamięć masowa służy jako trwały nośnik dla aplikacji kontenerowych, które korzystają z platform Docker lub Kubernetes. W drugim wariancie systemy IBM Spectrum Copy Data Management oraz Spectrum Virtualize działające z IBM FlashSystem® 5100 tworzą kopie migawkowe do chmury IBM w celu ochrony przed awariami DR (Disaster Recovery). Dane można używać bezpośrednio w chmurze lub kopiować ponownie do oryginalnej lokalizacji lub innego centrum danych.

    W trzecim wariancie aplikacja pod nazwą IBM Spectrum Copy Data Management współdziałająca ze Spectrum Protect tworzą kopie migawkowe na wolumenach. Służą one nie tyle wyłącznie do ochrony danych, ale także do celów Dev/Test, DevOps lub analityki. To kompletne rozwiązanie zapewnia także ochronę przed zagrożeniami typu ransomware.

    „Zakup IBM FlashSystem® 5100 jest bez wątpienia trafną decyzją, choć zapewne nie najprostszą. Walory techniczne i funkcjonalność macierzy pokazują, że klienci otrzymują rozwiązanie klasy Enterprise, wraz ze wsparciem technicznym i zarządzaniem w chmurze w bardzo przystępnej cenie. Tu nie ma miejsca na kompromisy – nowa generacja pamięci, technologie redukcji objętości danych dają więcej miejsca na dane przy tych samych kosztach, co poprzednio. Jeśli dodamy do tego wysoką dostępność na poziomie sześciu dziewiątek, to oznacza, że wszystkie istotne wskaźniki ekonomiczno-techniczne mają wartości, które na pewno docenią osoby decydujące o inwestycjach w infrastrukturę IT”ocenia Wojciech Raduła.

    Jak widać, IBM FlashSystem®5100 wyznacza bardzo wysoki standard niezawodności. Jest to możliwe dzięki zastosowaniu technologicznych zabezpieczeń przed awariami całych modułów (VSR) i grup RAID-owych (DRAID). Sam system oferuje przewidywalną i stałą wydajność oraz dużą gęstość upakowania danych – użytkownicy dostają do 768 TiB w rozmiarze 2U. Dostępne są także wbudowane systemy kompresji i deduplikacji danych, szyfrowania zgodnego z GDPR, przy zachowaniu odpowiedniej pojemności nadmiarowej i odporności na efekt „Write Cliff”.

    Jak twierdzą specjaliści z Advatech„Te macierze szybko się nie zestarzeją. Nasze doświadczenia pokazują, że mimo szybkiego postępu i rozwoju technologicznego, solidne i rzetelnie zaprojektowane konstrukcie z powodzeniem służą długie lata, a co najważniejsze – działają niezawodnie”.

  • VMware liderem raportu Gartnera w obszarze oprogramowania do zarządzania infrastrukturą hiperkonwergentną

    VMware liderem raportu Gartnera w obszarze oprogramowania do zarządzania infrastrukturą hiperkonwergentną

    W grudniowym raporcie Gartnera „Magic Quadrant”, dotyczącym oprogramowania do zarządzania infrastrukturą hiperkonwergentną, VMware zajął najwyższą pozycję pod względem kompletności wizji. Co więcej, firma znajduje się również w kwadrancie liderów, już po raz czwarty z rzędu.

    „HCI szybko stało się domyślnie wybieraną infrastrukturą, która obejmuje centrum danych, lokalizacje brzegowe i chmurę publiczną. Niezależnie od branży, organizacje muszą przyspieszyć dostarczanie nowych aplikacji i skalowanie w miarę reagowania firm na zmieniające się wymagania”powiedział John Gilmartin, starszy wiceprezes i dyrektor generalny Cloud Platform Business Unit w VMware.Cieszymy się, że ponownie zdobyliśmy uznanie Gartnera. To najlepszy dowód naszego  zaangażowania w tworzenie i dostarczanie klientom zaufanych rozwiązań HCI klasy Enterprise”

    Jako podstawowa platforma dla tradycyjnych aplikacji, natywnych aplikacji chmurowych i chmury hybrydowej, HCI eliminuje silosy IT, przygotowując infrastrukturę do przyszłych wymagań. W ostatnim czasie VMware udostępnił aktualizację VMware vSAN 7 Update 1. Zawiera ona więcej nowych funkcji niż jakiekolwiek poprzednie wydanie z ostatnich trzech lat. Najnowsza oferta usprawnia wdrażanie Kubernetes przez klientów i obsługę aplikacji, które potrzebują zapisywać trwale dane.  Właśnie takie, gotowe do wykorzystania przez deweloperów rozwiązania, stanowią znaczące ułatwienie we wdrażaniu aplikacji nowej generacji wraz ze zwiększoną skalowalnością i możliwościami operacyjnymi. VMware wprowadził też kolejne funkcjonalności w swoich platformach HCI i chmurze hybrydowej. Dzięki temu jeszcze lepiej wspiera potrzeby klientów w zakresie nowoczesnych aplikacji. Więcej informacji o wspomnianych aktualizacjach znajdziesz na stronie internetowej VMware.

    VMware posiada najszerszy ekosystem HCI, w którego skład wchodzi 15 wspólnie certyfikowanych dostawców serwerów OEM lub vSAN ReadyNodes, z ponad 500 zatwierdzonymi konfiguracjami, i globalnymi urządzeniami partnerskimi upraszczającymi wdrażanie i utrzymanie rozwiązań HCI. To także wspólnie opracowane rozwiązanie, Dell EMC VxRail, i ponad 70 zweryfikowanych partnerów chmurowych, w tym wszyscy globalni hiperskalerzy, oferujących rozwiązanie VMware Cloud Foundation.

    Bezpłatną kopię raportu „Magic Quadrant” z grudnia 2020 roku dotyczącego oprogramowania do zarządzania infrastrukturą hiperkonwergentną można znaleźć tutaj.

  • Red Hat nawiązał współpracę z WHO

    Red Hat nawiązał współpracę z WHO

    Red Hat, Inc. poinformował o nawiązaniu współpracy ze Światową Organizacją Zdrowia (WHO), wyspecjalizowaną agencją Organizacji Narodów Zjednoczonych odpowiedzialną za międzynarodowe zdrowie publiczne. Celem współpracy było utworzenie infrastruktury programistycznej opartej na technologiach open source, która pomoże zbudować platformę nauczania (ang. Learning Experience Platform ― LXP) na potrzeby Akademii WHO, nowoczesnego centrum szkoleniowego tej organizacji.

    W przedsięwzięciu tym wykorzystano nowoczesne praktyki programistyczne udostępnione przez ośrodek Red Hat Open Innovation Labs i bibliotekę Open Practice Library oraz technologie open source pochodzące z projektów realizowanych przez społeczność Red Hat. W efekcie Światowa Organizacja Zdrowia zbudowała skalowalną, elastyczną platformę DevOps w celu wsparcia takich działań jak zarządzanie, testowanie nowych produktów, analizowanie kodu i wizualizacja danych. Zapewni to szybszy dostęp do wartościowej wiedzy medycznej i pomoże w walce z dezinformacją.

    Globalne zapotrzebowanie na informacje

    Nowe dane dotyczące pandemii COVID-19 pojawiają się praktycznie każdego dnia. Pracownicy służby zdrowia muszą zawsze znać najnowsze, dokładne informacje na ten temat. Szybkość przekazywania takich informacji nabiera więc znaczenia krytycznego. Światowa Organizacja Zdrowia uświadomiła sobie, że musi zwiększyć swoje możliwości w zakresie technologii cyfrowych, aby sprostać coraz większym oczekiwaniom w tym zakresie. Chcąc szybciej przekazywać najnowszą wiedzę i informacje dotyczące zdrowia lekarzom, decydentom i własnym pracownikom, nawiązała ścisłą współpracę z firmą Red Hat w celu wdrożenia nowych praktyk.

    Szybkość i dokładność dzięki otwartym technologiom

    Nowa platforma DevOps pomaga Światowej Organizacji Zdrowia w sprostaniu bieżącym wyzwaniom, takim jak walka z dezinformacją, oraz zdobywaniu dodatkowych umiejętności dzięki nowym metodom nauczania. Ponadto celem WHO było stworzenie podstaw otwartego modelu danych, który dostosuje się do potrzeb pracowników służby zdrowia również w przyszłości m.in. poprzez zapewnienie im bardziej spersonalizowanych szkoleń.

    Podczas ośmiotygodniowego wirtualnego pobytu w ośrodku Red Hat Open Innovation Labs zespół WHO współpracował ze specjalistami Red Hat. Celem tego ośrodka jest pomoc przedsiębiorstwom w łączeniu ludzi, procedur i technologii w sposób, który umożliwia elastyczne tworzenie oprogramowania i produktów, wspiera innowacje i przyspiesza rozwiązywanie wewnętrznych problemów.

    W ramach tej inicjatywy zespół WHO ds. technologii i zarządzania informacjami zapoznał się z nową metodyką Agile, tworzeniem produktów metodą lean oraz praktykami DevOps, i połączył je z dotychczas stosowanym, bardziej tradycyjnym modelem zarządzania projektami. W efekcie może lepiej dostosowywać się do zmieniających się potrzeb oraz efektywnie skalować platformę DevOps Światowej Organizacji Zdrowia zgodnie z bieżącymi i przyszłymi potrzebami. Dzięki umiejętnościom i narzędziom zdobytym we współpracy z ośrodkiem Red Hat Open Innovation Labs zespół WHO mógł zbudować rozwiązanie szkoleniowe, które nie jest powiązane z jedną osobą lub technologią. Zyskał całościową wiedzę oraz biegłość w zarządzaniu swoją nową platformą i procesami wewnętrznymi.

    Walka z wykluczeniem cyfrowym

    Światowa Organizacja Zdrowia od początku chciała utworzyć platformę opartą na technologii open source. Technologia ta, zgodnie ze swoimi zasadami, umożliwia współpracę między różnymi podmiotami, jest łatwo dostępna i nie wymaga dużych nakładów. Można ją więc z powodzeniem wykorzystać w krajach o niskich i średnich dochodach.

    Nowa platforma LXP będzie oparta w całości na otwartych, hybrydowych technologiach chmurowych Red Hat, które zwiększą jej skalowalność, elastyczność i bezpieczeństwo. Red Hat OpenShift jest chmurowym, uproszczonym środowiskiem tworzenia i wdrażania aplikacji kontenerowych oraz oceny parametrów tych aplikacji, z kolei technologia Red Hat CodeReady Workspaces zapewnia programistom tworzącym LXP infrastrukturę, która umożliwia szybkie i niezawodne budowanie kontenerów Kubernetes. Platforma LXP jest oparta na otwartej strukturze technicznej, dzięki czemu Światowa Organizacja Zdrowia będzie mogła lepiej wykorzystać nowe architektury i aplikacje w sposób iteracyjny i przyrostowy, co przyniesie pracownikom służby zdrowia na całym świecie natychmiastowe korzyści. Ponadto Red Hat OpenShift jest platformą Kubernetes, która może działać w każdej chmurze. WHO może więc skalować platformę LXP stosownie do potrzeb bez uzależniania się od konkretnego dostawcy chmury.

  • Commvault przedstawia nowe rozwiązania

    Commvault przedstawia nowe rozwiązania

    Nowe rozwiązanie Metallic VM & Kubernetes Backup poszerza kompleksową kontenerową pamięć masową i ofertę rozwiązań zabezpieczających Commvault

    Kontenery bazujące na platformie Kubernetes umożliwiają działom IT elastyczne wdrażanie, skalowanie i przenoszenie obciążeń bez przerywania pracy użytkowników końcowych. Nowa platforma Metallic oparta na rozwiązaniu do tworzenia kopii zapasowych w modelu BaaS (backup-as-a-service) bardzo upraszcza ochronę kontenerów. Jest w pełni zintegrowana z platformą Kubernetes K8s za pośrednictwem interfejsu kontenerowej pamięci masowej CSI (Container Storage Interface). Ponadto każdy klient, który nabędzie co najmniej 10 maszyn wirtualnych w ramach produktu Metallic VM & Kubernetes Backup do 18 maja 2021 r., otrzyma bezpłatnie komponent Kubernetes Backup na czas trwania swojej subskrypcji. Uruchomienie oferty poprzedziło wprowadzenie wielu innowacyjnych funkcji dla platformy Kubernetes.

    „Bardzo mi się podoba sposób, w jaki Commvault wykorzystał swoje najlepsze pomysły w kontenerach i środowisku Kubernetes. Znakomicie zintegrowali swoją platformę klasy korporacyjnej Hedvig Distributed Storage z platformą Kubernetes. To samo dotyczy chmurowego modelu rozwiązania Metallic zapewniającego ochronę danych w środowisku Kubernetes. Podsumowując, Commvault umożliwił wdrożenie i ochronę aplikacji dla przedsiębiorstw na platformie Kubernetes w środowisku lokalnym, chmurowym lub w modelu SaaS” ― powiedział Nigel Poulton, publicysta i komentator rynku.

    Nowe rozwiązanie BaaS Metallic dla kontenerów

    Wprowadzony właśnie na rynek produkt Metallic VM & Kubernetes Backup to proste, skalowalne rozwiązanie SaaS do ochrony danych przeznaczone dla kontenerów. Jest to część nowej oferty rozwiązań Metallic do ochrony danych w chmurze hybrydowej, która rozszerza ofertę unikatowych usług BaaS firmy Commvault. W odróżnieniu od rozwiązań, które potrzebują produktów lub narzędzi innych firm w celu tworzenia kopii zapasowych i zabezpieczenia chmury, Metallic pozwala szybko i łatwo chronić nowoczesne, hybrydowe obciążenia chmurowe za pomocą jednej, prostej usługi BaaS. Wśród chronionych obciążeń znajdują się dystrybucje Kubernetes z certyfikatem CNCF oraz zatwierdzonym wsparciem dla usług Red Hat OpenShift Kubernetes, Azure Red Hat OpenShift, Azure Kubernetes Service (AKS), Amazon Elastic Kubernetes Service (EKS) i VMware Tanzu. Listę uzupełnia kompleksowe wsparcie rozwiązania Metallic dla środowisk Virtual Machine, w tym Hyper-V, VMware vSphere, Native Azure Virtual Machines, Azure VMware Solution (AVS) i VMware Cloud (VMC) on AWS.

    Współczesne strategie chmury uwzględniają obciążenia hybrydowe, gdzie część obciążeń pochodzi z chmury, a część z systemów lokalnych. Klienci potrzebują rozwiązań, które chronią aplikacje Kubernetes i inne obciążenia, co umożliwia eliminację kosztownych, odseparowanych zbiorów danych oraz uproszczenie produktów punktowych.

    „Kontenery stały się zasobem strategicznym, a strategie i usługi zapewniające odporność platformy kontenerowej mogą decydować o sukcesie przedsiębiorstwa. Podobnie jak w przypadku chmury, liczba wdrożeń kontenerów bardzo szybko rośnie. W związku z tym pojawia się zapotrzebowanie na usługi klasy korporacyjnej, które traktują kontenery jak inne dane o znaczeniu newralgicznym. Na rynku pojawia się coraz więcej chmurowych rozwiązań do ochrony danych i zarządzania nimi, które zostały opracowane z myślą o kontenerach, ale zaczynają obsługiwać również inne typy danych w przedsiębiorstwach. Takie uniwersalne rozwiązania są bardzo atrakcyjne. Uważam, że oferta Commvault tym wyróżnia się na tle konkurencji” ― powiedział Steve McDowell, starszy analityk i strateg w dziale pamięci masowych i technologii centrów przetwarzania danych w firmie Moor Insights & Strategies.

    Commvault oferuje pamięć masową SDS (Software-Defined Storage ) przeznaczoną dla kontenerów

    Rozszerzenia wprowadzone niedawno na platformie Hedvig Distributed Storage firmy Commvault zapewniają elastyczność, która umożliwia klientom tworzenie i uruchamianie nowoczesnych aplikacji z deklaratywnym rozmieszczaniem danych oraz ich szyfrowaniem i ochroną w każdym środowisku Kubernetes. Platforma ta pozwala na bezproblemowe przechowywanie, ochronę i przenoszenie kontenerów w hybrydowych środowiskach wielochmurowych w celu przyspieszenia procesów DevOps. Usuwa również bariery, które utrudniają świadczenie usług Kubernetes zarządzanych w chmurze lub samodzielnie.

    Oprócz integracji z technologią Kubernetes platforma Hedvig Distributed Storage zapewnia duże możliwości integracji dotyczące infrastruktury lokalnej, chmurowej pamięci masowej i narzędzi do orkiestracji kontenerów. Jest to kompleksowe rozwiązanie zdolne do zarządzania danymi i ich ochrony niezależnie od tego, czy znajdują się one w kontenerach, aplikacjach chmurowych czy obciążeniach zwirtualizowanych.

    „Liczba przedsiębiorstw, które wdrażają technologie kontenerowe, szybko rośnie. Kontenery wymagają ochrony i dostosowania do wymagań zespołów stosujących metodykę DevOps” ― powiedział Ranga Rajagopalan, wiceprezes ds. produktów w firmie Commvault. „Gdy kontenery są przenoszone ze środowisk testowych do produkcyjnych, nie mogą już być traktowane jako wyspy w chmurze. Dziś, dzięki tym nowym produktom upraszczamy ochronę nie tylko kontenerów, lecz również innych aplikacji używanych w przedsiębiorstwie”.

  • Przyszłość analityki jest w chmurze

    Przyszłość analityki jest w chmurze

    Technologia cloud computing przeżywa obecnie prawdziwą transformację technologiczną. Pojawiły się nowe sposoby dostarczania i porządkowania zasobów chmury obliczeniowej, takie jak kontenery i platforma Kubernetes, które sprawiają, że oprogramowanie jest bardziej niezawodne i łatwiejsze w zarządzaniu. Coraz więcej przedsiębiorstw i instytucji decyduje się na przeniesienie swoich systemów do chmury, aby w pełni skupić się na strategii, doskonaleniu procesów oraz rozwoju innowacyjnych produktów i usług. Budowanie infrastruktury IT nie jest ich główną kompetencją, dlatego zwracają się do zaufanych partnerów, oferujących gotowe rozwiązania analityczne w modelu cloud.

    Skala, prostota, oszczędność

    Analityka w chmurze zapewnia  szereg korzyści.  Pierwszą z nich jest tzw. zwinność (ang. „agility”), która dla organizacji oznacza przede wszystkim ogromną elastyczność i wiele możliwości wykorzystania zaawansowanych narzędzi, takich jak sztuczna inteligencja czy uczenie maszynowe. Ponadto praca w modelu cloud zwiększa zdolność pracowników do innowacji, poszerzania kompetencji czy eksperymentowania z nowymi algorytmami. Drugą korzyścią jest skalowalność, czyli automatyczne dostosowywanie mocy obliczeniowej do aktualnych potrzeb. Dzięki temu firma ma gwarancję dostępu do prawie nieograniczonej pojemności pamięci masowej, bez konieczności inwestowania we własną infrastrukturę. Możliwości chmury stwarzają ogromne korzyści w zakresie skali, prostoty zarządzania i kosztów użytkowania.

    Wartość decyzji zależy dziś od czasu jej podjęcia. Spóźnione działanie może być bardzo kosztowne. Dlatego wiele przedsiębiorstw weryfikuje swoje strategie i procesy decyzyjne, opierając się na zaawansowanej analizie dostępnych danych. W tym kontekście, kluczowa jest zdolność organizacji do wdrażania modeli prognostycznych, w tym technik sztucznej inteligencji i uczenia maszynowego, których cykl życia i rozwoju z natury jest eksperymentalny. Dlatego warto wypróbować różne podejścia, przetestować wyniki i wybrać rozwiązania z największym potencjałem, aby następnie sprawnie je wdrożyć w ramach całej organizacji. Analityka w chmurze pozwala realizować tego typu eksperymenty szybko i zwinniepodsumowuje Michał Gawlik, EMEA Cloud and Architecture Leader w SAS.

    AI dla każdego

    SAS dostarcza gotowe do zastosowania narzędzia analityczne w zarządzanym środowisku, które odpowiadają na potrzeby i wymagania klientów. Zwinność, szybkość, automatyzacja i dostępność danych to mocne strony SAS Viya – zaawansowanej platformy analitycznej, opartej na technologii cloud computing, która wykorzystuje sztuczną inteligencję. Została ona stworzona z myślą o użytkownikach o różnym poziomie umiejętności technicznych.

    SAS upraszcza sposób wykorzystywania sztucznej inteligencji i uczenia maszynowego w procesach podejmowania decyzji. Dzięki SAS Viya klienci będą mogli dysponować wiarygodną, przewidywalną i skalowalną analizą danych, która jest dostępna dla każdego. Platforma zapewnia zautomatyzowane przygotowywanie danych i modeli, możliwość szybkiego testowania innowacyjnych pomysłów i weryfikacji stawianych hipotez oraz zachowanie wysokiej dostępności systemu. Dodatkowo architektura oparta na kontenerach i platformie Kubernetes umożliwia przenoszenie rozwiązań do różnych środowisk chmurowych, w tym w Azure, Google i AWSmówi Michał Gawlik.

    System naczyń połączonych

    Narzędzia analityczne w chmurze mogą obsługiwać tysiące komputerów i jeszcze więcej użytkowników. Istnieje również możliwość rozbicia oprogramowania wykorzystywanego w przedsiębiorstwie na umieszczone w kontenerach kompaktowe elementy funkcjonalne zwane mikrousługami, które nie wymagają instalacji, lecz włączenia. Części składowe takiej infrastruktury komunikują się ze sobą oraz mogą być migrowane z chmury do chmury. Można je również udostępnić dla aplikacji zewnętrznych poprzez interfejs programowania aplikacji (API), a także łatwo wymienić, niezależnie aktualizować, czy skalować w obrębie wielkich zasobów obliczeniowych. Zarządzanie zadaniami i serwisami uruchamianymi w kontenerach jest relizowane przez platformę oprogramowania open-sourceKubernetes. Wszystko to dzieje się w tle, podczas gdy pracownicy kontynuują swoje zadania.

    Chmurowa przyszłość branży

    Rynek IT ewoluuje w niespotykanym dotąd tempie, a usługi dostosowywane są do nowych potrzeb. Siłą napędową tych zmian jest chmura obliczeniowa, której wartość w Polsce według IDC ma przekroczyć pół miliarda dolarów do 2022 roku. Nic więc dziwnego, że z chmurą integrują się kolejne obszary. Analityka w modelu cloud daje możliwość włączenia „szóstego biegu”, który przyspiesza procesy decyzyjne i pozwala szybciej osiągać zamierzone rezultaty.

  • Red Hat wprowadza na rynek nowe usługi przetwarzania danych oparte na Kubernetes

    Red Hat wprowadza na rynek nowe usługi przetwarzania danych oparte na Kubernetes

    Red Hat Inc. poinformował o wprowadzeniu na rynek rozwiązania Red Hat OpenShift Container Storage 4.5, które udostępnia oparte na platformie Kubernetes usługi przetwarzania danych na potrzeby nowoczesnych aplikacji typu cloud-native w całym otwartym środowisku chmury hybrydowej. Rozwiązanie Red Hat OpenShift Container Storage 4.5 jest ściśle zintegrowane z Red Hat OpenShift Container Platform – czołową platformą korporacyjną Kubernetes – i ma pomóc przedsiębiorstwom w stworzeniu sprawniejszej architektury usług przetwarzania danych dla aplikacji.

    Red Hat OpenShift Container Storage to dynamiczne rozwiązanie trwałej pamięci masowej dla wielu usług działających na platformie kontenerowej Red Hat OpenShift, takich jak wskaźniki, logowanie i rejestry. Dzięki niedawno wprowadzonej funkcji Red Hat OpenShift Virtualization klienci mogą teraz udostępniać maszyny wirtualne i kontenery na jednej zintegrowanej platformie wyposażonej w pamięć masową Red Hat OpenShift Container Storage. Wersja 4.5 zapewnia dodatkowe zalety trwałej pamięci masowej o wysokiej dostępności, w tym wspólny dostęp do bloków w trybie odczytu i zapisu dla wielu węzłów (RWX) z myślą o większej wydajności, jak również pojedyncze, zintegrowane rozwiązanie pamięci masowej dla kontenerów i maszyn wirtualnych.

    Oferowane przez firmę Red Hat usługi przetwarzania danych udostępniają abstrakcje cloud-native, co ma uprościć dostęp do danych i ich przekształcanie za pomocą spójnych narzędzi dla użytkownika w całej otwartej chmurze hybrydowej. Usługi te powstały na bazie rozwiązania Red Hat OpenShift Container Storage i umożliwiają ściślejszą współpracę między dostawcami i użytkownikami danych w spoczynku, w trakcie przesyłania i w użytku.

    Większa skalowalność i odporność dla danych w spoczynku

    Najnowszą wersję rozwiązania Red Hat OpenShift Container Storage wyposażono w nową opcję wdrożenia w trybie zewnętrznym z platformą Red Hat Ceph Storage, która może zwiększyć skalowalność do ponad 10 miliardów obiektów bez ograniczania wydajności.

    Dzięki zintegrowanej obsłudze obiektowej, plikowej i blokowej pamięci masowej Red Hat OpenShift Container Storage 4.5 z poziomu jednego panelu sterowania obsługuje dane używane zwykle w aplikacjach opartych na kontenerach, co pomaga zmniejszyć złożoność i zwiększa swobodę wyboru dla klientów. Operator Rook dla rozwiązania Red Hat Ceph Storage jeszcze bardziej upraszcza zarządzanie platformą.

    Zautomatyzowana architektura sterowana powiadomieniami dla przesyłanych danych

    Tradycyjne architektury do wsadowego przetwarzania danych z trudnością dotrzymują kroku współczesnym potrzebom w zakresie natychmiastowego dostarczania informacji biznesowych. Dane często są przesyłane strumieniowo z wielu różnych punktów, przez co zespołom ds. aplikacji i danych trudno jest je zebrać i szybko dostarczać do dalszego wykorzystania.

    Red Hat OpenShift Container Storage 4.5 obsługuje zintegrowane powiadomienia zasobnika Amazon S3, użytkownicy mogą więc stworzyć zautomatyzowany proces pozyskiwania, katalogowania, przekierowywania i przetwarzania danych w czasie rzeczywistym. Dzięki możliwości tworzenia architektur sterowanych powiadomieniami i zintegrowanemu dostępowi do usług Red Hat AMQ Streams i OpenShift Serverlessprzedsiębiorstwa mogą czerpać korzyści z efektywnych, zautomatyzowanych procesów w tym zakresie.

    Zintegrowana elastyczność i możliwości współpracy dla danych w użytku

    Red Hat OpenShift Container Storage 4.5 pozwala firmom z większą precyzją kontrolować zakres, w jakim mogą odłączyć zasoby obliczeniowe od pamięci masowej. Pomaga to obsługiwać szeroką gamę obciążeń — od wrażliwych na opóźnienia baz danych po ukierunkowane na przepustowość, skalowalne hurtownie i jeziora danych. Takie odłączenie może okazać się przydatne dla architektur sztucznej inteligencji, które są skoncentrowane na wnioskowaniu i modelowaniu, natomiast w architekturach uczenia maszynowego korzystne może być ściślejsze połączenie pamięci masowej na potrzeby wydajnego wprowadzania danych i trenowania modeli.

    Rozwiązanie Red Hat OpenShift Container Storage 4.5 jest powszechnie dostępne już dziś.

  • Booksy przeniosło się do Google Cloud

    Booksy przeniosło się do Google Cloud

    Booksy, jeden z najbardziej znanych polskich startupów, rozpoczął współpracę z Google i przenosi swoją aplikację do Google Cloud. Za sprawną migrację odpowiada Chmura Krajowa. Decyzja ma pomóc przede wszystkim w dynamicznej ekspansji na rynkach zagranicznych: amerykańskim, brytyjskim i brazylijskim. Pozwoli też spółce lepiej radzić sobie ze wzmożonym ruchem użytkowników i zracjonalizować koszty IT.

    Booksy to istniejąca od 2014 roku aplikacja do zarządzania rezerwacjami online i umawiania wizyt u różnych specjalistów, np. w salonach fryzjerskich i kosmetycznych. Z jej usług korzysta ponad 7 mln użytkowników w 25 krajach. Startup, typowany na pierwszego polskiego „jednorożca”, zmagał się w kwietniu i maju z dużymi trudnościami w związku z zamknięciem punktów usługowych podczas lockdownu. Jednak po zniesieniu obostrzeń sytuacja diametralnie się zmieniła – użytkownicy masowo rezerwowali wizyty, co sprawiło, że początkowo pojawiły się problemy z wydajnością aplikacji i obciążeniem serwerów.

    Booksy to kluczowy element biznesu dla naszych klientów, który zawiera wszystkie najważniejsze dla nich informacje. Nie możemy sobie pozwolić na ryzyko wystąpienia przerw w dostępności naszych usług, dlatego wybraliśmy partnera, który nam to gwarantuje. Co ważne, platforma Google Cloud automatycznie dostosowuje się do naszych potrzeb, a my płacimy jedynie za realnie wykorzystywane zasoby IT. Za migrację odpowiadali specjaliści z Chmury Krajowej, którzy dobrali odpowiednie narzędzia i bezpiecznie przeprowadzili nas przez cały proces w sposób niezauważalny dla klientów –  mówi Stefan Batory, współtwórca i CEO Booksy.

    Po lockdownie Booksy obserwuje nawet dwukrotnie większy wzrost zainteresowania swoją usługą niż wcześniej. Dlatego spółka postanowiła dostosować swoje zasoby IT, aby zapewnić stabilność i ciągłość działania. Rozwiązania wykorzystujące chmurę obliczeniową pozwalają firmie na większą elastyczność i łatwiejsze reagowanie na gwałtowne zmiany i dostosowywanie pracy infrastruktury do otoczenia biznesowego.

    Ważnym aspektem projektu była elastyczność i skalowalność IT. Booksy jest projektem o bardzo dużym potencjale wzrostu. Potrzebuje technologii, która będzie skutecznie wspierać dalszy rozwój aplikacji. Dlatego wybór padł na Google Cloud, która zapewnia stabilne działanie serwisu teraz i możliwość kontynuacji dynamicznej ekspansji, zgodnej z globalną strategią Booksy. Cieszymy się, że doświadczenie i wiedza naszych inżynierów są wykorzystywane w tak ambitnym projekcie o globalnym zasięgumówi Michał Potoczek, CEO Chmury Krajowej.

    Booksy postawiło przede wszystkim na Kubernetes

    Tak jak klienci Booksy porzucili papierowe kalendarze i długopisy, tak Booksy w większości porzuciło już rozwiązania typu „on premise”, czyli korzystanie z własnych lub dzierżawionych serwerów. Migracja aplikacji takiej wielkości to skomplikowany i czasochłonny proces, ponieważ spółka operuje na wielu rynkach, co oznacza duże ilości przetwarzanych danych. Firma, dzięki wsparciu zespołu Chmury Krajowej, przeniosła do chmury Google wszystkie usługi systemowe i back-end swojego serwisu, bez przerw w dostępności aplikacji dla użytkowników. Startup korzysta teraz przede wszystkim z Kubernetes Engine – otwartego oprogramowania służącego do automatyzacji procesów uruchamiania, skalowania i zarządzania aplikacją. Dzięki temu dział IT firmy może skoncentrować się w pierwszej kolejności na rozwoju swojej aplikacji oraz szybszemu wprowadzaniu aktualizacji i udogodnień dla użytkowników.

    Współpraca z Chmurą Krajową zagwarantowała nam właściwy dobór narzędzi Google Cloud, ich konfigurację i optymalizację technologiczną i kosztową. Połączenie zaawansowanych rozwiązań Google z kompetencjami zespołu wdrożeniowego pozwoliło znacznie unowocześnić Booksy, w stosunkowo krótkim czasie, biorąc pod uwagę rozmiary tego projektu mówi Paweł Sobkowiak, CTO Booksy.

    Korzyści z chmury i nowego regionu Google Cloud

    Dotychczas Booksy korzystało z dzierżawionych serwerów, co wymagało stałego przewidywania zapotrzebowania na moc obliczeniową i generowało wysokie koszty. Firma musiała stale wynajmować większe zasoby niż bieżące zapotrzebowanie, na wypadek przyrostu zainteresowania aplikacją i konieczności obsługi większej liczby użytkowników. Chmura skutecznie rozwiązuje te problemy.

    Dzięki rozwiązaniom Google Cloud pracownicy Booksy mogą z łatwością przenosić aplikacje między różnymi strefami dostępu bez płacenia za nieużywaną przestrzeń. Dodatkowo nie muszą martwić się o nagłe wzrosty ruchu do serwerów, jak te, które miały miejsce po zniesieniu lockdownu. Chmura pozwala z łatwością radzić sobie nawet z największymi obciążeniami w bardzo efektywnym kosztowo modelu, a ruch może być kierowany do odpowiednich centrów danych, w zależności od bliskości geograficznej użytkownikówmówi Magdalena Dziewguć, dyrektor rozwoju biznesu Google Cloud.

    Wsparcie migracji Booksy było możliwe dzięki współpracy zespołu Chmury Krajowej i ekspertów z warszawskiego biura Google. Booksy, podobnie jak inne polskie firmy, skorzysta również na uruchomieniu nowego regionu Google Cloud w naszym kraju, które zostało zapowiedziane na początek 2021 roku. Powstanie lokalnego ośrodka przetwarzania danych Google Cloud zapewni jeszcze lepsze warunki do rozwoju podobnych projektów poprzez ułatwienia w wykorzystywaniu tych technologii przez polskie firmy, zmniejszaniu kosztów infrastruktury IT i zwiększaniu szybkości działania aplikacji oraz przesyłu danych.

    Przyszłość Booksy jest w chmurze

    Booksy z optymizmem patrzy na potencjał rozwoju. Startup szacuje, że nawet 60-70% wizyt u fryzjera czy fizjoterapeuty wciąż jest umawiana i obsługiwana w tradycyjny sposób, a rynek amerykański, kluczowy dla startupu, jest wart około 150 mld USD. Celem Booksy jest zdobycie 20% rynku i popularyzacja „bookowania” usług w innych branżach, nie tylko tych związanych ze zdrowiem i urodą – w Polsce już teraz spółka nawiązała partnerstwa z bankami i firmami telekomunikacyjnymi.

    Booksy nie tylko ułatwia proces umawiania, ale co równie ważne pomaga zachować bezpieczeństwo. Nie tylko fryzjerzy chcą skończyć z kolejkami, dlatego po nasze rozwiązanie sięgają wielkie instytucje finansowe jak banki BNP Paribas Polska, Alior i Credit Agricole, a ostatnio także dynamicznie rozwijająca się ANG Spółdzielniazauważa Stefan Batory.