Tag: NVMe

  • Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Rozwój technologii pamięci masowych odgrywa kluczową rolę w kształtowaniu przyszłości branży IT, wpływając na wydajność, bezpieczeństwo i energooszczędność systemów informatycznych. O najnowszych innowacjach, trendach oraz wyzwaniach rynkowych rozmawiamy z Maciejem Kamińskim, Dyrektorem dywizji Memory w Samsung Electronics Polska i regionie CEE.

    Bartosz Martyka, BrandsIT: Jakie innowacje w technologii pamięci mają największy wpływ na całą branżę IT?

    Maciej Kamiński, Samsung: Każde novum dotyczące pamięci masowych napędza rozwój branży IT, wpływając na wydajność, energooszczędność oraz przetwarzanie i przechowywanie danych. W ostatnich latach kilka przełomowych technologii znacząco ukształtowało przyszłość centrów danych, urządzeń konsumenckich i AI.

    Jednym z największych postępów jest pamięć NVMe, która zastąpiła starsze interfejsy SATA. Dyski NVMe oferują wielokrotnie wyższą prędkość odczytu i zapisu, co znacząco skraca czas ładowania systemów, aplikacji i baz danych. Wykorzystanie NVMe w centrach danych, gamingowych PC i AI przyspiesza obliczenia, zwiększa efektywność operacyjną i redukuje opóźnienia. Technologia ta jest kluczowa dla nowoczesnych serwerów, gdzie każda milisekunda ma znaczenie. Firmy mogą przetwarzać ogromne ilości danych w czasie rzeczywistym, co ma istotne znaczenie dla machine learning i chmury. Dzięki wysokiej przepustowości NVMe stopniowo wypiera SSD oparte na SATA, które nie spełniają już współczesnych wymagań wydajnościowych.

    Kolejną istotną innowacją jest rozwój pamięci 3D NAND, w której komórki są układane warstwowo, co pozwala na zwiększenie gęstości zapisu i pojemności dysków SSD bez zmiany ich rozmiaru. Producenci mogą dostarczać bardziej wydajne i tańsze nośniki, co ma ogromne znaczenie dla chmury i użytkowników indywidualnych. Wzrost popularności przechowywania danych w chmurze i modelu subskrypcyjnego napędza popyt na szybkie, pojemne pamięci.

    Nowoczesne algorytmy zarządzania pamięcią wydłużają jej żywotność, co jest kluczowe dla biznesu i centrów danych. Samsung jako lider w tej dziedzinie stale rozwija 3D NAND, zwiększając liczbę warstw nawet do planowanych 430. Takie innowacje zwiększają pojemność i optymalizują zużycie energii. Jest to istotne dla zrównoważonego rozwoju IT. Technologia Samsung V-NAND poprawia wydajność i trwałość dzięki pionowemu układaniu komórek, redukując zakłócenia między-poziomowe i zwiększając niezawodność pamięci w długim okresie.

    B.M.: Jakie są kluczowe elementy skutecznego partnerstwa w sektorze rozwiązań pamięciowych?

    M.K.: Efektywna współpraca nie tylko w sektorze pamięci masowych, a w sadzie w każdej branży, opiera się na kilku kluczowych elementach, które umożliwiają długoterminową współpracę i budowanie przewagi konkurencyjnej.

    1. Wspólna wartość biznesowa
      Współpracujące firmy muszą mieć jasno określone cele oraz strategie, które pozwalają na rozwój innowacyjnych rozwiązań odpowiadających na realne potrzeby klientów. W dywizji Memory w Samsung nie stawiamy na wielką liczbę partnerów, a na jakość współpracy – kluczowe jest dla nas budowanie długofalowych relacji, w których partnerzy dostarczają wartość dodaną do sektora technologii pamięciowych.
    2. Elastyczność i adaptacja do zmian rynkowych
      Sektor IT charakteryzuje się szybką zmiennością, dlatego elastyczność i zdolność adaptacji do nowych wyzwań jest niezbędna. Współpraca z partnerami musi uwzględniać zmieniające się potrzeby klientów, rozwój sztucznej inteligencji, wzrost znaczenia chmury obliczeniowej oraz potrzeby sektora data center. Samsung, wspierając swoich partnerów, dostarcza nie tylko najnowsze rozwiązania sprzętowe, ale także edukację i wsparcie techniczne, co ułatwia ich skuteczne wdrażanie.
    3. Transparentność i zaufanie
      Współpraca w sektorze pamięci masowej wymaga transparentności i partnerstwa opartego na zaufaniu. Kluczowe jest dzielenie się wiedzą, analizowanie trendów rynkowych oraz dostosowywanie strategii sprzedażowych do potrzeb klientów. Realizujemy to m.in. poprzez cykliczne szkolenia dla partnerów oraz współpracę w zakresie tworzenia materiałów case study, które pokazują praktyczne zastosowanie rozwiązań pamięciowych w rzeczywistych projektach.
    4. Wsparcie operacyjne i marketingowe
      Skuteczne partnerstwo nie kończy się na dostarczeniu produktu – istotne jest wsparcie operacyjne, po-sprzedażowe, serwisowe oraz marketingowe. Samsung wdraża model 360°, w którym oprócz innowacyjnych produktów oferuje showroomy technologiczne, szkolenia i materiały edukacyjne, które pomagają partnerom w skutecznej promocji i sprzedaży pamięci masowych.

    B.M.: Jak współpraca z producentami sprzętu, dystrybutorami oraz dostawcami chmury wpływa na rozwój rozwiązań pamięciowych?

    M.K.: Wymiana doświadczeń z firmami tworzącymi sprzęt IT pozwala na optymalizację wydajności, kompatybilności i trwałości produktów. Integracja technologii NVMe z nowoczesnymi urządzeniami przyspiesza przetwarzanie danych. Stanowi to nieocenioną wartośćdla klientów indywidualnych, centrów danych i branży AI.

    Współpracujemy z producentami sprzętu, by dostosować firmware i kontrolery pamięci do konkretnych zastosowań. Przykładem jest rozwój dysków SSD zoptymalizowanych pod kątem gier, które minimalizują opóźnienia i zwiększają prędkość ładowania.

    Dystrybutorzy natomiast odgrywają kluczową rolę w łańcuchu dostaw, zapewniając dostępność najnowszych technologii pamięciowych. Współpraca z nimi przyspiesza wdrażanie innowacji i zwiększa skalę dystrybucji. Jako dywizja Memory stawiamy na bliskie relacje z partnerami, oferując im nie tylko produkty, ale także szkolenia, które pomagają skutecznie sprzedawać nowoczesne rozwiązania. Dzięki temu możliwe jest dostosowanie oferty do lokalnych rynków – w Europie rośnie zapotrzebowanie na dyski enterprise, podczas gdy w krajach rozwijających się dominują podstawowe nośniki danych.

    Dynamiczny rozwój usług chmurowych znacząco wpływa na innowacje w pamięciach masowych. Samsung współpracuje z dostawcami chmury, by tworzyć rozwiązania zoptymalizowane pod kątem centrów danych. W nich to priorytetowymi są szybkość dostępu, energooszczędność i skalowalność. Przykładem jest rosnące zapotrzebowanie na dyski SSD NVMe dla serwerów cloudowych. Samsung inwestuje w rozwój pamięci o dużej gęstości zapisu, co zwiększa efektywność przechowywania i przetwarzania informacji w chmurze.

    B.M.: Jakie wyzwania technologiczne i rynkowe przewidujecie, a które mogą zostać złagodzone dzięki strategicznym partnerstwom?

    M.K.: Niestabilność łańcucha dostaw półprzewodników, nasilona przez pandemię i napięcia geopolityczne, pokazała, jak duży wpływ na branżę mają niedobory surowców i zakłócenia logistyczne. Producenci pamięci mierzyli się z ograniczoną dostępnością kluczowych komponentów, co wpłynęło na tempo produkcji i terminowość dostaw. Rosnący popyt na elektronikę, napędzany rozwojem AI, big data i chmury, dodatkowo uwypuklił znaczenie niezachwianego łańcucha wartości.

    Samsung Memory, dzięki partnerstwom z dystrybutorami i dostawcami surowców, minimalizuje ryzyko braków i optymalizuje logistykę. Długoterminowa współpraca pozwala skuteczniej zarządzać zasobami i przewidywać problemy z dostępnością komponentów. Inwestycje w lokalne centra produkcyjne i magazynowe zmniejszają zależność od odległych dostawców, a globalna współpraca ułatwia monitorowanie sytuacji rynkowej i zapewnia ciągłość produkcji.

    W dobie cyfryzacji rosną zagrożenia cybernetyczne. Ataki ransomware i kradzież danych stały się codziennością, a firmy potrzebują zaawansowanych zabezpieczeń. Sektory finansowy, zdrowotny i infrastruktura krytyczna wymagają najwyższego poziomu ochrony, co wymusza stosowanie technologii szyfrowania i odporności na manipulacje.

    Samsung wdraża szyfrowanie sprzętowe w pamięciach SSD oraz systemy odporne na ataki. Dzięki temu firmy skuteczniej chronią dane, a użytkownicy indywidualni zyskują większe bezpieczeństwo. Rozwój technologii Hardware-Based Encryption i unikalnych identyfikatorów sprzętowych wzmacnia ochronę informacji. Samsung Memory nie tylko dostarcza sprzęt, ale także edukuje partnerów w zakresie najlepszych praktyk cyberbezpieczeństwa, pomagając firmom skutecznie przeciwdziałać zagrożeniom.


    Maciej Kamiński pełni funkcję Dyrektora Dywizji Memory w Samsung Electronics na Polskę i region Europy Środkowo-Wschodniej (CEE). Posiada szerokie doświadczenie w zakresie marketingu, sprzedaży oraz zarządzaniu produktami i usługami technologicznymi. W swojej roli odpowiada za rozwój i skalowanie biznesu pamięci masowych Samsung w regionie, kładąc nacisk na budowanie stabilnych relacji z partnerami oraz wspieranie ich w rozwoju oferty. Pod jego kierownictwem dywizja Memory została zbudowana od podstaw i obecnie dynamicznie rozwija się.

  • Crucial – profesjonalista, którego każdy chce mieć w swoim zespole!

    Crucial – profesjonalista, którego każdy chce mieć w swoim zespole!

    Szukasz dysku SSD, który w codziennej pracy może szybko przetwarzać i chronić biznesowe informacje albo stanie się Twoim kompanem do gry na PS5? Poznaj bliżej wydajność nowej generacji, czyli dysk SSD Crucial P5 Plus od firmy Micron. Przekonaj się sam o jego szybkości, trwałości i niezawodności.

    Dyski SSD to obecnie gwarancja szybkiej pracy, ogromnych możliwości przechowywania danych i, co najważniejsze, ich bezpieczeństwo. Oferta tych urządzeń jest dobrze znana i dość szeroka. Pojawienie się w ostatnim czasie na polskim rynku dysku Crucial P5 Plus firmy Micron, wprowadziło w branży i wśród przyszłych klientów pewne ożywienie. Dysk firmy Micron zwrócił ich uwagę nie tylko swoimi unikatowymi parametrami, ale też ceną i trwałością. Dokładając do tego fakt, że jest on dyskiem w pełni kompatybilnym z PS5, można śmiało uznać, że ma szanse na stałe trafić do czołówki najchętniej wybieranych dysków SSD przez klientów biznesowych i profesjonalnych graczy. Poznajmy zatem bliżej jego możliwości:

    • Szybka pamięć masowa Gen4 NVMe do wysokowydajnych obliczeń, przetwarzania danych i wymagających gier.
    • Technologia PCIe 4.0 NVMe z odczytami sekwencyjnymi do 6600 MB/s.
    • Zbudowany na bazie wiodącej technologii Micron Advanced 3D NAND i innowacyjny kontroler.
    • Wskaźnik MTTF powyżej 2 milionów godzin zapewniający dłuższą żywotność i niezawodność.
    • Zawiera oprogramowanie do klonowania i zarządzania SSD do optymalizacji wydajności, bezpieczeństwa danych i aktualizacji oprogramowania układowego.
    • 5-letnia gwarancja.

    – To zaawansowane rozwiązanie w kategorii dysków SSD, po które sięgają profesjonaliści. Produkt został zaprojektowany przez Micron z najnowszą technologią Gen4 NVMe. Crucial P5 Plus zawiera zaawansowane funkcje, takie jak pełne szyfrowanie sprzętowe, dynamiczna akceleracja zapisu i adaptacyjna ochrona termiczna, które zapewniają bezpieczeństwo danych i zwiększają niezawodność systemu.wylicza Szymon Poloczek Product Manager w AB S.A

    Dyski dostępne są w wersjach 500 GB, 1TB i 2TB. Ich cena zaczyna się od kilkuset złotych i jest uzależniona od pojemności pamięci. W odróżnieniu od innych producentów dysków SSD – produkty marki Micron są stale dostępne w sprzedaży. W swojej ofercie posiada je polski dystrybutor nowych technologii – firma AB S.A.

  • Macierze NVMe: poszerzamy autostrady, likwidujemy bramki i ograniczenia prędkości

    Macierze NVMe: poszerzamy autostrady, likwidujemy bramki i ograniczenia prędkości

    Wyobraźmy sobie, że mamy szybki, sportowy samochód. Wyruszamy w trasę z Wrocławia do Krakowa autostradą A4 i planujemy dotrzeć do celu w jak najkrótszym czasie. Przy wjeździe na autostradę pod Wrocławiem popisowo wyprzedzamy Fiata Multiplę, utwierdzając się w przekonaniu, że jest to jedno z najbrzydszych aut na świecie. Podczas podróży udaje nam się jechać szybko na krótkich odcinkach, ale po drodze stoimy 4 razy na bramkach, kilkanaście razy jedziemy za wyprzedzającymi się ciężarówkami i docieramy na miejsce po 3 godzinach i 30 minutach. Wyjeżdżając z ostatnich bramek przed Krakowem mijamy tego samego Fiata Multiplę, którego tak dynamicznie wyprzedziliśmy na początku trasy. Wskazania statystyk pokonanej trasy nie kłamią – średnia prędkość 77km/h. Coś tu nie gra.

    NVMe jak rozwiązanie problemu z autostradami

    Gdybyśmy mogli zapytać o samopoczucie moduły NAND montowane w tradycyjnych macierzach SCSI, to ich wrażenia mogłyby być podobne do wrażeń kierowcy tego sportowego samochodu. I choć w historii było wiele nie do końca udanych porównań IT z motoryzacją, to właśnie takie porównanie pozwala dokładnie zobrazować, co zyskujemy wkraczając w nową erę macierzy opartych o NVMe (Non-Volatile Memory Express). Wyobraźmy sobie tę samą trasę z Wrocławia do Krakowa, ale dołóżmy po cztery pasy ruchu w każdą stronę, usuńmy bramki z opłatami, zlikwidujmy ograniczenia prędkości. Nasz kierowca w sportowym samochodzie mógłby pokonać tę trasę w jedną godzinę jadąc ze średnią prędkością 272km/h.

    Protokół SCSI jest z nami 30 lat i powstał w czasach dysków obrotowych, które rządziły się zupełnie innymi prawami niż moduły półprzewodnikowe. Aby wykorzystać potencjał modułów flash potrzebna była nowa technologia komunikacji, zoptymalizowana do specyfiki pracy dysków SSD, w których nie musimy czekać na obrót talerza i pozycjonowanie głowicy, bo każdy obszar pamięci flash może być dostępny niemal natychmiast. Interfejs SAS oferuje jedną kolejkę z 256 komendami, natomiast NVMe to 64 tysiące kolejek i 64 tysiące komend w każdej kolejce. To tak, jakbyśmy zbudowali dodatkowe pasy ruchu na naszych autostradach, a same autostrady wielokrotnie wydłużyli.

    Co nam da zrównoleglenie operacji I/O w macierzach NVMe? Najważniejszy aspekt to niski czas odpowiedzi niemal w każdych warunkach. Dzisiaj uzyskanie satysfakcjonujących parametrów w tym zakresie jest niemożliwe do osiągnięcia dla dysków SAS SSD, bo gdy w naszej kolejce jest duży tłok, mamy wiele operacji odczytu i zapisu, to czas odpowiedzi znacznie spada. To przypadek naszego sportowego samochodu, który utknął za wyprzedzającymi się ciężarówkami na wąskiej autostradzie.

    Nadszedł czas na macierze w pełni oparte o NVMe, bo już dzisiaj wymagają tego nasze aplikacje i bazy danych, a moduły flash należy projektować w sposób zoptymalizowany dla NVMe. Konstrukcja macierzy NVMe jest też zupełnie inna niż dotychczasowe konstrukcje SAS, do których zdążyliśmy się przyzwyczaić. Zapomnijmy o instalowaniu 20 spółek i 500 dysków w jednej macierzy. Pojemność i wydajność modułów NVMe jest na tyle wysoka, że obecne konstrukcje to często jeden moduł wysokości 2U bez możliwości dokładania półek, gdyż wąskim gardłem i tak są kontrolery, zatem dokładanie dysków nie przyniosłoby przyrostu wydajności.

    Optymalizacja parametrów według potrzeb

    Przyjrzyjmy się nowej generacji macierzy Hitachi E590, E790 i E990. Pierwsze dwa modele oferują możliwość instalacji maksymalnie 24 dysków bez możliwości dokładania półek. Dyski NVMe są na tyle wydajne, że już nawet 15-20 dysków potrafi przewyższyć wydajnością kontrolery, zatem montowanie więcej niż 24 dysków pod jedną parą kontrolerów nie ma uzasadnienia ekonomicznego i technologicznego. Czy to jest jednak dla nas problem? W macierzach Hitachi możemy instalować moduły NVMe o pojemności nawet 30TB, zatem w jednym urządzeniu o wysokości 2U mamy 720TB surowej pojemności. Dołóżmy do tego mechanizm Adaptive Data Reduction (ADR) i możemy zyskać 4-krotnie więcej dzięki deduplikacji (poziom 4:1 gwarantowany przez Hitachi), osiągając nawet 2PB efektywnej pojemności z jednego urządzenia wysokości 2U. Imponujące! Kiedyś do uzyskania takiej pojemności musieliśmy wypełnić dyskami kilka szaf 42U.

    Hitachi gwarantuje zwrot z inwestycji 7:1 oraz dostępność 100%. Jest się to możliwe dzięki nowym narzędziom do zarządzania i monitorowania oraz mechanizmom zaszytym w modułach flash. Do zarządzania pojedynczą macierzą służy wbudowana w kontrolery konsola VSP Embedded Management, natomiast do zarządzania większą ilością macierzy służy aplikacja Hitachi Ops Center, w której zawarte są narzędzia analityczne zapobiegające pojawieniu się potencjalnych problemów. Hitachi jest właścicielem ponad 400 patentów w obszarze flash, które pozwalają m.in. przewidywać czas życia modułów SSD, co w długim okresie zapobiega przestojom i gwarantuje najwyższą niezawodność.

    Czym zatem różnią się te trzy modele macierzy? Model E590 został zoptymalizowany kosztowo dla klientów wymagających niskich czasów odpowiedzi dysków NVMe, ale którzy nie wymagają maksymalnej możliwej wydajności operacji I/O. Macierz oferuje 384GB cache i 24 rdzenie CPU. Wracając do analogii motoryzacyjnej może to być nowoczesny samochód kompaktowy. Macierz Hitachi E790 oferuje z kolei maksymalną możliwą wydajność, bo tutaj znajdziemy 64 rdzenie CPU i 768GB pamięci cache. Ten model jest jak nasz sportowy samochód. Model E990 zoptymalizowano pod maksymalną pojemność, bo tylko w tej macierzy możemy zainstalować dodatkowo 3 półki z dyskami NVMe, osiągając maksymalnie 96 dysków NVMe w jednej macierzy. Jest to cecha unikalna wśród macierzy klasy midrange, bo zwykle, nawet jeżeli macierz NVMe pozwala na instalację półek, to są to półki SAS, a nie NVMe. Aby zoptymalizować wydajność tak dużej ilości dysków, macierz wyposażono w 1024GB pamięci cache oraz 56 rdzeni CPU. Model E990 możemy porównać do dużego vana lub ciężarówki z mocnym silnikiem i dużą skrzynią ładunkową.

    macierz Hitachi

    Jak najlepiej wykorzystać możliwości NVMe?

    Przede wszystkim, z tego rozwiązania skorzystają bazy relacyjne i noSQL, analityka, big data. Dyski NVMe działają najwydajniej, gdy są blisko aplikacji, zamontowane w serwerze jako DAS, obsługiwane przez kontroler PCIe procesora. Wtedy opóźnienia są najniższe, a wydajność najwyższa. Użycie konfiguracji DAS ma jednak swoje ograniczenia, w niewielu sytuacjach możemy jej użyć, więc dla rozległych wysokodostępnych konfiguracji i klastrów potrzebujemy macierzy NVMe obsługujących NVMeoF (NVMe over Fabrics). Testy wydajnościowe pokazują, że wydajność konfiguracji NVMeoF z obsługą RDMA w standardzie RoCE jest niemal identyczna, jak dla dysków DAS i bywa prawie dwukrotnie wyższa niż dla połączenia z użyciem SCSI (FC/iSCSI). Jeżeli do nowoczesnej macierzy NVMe podłączymy hosta przy wykorzystaniu sieci SAN (FC lub iSCSI), ale z użyciem protokołu SCSI, to zaobserwujemy wysoką wydajność wynikającą z technologii NVMe wewnątrz macierzy, ale nie będzie ona tak spektakularna, jak w przypadku, gdybyśmy w pełni wykorzystali NVMe end-to-end. Aby to było możliwe, musimy przejść na najnowszej generacji sieci FC o prędkości 32Gb/s, wymieniając zarówno przełączniki, jak i karty FC HBA. Alternatywą jest użycie Ethernet i przejście na karty sieciowe CNA zgodne z RoCEv2. Do tego aplikacje i systemy operacyjne muszą zacząć szeroko wspierać NVMeoF oraz RDMA.

    NVMeoF to jeszcze nie wszystko. Potrzebujemy także szerokiego zastosowania PCIe 4.0, zarówno po stronie serwerów, kart HBA, jak i macierzy NVMe. Standard PCIe 4.0 właśnie wchodzi na rynek, a dzisiaj niemal wszędzie korzysta się z PCIe 3.0, w którym port x4 oferuje maksymalnie 3,8GB/s. To i tak więcej niż SAS 12Gb/s, w którym nie przekroczymy 1,5GB/s, jednak dla potencjału NVMe i dzisiejszych modułów NAND to wciąż za mało. Nawet jeżeli włożymy do serwera kartę FC 32Gbps, to szyna PCIe 3.0 nie pozwoli na uzyskanie pełni wydajności. Dopiero popularyzacja PCIe 4.0 uwolni wydajność drzemiącą w protokole NVMe i nowoczesnych układach NAND.

    Nowa era

    Widzimy zatem, że przygoda z NVMe dopiero się zaczyna, a największe korzyści dopiero przed nami. W ostatnich latach w Polsce obserwowaliśmy wiele dużych inwestycji w sieci SAN najnowszej generacji wspierających NVMeoF. Mamy na rynku bardzo ciekawe macierze NVMe, jak wspomniane wcześniej macierze Hitachi E590/790/990. Wszystko wskazuje na powolny zmierzch leciwego SCSI i początek ery NVMe oraz RDMA.

    Więcej informacji o innowacyjnych rozwiązaniach Hitachi Vantara: https://macierzehitachi.pl/szkolenia/on-demand-webinar

  • IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    Raport Światowego Forum Ekonomicznego (The Future of Jobs Report 2018) wymienia cztery technologiczne zjawiska, które w opinii ekspertów zdominują najbliższe lata w biznesie: wszechobecny szybki mobilny internet, sztuczna inteligencja (AI), powszechne stosowanie analityki big data oraz technologie chmurowe. Dziejąca się już w wielu przedsiębiorstwach transformacja cyfrowa wymaga dostosowania infrastruktury IT do nowych wymagań biznesowych i organizacyjnych. Tym bardziej, że między rokiem 2018 a 2020, jak prognozuje wspomniany raport, udział pracy maszyn wzrośnie z 29% do 42%. A maszyny to wciąż nowe dane.

    „Trwająca pandemia przyśpieszyła tylko nieuchronne zmiany – praca on-line szybko stała się standardem wszędzie tam, gdzie było to możliwe. W ślad za tym poszły zmiany infrastrukturalne w IT – przecież gdzieś trzeba przechowywać lawinowo rosnącą ilość danych. Oprócz rozwiązań chmurowych, całkiem nieźle radzą sobie lokalne Data Center”ocenia Wojciech Raduła, Architekt Systemowy z firmy Advatech należącej do ścisłej czołówki integratorów rozwiązań informatycznych.  „Bez względu na lokalizację, wszystkie one wymagają bardzo wydajnych i elastycznych urządzeń pamięci masowych, na najwyższym poziomie zaawansowania  technologicznego. Przyczyny są proste – najcenniejsze zasoby firmy, czyli dane biznesowe możemy powierzyć tylko najlepszym i najbardziej zaufanym urządzeniom. To jak z ludźmi”dodaje Wojciech Raduła.  

    Wbrew pozorom, na rynku nie ma zbyt wielu rozwiązań pamięci masowych o optymalnej relacji funkcjonalności i możliwości do ceny. Bardzo ważny jest także dostęp do wsparcia techniczne na najwyższym poziomie. Powinno być one zapewnione przez rozwiniętą sieć kompetentnych, doświadczonych i solidnych partnerów handlowych producenta. Przy takich kryteriach oceny pamięci masowych, chyba nikogo nie dziwi, że maszyny IBM z serii FlashSystem® 5100 można zaliczyć do ścisłej czołówki.

    W dzisiejszych czasach połączenie wydajności pamięci flash z wszechstronnością pamięci NVMe (Non-Volatile Memory Express) samo w sobie nie ma już waloru unikalności. Ale IBM nie byłby tym IBM, gdyby nie stworzył nowej jakości przez połączenie zaawansowanej technologii  z doskonałym oprogramowaniem. W przypadku maszyn FlashSystem® 5100 w jednym urządzeniu użytkownik dostaje innowacyjną technologię IBM FlashCore®, rozbudowane możliwości funkcjonalne systemu IBM Spectrum Virtualize™ oraz aplikacje do zarządzania predykcyjnego i proaktywnego, które wykorzystują mechanizmy sztucznej inteligencji (AI). Ultraniskie opóźnienia to zasługa pamięci Storage Class Memory (SCM). Dopiero w ten sposób funkcjonalna całość ujawnia swoje przewagi i walory, nawet w środowisku wielochmurowym, z działającymi aplikacjami kontenerowymi.

    IBM FlashSystem

    Wysokie parametry techniczne, duża sprawność i wydajność oraz krótki czas dostępu do danych to po prostu szybsze działanie całej firmy i większa produktywność każdego pracownika z osobna. A to już są bardzo ważne czynniki w aspekcie wyścigu z konkurencją.

    Zalety posiadania IBM FlashSystem® 5100 przekładają się także wskaźniki finansowe. Można osiągnąć zdecydowanie większy zwrot z inwestycji i zredukować całkowity koszt posiadania (TCO), bo dostępne oprogramowanie IBM Spectrum Virtualize pozwala użytkownikom korzystać z wielu różnych usług przetwarzania danych we wszystkich jego systemach pamięci masowych. Co to oznacza? To między innymi, że dostępna jest obsługa hybrydowego środowiska wielochmurowego.

    „Użytkownik może zacząć od czegoś prostego i nieskomplikowanego, nabędzie odpowiedniego doświadczenia, wyrobi sobie prawidłowe nawyki, a potem wraz ze wzrostem potrzeb biznesowych i liczby klientów może sobie w prosty sposób rozbudowywać infrastrukturę aż po środowiska łączące chmury publiczne, prywatne i lokalne”twierdzi Wojciech Raduła z firmy Advatech.

    IBM FlashSystem® 5100 wspiera trzy rozwiązania wielochmurowe. W pierwszym z nich  pamięć masowa służy jako trwały nośnik dla aplikacji kontenerowych, które korzystają z platform Docker lub Kubernetes. W drugim wariancie systemy IBM Spectrum Copy Data Management oraz Spectrum Virtualize działające z IBM FlashSystem® 5100 tworzą kopie migawkowe do chmury IBM w celu ochrony przed awariami DR (Disaster Recovery). Dane można używać bezpośrednio w chmurze lub kopiować ponownie do oryginalnej lokalizacji lub innego centrum danych.

    W trzecim wariancie aplikacja pod nazwą IBM Spectrum Copy Data Management współdziałająca ze Spectrum Protect tworzą kopie migawkowe na wolumenach. Służą one nie tyle wyłącznie do ochrony danych, ale także do celów Dev/Test, DevOps lub analityki. To kompletne rozwiązanie zapewnia także ochronę przed zagrożeniami typu ransomware.

    „Zakup IBM FlashSystem® 5100 jest bez wątpienia trafną decyzją, choć zapewne nie najprostszą. Walory techniczne i funkcjonalność macierzy pokazują, że klienci otrzymują rozwiązanie klasy Enterprise, wraz ze wsparciem technicznym i zarządzaniem w chmurze w bardzo przystępnej cenie. Tu nie ma miejsca na kompromisy – nowa generacja pamięci, technologie redukcji objętości danych dają więcej miejsca na dane przy tych samych kosztach, co poprzednio. Jeśli dodamy do tego wysoką dostępność na poziomie sześciu dziewiątek, to oznacza, że wszystkie istotne wskaźniki ekonomiczno-techniczne mają wartości, które na pewno docenią osoby decydujące o inwestycjach w infrastrukturę IT”ocenia Wojciech Raduła.

    Jak widać, IBM FlashSystem®5100 wyznacza bardzo wysoki standard niezawodności. Jest to możliwe dzięki zastosowaniu technologicznych zabezpieczeń przed awariami całych modułów (VSR) i grup RAID-owych (DRAID). Sam system oferuje przewidywalną i stałą wydajność oraz dużą gęstość upakowania danych – użytkownicy dostają do 768 TiB w rozmiarze 2U. Dostępne są także wbudowane systemy kompresji i deduplikacji danych, szyfrowania zgodnego z GDPR, przy zachowaniu odpowiedniej pojemności nadmiarowej i odporności na efekt „Write Cliff”.

    Jak twierdzą specjaliści z Advatech„Te macierze szybko się nie zestarzeją. Nasze doświadczenia pokazują, że mimo szybkiego postępu i rozwoju technologicznego, solidne i rzetelnie zaprojektowane konstrukcie z powodzeniem służą długie lata, a co najważniejsze – działają niezawodnie”.

  • Pamięci masowe w roku 2021 – wyzwania i szanse

    Pamięci masowe w roku 2021 – wyzwania i szanse

    „Orzeł wylądował” – to zdanie Neila Armstronga mogło być wypowiedziane dzięki komputerom dysponującymi 4 kB pamięci operacyjnej i 74 kB pamięci ROM zbudowanej na rdzeniach ferrytowych. Po upływie półwiecza, większą mocą obliczeniową dysponują już ładowarki USB-C. Apollo 11 nie posiadało w ogóle żadnego urządzenia pamięci masowej. Dziś relatywnie niewielkie urządzenie np. IBM FlashSystem® 5100 może dysponować 768 TiB pamięci w urządzeniu o wysokości 2U. Postęp jest gigantyczny, i to za życia jednego pokolenia.

    Konrad Puchała, Advatech sp. z o.o.
    Konrad Puchała, Advatech sp. z o.o.

    „To, że można było polecieć na Księżyc i bezpiecznie powrócić bez użycia chociażby jednego dysku twardego, nie oznacza, że dziś można sobie pozwolić na prowadzenie jakiegokolwiek, nawet najmniejszego biznesu bez konieczności przechowywania danych. Urządzenia pamięci masowych są tak niezbędne, jak tlen do oddychania. Przeciętny użytkownik aplikacji biznesowych, w nawet niespecjalnie dużej firmie, nie zdaje sobie sprawy ile rocznie danych generuje, ile to wymaga przestrzeni dyskowej, nie mówiąc już o fizycznym położeniu jego danych”twierdzi Konrad Puchała,Kierownik Działu Składowania i Ochrony Danych z firmy Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.

    Systemy pamięci masowych są jednym z kluczowych elementów każdej infrastruktury IT. Współczesne strategie jej optymalizacji zakładają wykorzystanie hybrydowych środowisk wielochmurowych. Celem jest obniżenie kosztów i przełamanie dominacji dostawcy usług konkretnej chmury. Nagrodą – utrzymanie dotychczasowych aplikacji i usług w różnych chmurach, które są najlepiej dopasowane do konkretnych wymagań biznesowych. W takich strategiach kładzie się nacisk na upraszczanie procesów konteneryzacji, zarządzanie i ochronę pamięci masowych zdefiniowanych programowo SDS (Software Defined Storage) oraz na maksymalizację bezpieczeństwa danych.

    Ponieważ średni czas życia eksploatowanych systemów pamięci masowych wynosi wiele lat, każda decyzja o zakupie musi być podjęta roztropnie i bazować na przewidywanym rozwoju sytuacji na rynku producentów. A tu, jak donosi IDC, w roku 2020 większość z nich zanotowała spadki dochodów. Wśród nielicznych wyjątków jest IBM, który np. w drugim kwartale 2020 zanotował ponad 12% wzrost.

    „Przetasowania wśród czołowych wytwórców pamięci masowych zawdzięczamy dostawcom usług chmurowych. W tym roku musieli oni znacząco zwiększyć wydajność swoich hiperskalowanych centrów danych i infrastruktury tak, aby sprostać skokowemu wzrostowi popytu ze strony klientów korporacyjnych oraz konsumentów”tłumaczy Konrad Puchała z Advatech.

    Warto zatem się przyjrzeć, co w dziale IBM Storage piszczy. Firma od wielu lat konsekwentnie stawia na rozwój technologii sprzętowych, nowe architektury i wieloprotokołowość oraz zastosowanie interfejsów NVMe i NVMe-oF (NVMe over Fabrics). W konsekwencji użytkownicy otrzymują produkty z najbardziej pożądanymi przez nich cechami – łatwością rozbudowy i modernizacji poprzez dodawanie nowych, wchodzących na rynek technologii (np. Storage-Class Memory, czy MVMe-oF) oraz elastycznością i skalowalnością. Dzięki temu każda inwestycja w systemy pamięci masowych IBM jest bezpieczna na długie lata.

    Do wspomnianego wzrostu sprzedaży mogła się przyczynić także elastyczność IBM. Firma, bezpłatnie na 90 dni, udostępnia rozwiązanie Storage Insights Pro™ z funkcjami AI do zarządzania predykcyjnego i proaktywnego rozwiązywania problemów. Z tego udogodnienia mogą skorzystać wszyscy użytkownicy produktów IBM Storage. Celem jest wsparcie przedsiębiorców w walce ze skutkami pandemii COVID-19.

    Oferta IBM jest na tyle szeroka, że każdy, bez żadnych kompromisów funkcjonalnych, znajdzie dla siebie optymalne rozwiązanie w rozsądnym budżecie – od pamięci taśmowych po najbardziej zaawansowane macierze FlashSystem®w technologii „All-Flash” do obsługi hybrydowych środowisk wielochmurowych.

    Jeśli trzymać się wątku wyzwań technologicznych, a takim bez wątpienia był lot na Księżyc, to warto przyjrzeć się modelom high-end, które wieńczą ofertę IBM w zakresie pamięci masowych. Na szczycie piramidy wszystkich modeli znajduje się IBM FlashSystem 9200®, nowoczesna, kompleksowa macierz all-flash klasy korporacyjnej z akceleracją NVMe i obsługą środowiska wielu chmur.

    Przyglądając się szczegółom technicznym, można dostrzec, że IBM® FlashSystem® 9200 łączy w sobie wydajność pamięci flash z wszechstronnością  pamięci NVMe, niezawodność technologii IBM FlashCore® oraz absolutnie minimalne opóźnienia pamięci SCM. Najcenniejsze w tym rozwiązaniu jest oprogramowanie, które daje życie bezdusznej materii.  W tym wypadku chodzi o ogromną funkcjonalność duetu IBM Spectrum Virtualize™ oraz Storage Insights™. Całość na szczęście nie przypomina wielkością rakiety Saturn V, bo daje się zamknąć w przemysłowej obudowie o wysokości 2U.

    „Nasze dotychczasowe doświadczenia z wdrażaniem IBM FlashSystem® wskazują jednoznacznie, że są to maszyny, których potencjał technologiczny w istotny sposób przekłada się na sprawniejsze prowadzenie biznesu i uzyskiwanie przewagi konkurencyjnej. Funkcje obsługi hybrydowego środowiska wielu chmur, elastyczność i różnorodność usług przetwarzania danych, a także optymalizacja wykorzystania pamięci masowej  gwarantuje wyższy zwrot z inwestycji, który jest bardzo ważny czynnikiem przy podejmowaniu decyzji zakupowych” twierdzi Konrad Puchała.

    Sam zakup to jeszcze nie wszystko – tak złożone urządzenie trzeba najpierw uruchomić, dostosować do bieżących potrzeb biznesowych, a potem przez lata eksploatować w szybko zmiennych warunkach organizacyjnych. Naprzeciw takim wymaganiom wychodzą programy takie, jak IBM FlashWatch. Dzięki nim użytkownik ma gwarancję na pamięć flash i z pełnym poczuciem bezpieczeństwa może eksploatować swoją pamięć masową, z dostępnością na poziomie 99,9999%, bez względu na obciążenia. Z kolei IBM Storage Utility, oferuje taki model zakupu pamięci masowych, w którym co miesiąc płaci się tylko za faktycznie wykorzystaną przestrzeń. W programie IBM Flash Momentum można swobodnie modernizować kontroler i pamięć masową co 3 lata.

    Rozwiązania takie, jak IBM FlashSystem® 9200 zapewniają najwyższy poziom dostępności, potrzebny do obsługi aplikacji o newralgicznym znaczeniu dla prowadzonego biznesu. Aby to wszystko było możliwe, niezbędny jest jeszcze czynnik białkowy, czyli człowiek. IBM i jego partnerzy handlowi tacy, jak Advatech, mogą wspólnie zapewnić wsparcie techniczne w trybie 24×7 nawet przez siedem lat, a do tego pomoc doświadczonych konsultantów, szybką obsługę zgłoszeń i zarządzanie aktualizacją kodu.

    Kontynuując kosmiczne porównania: „Nie wszyscy wiedzą, że rakieta Saturn V jest jednym z najbardziej zaawansowanych technicznie tworów człowieka w historii. Pełna dokumentacja techniczna jest nadal w posiadaniu USA. Dlaczego się jej zatem nie produkuje? Nie ze względów ekonomicznych, ale z tego powodu, że nie ma już inżynierów i techników, którzy rozumieli ówczesną technologię, a co najważniejsze, potrafili ją wdrażać w praktyce”zauważa Konrad Puchała.

    Wniosek z tego płynie taki, że bezcenna wiedza i doświadczenie ludzi, takich jak w Advatech, którzy potrafią integrować różne rozwiązania w jedną spójną i efektywną całość są warunkiem koniecznym do prowadzenia transformacji cyfrowej w praktycznie każdej organizacji. Zatem Per aspera ad astra!

  • FlashCore Module – ewolucja z cechami rewolucji

    FlashCore Module – ewolucja z cechami rewolucji

    Naśladując Sienkiewicza, można napisać, że rok 2020 był to dziwny rok, w którym rozmaite znaki na niebie i ziemi zwiastowały jakoweś klęski i nadzwyczajne zdarzenia. Rzeczywiście, nawet w branży IT dało się odczuć tę nadzwyczajność. Wystarczy spojrzeć np. do raportu Gemius o polskim e-handlu –  już 73% internautów deklaruje dokonywanie zakupów on-line. W poprzednich dwóch latach te wskaźniki wynosiły zaledwie 56% i 54%. To duży skok i znacząca zmiana. Jak nietrudno zauważyć, fundamentem e-commerce jest solidna infrastruktura IT. W innych branżach także nastąpiła radykalna i szybka zmiana związana z przejściem na pracę zdalną. Dla wielu działów IT było to poważne wyzwanie. Bez względu na skalę problemu, optymalna infrastruktura IT ułatwiała rozprawienie się z problemem.

    Obserwowane w ostatnim czasie zmiany w funkcjonowaniu znakomitej większości przedsiębiorstw oznaczają olbrzymi i szybki przyrost ilości danych do przechowywania i udostępniania użytkownikom. Zatem wydajność i bezpieczeństwo danych ma znaczenie – olbrzymie. Nic zatem dziwnego, że w tym kierunku idą innowacje producentów rozwiązań pamięci masowych twierdzi Konrad Puchała, Kierownik Działu Składowania i Ochrony Danych z firmy Advatech, integratora rozwiązań informatycznych.

    O zaletach macierzy typu All-Flash i dysków SSD chyba już nie ma potrzeby nikogo przekonywać, choć dokonanie konkretnego wyboru nie jest ani szybkie, ani łatwe. Parametry typu liczba dysków, ich pojemność, liczba operacji I/O, liczba procesorów i wielkość pamięci cache są dostępne w materiałach produktowych praktycznie wszystkich producentów. Nie oznacza to, że wybór jest jednoznaczny i banalny. Warto zatem zwrócić uwagę na takie unikalne właściwości, których nie oferują jeszcze inni dostawcy, szczególnie te ze sfery bezpieczeństwa danych.

    Do tej klasy innowacji należy dodanie programowych zabezpieczeń, nie tylko na poziomie kontrolerów macierzy, ale także bezpośrednio na dyskach, a w zasadzie kartach Flash. Takie rozwiązanie można zaleźć w macierzach All-Flash firmy IBM pod nazwą FlashCore Module (FCM).

    Pojawienie się modułów FCM, a potem FCM 2.0 dla wielu specjalistów było nie tylko ewolucją, bo w wielu aspektach mamy tu do czynienia z rewolucją. Niemniej jedno jest pewne – to technologia przyszłościtwierdzi Konrad Puchała z Advatech.

    Co ciekawe, IBM jest jedynym producentem pamięci masowych, który ma w swojej ofercie własne moduły Flash z interfejsem NVMe, które udostępniają szyfrowanie i kompresję danych już na poziomie karty Flash. Bezpieczeństwo danych poprawia także możliwość kryptograficznego kasowania danych. Jest to możliwe dzięki kartom IBM FlashCore Module Cryptograhic Erase. 

    IBM jako pierwszy i nadal jeden z niewielu, stosuje mechanizmy NVMeoF, które umożliwiają transfer danych między komputerem a dyskiem SSD za pośrednictwem sieci, takiej jak Ethernet, Fibre Channel (FC) czy InfiniBand, w protokole NVMe End-To-Endmówi Konrad Puchała, Advatech.

    Advatech

     

    W obrębie pojedynczej karty FCM użytkownik ma wbudowane mechanizmy Variable Stripe RAID, które gwarantują wysoką wydajność oraz odporność na uszkodzenia i efekt starzenia się modułów pamięci. Wysoki poziom ECC (Error Correction Code) gwarantuje niską podatność na błędy, a duży współczynnik kompresji danych w locie oznacza większą dostępną przestrzeń użytkową. Szyfrowanie danych w standardzie FIPS140-2 zapewnia ich bezpieczeństwo na poziomie istotności. To nie koniec listy zalet, bo dodatkowa niewidoczna przestrzeń skraca czas odpowiedzi macierzy, a same dyski klasy enterprise mają wysoki współczynnik DWPD (Drive Writes Per Day).

    Innowacyjność takich rozwiązań znajduje swoje potwierdzenie w decyzjach zakupowych. Jak pokazuje raport IDC Quarterly Enterprise Infrastructure Tracker, 2020 Q1, w Polsce ponad 25% klientów zaufało technologii IBM All-Flash, a co za tym idzie, postawiło także na niezawodność, wydajność, mniejsze zużycie energii elektrycznej oraz brak konieczności używania dedykowanych szaf rackowych.

    Dla specjalistów ważne są także szczegóły takie, jak czas odpowiedzi, szybkość, transfer, jego zmienność w zależności od zajętości macierzy. W odróżnieniu od większości dostępnych na rynku macierzy SSD/Flash, macierze IBM z modułami FCM gwarantują stałą przepustowość i czas odpowiedzi aż do poziomu 95% zajętości całej dostępnej pamięci.

    IBM zadbał także o niskopoziomowe mechanizmy optymalizacji użycia pamięci – Heat Segregation troszczy się o ograniczenie użycia procesu Garbage Collectora kierując gorące dane do gorących bloków, a zimne do zimnych. Heat Segregation przesuwa gorące dane do „zdrowych”, a zimne – do bloków „zagrożonych”.

    Wybierając systemy pamięci masowych, warto zwrócić uwagę na jeszcze jeden bardzo istotny parametr – czas przebudowy dysku po awarii. Tu przewaga macierzy z modułami FCM jest aż za nadto widoczna – przebudowa zwykłego dysku SSD RI o pojemności 3,84 TB zajmuje tyle samo czasu co dysku 19,2 TB z modułem FCMtwierdzi Konrad Puchała, specjalista z Advatech. 

    Przy zastosowaniu bezstratnej i bezpiecznej kompresji, pojedyncze moduły FCM osiągają pojemności aż do 38,4 TBu / 87,96 TBe, co ma wielkie znaczenie dla osiągania wysokiej wydajności i pełnego wykorzystania możliwości technologii NVMe.

    Jakie rewolucyjne zmiany przyniesie rok 2021? Nie wiadomo, zobaczymy. Warto w każdym razie pochylić się nad tym, co już mamy i w pełni wykorzystać możliwości dostępnej technologii informatycznej.

  • Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Przewiduje się, że za pięć lat ilość danych zwiększy się 10-krotnie. Już dziś pandemia przyspiesza proces zbierania i wykorzystywania danych, a nakładają się na to także rosnące wymagania cyfrowej gospodarki, rozwój sztucznej inteligencji oraz Big Data. To wszystko sprawia, że firmy stanęły przed dużymi wyzwaniami w zakresie infrastruktury IT. Choć sama pandemia i konieczność pracy zdalnej wymusiła zmiany bardziej w zakresie łączności internetowej, narzędzi do komunikacji czy zdalnego dostępu, to obecne wyzwania łączą się także z potrzebą przechowywania i przetwarzania coraz większej ilości danych. Dla firm kluczowy jest bezpieczny i szybki dostęp do nich, a także skalowalność rozwiązań do ich przechowywania.

    – Pandemia i związana z nią praca zdalna z pewnością wymusza na firmach zmiany w infrastrukturze IT. Najważniejszymi kwestiami były jednak wprowadzenie zmian w systemach zdalnego dostępu, wzmocnienie bezpieczeństwa dostępu, zapewnienie płynności połączeń, szczególnie na spotkaniach online. Istotne jest także zapewnienie platformy do pracy grupowej na dokumentach dla całych zespołów czy działów podkreśla Andrzej Syta, presales manager w GoldenOre.

    Z badania przeprowadzonego na zlecenie Gumtree.pl wynika, że przed pandemią SARS-CoV-2 tylko 19 proc. pracowników w Polsce wykonywało swoją pracę głównie w trybie zdalnym, a 29 proc. miało taką możliwość przez kilka dni w miesiącu. Koronawirus zmienił te statystyki. W pierwszych tygodniach marca tysiące polskich pracowników i firm niemal z dnia na dzień musiało przejść w tryb pracy zdalnej. Pod koniec kwietnia ponad 3/4 pracowników umysłowych w Polsce pracowało w tym modelu. Z badania „Odmrażanie pracy” CIONET, Deloitte i VMware wynika z kolei, że blisko 90 proc. firm chce zwiększyć możliwość pracy spoza biura po ustaniu pandemii.

    – Popularność pracy zdalnej to dla firm całkiem korzystna sytuacja ze względu na zmniejszenie kosztów obsługi i wynajmu przestrzeni biurowej, dla pracowników to z kolei oszczędność czasu na dojazdach wskazuje Andrzej Syta. – Do utrzymania pracy zdalnej bardzo istotne jest połączenie internetowe. Nie możemy jednak zapominać o systemach do pracy rozproszonej, odpowiednich narzędziach do komunikacji dla pracowników czy do zarządzania środowiskiem klienta dla administratorów.

    – IBM Storage Insight to narzędzie do zarządzania zasobami dyskowymi – dzięki niemu możemy uzyskać lepsze wykorzystanie zasobów, zmniejszyć utylizację przechowywanych danych, mieć pełny monitoring na nowoczesnych dashboardach, a także szybciej reagować na problemy i potencjalne awarie. Storage Insight umożliwia zarządzanie rozwiązaniami różnych producentów. W czasie pracy zdalnej pozwala administratorowi np. na dostęp do jednego panelu sterowania i zarządzanie wszystkimi danymi organizacji z dowolnego miejsca – domu, hotelu czy kawiarni – dodaje Jakub Grzywacz, solution architect w GoldenOre.

    Oparte na chmurze IBM Storage Insights umożliwia zdalne monitorowanie pamięci masowej i powiadamianie o zdarzeniach wymagających uwagi. Pracownik z działu IT ma do dyspozycji panel kontrolny, by w odpowiednim czasie podejmować stosowne działania i przesyłać dane szybciej i wydajniej. Można tego dokonywać także zdalnie, co jest istotne zwłaszcza w czasie pandemii koronawirusa. Rozwiązanie w wersji Pro, które tymczasowo IBM udostępnia bezpłatnie wszystkim użytkownikom wersji podstawowej, opiera się na algorytmach sztucznej inteligencji i analizie predykcyjnej.

    Firmy coraz chętniej sięgają po rozwiązania z zakresu sztucznej inteligencji i Big Data. Według raportu Instytutu Badawczego Capgemini z lutego br. ponad 50 proc. największych światowych producentów w Europie wdraża co najmniej jedno rozwiązanie z obszaru sztucznej inteligencji. Wymaga ona jednak zbierania i przetwarzania ogromnej ilości danych, co z kolei wymusza na firmach także inwestycje w miejsce do ich przechowywania.

    – W bardziej skutecznym zarządzaniu danymi w firmie pomagają np. pamięci masowe IBM FlashSystem. Optymalizują infrastrukturę IT i zapewniają w prosty i bezpieczny sposób dostęp do potrzebnych danych w prywatnej chmurze lub środowisku wielochmurowym. Zastosowane w projektach związanych ze sztuczną inteligencją zapewniają wydajność, elastyczność i skalowalność mówi Jakub Grzywacz.

    Ilość danych rośnie w ogromnym tempie. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 zetabajtów w ubiegłym roku do 175 w 2025 roku. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.

    Większa ilość danych to wyzwanie dla firm, które muszą inwestować w dyski i serwery o coraz większej pojemności. Rozwiązaniem może być jednak także kompresja danych.

    – Rozwiązania IBM FlashSystem są skalowalne, co pozwala na przechowywanie większej ilości danych i dopasowanie ilości i rodzaju pamięci masowej w zależności od potrzeb. Przechowywanie większej ilości danych na mniejszej ilości sprzętu odbywa się z nawet pięciokrotną redukcją danych, szczególnie z wykorzystaniem modułów NVMe FCM oferujących kompresję bez wpływu na wydajność tłumaczy solution architect w GoldenOre. – Elastyczna i skalowalna platforma o wysokiej wydajności pozwala na łatwe, szybkie wdrożenie i dostosowanie infrastruktury IT naszych klientów do potrzeb zmieniającego się otoczenia – bez wielkich nakładów budżetowych.

    Rodzina pamięci masowych FlashSystem składa się z wielu modeli o różnych parametrach, które mogą być dopasowane do potrzeb zarówno małych, jak i dużych firm. W doborze najlepszych rozwiązań do istniejącej infrastruktury IT oraz strategii i budżetu firmy specjalizuje się GoldenOre.

  • Rok 2021 będzie rokiem pamięci nieulotnych – wywiad z Mateuszem Maciejewskim i Tomaszem Brzozowskim

    Rok 2021 będzie rokiem pamięci nieulotnych – wywiad z Mateuszem Maciejewskim i Tomaszem Brzozowskim

    Jak ciągłość działania wpływa na funkcjonowanie organizacji i ich rentowność? Jakie rozwiązania mogą zwiększyć efektywność gromadzenia i przetwarzania danych? I dlaczego pamięć nieulotna, choć nie jest rozwiązaniem nowym, nie jest (jeszcze) popularna? Na te i inne pytania w rozmowie z Przemysławem Kucharzewskim odpowiadają Mateusz Maciejewski, HPE oraz Tomasz Brzozowski z firmy SE16N.

    Przemysław Kucharzewski, BrandsIT: Dzisiaj moimi gośćmi są Mateusz Maciejewski z HPE oraz Tomasz Brzozowski z firmy SE16N. Porozmawiamy na temat nowych technologii stosowanych w firmach i zmieniających się czynnikach wpływających na ich funkcjonowanie. Moje pierwsze pytanie dotyczy prowadzenia biznesów, które opierają się na zastosowaniu technologii informatycznych, a te odgrywają coraz większą rolę. Jesteście specjalistami z zakresu ciągłości działania, stąd pytanie – jak ciągłość działania wpływa na funkcjonowanie organizacji i na ich rentowność?

    Tomasz Brzozowski: W dzisiejszych czasach ciągłość działania jest krytycznym czynnikiem funkcjonowania biznesu, tym bardziej, że biznes coraz bardziej się digitalizuje. Mamy wiele przykładów firm z sektora e-commerce czy firm produkcyjnych, które działają w trybie 24/7, gdzie nawet małe okno serwisowe powoduje duże straty finansowe lub ryzyko, że ten biznes zostanie zachwiany, dlatego zastosowanie technologii takich jak PMEM, które ograniczają długie przerwy w działaniu systemów informatycznych, jest, według mnie, bardzo ważnym rozwiązaniem.

    BrandsIT: Jakich jeszcze branż w sposób szczególny dotyczy ciągłość działania?

    Tomasz Brzozowski: Wszystkie branże, które uzależnione są od systemów informatycznych i nie mogą sobie pozwolić na to, żeby mieć przestój w działaniu. Każde przedsiębiorstwo, które wchodzi na pewien poziom rozwoju technologicznego, czy jest to logistyka, czy jest to retail, czy jest to nawet sektor publiczny. Wszędzie tam, gdzie jest udostępniana jakaś usługa online, to jest to krytyczne z punktu widzenia dostępności systemu dla użytkowników czy klientów.

    Mateusz Maciejewski: W dzisiejszych czasach ciągłość działania IT wpływa nie tylko na kondycję finansową przedsiębiorstw, ale jest nierzadko kluczowa dla przetrwania organizacji. Często podkreślamy, że żyjemy w czasach „idea economy”, czyli takiej gospodarki pomysłów, gdzie sukces odnosi się nie tylko, gdy wpadnie się na świetny pomysł, ale przede wszystkim wtedy, kiedy wprowadzi się ten innowacyjny produkt w odpowiednim czasie czy odpowiednio szybko. Jeśli nasza organizacja nie ma sprawnie działającego IT i tym samym nie zapewni ciągłości przetwarzania, to możemy po prostu przestać istnieć na rynku. Musimy być gotowi nie tylko na klęski żywiołowe czy cyberataki, ale także na jakieś mniejsze incydenty. Mówiąc wprost: nasze IT musi działać w trybie 24/7, jeśli chcemy przeżyć na tym dzisiejszym rynku.

    BrandsIT: Ja dodałbym, że przestój organizacji dodatkowo oznacza utratę wizerunku, bo przestój w funkcjonowaniu systemu czy to e-commerce czy banku, oznacza odwrócenie się klientów. Od mniej więcej dekady uznaje się, że złotem, czy też walutą XXI wieku są dane. Czy zgadzacie się z tym stwierdzeniem, że dane są w tej chwili najważniejsze w gospodarce?

    Tomasz Brzozowski, SE16N
    Tomasz Brzozowski, SE16N

    Tomasz Brzozowski: Tak, jest to świetne określenie, a ja twierdzę nawet, że mamy wręcz „gorączkę złota”, bardzo podobną do tej, która miała miejsce na świecie blisko dwa wieki temu, tylko, że złotem teraz nie jest ten drogocenny kruszec, tylko dane. I co ciekawe, tak jak około 200 lat temu, wzbogacali się nie ci, którzy wydobywali złoto, a ci, którzy potrafili wykorzystać sytuację. Dwieście lat temu fortunę zbijali ludzie, którzy dostarczali poszukiwaczom złota to, co było im potrzebne: żywność, odzież, alkohol, a świetnym przykładem jest firma Levi Strauss, która powstała właśnie w tym okresie. Tak samo dzisiaj – firmy, które potrafią wykorzystać dane, które w mądry, innowacyjny sposób potrafią zrobić z nich użytek, wygrywają. Budują wielkie organizacje i zdobywają fortuny. Proszę pamiętać, że tymi danymi też się dzisiaj handluje na rynku, tak jak kiedyś złotem.

    BrandsIT: Faktem jest, że ilość danych rośnie wykładniczo. Czy technologie IT nadążają za tym wzrostem danych, tak żeby je przetwarzać w sposób optymalny, w odpowiednim czasie, zapewniając ich jakość i dostępność w połączeniu z aspektem kosztowym?

    Mateusz Maciejewski: Uważam, że technologia nie nadąża za wzrostem ilości danych: od około trzech lat ilość danych nie rośnie już liniowo, a wykładniczo. Moim zdaniem, głównie w obszarze systemów pamięci masowych, nie jesteśmy gotowi na eksplozję ilości danych. Dyski SSD, czy nawet NVME są stosowane od lat, uważam jednak, że to za mało, żeby te technologie pozwoliłyby osiągnąć nam przewagę na rynku, dlatego potrzebujemy czegoś szybszego.

    Tomasz Brzozowski: Powiedziałbym, że wyścig trwa i giganci technologiczni z Doliny Krzemowej cały czas pracują nad tym, żeby dostarczać nam nowe rozwiązania do przetwarzania danych: bazy danych in memory, takie jak platforma SAP HANA, które starają się przetwarzać dane w czasie rzeczywistym, jak również rozwiązania do gromadzenia danych w chmurze publicznej, które oferują coraz większe zasoby pozwalając firmom na składowanie coraz większej ilości danych.

    BrandsIT: Z tego co mówicie, wynika, że nie do końca jesteśmy gotowi na taką ilość danych jaka jest generowana i ma to wpływ na funkcjonowanie firm. Czy jest jakieś rozwiązanie na chwilę obecną?

    Mateusz Maciejewski: Chcemy te dane przetwarzać jak najszybciej, a jest to możliwe w pamięci – tutaj Tomek wspomniał o bazach danych „in memory”, przy czym musimy pamiętać, że pamięć RAM ma jedną zasadniczą wadę w kontekście przetwarzania: mianowicie jest ulotna, więc jeżeli dojdzie do awarii sprzętu czy też stracimy zasilanie, to tracimy również wszystkie dane, które w tej pamięci się znajdują. Musimy też pamiętać o tym, że tych danych jest naprawdę wiele, są to czasami nawet dziesiątki terabajtów w jednej bazie.

    Jakiś rok temu na rynku pojawił się nowy nośnik danych – nowa pamięć, którą można spozycjonować w kontekście szybkości działania między dyskami SSD a pamięciami DRAM. Jest ona dużo szybsza niż dyski SSD czy NVME, a prawie tak szybka jak pamięć DRAM, a ma jedną zasadniczą, wręcz przełomową, zaletę, czyli nieulotność. I to rozwiązanie idealnie wpisuje się w obecną sytuację, czyli eksplozję ilości danych, gdzie są one tym przysłowiowym „złotem XXI wieku”.

    Tomasz Brzozowski: Jeśli moglibyśmy wrócić do tematu baz danych „in memory”, to w moim odczuciu, to co zrobiła firma SAP, czyli uruchomienie nowych systemów ERP – S/4HANA w oparciu o bazy in memory, spowodowało niesamowity rozwój biznesu IT. Nagle wszyscy dostawcy infrastruktury zaczęli certyfikować swoje serwery dla platformy SAP HANA. Firma Intel dostarcza najnowsze „klocki” tak jak PMEM. A SAP wykorzystuje te nowinki technologiczne w swoich rozwiązaniach.

    BrandsIT: Intel Optane DC PMEM, czyli Persistent Memory, o której mówimy, nie jest taką nową technologią, bo już jakiś czas egzystuje na rynku, więc skoro ma same zalety, dlaczego nie jest stosowana w sposób masowy?

    Mateusz Maciejewski, HPE
    Mateusz Maciejewski, HPE

    Mateusz Maciejewski: Moim zdaniem jest to jedna z najbardziej niedocenianych technologii na świecie, jest przełomowa i pozawala bardzo szybko przetwarzać dane, zapisywać je trwale na nośniku. Ciężko mi odpowiedzieć na pytanie, dlaczego PMEM nie upowszechniło się – mogę się tylko domyślać, że początkowo były to aspekty ekonomiczne, gdyż pierwsze ceny tych pamięci mogły okazać się nieatrakcyjne. To zapewne spowodowało wolniejszą adopcję tej technologii i mniej przykładów wdrożeń, które zachęciły by innych do wejścia w tę technologię. Spodziewam się jednak, że następny rok może należeć do pamięci nieulotnej i przynieść znaczący wzrost jej popularności.

    Moduł pamięci PMEM wygląda identycznie jak moduł pamięci DRAM, montowana jest w sloty DIMM, tak żeby być jak najbliżej procesora, co automatycznie pozwala na zwiększenie wydajności. Intel® Optane™ DC Persistent Memory działa w dwóch trybach: „Memory Mode” gdzie jest pamięcią ulotną poszerzając zasoby pamięci RAM. Pamięć ta występuje w modułach 128, 256 i 512GB. Drugi tryb to „App Direct”, w którym udostępniana jest ona jako ekstremalnie szybki dysk z bardzo małymi opóźnieniami, który jest prawie tak szybki jak pamięć RAM. Ten tryb obsługiwany jest przez system SAP HANA, o którym wspominaliśmy. To rozwiązanie ma szeroki zakres zastosowań, ponieważ większość wiodących systemów operacyjnych wspiera tę technologię mając zaimplementowane natywne mechanizmy obsługi tej pamięci: wirtualizator VMware, Microsoft, Red Hat, Suse Linux. Oprócz tego istnieje całkiem spora liczba aplikacji, które mają wbudowane mechanizmy natywne do obsługi tej pamięci, pozwalając wykorzystać ją jak najefektywniej.

    BrandsIT: Tomku, czy uważasz, że przyszłość SAP HANA to rozwiązania bazujące na PMEM?

    Tomasz Brzozowski: Myślę, że tak, ale musimy sobie zdawać sprawę, że pamięci PMEM nie są jeszcze tak bardzo popularne, ze względu na brak realnej konkurencji, gdyż liderem tej technologii jest Intel. SAP oczywiście korzysta z zalet, jaką ma Persistent Memory i przynosi to rewelacyjne efekty, ponieważ duże systemy, które przekraczają 4-6TB, jesteśmy w stanie zrestartować kilkanaście razy szybciej. Oznacza to, że jeden restart systemu, który ma 6TB trwa około 40 minut, natomiast z użyciem technologii Intel Optane, jesteśmy w stanie zejść poniżej 4 minut. Wydaje mi się, że nowa technologia będzie szeroko wykorzystywana przez klientów SAP-a. Na pewno na początku będą to klienci posiadający większe instalacje, docelowo, jeśli producenci sprzętu będą te pamięci stosować w swoich rozwiązaniach, trafi ona do mniejszych organizacji.

    BrandsIT: Nasuwa się pytanie, jak dużo droższe są systemy z technologią Intel® Optane™ DC Persistent Memory względem tradycyjnych systemów? I chodzi mi tutaj o kompletne systemy.

    Mateusz Maciejewski: Paradoksalnie pamięć PMEM jest w większości przypadków tańsza – odnoszę się to dzisiejszego cennika HPE. Na przykład, moduł pamięci PMEM o pojemności 256GB kosztuje tyle samo co moduł 128GB pamięci DRAM. Zastosowanie pamięci nieulotnej może więc nie tylko nieść za sobą korzyści techniczne, ale także ekonomiczne.

    BrandsIT: Odnoszę wrażenie, że brakuje czy brakowało informacji na temat tej technologii, tak jakby zabrakło edukacji rynku. Czy to też powód, dla którego ta technologia nie upowszechniła się?

    Tomasz Brzozowski: Uważam, że mało firm jest zainteresowanych nagłą zmianą technologii, jeśli wszystko „działa”. SAP HANA nakręca ogromny biznes dla producentów sprzętu, dla producentów pamięci, dla całego ekosystemu SAP-a, tak więc „granie” na jednego lidera rynku, jakim jest Intel, może nie wszystkim pasować. Myślę, że potrzeba trochę czasu, trochę konkurencyjności, lepszych parametrów ekonomicznych. Klienci SAP-a są coraz bardziej wymagający i oczekują ulepszeń, dlatego SAP wspiera ten rodzaj pamięci i wydaje mi się, że to kwestia jednego roku, gdzie wiodący producenci będą wspierać tę technologię.

    Mateusz Maciejewski: Względem pamięci PMEM, w czasie rozmów z klientami, pojawiają się pewne obiekcje, z którymi często jest trudno sobie poradzić. Kiedy opowiadam o systemie SAP HANA pracującym na serwerze z PMEM, klient zgłasza uwagę, że jest ona dziesięciokrotnie wolniejsza od pamięci RAM. Tak, to prawda, że pamięć nieulotna nie działa tak szybko jak DRAM, ale musimy pamiętać, że nadal mówimy tutaj o opóźnieniach na poziomie dziesiątek czy setek nanosekund. W wielu przypadkach szybkość działania PMEM będzie w zupełności wystarczająca. Jednak oczywiście to może być również bloker zmian, ponieważ klienci nie chcą czegoś zmieniać, co działa im w tej chwili dobrze. Prawda jest taka, że klienci chcą sprawdzić i żądają przeprowadzenia testów, aby przekonać się naocznie o realnych korzyściach ze stosowania nowej technologii. Klienci czasem wybierają droższy serwer z większą ilością procesorów czy pamięci, nie chcąc sprawdzać nowej, możliwe że też lepszej, technologii, ponieważ nierzadko nie mają na to po prostu czasu.
    Trzeba zaznaczyć też, że każda instalacja systemu SAP HANA na serwerze z PMEM powinna być poprzedzona analizą danych, jakie znajdują się w bazie tak, aby odpowiednio dobrać konfigurację sprzętu, gdyż tego typu wymiarowanie jest bardziej skomplikowane niż w przypadku serwerów z tradycyjną pamięcią DRAM.

    BrandsIT: Jakie jeszcze widzicie zastosowania tej technologii oprócz poprzednio wymienionych?

    Tomasz Brzozowski: Według mnie, w dużym stopniu beneficjentem tej technologii będzie rynek dostępu usług przez Internet, streaming video, streaming audio, czyli rozwiązania dające nam szybki dostęp do treści.

    BrandsIT: Myślę, że teraz jest czas na małe podsumowanie rozmowy.

    Mateusz Maciejewski: Przyszłość należy do pamięci nieulotnej. Ma ona tyle zalet, że po prostu to kwestia czasu zanim stanie się tak popularna jak dzisiaj dyski SSD czy NVMe. Mamy coraz więcej wdrożeń tej technologii potwierdzających korzyści, jakie zapewnia ona dla biznesu. Jednocześnie pamięci PMEM są bardzo atrakcyjne ekonomicznie. Dlatego uważam, że rok 2021 będzie rokiem pamięci nieulotnych.

    Tomasz Brzozowski: Pamięć PMEM jest teraz powszechnie stosowana u dostawców chmury publicznej: AWS, Microsoft Azure czy Google Cloud, co pokazuje, że jest to słuszny kierunek zmian. Skoro najwięksi dostawcy mocy obliczeniowej uwierzyli w to rozwiązanie, oznacza to, że czeka nas upowszechnienie technologii PMEM.

    BrandsIT: Dziękuję za rozmowę.

  • Pamięć nieulotna, czyli trwały i ekonomiczny sposób na przyspieszenie biznesu

    Pamięć nieulotna, czyli trwały i ekonomiczny sposób na przyspieszenie biznesu

    Dane to współczesna ropa naftowa – napędzają całą światową gospodarkę. Kto ma do nich dostęp, wie gdzie i jak je pozyskiwać oraz przetwarzać, widzi więcej, dostrzega to, co dla innych pozostaje niewidoczne i może dominować i błyskawicznie się bogacić. Żeby taki scenariusz mógł się zrealizować potrzebna jest jednak odpowiednia technologia. Co to znaczy „odpowiednia”? Przede wszystkim jak najszybsza i względnie tania. Taka jest właśnie pamięć Intel Optane DC Persistent Memory.

    Eksplozja danych to nie mit. Każdy z nas codziennie generuje ogromne ilości danych a przecież nie jesteśmy jedyni – są jeszcze maszyny, czujniki i coraz śmielej wkraczająca do naszej rzeczywistości sztuczna inteligencja. Z biznesowego punktu widzenia dane to czyste złoto. Gromadząc dane i analizując je można lepiej rozumieć przeszłość, podejmować decyzje dotyczące teraźniejszości a nawet – i to całkiem skutecznie – przewidywać przyszłość. Nie trzeba tłumaczyć, że jeśli dysponujemy taką precyzyjną wiedzą na temat otoczenia w jakim działamy, konkurowanie jest znacznie łatwiejsze. Co więcej, jeśli mamy przewagę na tym polu, jesteśmy w stanie szybko, skutecznie i trwale budować przewagę na rynku. Właśnie dlatego dostawcy technologii IT inwestują ogromne środki w prace badawczo rozwojowe skoncentrowane wokół danych – ich gromadzenia, przechowywania, przetwarzania i analizowania.

    Zapotrzebowanie na tego typu nowoczesne narzędzia jest ogromne. Każdy biznes, który na poważnie chce wykorzystywać dane do osiągania sukcesu, mu zmierzyć się przede wszystkim z dynamicznie powiększającymi się zbiorami danych. Następnie z oceanów danych trzeba wyławiać te, które mają znaczenie – przy tym czasem trudno nawet przewidzieć, jakie dane mogą stanowić o przełomie w jakiejś dziedzinie. Wreszcie kluczowe staje się zapewnienie szybkiego dostępu do danych. W dzisiejszym stale przyspieszającym świecie informacja potrzebna jest tu i teraz. Jutro przydaje się już najczęściej historykom. A tempo wzrasta: coraz częściej liczą się nie dni, ale godziny czy minuty. Menedżerowie muszą coraz szybciej podejmować decyzje i oczekują informacji a nawet rekomendacji w czasie rzeczywistym.

    „Policzono, że obecnie na świecie mamy około 44ZB danych. Co ciekawe, trzy lata temu było ich aż trzykrotnie mniej. Przyrostowi danych na świecie nie towarzyszy niestety odpowiedni wzrost mocy obliczeniowych naszych systemów przetwarzania. To m.in. ten dynamiczny wzrost danych, a nawet można powiedzieć ich eksplozja, jaką obserwujemy przez ostatnie lata, powoduje, że wciąż poszukujemy jeszcze bardziej wydajnych nośników”mówi Mateusz Maciejewski, Presales Technical Consultant w firmie HPE.

    Przełomowa synteza

    Przez długi czas źródłem przyspieszenia były technologie dysków SSD i NVMe. Jednak z czasem ich potencjał się wyczerpał. Potrzeba było nie ilościowego, ale jakościowego przełomu, który zapewniłby prawdziwy skok. Taki przełom stanowiła idea przetwarzania danych w pamięci DRAM (Dynamic Random-Access Memory). Niestety – jak to bywa z rewolucjami – cena jaką trzeba było za nią zapłacić jest wysoka. Do tego, w tym wypadku, istnieje jeszcze jeden problem: ulotność. Nie tylko bowiem cena pamięci operacyjnej jest wysoka, ale też wyłączenie urządzenia powoduje utratę zapisanych informacji.

    Potrzebna więc była synteza i dokonał jej ponad rok temu Intel, który wprowadził nową klasę układów pamięci łączących w sobie szybkość zbliżoną do pamięci DRAM z trwałością typową dla dysków twardych, SSD czy NVMe. Do tego charakteryzują się one dużo niższymi kosztami jednostkowymi w porównaniu do standardowej pamięci ulotnej. Ta przełomowa technologia nazywa się Intel® Optane™ DC Persistent Memory (Intel® Optane™ DC PMEM).

    Co zmienia nowa technologia? Przede wszystkim pozwala szybciej wydobywać informacje z większej liczby danych niż pozwalały na to tradycyjne technologie dyskowe. Dzięki temu zaś, że układy Intel® Optane™ DC PMEM można instalować w gniazdach DIMM, mogą one pełnić rolę zamiennika standardowej pamięci operacyjnej. W efekcie możliwe stało się rozwiązanie większości kluczowych problemów wynikających z różnic między pamięcią operacyjną i masową.

    „Intel® Optane™ PMEM może pracować w dwóch trybach. Pierwszy z nich to AppDirect, w którym staje się ona ekstremalnie szybkim i nieulotnym dyskiem. Drugi tryb to Memory Mode – pamięć widoczna jest w systemie jako tradycyjna pamięć RAM. Oczywiście, dostępny jest też mieszany model wykorzystania układów, gdzie część pamięci działa w jednym, a część w drugim trybie”tłumaczy Mateusz Maciejewski.

    „Do efektywnego wykorzystania Intel® Optane™ PMEM niezbędne jest spełnienie dwóch warunków. Pierwszym jest użycie procesorów Intel najnowszej generacji, czyli Cascade Lake i Cascade Lake Refresh. Drugim – zastosowanie również standardowej pamięci RAM z obsadzeniem w określony sposób w slotach DIMM – szczegółowe reguły tego dotyczące udostępnia Intel lub producent serwera”dodaje Mateusz Maciejewski.

    Potencjał zrealizowany

    HPE było jednym z pierwszych dostawców technologii, którzy dostrzegli ogromny potencjał pamięci Persistent Memory i wprowadzili ją do swojej oferty. Co więcej, firma dostarcza użytkownikom specjalne narzędzia, która ułatwiają wykorzystanie nowych możliwości i zarządzanie pamięcią m.in. HPE Persistent Memory Management Utility, oprogramowanie, które umożliwia zdalne konfigurowanie sposobu działania pamięci w serwerze.

    Zarówno na świecie jak i w Polsce zainteresowanie tymi produktami rośnie. Trudno się dziwić, ponieważ pamięć Intel® Optane™ w cenniku HPE może być nawet o połowę tańsza niż tradycyjna pamięć DRAM. Moduł Intel® Optane™ DC PMEM 256 GB można mieć w cenie standardowej pamięci operacyjnej o pojemności 128 GB.

    To tylko jedna – i wcale nie najważniejsza – z przyczyn, dla których coraz więcej organizacji decyduje się na wykorzystanie pamięci nieulotnej. Firma Cerner, dostawca sprzętu medycznego, serwerów oraz usług przetwarzania danych dla branży medycznej, która obsługuje dziesiątki tysięcy placówek ochrony zdrowia na całym świecie, postawiła na serwery HPE z pamięcią Intel® Optane™ DC PMEM oraz dyskami Intel® Optane™ SSD, które zapewniają niskie opóźnienia, dużą szybkość działania a przy tym ich żywotnością przewyższa wielokrotnie technologie NAND.

    Efekt? Nie tylko wzrost wydajności, ale także możliwość zwiększenia liczby maszyn wirtualnych na pojedynczym serwerze, co oznacza np. obniżenie kosztów w przeliczeniu na jedną maszynę. Ciekawe jest także to, że Cerner poza technologiami HPE i Intela wykorzystuje oprogramowanie VMware vSAN. Ich połączenie pozwoliło na budowę kompletnego środowiska infrastruktury hiperkonwergentnej. W ten sposób firma zapewniła sobie skalowalną i wydajną platformę przechowywania i przetwarzania danych w bardzo bezpieczny sposób.

    Z kolei firma Agoda, operator platform do rezerwacji hoteli, wykorzystał serwery HPE z procesorami Intel Xeon Scalable oraz technologią Intel® Optane™ DC PMEM do przyspieszenia operacji związanych z rozpoznawaniem zdjęć oraz obsługą algorytmów uczenia maszynowego. Dodatkowym zyskiem była możliwość ograniczenia zapotrzebowania na pamięć operacyjną, której uwolnione zasoby przydają się do obsługi operacji kluczowych dla funkcjonowania organizacji.

    Co ciekawe, z podobnego serwera udostępnionego przez Intela na początku pandemii COVID-19 korzysta Uniwersyteckie Centrum Kliniczne (UCK) w Gdańsku. Umożliwia on zdalny dostęp do usług i serwisów UCK, dzięki czemu pracownicy mogli i mogą pracować z domu a przetwarzanie danych przyspieszyło do poziomu nieosiągalnego wcześniej.

    Kluczowe scenariusze

    Powyższe przykłady pokazują, jak bardzo uniwersalna jest to technologia. Niemniej warto zwrócić uwagę w szczególności na dwa scenariusze. Pierwszy z nich to SAP HANA, baza danych umożliwiająca przetwarzanie danych w pamięci operacyjnej, dzięki czemu odbywa się to w czasie rzeczywistym. Każdy użytkownik SAP HANA poszukuje serwera z maksymalną wielkością pamięci. To oczywiście oznacza zwiększenie kosztów: jeden moduł pamięci RAM o pojemności 256GB kosztuje ponad 50 tys. zł. I tutaj Intel® Optane™ DC PMEM okazała się prawdziwym przełomem. Wprowadzenie obsługi tej technologii w trybie App Direct przez SAP HANA pozwoliło znacznie zmniejszyć na zapotrzebowanie względem pamięci RAM i obniżyć koszty. W jaki sposób? Nawet 90% danych pozostaje w pamięci nieulotnej, a tylko aktualnie przetwarzane transakcje trafiają do pamięci operacyjnej.

    „Zwiększenie pojemności szybkiej pamięci to tylko jedna z zalet Intel Optane DC PMEM.Unikalną cechą SAP HANA jest to, że baza danych pracuje w pamięci RAM i tam jest przetwarzana. Przy każdym uruchomieniu bazy – wywołanym planowanym lub nieplanowanym wyłączeniem serwera – jest ona ładowana z dysków do pamięci RAM. W przypadku zastosowania Intel Optane DC PMEM proces startu bazy znacząco się skraca, bo ok. 90% danych znajduje się już w nieulotnej pamięci. Dla wielu klientów to właśnie ta cecha Intel Optane DC PMEM – czyli nieulotność – może być najważniejszą, decydującą o wybraniu właśnie tej technologii”podkreśla Mateusz Maciejewski.

    Drugi scenariusz, na który warto zwrócić uwagę to wirtualizacja z wykorzystaniem oprogramowania VMware. Pamięci Intel® Optane™ można wykorzystać w roli nośnika danych lub pamięci operacyjnej.

    „Wirtualizator VMware vSphere od wersji 6.7 obsługuje obydwa tryby działania nowej pamięci Intel® Optane™ PMEM. Daje to klientom już dziś gwarancję możliwości skorzystania z tej technologii w obszarze budowy tańszych rozwiązań chmurowych oraz przyspieszenie przetwarzania z wykorzystaniem jej jako storage dla aplikacji”mówi Andrzej Szymczak, Senior Solutions Engineer w VMware Polska.

    „Posiadanie takich rozwiązań daje realną przewagę konkurencyjną oraz przygotowuje na kolejne wyzwania technologiczne, które mogą pojawić się w przyszłości. Wszyscy dobrze wiemy, że zakup infrastruktury sprzętowej amortyzowany jest średnio od 3 do 5 lat, także warto już na starcie zainwestować w odpowiednią technologię w swojej firmie”dodaje Andrzej Szymczak.

    Przykładowo w środowisku zwirtualizowanym VMware może dzięki temu działać SAP HANA. Intel® Optane™ DC PMEM przydaje się także w obszarze wirtualizacji desktopów (VDI) z wykorzystaniem VMware Horizon. Ilość pamięci RAM na serwerze fizycznym determinuje liczbę maszyn VDI, które można uruchomić. Dzięki wykorzystaniu pamięci Intel® Optane™ DC PMEM można zmniejszyć całkowity koszt wirtualizacji VDI: z jednej strony mniejsze są koszty zakupu serwera, a z drugiej – na serwerze można uruchomić więcej wirtualnych desktopów. Do tego dochodzi wzrost komfortu pracy użytkownika bez zwiększania budżetu na VDI. Ostatecznie, przecież o to właśnie chodzi w IT: żeby ciągle robić i osiągać więcej oraz przyspieszać biznes za mniej, czyż nie? Pod tym względem Intel® Optane™ DC PMEM to prawdziwy przełom.

    Weź udział w webinarium

    Zapraszamy do udziału w webinarium, podczas którego eksperci firm: VMware, Intel i HPE przybliżą szczegóły techniczne, zasady funkcjonowania oraz potencjał biznesowy technologii Intel® Optane™ DC PMEM.

    W agendzie webinarium, które odbędzie się 28.10.2020 o godz. 11:00 m.in.:

    ·      Dane to złoto XXI. Jak je chronić, a jednocześnie nie ograniczać możliwości efektywnego ich wykorzystania w czasie rzeczywistym?

    ·      Odpowiedź na pytanie, dlaczego właśnie teraz jest dobry czas na wykorzystanie potencjału technologii Intel® Optane™ DC PMEM?

    ·      Podsumowanie korzyści związanych z wykorzystaniem technologii Intel® Optane™ PC PMEM we współpracy z popularnymi środowiskami aplikacyjnymi i rozwiązaniami VMware.

    Pełna agenda oraz formularz dla osób zainteresowanych udziałem dostępne są na stronie: https://nowetechnologie-webinar.pl

  • NVMe SSD 980 PRO – Samsung zaprezentował swój najszybszy dysk

    NVMe SSD 980 PRO – Samsung zaprezentował swój najszybszy dysk

    Samsung Electronics zaprezentował swój pierwszy konsumencki dysk NVMe SSD oparty o standard PCIe 4.0 – model 980 PRO[1]. Architektura dysku oparta o szybszą magistralę sprawia, że nowy SSD oferuje odczyt i zapis sekwencyjny dochodzący odpowiednio do 7000 MB/s i 5000 MB/s. Dysk przeznaczony dla profesjonalistów i użytkowników, którym zależy na maksymalizacji wydajności najbardziej zaawansowanych komputerów stacjonarnych i laptopów.

    980 PRO to rozwiązanie zarówno dla zwykłych użytkowników, jak i profesjonalistów, którzy pracują z treściami w rozdzielczości 4K i 8K lub grają w zaawansowane graficznie gry. Wszystkie kluczowe komponenty, w tym kontroler Elpis, układ V-NAND i pamięć dynamiczna DRAM, zostały w całości opracowane przez firmę Samsung, aby w pełni wykorzystać potencjał PCIe 4.0. W efekcie 980 PRO oferuje odczyt i zapis sekwencyjny sięgające odpowiednio 7000 MB/s i 5000 MB/s oraz odczyt i zapis losowy wynoszące do 1000 K IOPS[2]. Tym samym nowy dysk jest dwukrotnie szybszy niż SSD PCIe 3.0 i nawet 12,7-krotnie szybszy niż SSD SATA.[3]

    Poza poprawioną wydajnością dysk oferuje też nowatorskie rozwiązania w zakresie utrzymania optymalnej  temperatury pracy, co dodatkowo zwiększa jego niezawodność. W większości wysokowydajnych dysków półprzewodnikowych NVMe do rozpraszania ciepła używa się dziś zewnętrznych, miedzianych radiatorów. Przy budowie Samsung 980 PRO wykorzystano niklową powłokę kontrolera oraz umieszczoną z tyłu dysku warstwę odprowadzającą ciepło. Pozwoliło to zachować kompaktową i smukłą formę SSD, jaką jest M.2, a dzięki autorskiej technologii Dynamic Thermal Guard, dysk utrzymuje optymalną temperaturę, co minimalizuje wahania wydajności urządzenia przy długotrwałym działaniu.

    Dysk NVMe SSD 980 PRO dostępny jest w kilku wersjach – modele 500GB i 1TB będą dostępne jeszcze w tym miesiącu, a sugerowana przez producenta cena detaliczna to odpowiednio 669 zł  i 1019 zł. Wersja o pojemności 250GB pojawi się natomiast na przełomie października i listopada, a model 2 TB zostanie wprowadzony do końca bieżącego roku. Przedsprzedaż rusza 23 września i potrwa do 18 października 2020 roku.

    [1] Znak NVM Express® jest zastrzeżonym znakiem towarowym NVM Express, Inc.
    [2] Wydajność może się różnić w zależności od wersji oprogramowania układowego SSD oraz sprzętu i konfiguracji. Pomiary wydajności są oparte na IOmeter 1.1.0. Wydajność zapisu mierzono przy włączonej technologii Intelligent TurboWrite. Wydajność zapisu sekwencyjnego po regionie Intelligent TurboWrite wynosi: do 500 MB/s (250 GB), 1000 MB/s (500 GB) i 2000 MB/s (1 TB).
    * Konfiguracja systemu testowego: AMD Ryzen 9, 3900X, 12-rdzeniowy procesor CPU@3,79 GHz, pamięć DDR4, 2666 MHz 16 GB x2, system operacyjny Windows 10 Pro 64 bity, Chipset-ASUS-X570-ROG CROSSHAIR VIII FORMULA.
    [3] Wyniki są oparte na porównaniu z szybkością odczytu sekwencyjnego dysków SSD PCIe 3.0 NVMe oraz SSD SATA firmy Samsung.
  • Lenovo Data Center Group wprowadza do oferty nowe usługi chmurowe

    Lenovo Data Center Group wprowadza do oferty nowe usługi chmurowe

    Lenovo Data Center Group (DCG) zapowiedziało wprowadzenie nowych i zmodernizowanych rozwiązań infrastruktury hiperkonwergentnej (HCI) oraz usług chmurowych Lenovo Cloud Services, które umożliwią zaspokajanie aktualnych potrzeb biznesowych klientów. Praca zdalna staje się elementem nowej rzeczywistości, dlatego firmy muszą dostosowywać swoje strategie związane z chmurą hybrydową i modernizować infrastrukturę centrów danych. Lenovo reaguje na te potrzeby, oferując niezrównaną, otwartą platformę rozwiązań HCI we współpracy z firmami Nutanix, Microsoft i VMware, a także zwiększa możliwości zarządzania systemami definiowanymi programowo przy użyciu Lenovo XClarity.

    Rozwiązania HCI nadają się doskonale do dostarczania infrastruktury desktopów wirtualnych (VDI), która zaspokaja potrzeby osób pracujących zdalnie w różnych branżach, takich jak edukacja czy służba zdrowia. Lenovo koncentruje się na gotowych do wdrażania rozwiązaniach HCI we współpracy z czołowymi w branży dostawcami oprogramowania dla chmury hybrydowej. Umożliwia to klientom wdrażanie pełnego środowiska od brzegu sieci po chmurę oraz zarządzanie nim przy użyciu prostszych aktualizacji, łatwej skalowalności oraz modelu rozliczeń opartego na wykorzystaniu zasobów.

    Nowe poziomy wydajności i efektywności komputerów użytkowników końcowych dzięki ThinkAgile HX z procesorami AMD EPYC™ i oprogramowaniu Nutanix™:

    Lenovo we współpracy z firmami Nutanix i AMD zapowiada nowe rozwiązania HCI Lenovo ThinkAgile HX z procesorami AMD EPYC, dzięki którym obciążenia desktopów wirtualnych mogą działać z zachowaniem konsekwentnej wydajności (w urządzeniu o takim samym formacie 1U), przy użyciu mniejszej o nawet 50% liczby serwerów. Mniejszy łączny koszt posiadania — dwugniazdowy węzeł Lenovo ThinkAgile HX AMD oferuje szeroki zakres liczby rdzeni procesora (2,3x więcej) odpowiednio do potrzeb aplikacji, po dwie karty graficzne na każdą jednostkę, a także o 45% większą przepustowość pamięci operacyjnej, co zapewnia znakomitą wydajność na potrzeby wirtualizacji i konsolidacji VDI.

    Zainstalowane fabrycznie oprogramowanie Nutanix zwiększa elastyczność klientów, którzy kontynuują migracje do chmury. Upraszcza ono zadania operacyjne, zwiększa gęstość obciążeń, wzmacnia zabezpieczenia danych oraz płynnie spaja różne chmury, oferując prawdziwie hybrydową architekturę.

    Dostępność rozwiązania jest planowana na koniec listopada w formie urządzenia lub certyfikowanego węzła.

    Lenovo XClarity to konsola do zarządzania rozwiązaniami Lenovo ThinkAgile HCI, która oferuje funkcje automatycznego wykrywania i zarządzania zasobami oraz aktualizacje firmware całego sprzętu oparte na politykach i niezależne od oprogramowania. Stanowi także interfejs do integracji narzędzi do zarządzania czołowych niezależnych dostawców oprogramowania, w tym vLCM.

    Rozwiązanie Lenovo ThinkAgile VX 4S oferuje dwukrotnie więcej pamięci na bazę danych SAP HANA oraz interfejs NVMe do bezpośredniego łączenia pamięci w celu skrócenia czasów reakcji, przyspieszenia uzyskiwania analiz biznesowych oraz zmniejszenia łącznych kosztów posiadania.

    Rozwiązanie to będzie dostępne jeszcze w tym miesiącu.

    Strategia związana z nową rzeczywistością inteligentnych technologii koncentruje się na modernizacji centrów danych oraz przełamywaniu dotychczasowych barier cyfrowych” — powiedział Kamran Amini, wiceprezes i dyrektor generalny ds. serwerów, pamięci masowej i infrastruktury zdefiniowanej programowo w Lenovo Data Center Group. „Nasza szeroka oferta obejmuje elastyczne i prekonfigurowane rozwiązania od brzegu sieci po chmurę hybrydową we współpracy z czołowymi dostawcami HCI, dzięki czemu klienci mogą korzystać z zalety chmury, takich jak elastyczność, skalowalność i efektywność kosztową. W przejściu na te rozwiązania pomogą klientom nasze warsztaty projektowania prowadzone przez wyspecjalizowanych inżynierów. Udział w nich można wziąć bez żadnych zobowiązań”. 

    Więcej informacji o podejściu Lenovo do modernizacji centrów danych można uzyskać na stronie https://www.lenovo.com/us/en/data-center/

  • OVHcloud dokonuje kolejnego przejęcia

    OVHcloud dokonuje kolejnego przejęcia

    Spółka OVHcloud poinformowała o przejęciu technologii amerykańskiego dostawcy oprogramowania do transmisji danych. Inwestycja pozwoli na usprawnienia oferowanych rozwiązań o wysokiej dostępności krytycznej dla przetwarzania baz danych, treści wideo czy zaawansowanych analiz wykorzystywanych w Big Data lub służących AI.

    W ślad za akwizycją OpenIO, lidera technologii oprogramowania do transmisji danych Object Storage, OVHcloud przejęło technologię oraz zespół firmy EXTEN Technologies, specjalizującej się w oprogramowaniu do transmisji danych NVMe over Fabrics. NVMe‑oF jest to mechanizm przesyłania danych między komputerem i dyskiem SSD za pośrednictwem sieci, takich jak Ethernet, Fibre Channel (FC) czy InfiniBand. Specyfikacja NVMe over Fabrics ułatwia bezpośrednią komunikację maszyny z inną i wzajemną wymianę danych za pośrednictwem szybkich połączeń sieciowych. Technologia EXTEN Technologies ułatwi OVHcloud stworzenie oferty zaawansowanych rozwiązań pamięci masowych z zachowaniem odpowiedniej relacji wydajności do ceny.

    Firma EXTEN, z siedzibą w Austin w Teksasie, jest pionierem w dziedzinie oprogramowania do transmisji danych NVMe Over Fabrics (NVMe-oF), posiadającym ponad 20 zgłoszonych patentów. Technologia EXTEN oferuje możliwość budowy znakomitej platformy pamięci masowej, która zastępuje lokalne dyski NVMe elastycznymi i wydajnymi rozwiązaniami odpornymi na błędy.

  • Rynek SSD w Polsce

    Rynek SSD w Polsce

    Mimo dużych spadków cen dysków SSD w 2019 roku i trudnej sytuacji rynkowej, która jest następstwem pandemii COVID-19 wartość rynku sprzedaży dysków półprzewodnikowych cały czas rośnie. Potwierdzają to m.in. wyniki raportu przygotowanego przez firmę badawcza GfK Polonia na zlecenie Samsung Electronics Polska, wg. którego w ujęciu rocznym (od czerwca 2019 do czerwca 2020) wartość polskiego rynku SSD wzrosła o 3 proc mimo spadku liczby sprzedanych dysków o prawie 12 proc. Wpływ na to ma m.in. większe zainteresowanie dyskami o dużych pojemnościach, powyżej 500 GB i tych opartych o technologię NVMe, które charakteryzują się bardzo szybkim transferem danych.
    Analiza rynku SSD w Polsce, opracowana na podstawie raportu GfK Polonia

    Dużo, szybko, SSD

    Widać wyraźny trend, odchodzenia od dysków 2,5 calowych, których sprzedaż ilościowa w ujęciu rocznym (od czerwca 2019 do czerwca 2020) spadła o ponad 7 punktów procentowych. O 24 proc. wzrosła natomiast liczba sprzedanych dysków o szybszym przesyle danych produkowanych w technologii NVMe. W czerwcu tego roku dyski w tej technologii odpowiadały za 26 proc. wszystkich przychodów płynących ze sprzedaży SSD. Prognozujemy, że do końca roku dyski NVMe będą odpowiadały za do 30 proc. sprzedaży wszystkich sprzedanych dysków w Polsce – powiedział Konrad Arseniuk Product Manager Memory Samsung Electronics Polska.

    dyski-NVME-w-całośći-SDD

    Trend spadkowy widoczny jest w obszarze dysków o małych pojemnościach. Liczba sprzedanych SSD z miejscem na dane poniżej 240 GB spadła w skali roku o 42 proc i stanowi obecnie zaledwie 13 proc. wszystkich kupowanych nośników. Podobna sytuacja ma miejsce w przypadków dysków w przedziale 240 – 480 GB (spadek o ponad 22 proc.). Dynamiczny wzrost widoczny jest natomiast w kategorii nośników w przedziale 480 GB – 1 TB, które stają się nowym standardem i stanowią obecnie niemal 36 proc. sprzedaży ilościowej odpowiadając za 42 proc. przychodów. Największy wzrost widoczny jest jednak w obszarze dysków o największych pojemnościach (1TB i więcej), które w czerwcu tego roku stanowiły niemal 11 proc. sprzedaży ilościowej (wzrost rok do roku o 93 proc.), ale odpowiadają za prawie 26 proc. przychodów.

    – Widoczny trend jest zbieżny z działaniami naszej firmy, która od kilku lat konsekwentnie stawia na produkcję i sprzedaż dysków o dużej pojemności. Postępująca cyfryzacja i dynamiczny rozwój technologii sprawiają, że gry czy materiały wideo zajmują coraz więcej miejsca. Obecnie nie dziwi sytuacja, w której gra wymaga od nas nawet 200 GB wolnej przestrzeni dyskowej, a w dobie rosnącej rozdzielczości i jakości treści, materiały graficzne zwiększają swoją pojemność nawet czterokrotnie w odniesieniu FHD vs 4K. W niedalekiej przyszłości ilość potrzebnej pamięci gwałtownie wzrośnie na potrzeby materiałów i plików w rozdzielczości 8K. Aby zaspokoić rosnące wymagania użytkowników, firmy decydują się m.in. na produkcję dysków o większych pojemnościach, w tym bazujących na technologiach pozwalających zapisać więcej bitów w jednej komórce pamięci. Przykładowo Samsung w tym miesiącu wprowadzi do sprzedaży dysk SSD w technologii QLC, który będzie miał pojemność aż 8TB. skomentował Konrad Arseniuk

    Sprzedaż-ilościowa-w-podziale-na-wielkość-SSD

    Sprzedaż-wartościowa-w-podziale-na-wielkość-SSD

    Polski rynek dysków SSD podobnie jak rynek globalny, jest mocno rozdrobiony i podzielony pomiędzy kilku głównych konkurentów. Udziały w przychodach polskiego oddziału firmy Samsung, wyniosły 24 proc. na przestrzeni 12 miesięcy (od czerwca 2019 do czerwca 2020). Duży udział ma tu sprzedaż dysków o pojemnościach między 1TB a 4TB.

    Dane zawsze pod ręką – analiza rynku dysków przenośnych

    Kategorią SSD, która rośnie najszybciej są dyski przenośne. Wartość sprzedaży na przestrzeni 12 miesięcy wzrosła o 63 proc., a w ujęciu ilościowym aż o 76 procent. W tym obszarze również widać spadek zainteresowania urządzeniami o małych pojemnościach poniżej 250 GB. Rośnie natomiast sprzedaż dysków o wielkościach od 480 GB do 4 TB. Najszybciej rośnie sprzedaż dysków o pojemościach od 2 do 4 TB (wzrost o 171 proc.), choć oczywiście ich udział ilościowy w całym rynku jest najmniejszy. Jeżeli chodzi o dyski od 480 GB do 1000 GB, to wzrost wynosi ponad 90 proc. a w przypadku pojemności od 1 do 2 TB o 134 proc.

    Dla wielu osób dyski przenośne stają się dobrą alternatywą dla dysków wewnętrznych z uwagi na ich dużą wszechstronność. Takie urządzenie może posłużyć za dodatkowy dysk do PC-ta, ale także jako magazyn na zdjęcia zgrywane prosto z telefonu komórkowego czy nośnik na gry dla naszej konsoli. Cały czas poszerzamy nasze portfolio produktów, o rozwiązania odpowiadające na potrzeby osób o różnych wymaganiach i różnej zasobności portfela. Przykładem urządzenia dla najbardziej wymagających jest bardzo szybki dysk X5 wykorzystujący złącze Thunderbolt 3, który zapewnia przesył danych na poziomie bardzo wydajnych dysków wewnętrznych. Podobnie jak w przypadku dysków wewnętrznych odchodzimy też od małych pojemności, czego potwierdzeniem jest wprowadzenie nowej linii dysków przenośnych T7 i T7 Touch z czytnikiem linii papilarnych, gdzie najmniejszą dostępną wielkością jest 500 GB.podsumowuje Konrad Arseniuk.

  • LaCie należąca Seagate Technology zaprezentowała nowe rozwiązania typu „storage”

    LaCie należąca Seagate Technology zaprezentowała nowe rozwiązania typu „storage”

    Firma LaCie, marka premium należąca do Seagate Technology (NASDAQ: STX), zaprezentowała dwa nowe rozwiązania typu „storage” dla profesjonalnych twórców i prosumentów. Obie nowości: LaCie 1big Dock SSD Pro oraz LaCie 1big Dock umożliwiają profesjonalistom usprawnienie i optymalizację pracy w studio przy użyciu kompleksowego rozwiązania pamięci stacjonarnej.

    Zaprojektowane przez Neila Poultona, LaCie 1big Dock SSD Pro (w wariantach 2TB i 4TB SSD) oraz 1big Dock (o pojemności 4TB, 8TB i 16TB HDD) uzupełniają istniejącą już rodzinę wszechstronnych systemów przechowywania danych marki LaCie, przeznaczonych dla profesjonalnych twórców.

    Wysoka wydajność także w projektach wymagających intensywnego przetwarzania danych

    1big Dock SSD Pro firmy LaCie to idealne rozwiązanie do edycji nieskompresowanych materiałów wideo 6K, 8K, super slow motion oraz treści VFX. Bazując na renomie LaCie w dziedzinie niezrównanej wydajności i stylu, 1big Dock SSD Pro wykorzystuje najnowocześniejsze rozwiązanie FireCuda NVMe SSD firmy Seagate oraz Thunderbolt 3, zapewniając fenomenalną prędkość odczytu do 2800MB/s. Ukłonem w kierunku twórców jest także obecność dwóch złącz Thunderbolt 3 kompatybilnych z USB-C, a także stacji dokującej z wbudowanym portem USB 3.0, gniazdami kart pamięci CFast 2.0, CFexpress, i SD, oraz wyjściem DisplayPort 1.4. LaCie 1big Dock stanowi idealne urządzenie peryferyjne, obsługujące większość profesjonalnych kamer filmowych, w tym wiodących marek, takich jak: ARRI, Blackmagic, RED i Canon.

    Uproszczone konfiguracji studia

    Oferując wiele funkcji dostępnych w 1big Dock SSD Pro, ale w połączeniu z ogromną pojemność 4TB, 8TB lub 16TB HDD, nowy LaCie 1big Dock, umożliwia również bezpośrednie zgranie treści z kart SD, CompactFlash i urządzeń USB. Upraszcza to konfigurację studia filmowego wideo 4K. LaCie 1big Dock funkcjonuje w tym scenariuszu jako hub dla wszystkich urządzeń peryferyjnych, umożliwiając podłączenie ich do stacji roboczej jednym kablem, bez potrzeby używania jakichkolwiek adapterów.

    Nowa, unikatowa funkcja zarządzania zasilaniem

    Rozwiązania 1big Dock SSD Pro i 1big Dock potrafią dostarczyć zasilanie o mocy do 45W do laptopa lub 30W do innych kompatybilnych urządzeń połączonych łańcuchowo. Opracowana przez LaCie innowacyjna funkcja Power Pass-Through zapewnia laptopowi jeszcze więcej energii. Wystarczy podłączyć go łańcuchowo jednym kablem USB-C laptopa do 1big Dock, a laptop otrzyma nawet 70W. Dzięki temu niezwykle przydatny port USB-C w komputerze pozostaje wolny.

    Oba produkty objęte są 5-letnią ograniczoną gwarancją z usługą odzyskiwania danych i bezpłatnym miesiącem próbnym Adobe Creative Cloud All-Apps. Rozwiązanie LaCie 1big Dock SSD Pro dostępne będzie w cenie detalicznej 6 399 PLN (2TB) oraz 12 299 PLN (4TB), natomiast LaCie 1big Dock w cenie 1 699 PLN (4TB), 2 249 PLN (8TB) oraz 3 249 PLN (16TB). Oba produkty będą dostępne od lipca 2020.

  • Synology® przedstawia dwa nowe modele DS720+i DS420+

    Synology® przedstawia dwa nowe modele DS720+i DS420+

    Firma Synology Inc. wprowadziła na rynek dwukieszeniowy serwer DS720+ oraz czterokieszeniowy serwer DS420+, które zostały zaprojektowane z myślą o bezproblemowym udostępnianiu plików, przesyłaniu strumieniowym filmów i zarządzaniu zdjęciami w domu i małych firmach.wrażliwych na liczbę operacji we/wy.

    — „Urządzenia z serii Plus zostały opracowane tak, aby cechowały się doskonałą wydajnością” — powiedział Hewitt Lee, dyrektor Synology Product Management Group. „Zarówno serwer DS720+, jak i serwer DS420+ jest wyposażony w dwa gniazda M.2 NVMe do obsługi pamięci podręcznej, funkcję odczytu i zapisu z turbodoładowaniem oraz funkcję IOPS do obsługi najczęściej używanych danych, a udoskonalone procesory zapewniają ogólny wzrost wydajności obliczeniowej”.

    DS720+

    DS720 synology

    DS420+

    DS420 synology

    Łatwa obsługa obciążeń

    Dzięki aplikacji działającej szybciej nawet o 143%[1] i wydajności większej o ponad 15%[2] w przypadku najbardziej wymagających obciążeń urządzenia z serii Plus umożliwiają szybszą i wydajniejszą pracę. Jeśli dwa gniazda M.2 w urządzeniach są zajęte, służą do buforowania, co gwarantuje nawet o 20 razy szybszy dostęp do funkcji odczytu i zapisu.

    Łatwe tworzenie kopii zapasowych

    Rozwiązania firmy Synology do tworzenia kopii zapasowych są łatwe w konfiguracji i działają bezproblemowo w tle, co pozwala zaoszczędzić czas poświęcany na ręczne wykonywanie kopii zapasowych. Planowanie, tworzenie kopii zapasowych w wielu wersjach i elastyczne opcje rotacji pamięci masowej ułatwiają odzyskiwanie plików.

    Udostępnianie materiałów multimedialnych w dowolnym miejscu i czasie

    Niezależnie od tego, czy przesyłasz strumieniowo materiały multimedialne do rodziny czy przyjaciół, czy edytujesz nagrania w wysokiej rozdzielczości, urządzenia z serii Plus mogą z łatwością synchronizować materiały multimedialne w różnych urządzeniach cyfrowych i systemach operacyjnych. Ustawienia uprawnień są dostępne dla wyznaczonych użytkowników lub dla użytkowników publicznych, aby umożliwić uzyskanie dostępu.

    Dostępność

    Oba urządzenia będą dostępne od 18 czerwca u sprzedawców i partnerów firmy Synology w Europie.

    [1] Dane dotyczące szybkości reakcji aplikacji są oparte na średniej procentowej poprawie wydajności serwera DS720+ w stosunku do poprzedniego modelu, testowanej w laboratoriach firmy Synology.
    [2] Dane dotyczące wzrostu wydajności są oparte na średniej procentowej poprawie wydajności serwerów DS420+ i DS720+ w stosunku do poprzednich modeli, testowanych w laboratoriach firmy Synology. Testowane elementy obejmują indeksowanie plików w aplikacji Synology Drive i indeksowanie zdjęć w Synology Moments.

  • HPE wprowadza inteligentną platformę do obsługi danych

    HPE wprowadza inteligentną platformę do obsługi danych

    Hewlett Packard Enterprise (HPE) ogłasza nowe udoskonalenia dla rozwiązań HPE Primera i HPE Nimble Storage – w tym system wykorzystujący sztuczną inteligencję, który automatycznie optymalizuje się i naprawia swoje błędy.. System zapewnia autonomiczne operacje w czasie rzeczywistym i jest to częścią kompleksowej aktualizacji „HPE Intelligent Data Platform”. Nowe możliwości obejmują:

    ·       Samooptymalizujące się operacje systemowe z wbudowaną sztuczną inteligencją w HPE Primera i zaawansowane, wielopoziomowe analizy infrastruktury IT w HPE InfoSight dla Hyper-V

    ·       Odzyskiwanie systemu po awarii dzięki replikacji do 3 dowolnych na świecie lokalizacji dla HPE Primera i HPE Nimble Storage oraz niemal natychmiastową asynchroniczną replikację dla HPE Primera

    ·       Wsparcie macierzy „All-NVMe” dla HPE Primera, która poprawia wydajność oraz pamięć klasy magazynu dla HPE Nimble Storage, zapewniając 2x krótszy czas odpowiedzi

    ·       Automatyzacja pamięci masowej na żądanie zoptymalizowana pod kątem wirtualizacji i kontenerów dla HPE Primera

    Obecnie, aby zachować ciągłość biznesową, firmy jeszcze bardziej niż kiedykolwiek wcześniej powinny chronić swoje dane, aby działać wydajnie i bez zakłóceń – mówi Omer Asad, wiceprezes i dyrektor generalny HPE Primera i HPE Nimble Storage. Klienci korzystający z HPE Primera i HPE Nimble Storage są w stanie przyspieszyć innowacje i dostosować się do zmieniających się warunków ich działalności, jednocześnie zachowując przepływ gotówki za pośrednictwem HPE GreenLake, bez uszczerbku dla swoich aplikacji. HPE zmniejsza ryzyko, eliminuje złożoność i obniża koszty związane z ochroną danych, a także posiada najinteligentniejszą na świecie pamięć masową, która wykorzystuje sztuczną inteligencję do samooptymalizacji w czasie rzeczywistym, umożliwiając sprawne i niezawodne zarządzanie infrastrukturą – dodaje Asad.

    Dzisiaj firmy chcą szybko wprowadzać nowe aplikacje na rynek, jednocześnie wspierając już istniejące, aby przyspieszyć rozwój działalności i innowacji w firmach. Jednak dla zwykłego działu IT próba utrzymania takiego tempa jest praktycznie niemożliwa, ponieważ ograniczają go kwestie administracyjne, potrzeba stałego  dostosowywania sprzętu i obsługa infrastruktury odpowiedzialnej za aplikacje, a także danych o znaczeniu krytycznym. W rezultacie, dział IT jest zmuszony niejako poświęcić swoją sprawność dla niezawodności. Dlatego obecnie oczekuje się podstawowych rozwiązań pamięci masowej, które z jednej strony zapewniają funkcjonowanie w chmurze bez obniżenia wydajności, z drugiej dostępność aplikacji oraz kluczowych danych.

    W Grove City College używamy technologii, aby zapewnić studentom w obecnej sytuacji lepszy dostęp do edukacji np. poprzez wykłady wideo i zaawansowane kursy online – mówi Vince Distasi, dyrektor ds. Informacji, Grove City College. Dostępność jest dla nas kluczowa, dlatego cieszymy się, że pojawiło się rozwiązanie, które to zapewnia. Dzięki temu spokojnie możemy kontynuować zajęcia, zachowując przy tym  naszą obecną macierz HPE 3PAR, którą możemy przenieść do zapasowego centrum przetwarzania danych dla celów odzyskiwania po awarii w celu dodatkowej ochrony – podkreśla Distasi.

    W jaki sposób zapobiegać zakłóceniom?

    Na dynamicznie zmieniających się rynkach, zespoły IT i firmy nie mogą pozwolić sobie na stratę czasu wynikającą z problemów w centrach przetwarzania danych. HPE InfoSight, najbardziej zaawansowana w branży platforma sztucznej inteligencji wspierająca infrastrukturę IT, pomaga zespołom IT skoncentrować się na priorytetach biznesowych, przewidując i zapobiegając zakłóceniom występującym zarówno w warstwie pamięci masowych, jak i na maszynach wirtualnych (VM).

    Z kolei HPE Primera posiada wbudowany silnik sztucznej inteligencji, który wykorzystuje wyszkolone modele uczenia maszynowego w celu dostarczania prognoz w czasie rzeczywistym dla różnych zachowań aplikacji i wzorców wydajności. Teraz HPE Primera podejmuje działania w oparciu o prognozy w celu samoptymalizacji działania systemu w czasie rzeczywistym, dynamicznie optymalizując wykorzystanie zasobów.

    Tak radykalne uproszczenie staje się niezbędne w zarządzaniu maszynami wirtualnymi, jak też umożliwienie wielopoziomowej analityki w środowiskach Hyper-V dla wskazywania nieprawidłowości związanych z wydajnością między pamięcią masową i maszynami wirtualnymi oraz niewykorzystanymi zasobami wirtualnymi.

    Jak natychmiastowo odzyskiwać dane i co z ochroną aplikacji?

    Zapewnienie ochrony aplikacji wymaga umieszczenia danych w wielu miejscach z elastycznymi opcjami w różnych lokalizacjach. Udoskonalona HPE Primera obejmuje usługę HPE Peer Persistence, która w transparentny sposób pomaga w zapewnieniu ciągłości biznesowej, umożliwia także elastyczność replikacji do trzeciej lokalizacji w celu odzyskania po awarii oraz niemal natychmiastową, asynchroniczną replikację na duże odległości z jednominutowym celem punktu odzyskiwania.

    Jak zoptymalizować czas reakcji?

    Aby przedsiębiorstwa mogły osiągnąć najszybszy czas dostępu do danych w przypadku znacznych obciążeń, wymagana jest odpowiednia architektura pamięci masowej w celu zmaksymalizowania korzyści i ekonomii protokołów nowej generacji oraz nośników półprzewodnikowych – w tym NVMe i pamięci klasy magazynu (SCM). HPE Primera została zaprojektowana w oparciu o wielowęzłową, w pełni aktywną architekturę, która zapewnia niezwykle niskie opóźnienia poniżej 250 μs1 dla 75 proc. operacji wejścia-wyjścia. Teraz HPE Primera obsługuje technologię „All-NVMe”, oferując architekturę zapewniającą wyższą wydajność. W przypadku SAP HANA, HPE Primera z all-NVMe obsługuje teraz 2X liczbę węzłów SAP HANA.

    Technologia „SCM” zapewnia przełomową prędkość pamięci. HPE Nimble Storage posiada jest unikalnie zaprojektowany system zarządzania plikami do przyspieszania pamięci podręcznej, który skutecznie optymalizuje wydajność odczytu w konfiguracjach hybrydowych. Architektura ta została zoptymalizowana pod kątem pamięci podręcznej „SCM” pracującą z pamięcią trwałą SSD, aby zapewnić 2x krótszy czas reakcji przy średnim opóźnieniu poniżej 250 μs3.

    Jak przyspieszyć tworzenie aplikacji?

    W różnych branżach organizacje zmieniają sposób w jaki opracowują i wdrażają aplikacje w chmurze hybrydowej – zespół IT potrzebuje szybszej, zautomatyzowanej infrastruktury pamięci masowej, zaprojektowanej tak, by wspierać ewoluujące środowiska zwirtualizowane i kontenerów. W przypadku wirtualizacji, woluminy wirtualne (vVols) usprawniają operacje magazynowania poprzez usługi danych skoncentrowane na maszynach wirtualnych i automatyzacji opartej na regułach. HPE Primera obsługuje teraz vVols, dołączając do HPE Nimble Storage, aby zapewnić kompleksowy zestaw funkcji vVols, w tym odzyskiwanie po awarii z obsługą Site Recovery Manager.

    W przypadku kontenerów, firmy potrzebują trwałej pamięci masowej dla rozbudowanych aplikacji, wymagających pamięci zdefiniowanej programowo, która umożliwia programistom automatyzację samoobsługi. HPE Primera obsługuje teraz sterownik CSI dla Kubernetes, dołączając do HPE Nimble Storage, aby zapewnić dynamiczną dostępność usług i danych przedsiębiorstwa. Umożliwia to trwałe przechowywanie krytycznych aplikacji wdrażanych na platformach do zarządzania kontenerami, w tym także na platformie kontenerowej HPE.

  • Serwery z GPU na platformach CloudFerro

    Serwery z GPU na platformach CloudFerro

    CloudFerro, polska spółka specjalizująca się w dostarczaniu usług przetwarzania w chmurze obliczeniowej, oferuje nowe konfiguracje sprzętowe, wykorzystujące karty graficzne. Pozwolą one na dodatkowe zwiększenie mocy obliczeniowej platform udostępniających zdjęcia satelitarne, które obsługuje firma.

    GPU, czyli karty graficzne oraz sprzętowe akceleratory obliczeń, są ostatnio największym źródłem wzrostu mocy obliczeniowej. Pierwotnie zostały one opracowane jako specjalistyczne narzędzie służące do przetwarzania obrazów głównie w grach. Dziś jednak mają coraz szersze zastosowanie w różnych aplikacjach, wymagających dużej mocy obliczeniowej. Potrzeby te są związane już nie tylko z przetwarzaniem obrazu, ale także sztuczną inteligencją, deep learningiem i innymi technologiami.

    Firma CloudFerro obsługuje pięć platform, udostępniających dane z obserwacji Ziemi, gromadzone m.in. w ramach europejskiego programu Copernicus. Są to zdjęcia z satelitów z rodziny Sentinel, a także od kilku dostawców komercyjnych, które charakteryzuje bardzo wysoka rozdzielczość obrazów oraz duża częstotliwość aktualizacji. Każdego dnia na serwery spływają aktualne zdjęcia Ziemi, które następnie są udostępniane i mogą być przetwarzane na takich platformach jak np. CREODIAS. W związku z rosnącym zapotrzebowaniem na korzystanie z platform oraz zwiększonymi potrzebami związanymi z przetwarzaniem danych, dostawca rozwiązań chmurowych m.in. dla sektora kosmicznego, wprowadza karty graficzne GPU.

    Obecnie rozwój oprogramowania koncentruje się na uzyskaniu coraz większych korzyści ze stosowania akceleratorów obliczeń. W domenie obserwacji Ziemi (EO – Earth Observation)  procesory graficzne stosuje się między innymi do interferometrii radarowej – wyjaśnia Marcin Kowalski, Product Manager w CloudFerro. W praktyce wygląda to tak, że karty obliczeniowe są zainstalowane w dedykowanych do tego celu węzłach obliczeniowych. Następnie węzły obliczeniowe są alokowane do serwera compute i są dedykowane do określonego zadania obliczeniowego lub do wykorzystania przez jednego klienta. W takim serwerze compute znajduje się od jednej do kilkunastu kart GPU, a użytkownik otrzymuje dostęp poprzez mechanizm „passsthrough” – dodaje Marcin Kowalski.

    To rozwiązanie pozwala wyeliminować niepotrzebny narzut na wykonywane operacje obliczeniowe. Dodatkowo maszyny wirtualne wyposażone są w bardzo szybkie dyski NVMe, pozwalające na odpowiednie zasilanie systemu danymi do obliczeń.

    Nowe maszyny wirtualne dostępne w ofercie CloudFerro to:

    • ds.3xlarge.4gpu – maszyna wirtualna na serwerze dedykowanym (DS.VM),  wyposażona w cztery karty graficzne GeForce 2080 TI, 496 GB RAM, 48 Vcore oraz  dwa szybkie dyski NVMe o pojemności 1920 GB, z niskimi czasami dostępu i wysoką wydajnością.
    • gpu.medium – to maszyna wirtualna wyposażona w jedną kartę graficzną GeForce 2080 Ti, 118 GB RAM oraz szybki sieciowy storage SSD.

    CloudFerro obsługuje obecnie siedem lokalizacji w trzech krajach europejskich. Dane, jakie są przetwarzane w ramach infrastruktury chmurowej firmy to ponad 52 PB, a dzienny przyrost danych z obserwacji Ziemi to 18 150 GB.

  • Hosting dla firm

    Hosting dla firm

    Firmy od małych do średnich i dużych często mają trudności z wyborem odpowiedniego rozwiązania hostingowego dla swojej organizacji. Przedsiębiorca, mając świadomość, że jego poczta oraz strona internetowa jest jego wizytówką, miejscem w którym dokonują się transakcje, a klient bardzo często ma pierwszy kontakt z oferowanym produktem, decyduje się na dostawców zapewniających bezpieczeństwo, ale również wysoką jakość oraz szybkość usług.

    Zgodnie z badaniami przeprowadzonymi przez Google strona ładująca się dłużej niż 5 sekund traci prawie 40% konwersji! Wyobraźmy sobie, co to oznacza dla naszego biznesu? Utrata 40 % dochodów? W dzisiejszych czasach żaden przedsiębiorca nie może pozwolić sobie na takie straty, dlatego tym ważniejszy jest wybór takiego hostingu, który swoim działaniem przyciągnie do Ciebie klientów!

    Na tle polskich firm hostingowych niewątpliwie wyróżnia się spółka nazwa.pl, która udostępniła pierwszy w Polsce hosting działający na dyskach Intel Optane i najszybszych obecnie procesorach serwerowych Intel Xeon E-2288G. Modernizacja technologii umożliwiła ponad dziesięciokrotne skrócenie czasu potrzebnego zarówno do odczytu, jak również do zapisu informacji, znacząco usprawniając działanie wszystkich aplikacji wykorzystujących bazy danych! Spółka po wykonanej modernizacji przeprowadziła testy potwierdzające, że usługi świadczone przez nazwa.pl to obecnie najszybszy hosting w Polsce!

    nazwa 1

    Powyższy test został wykonany w dniach 11.02.2020 – 14.02.2020 za pomocą aplikacji WordPress 5.3.2 pobranej ze strony http://pl.wordpress.org (czysta instalacja) wraz z zainstalowanym dodatkowym pluginem Query Monitor 3.5.2, w środowisku PHP 7.3, na płatnych pakietach hostingowych badanych usługodawców. Na wykresie zaprezentowano dla każdego z usługodawców minimalny czas ze wszystkich pomiarów, podany w sekundach.

    Szybkość naszej strony internetowej ma olbrzymi wpływ na to, jak jesteśmy postrzegani, ale kiedy strona już się załaduje, nasz klient musi mieć gwarancję, że dane, które u nas zostawi są bezpieczne!

    Właśnie ze względu na bezpieczeństwo nazwa.pl świadczy usługi w czterech nowoczesnych Data Center zlokalizowanych w Krakowie, Warszawie, Frankfurcie i Amsterdamie. Oprócz połączeń z polskimi punktami wymiany ruchu operatorskiego PLIX, TPIX, THINX i EPIX, nazwa.pl posiada bezpośredni dostęp do tak strategicznie ważnych punktów w globalnej sieci połączeń, jak DE-CIX Frankfurt, AMS-IX Amsterdam czy DE-CIX Nowy Jork.

    Spółka uruchomiła również globalną sieć serwerów DNS Anycast na 6 kontynentach. Dzięki nowej technologii serwerów DNS, nazwa.pl chroni Klientów firmy przed atakami DDoS oraz zapewnia im błyskawiczne ładowanie ich serwisów WWW z dowolnego miejsca na Ziemi.

    Przedsiębiorca korzystający z rozwiązań oferowanych przez nazwa.pl ma zapewnioną pełną ochronę danych swoich, jak i Klientów, dzięki bezpiecznym Data Center, które posiadają certyfikaty zgodności z normami ISO 9001 i ISO/IEC 27001 nie musimy obawiać się, że nasze dane zostaną wykradzione. Wymiana dysków NVMe na dyski Intel Optane sprawia, że nawet w godzinach szczytu, kiedy ruch na naszej stronie będzie naprawdę duży, hosting nazwa.pl poradzi sobie z zadaniem.

    Czytelnicy „BrandsIT ” mogą teraz aktywować za darmo usługę Hosting Cloud na okres 90 dni. Wystarczy tylko przy zamówieniu na stronie https://www.nazwa.pl/ wybrać opcję Voucher i wpisać poniższy kod rabatowy:

    gs58-8366-8592

    Termin ważności kodu rabatowego: 18.04.2020r.

  • Nowe serwery w nazwa.pl. Hosting jeszcze szybszy

    Nowe serwery w nazwa.pl. Hosting jeszcze szybszy

    Spółka nazwa.pl zakończyła wymianę serwerów, udostępniając pierwszy w Polsce hosting działający na dyskach Intel Optane i najszybszych obecnie procesorach serwerowych Intel Xeon E-2288G. Wprowadzona zmiana spowodowała wielokrotny wzrost szybkości działania serwisów WWW obsługiwanych przez nazwa.pl, czyniąc hosting nazwa.pl najszybszym w Polsce.

    Podczas gdy wiele firm hostingowych w Polsce unowocześnia swoje serwery, wprowadzając hosting na dyskach SSD z interfejsem NVMe, nazwa.pl w swoich najnowszych serwerach wycofała dyski SSD NVMe, zastępując je dużo szybszymi dyskami Intel Optane, wykonanymi w mało jeszcze znanej technologii 3D XPoint. Zmiana technologii umożliwiła ponad dziesięciokrotne skrócenie czasu potrzebnego zarówno do odczytu, jak również do zapisu informacji, znacząco usprawniając działanie wszystkich aplikacji wykorzystujących bazy danych.

    Wraz z wymianą serwerów zostały zainstalowane również najszybsze obecnie procesory serwerowe Intel Xeon E-2288G, co w połączeniu z dużo wydajniejszymi dyskami Intel Optane doprowadziło do wielokrotnego wzrostu szybkości działania dynamicznych aplikacji typu WordPress.

    O niezwykłej szybkości działania serwerów w nazwa.pl można się również przekonać samodzielnie, uruchamiając na nich test Vanilla Benchmark  i porównując uzyskane wyniki z wynikami tego samego testu, uruchomionego na serwerach innych firm hostingowych. Operacje na serwerach w nazwa.pl wykonują się wielokrotnie szybciej niż u innych dostawców hostingu.

    Użycie w serwerach szybkich procesorów Intel Xeon E-2288G z małą liczbą rdzeni obliczeniowych było możliwe jedynie dzięki zastosowaniu przez nazwa.pl technologii Cloud. Zapytania o strony WWW przydzielane są dynamicznie do serwerów z najmniejszym obciążeniem w klastrze, co gwarantuje, że wszystkie wykonują się z maksymalną szybkością i nigdy nie brakuje mocy obliczeniowej.

    Dzięki wymianie serwerów strony WWW obsługiwane przez nazwa.pl działają kilkukrotnie szybciej niż na hostingu w innych firmach konkurencyjnych. Ta sama aplikacja WordPress, jak pokazał powyższy test, może działać nawet 10x szybciej po przeniesieniu jej do nazwa.pl z serwerów home.pl. Warto więc przed zakupem hostingu porównać nie tylko cenę, ale przede wszystkim szybkość działania oferowanych usług. Pomimo, że każdy dostawca zapewnia, że jego usługi są najlepsze, to jednak jak widać hosting hostingowi nierówny – powiedział Krzysztof Cebrat, prezes zarządu nazwa.pl.

    Aby umożliwić wszystkim zainteresowanym osobom przeprowadzenie testów szybkości hostingu w nazwa.pl, spółka udostępniła darmowy 30-dniowy okres próbny.

  • Hosting z technologią Intel Optane w nazwa.pl

    Hosting z technologią Intel Optane w nazwa.pl

    Spółka nazwa.pl jako pierwsza firma hostingowa w Polsce, wprowadza w ramach swoich usług najnowocześniejszą technologię Optane, którą Intel w oficjalnych materiałach określa jako „rewolucja w zakresie pamięci”. Technologia Intel Optane to największy przełom od 1989 roku, od czasu wynalezienia technologii NAND Flash Memory, która posłużyła do budowy dysków SSD.

    Dyski komputerowe wykonane w technologii Intel Optane, w stosunku do powszechnie stosowanych dysków SSD, posiadają ponad dziesięciokrotnie niższe czasy dostępu do danych oraz zapewniają w przeciwieństwie do dysków SSD stabilną pracę, nawet przy dużym obciążeniu. Efektem jest skokowy wzrost wydajności działania wszystkich aplikacji, a w szczególności tych, które korzystają z baz danych. Jedyną wadą dysków Intel Optane jest kilkukrotnie wyższa cena, w stosunku do obecnie stosowanych dysków SSD.

    Wprowadzona w nazwa.pl, dwa lata wcześniej, technologia dysków SSD z interfejsem NVMe będzie wycofywana i zastępowana w czwartym kwartale 2019 roku. Wraz z wymianą dysków NVMe na dyski Intel Optane na serwerach baz danych, zostaną zainstalowane również najnowsze procesory z oferty firmy Intel, dzięki czemu szybkość wykonywania się typowych aplikacji korzystających z baz danych typu WordPress, wzrośnie ponad dwukrotnie.

    Kolejne zmiany umacniają nazwa.pl na pozycji lidera technologicznego wśród firm hostingowych w Polsce i zwiększają przewagę nad innymi firmami hostingowymi. Spółka nazwa.pl przekazuje swoim Klientom najwyższej klasy usługi, a Klienci nazwa.pl jako pierwsi w Polsce mogą korzystać z nowych technologii, niedostępnych w ofertach firm konkurencyjnych.

  • VPS od nazwa.pl za 5 złotych

    VPS od nazwa.pl za 5 złotych

    Nazwa.pl obniżyła o połowę ceny usług VPS, wprowadzając również promocję na serwer VPS NVMe Start na pierwszy okres abonamentowy w cenie netto 5 złotych za miesiąc. Długość okresu promocyjnego zależy od wyboru klienta i może wynieść nawet 12 miesięcy. Obniżce ceny usług VPS towarzyszy również podwojenie mocy obliczeniowej klastra serwerów.

    Ochrona przed DDoS

    Zgodnie z wcześniejszymi zapowiedziami serwery VPS zostały objęte ochroną w czasie rzeczywistym przed atakami DDoS, realizowaną przez Scrubbing Center nazwa.pl. Ochrona realizowana jest przy użyciu wyspecjalizowanych urządzeń sieciowych firmy Fortinet, działających w klastrze wysokiej dostępności (high availability cluster), pozwalających na ochronę przed atakami DDoS z pełną szybkością 150 Gbps wszystkich łącz nazwa.pl. Wdrożenie Scrubbing Center poprzedzone zostało rozbudową sieci nazwa.pl i jej połączeń z Internetem, co zagwarantowało nadmiarowość infrastruktury potrzebnej do obsługi pojawiających się zagrożeń DDoS związanych z atakami mającymi na celu wysycenie przepustowości łącz.

    Technologia gwarancją szybkości

    Wprowadzone zmiany wpisują się w rozwój nazwa.pl, która w przeciągu ostatniego roku wdrożyła wiele innowacji technologicznych związanych z serwerami VPS. We wrześniu 2017 roku w ofercie zadebiutowały usługi VPS realizowane w technologii wirtualizacji KVM oraz została wprowadzona na rynek usług VPS technologia szybkich dysków SSD z interfejsem NVMe. Na wiosnę 2018 roku klienci usług VPS w nazwa.pl otrzymali bezpośredni dostęp do krajowych i międzynarodowych punktów wymiany ruchu operatorskiego w Warszawie, Amsterdamie, Frankfurcie i Nowym Jorku. Lista tych punktów styku została rozszerzona jesienią o kolejne węzły wymiany ruchu w Monachium, Hamburgu, Dusseldorfie, Marsylii i Istambule, dzięki czemu nazwa.pl dysponuje obecnie najbardziej rozbudowaną siecią połączeń wśród polskich firm hostingowych.

    Małe jest piękne, ale duży może więcej

    Wprowadzona przez nazwa.pl obniżka cen wynika z dużej skali działania firmy, co umożliwia świadczenie usług w cenie korzystniejszej od konkurencji. Serwery VPS w nazwa.pl dzięki wysokim parametrom technicznym oraz nowym niższym cenom stanowić będą duże wyzwanie dla innych firm hostingowych działających w Polsce. Klienci nazwa.pl otrzymują usługi niedostępne nigdzie indziej za cenę 5 zł za miesiąc, z gwarancją dostępności 99,9% czasu działania, realizowane w najnowszej technologii wirtualizacji KVM, na serwerach z procesorami Intel Xeon, z szybkimi dyskami SSD NVMe pozwalającymi na zapis i odczyt informacji nawet z prędkością kilkuset megabajtów na sekundę.