Firma HPE mimo dobrych wyników za drugi kwartał, nie zdołała zadowolić inwestorów, co spowodowało spadek ceny akcji o 1,5 procent po publikacji raportu kwartalnego.
HPE odnotowało zysk netto w wysokości 512 milionów dolarów, co stanowi wzrost w porównaniu do 464 milionów dolarów z analogicznego okresu ubiegłego roku. Przychody również wzrosły o 10 procent, osiągając poziom 7,7 miliarda dolarów. Mimo to, inwestorzy skupili się na spadającej marży zysku w sektorze serwerów, w szczególności tych wykorzystywanych w sztucznej inteligencji (AI).
Pomimo rekordowych kwartalnych przychodów działu serwerów, które wyniosły 3,4 miliarda dolarów, marża operacyjna spadła z 33,4 procent do 31,8 procent. W reakcji na to, dyrektor finansowa HPE, Marie Myers, próbowała uspokoić nastroje, zwracając uwagę na rosnącą rotację serwerów oraz ich szczególne dopasowanie do zastosowań AI w przedsiębiorstwach. Niemniej jednak, te wyjaśnienia nie wystarczyły, aby zatrzymać reakcję inwestorów.
Sytuacja HPE wpisuje się w szerszy trend, w którym czołowi gracze technologiczni, jak Microsoft czy Nvidia, zmagają się z nieustającą presją ze strony rynku. Pomimo wzrostu przychodów i zysków, nawet drobne uchybienia czy odchylenia od oczekiwań są surowo oceniane. Branża technologiczna, której wiele firm stawia na rozwój sztucznej inteligencji, zmaga się z rosnącymi oczekiwaniami i presją wynikającą z szumu wokół AI.
Inwestorzy, zafascynowani potencjałem technologii AI, często reagują impulsywnie na każdą informację odbiegającą od ich wysokich oczekiwań. W rezultacie, nawet solidne wyniki finansowe, jak te prezentowane przez HPE, nie zawsze wystarczają, aby uniknąć negatywnej reakcji rynku.
Hewlett Packard Enterprise (HPE) ogłosiło zawarcie umowy na przejęcie Morpheus Data, firmy specjalizującej się w oprogramowaniu do zarządzania chmurą hybrydową i operacjami platformy. To strategiczne posunięcie HPE ma na celu dalsze uproszczenie zarządzania złożonymi środowiskami IT poprzez integrację rozwiązań Morpheus z chmurą HPE GreenLake, kluczową platformą oferującą usługi hybrydowe.
Przejęcie Morpheus Data przez HPE jest kontynuacją działań firmy zmierzających do wzmocnienia swojej pozycji na rynku usług chmury hybrydowej. Włączenie technologii Morpheus do GreenLake pozwoli na lepsze zarządzanie aplikacjami w środowiskach wielochmurowych i wielodostawowych, co jest istotne w obliczu rosnącej złożoności i różnorodności infrastruktury IT w przedsiębiorstwach.
Morpheus Data wnosi do GreenLake zaawansowane możliwości orkiestracji, automatyzacji i zarządzania cyklem życia aplikacji, a także narzędzia FinOps do optymalizacji kosztów operacji w chmurze. W połączeniu z wcześniejszym przejęciem OpsRamp, dostawcy usług zarządzania operacjami IT, HPE umacnia swoją pozycję jako lidera w dostarczaniu kompleksowych rozwiązań hybrydowych dla korporacji.
Jednym z głównych atutów tej transakcji jest perspektywa dalszego rozwoju GreenLake jako platformy przyszłościowej, zdolnej do zarządzania zarówno tradycyjnymi, jak i nowoczesnymi obciążeniami, w tym aplikacjami natywnymi dla chmury oraz z zastosowaniem sztucznej inteligencji. Klienci HPE GreenLake zyskają możliwość elastycznego zarządzania swoimi środowiskami IT, co jest kluczowe w kontekście dynamicznie zmieniającego się rynku.
Warto zaznaczyć, że technologia Morpheus Data będzie nadal dostępna jako samodzielne oprogramowanie, co pozwoli na dalsze wsparcie obecnych klientów i partnerów. Oczekuje się, że transakcja zostanie sfinalizowana na początku czwartego kwartału roku podatkowego 2024 HPE, po spełnieniu standardowych warunków zamknięcia.
Przejęcie Morpheus Data to ważny krok w strategicznym rozwoju HPE, który ma na celu dostarczenie przedsiębiorstwom narzędzi umożliwiających nie tylko efektywne zarządzanie złożonymi środowiskami IT, ale także optymalizację kosztów i wspieranie innowacji w dobie rosnącej digitalizacji.
Hewlett Packard Enterprise (HPE) zbliża się do finalizacji przejęcia Juniper Networks, po tym jak zarówno Komisja Europejska, jak i brytyjski organ ds. konkurencji wyraziły zgodę na tę transakcję. Komisja Europejska zatwierdziła przejęcie 1 sierpnia, a dzisiaj brytyjski organ ds. rynku zakończył swoje dochodzenie, nie znajdując powodów do blokady transakcji.
Decyzja organów regulacyjnych obu stron była kluczowa, ponieważ miały one czas do początku sierpnia na zbadanie wpływu przejęcia na rynek sieciowy. Po dogłębnej analizie zarówno UE, jak i Wielka Brytania uznały, że przejęcie nie stanowi zagrożenia dla konkurencji na rynku.
Bez przeszkód na horyzoncie
Brytyjskie dochodzenie było jednym z ostatnich potencjalnych problemów, które mogły opóźnić przejęcie. Teraz, gdy nic nie stoi na przeszkodzie, HPE może śmiało przygotowywać się do finalizacji transakcji. Firma spodziewa się zakończenia wszystkich formalności do początku 2025 roku.
Powstanie nowego supermocarstwa w branży sieciowej
Przejęcie Juniper Networks przez HPE budzi pewne obawy w branży, ponieważ może to uczynić HPE jednym z największych graczy na rynku sieciowym. Już teraz HPE posiada znaczące aktywa w tej branży dzięki przejęciu Aruba Networks. Połączenie sił z Juniper Networks, której wartość sieci biznesowej oscyluje między pięcioma a sześcioma miliardami dolarów, znacząco zwiększy wpływ HPE na rynek.
Obie firmy razem mogą podwoić swoje obecne zdolności, co jeszcze bardziej umocni pozycję HPE nie tylko jako firmy obliczeniowej, ale również jako potężnego gracza na rynku sieciowym. To z kolei może stanowić poważne wyzwanie dla innych gigantów branży, takich jak Cisco.
Strategiczne kroki HPE
Strategia HPE, polegająca na rozszerzeniu swojego portfolio o kluczowe technologie sieciowe, jest jasnym sygnałem dla rynku, że firma dąży do dywersyfikacji swoich usług i wzmocnienia swojej pozycji w kluczowych segmentach technologicznych. Przejęcie Juniper Networks jest kolejnym krokiem w realizacji tej strategii, otwierając przed HPE nowe możliwości i rynki.
HPE, z portfolio sieciowym wzbogaconym o technologie Juniper Networks, będzie w stanie oferować bardziej zintegrowane i kompleksowe rozwiązania, co z pewnością wpłynie na jej konkurencyjność i pozycję lidera na globalnym rynku.
HPE jest na dobrej drodze do finalizacji jednego z najważniejszych przejęć w swojej historii. Dzięki wsparciu organów regulacyjnych z UE i Wielkiej Brytanii, firma może teraz skupić się na integracji Juniper Networks i realizacji swojej wizji rozwoju. To przejęcie nie tylko wzmocni pozycję HPE na rynku sieciowym, ale również otworzy przed nią nowe możliwości i perspektywy rozwoju w przyszłości.
Hewlett Packard Enterprise (HPE) jest na dobrej drodze do uzyskania bezwarunkowej zgody Unii Europejskiej na przejęcie za 14 miliardów dolarów producenta sprzętu sieciowego Juniper Networks. Oczekuje się, że decyzja Komisji Europejskiej w tej sprawie zapadnie do 1 sierpnia. Informacje te pochodzą od osób zaznajomionych ze sprawą, które pragną pozostać anonimowe – podał Reuters.
W celu rozwiania potencjalnych obaw dotyczących konkurencji na rynku europejskim, HPE podkreślała siłę lidera rynku i rywala Juniper – firmy Cisco. Tego rodzaju argumentacja ma na celu pokazanie, że przejęcie Juniper Networks nie zakłóci równowagi konkurencyjnej na rynku, lecz wręcz przeciwnie, może przyczynić się do zwiększenia innowacyjności i konkurencyjności w sektorze.
Oprócz Komisji Europejskiej, transakcja jest również badana przez brytyjski organ antymonopolowy, którego decyzja ma zostać ogłoszona 14 sierpnia. Decyzje obu tych organów będą kluczowe dla finalizacji przejęcia Juniper Networks przez HPE.
Jeśli zgoda zostanie udzielona, przejęcie to może znacząco wpłynąć na rynek sprzętu sieciowego, zwiększając możliwości HPE w zakresie rozwoju nowych technologii oraz umacniając jej pozycję na rynku globalnym.
Wśród kluczowych komponentów znajduje się HPE Private Cloud AI, pierwsze tego rodzaju rozwiązanie, które zapewnia integrację rozwiązań AI, sieciowych i software’owych firmy NVIDIA z pamięcią masową, rozwiązaniami obliczeniowymi i chmurowymi HPE GreenLake. Od teraz, firmy dowolnej wielkości mogą wejść na energooszczędną, szybką i elastyczną ścieżkę zrównoważonego opracowywania i wdrażania zastosowań generatywnej AI. HPE Private Cloud AI wykorzystuje kopilota AI OpsRamp pomagającego zwiększyć efektywność działań operacyjnych IT. Zawiera samoobsługowe rozwiązanie chmurowe z zarządzaniem pełnym cyklem życia i jest dostępne w czterech konfiguracjach o różnej skali, dzięki czemu jest odpowiednie dla szerokiego zakresu zadań i przypadków użycia z wykorzystaniem AI.
Wszystkie produkty i usługi wchodzące w skład NVIDIA AI Computing by HPE zostaną wprowadzone na rynek w ramach wspólnej strategii, która obejmuje zespoły sprzedażowe i partnerów handlowych, szkolenia oraz globalną sieć integratorów systemów — w tym Deloitte, HCLTech, Infosys, TCS i Wipro — co pomoże przedsiębiorstwom z różnych branż w realizacji złożonych zadań z wykorzystaniem sztucznej inteligencji.
Nowe rozwiązanie zostało ogłoszone podczas wydarzenia HPE Discover przez CEO HPE Antonio Neriego oraz założyciela i CEO firmy NVIDIA, Jensena Huanga. NVIDIA AI Computing by HPE to wynik poszerzonego, wieloletniego partnerstwa i zaangażowania obu firm.
“Generatywna AI ma ogromny potencjał, by przyspieszyć transformację biznesu. Jednak poziom skomplikowania obecnych technologii AI wiąże się ze zbyt wieloma ryzykami i barierami, które spowalniają ich powszechną adopcję w przedsiębiorstwach i mogą zagrozić najcenniejszemu majątkowi firmy, jakim są jej dane – powiedział Antonio Neri.„Aby uwolnić ogromny potencjał generatywnej AI, HPE i NVIDIA wspólnie opracowały chmurę prywatną pod kątem sztucznej inteligencji, umożliwiając firmom skoncentrowanie się na opracowywaniu nowych przypadków użycia AI na rzecz zwiększenia produktywności i wykorzystania nowych strumieni przychodów”. „Generatywna sztuczna inteligencja i szybsze obliczenia umożliwiają kompleksową transformację, ponieważ do rewolucji dołączają wszystkie branże” – powiedział Jensen Huang. „NVIDIA i HPE jeszcze nigdy tak głęboko nie zintegrowały swoich technologii. Dziś, łącząc cały stos obliczeniowy NVIDIA AI z technologią chmury prywatnej HPE, jesteśmy w stanie wyposażyć klientów korporacyjnych i specjalistów zajmujących się AI w najbardziej zaawansowaną infrastrukturę obliczeniową i usługi pozwalające poszerzyć granice zastosowań sztucznej inteligencji”.
Wspólna oferta Private Cloud AI od HPE i NVIDIA
HPE Private Cloud AI to unikalne, oparte na chmurze rozwiązanie przyspieszające wprowadzanie innowacji i pozwalające szybciej uzyskać zwrot z inwestycji przy jednoczesnym zarządzaniu ryzykiem przedsiębiorstwa wynikającym ze stosowania sztucznej inteligencji. Rozwiązanie obejmuje takie elementy, jak:
● Obsługa wnioskowania, dostrajania i obciążeń RAG AI, które wykorzystują poufne dane. ● Kontrola w zakresie prywatności danych, bezpieczeństwa, przejrzystości i governance. ● Chmura z funkcjami ITOps i AIOps w celu zwiększenia produktywności. ● Szybka ścieżka do elastycznego użytkowania, pozwalająca przygotować się na przyszły rozwój sztucznej inteligencji i związanych z nią możliwości.
Wyselekcjonowany stos oprogramowania do AI i danych w HPE Private Cloud AI
Podstawą proponowanego stosu oprogramowania do AI i danych jest platforma software’owa NVIDIA AI Enterprise, która zawiera również mikrousługi wnioskowania NVIDIA NIM™. Platforma software’owa NVIDIA AI Enterprise przyspiesza analizę danych i usprawnia opracowywanie i wdrażanie do produkcji co-pilotów oraz innych zastosowań GenAI. NVIDIA NIM dostarcza łatwe w użyciu mikrousługi optymalizujące wydajność wnioskowania i zapewniające płynne przejście od prototypu do wdrożenia produkcyjnego modeli AI do różnych zastosowań.
Oprogramowanie HPE AI Essential stanowi uzupełnienie dla NVIDIA AI Enterprise i NVIDIA NIM. Jest to gotowy do użycia zestaw wyselekcjonowanych narzędzi do AI i danych, które zapewniają elastyczne rozwiązania, ciągłe wsparcie i usługi takie jak np. compliance dla danych i modeli czy funkcje zapewniające zgodność, przejrzystość i powtarzalność w całym cyklu życia AI. Aby zapewnić optymalną wydajność oprogramowania do AI i danych, HPE Private Cloud AI zapewnia w pełni zintegrowany stos infrastruktury dla AI, w tym rozwiązanie sieciowe NVIDIA Spectrum-X™ Ethernet, HPE GreenLake for File Storage i serwery HPE ProLiant z wsparciem dla platform NVIDIA L40S, NVIDIA H100 NVL Tensor Core i GH200 NVL2.
Doświadczenie chmurowe bazujące na HPE GreenLake
HPE Private Cloud AI to samoobsługowe doświadczenie chmurowe bazujące na HPE GreenLake. Dzięki pojedynczej, bazującej na platformie płaszczyźnie sterowania, usługi w chmurze HPE Greenlake zapewniają zarządzalność i obserwowalność pozwalające na automatyzację, orkiestrację i zarządzanie punktami końcowymi, obciążeniami roboczymi i danymi w środowiskach hybrydowych. Obejmują one m.in. wskaźniki zrównoważonego rozwoju dla obciążeń roboczych i punktów końcowych.
Wgląd w chmurę HPE GreenLake i OpsRamp AI dzięki asystentowi co-pilota
Działanie OpsRamp AI jest zintegrowane z chmurą HPE GreenLake, aby zapewnić obserwowalność i AIOps dla wszystkich produktów i usług HPE. OpsRamp zapewnia teraz obserwowalność dla całego stosu obliczeniowego NVIDIA, w tym dla oprogramowania NVIDIA NIM i AI, procesorów graficznych NVIDIA Tensor Core i klastrów AI, a także dla przełączników NVIDIA Quantum InfiniBand i NVIDIA Spectrum Ethernet. Administratorzy IT uzyskują wyniki analiz pozwalające na identyfikację anomalii i monitorowanie infrastruktury i obciążeń opartych na AI w hybrydowych środowiskach wielochmurowych.
Nowy co-pilot OpsRamp wykorzystuje platformę obliczeniową NVIDIA do interpretacji dużych zestawów danych, której wyniki są prezentowane przez asystenta konwersacyjnego pozwalającego na zwiększenie efektywności zarządzania operacyjnego. OpsRamp będzie również zintegrowany z interfejsami API CrowdStrike, udostępniając jednolity widok mapy usług bezpieczeństwa punktów końcowych w całej swojej infrastrukturze i aplikacjach.
Szybsze generowanie wartości dzięki sztucznej inteligencji – rozszerzona współpraca z globalnymi integratorami systemów
Aby skrócić czas zwrotu z inwestycji w firmach opracowujących rozwiązania i zastosowania AI dla poszczególnych branż, firmy Deloitte, HCLTech, Infosys, TCS i WIPRO ogłosiły wsparcie dla NVIDIA AI Computing by HPE i HPE Private Cloud AI w ramach swoich strategicznych rozwiązań i usług dla AI.
HPE dodaje obsługę najnowszych GPU, CPU i superchipów firmy NVIDIA ● HPE Cray XD670 obsługuje osiem procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla twórców LLM. ● Serwer HPE ProLiant DL384 Gen12 z NVIDIA GH200 NVL2 jest idealny dla użytkowników LLM korzystających z dużych modeli i RAG. ● Serwer HPE ProLiant DL380a Gen12 obsługuje do ośmiu procesorów graficznych NVIDIA H200 NVL Tensor Core i jest idealny dla użytkowników LLM potrzebujących elastycznej skalowalności swoich obciążeń roboczych GenAI. ● HPE będzie wspierać NVIDIA GB200 NVL72 / NVL2, a także nowe architektury NVIDIA Blackwell, NVIDIA Rubin i NVIDIA Vera.
Pamięć masowa o dużej gęstości certyfikowana dla systemów NVIDIA DGX BasePOD i NVIDIA OVX
HPE GreenLake for File Storage uzyskał certyfikację NVIDIA DGX BasePOD i walidację pamięci masowej NVIDIA OVX™, a więc stanowi sprawdzone rozwiązanie do przechowywania plików, które pozwala szybciej przetwarzać duże zadania związane z AI, GenAI i obciążeniami wykorzystującymi procesory graficzne. HPE wprowadza to rozwiązanie równocześnie z zapowiedzianymi programami certyfikacji pamięci masowej dla architektury referencyjnej.
Dostępność
● Rozwiązanie HPE Private Cloud AI ma być powszechnie dostępne jesienią 2024 r. ● Serwer HPE ProLiant DL380a Gen12 z procesorami graficznymi NVIDIA H200 NVL Tensor Core ma być powszechnie dostępny jesienią 2024 r.. ● Serwer HPE ProLiant DL384 Gen12 z podwójnym NVIDIA GH200 NVL2 ma być powszechnie dostępny jesienią 2024 r. ● Serwer HPE Cray XD670 z NVIDIA H200 NVL ma być powszechnie dostępny latem 2024 r.
W Krakowie, w murach Akademickiego Centrum Komputerowego CYFRONET Akademii Górniczo-Hutniczej, zainstalowano nowy superkomputer o nazwie Helios. Ta nowa jednostka obliczeniowa, zdaniem ekspertów, ma szansę stać się liderem wśród polskich superkomputerów pod względem mocy obliczeniowej.
Helios zastępuje dotychczasowego lidera, Athenę, i to w tym samym miejscu. Oba systemy wykorzystują procesory AMD EPYC, choć Helios opiera się na nowszej generacji tych układów. W porównaniu do starszej jednostki, która miała 96 procesorów drugiej generacji, Helios składa się z aż 784 procesorów czwartej generacji, każdy z nich wyposażony w 96 rdzeni.
Moc obliczeniowa nowego superkomputera to około 35 PetaFlops. Helios został zbudowany na platformie HPE Cray EX4000, znanej z zastosowania w najpotężniejszych systemach świata takich jak amerykański Frontier czy europejski LUMI. Kluczową cechą techniczną Heliosa jest innowacyjny system chłodzenia cieczą, który obniża zużycie energii, co jest kluczowe przy intensywnych obliczeniach.
Zaawansowana architektura procesorów AMD Zen oraz chipletowa konstrukcja umożliwiają produkcję wydajnych energetycznie i kosztowo układów, co przekłada się na ich ogromną liczbę rdzeni x86.
Helios będzie dostępny dla instytucji naukowych oraz prywatnych przedsiębiorstw w Polsce, wspierając badania w dziedzinach takich jak chemia, medycyna, materiałoznawstwo, astronomia oraz ochrona środowiska. Jego potencjał obliczeniowy szczególnie przyda się w tradycyjnych badaniach obliczeniowych, takich jak dynamika płynów, symulacje zderzeń, czy symulacje związane z terapią protonową, które są wykorzystywane w leczeniu chorób nowotworowych.
Marek Magryś, Zastępca Dyrektora ACK Cyfronet AGH ds. Komputerów Dużej Mocy, podkreślił znaczenie nowego nabytku: „Od ponad 50 lat Cyfronet wspiera polską i europejską naukę, oferując technologie obliczeniowe, które pozwalają naukowcom szybciej przeprowadzać zaawansowane badania na wielką skalę. Budując Heliosa, staraliśmy się wykorzystać najbardziej zaawansowaną architekturę, co gwarantuje dużą moc obliczeniową oraz możliwości sztucznej inteligencji. HPE Cray EX4000, wykorzystywany w najszybszych klastrach na świecie, to był właściwy wybór.”
Helios nie tylko zastąpi Athenę jako narzędzie badawcze, ale też otworzy nowe możliwości dla polskiej nauki i technologii.
Na ISC High Performance 2024 firma Hewlett Packard Enterprise (HPE) ogłosiła dostarczenie drugiego na świecie superkomputera eksaskalowego, zwanego Aurora. System ten, stworzony we współpracy z Intel dla Narodowego Laboratorium Argonne należącego do Departamentu Energii USA, osiągnął 1.012 exaflops, co czyni go drugim najszybszym superkomputerem na świecie.
Informacja ta została potwierdzona przez listę TOP500, która klasyfikuje najpotężniejsze superkomputery na świecie. Aurora to drugi najszybszy komputer na ziemi, miejsce pierwsze niezmiennie należy do Frontier. System Frontier w Oak Ridge National Laboratory w Tennessee, USA pozostaje najpotężniejszym systemem na liście z wynikiem HPL 1,206 EFlop/s. System ma w sumie 8,699,904 połączonych rdzeni procesora i GPU, architekturę HPE Cray EX, która łączy procesory AMD EPYC trzeciej generacji zoptymalizowane pod kątem HPC i AI z akceleratorami AMD Instinct MI250X i opiera się na sieci Slingshot 11 firmy Cray do przesyłania danych.
Superkomputer Aurora, będący dziełem wspólnych działań HPE, Intel oraz amerykańskiego Departamentu Energii, przekroczył granicę 1 exaflopa, co stanowi jeden kwintylion operacji na sekundę. Ten niewyobrażalny wynik obliczeniowy stawia Aurorę na czele technologii przetwarzania danych, umożliwiając przeprowadzenie niektórych z najbardziej skomplikowanych analiz i symulacji, które mają kluczowe znaczenie dla nauki i technologii.
Aurora została zbudowana na bazie superkomputera HPE Cray EX i jest największym na świecie systemem zdolnym do przetwarzania zadań związanych ze sztuczną inteligencją. Osiągnęła również rekordowy wynik w testach HPL Mixed Precision (MxP) Benchmark, osiągając 10,6 exaflopa na 89% swojej mocy obliczeniowej. Co więcej, system jest wyposażony w największe na świecie wdrożenie superkomputerowego interkonektu HPE Slingshot opartego na sieci Ethernet, co łączy 75 000 punktów końcowych węzłów obliczeniowych oraz 2400 punktów końcowych pamięci masowej i usługowej, zwiększając wydajność obliczeń na dużą skalę.
Trish Damkroger, starszy wiceprezes i dyrektor generalny HPC & AI Infrastructure Solutions w HPE, wyraziła dumę z osiągnięcia kolejnego znaczącego kamienia milowego w eksaskalowaniu możliwości obliczeniowych. Podkreśliła, że sukces Aurory to efekt silnego partnerstwa oraz innowacyjnej inżynierii wspieranej przez HPE, Intel i Departament Energii. Dzięki temu system może przyczyniać się do rozwoju nauki i przynosić korzyści całej ludzkości.
Aurora nie tylko stanowi technologiczny przełom, ale także otwiera nowe możliwości dla badaczy w takich dziedzinach jak fizyka cząstek, neurobiologia czy farmaceutyka. Już teraz w ramach programu Early Science, naukowcy korzystają z Aurory do przyspieszenia projektowania leków i mapowania ludzkiego mózgu, z nadzieją na lepsze zrozumienie jego działania i potencjalne leczenie chorób neurodegeneracyjnych.
Rick Stevens, zastępca dyrektora laboratorium w Argonne National Laboratory, wyraził entuzjazm związany z osiągnięciami Aurory, wskazując, że system ten jest pierwszym tego rodzaju i spodziewa się, że przyniesie przełom dla światowej nauki.
HPE Aruba przedstawiła przełomowe rozwiązanie mające na celu znaczące usprawnienie procesów zarządzania siecią. Skorzystanie z potencjału generatywnej sztucznej inteligencji (GenAI) w ramach platformy Aruba Networking Central otwiera nowe możliwości dla administratorów sieci, ułatwiając im szybki i precyzyjny dostęp do informacji o stanie sieci.
Nowo wprowadzona wyszukiwarka oparta na LLM (Large Language Models) stanowi serce zmian, jakie HPE Aruba proponuje w ramach swojej platformy zarządzania siecią. Dzięki wykorzystaniu zaawansowanych modeli językowych, administratorzy mają teraz możliwość zadawania zapytań w języku naturalnym, aby otrzymać natychmiastowe odpowiedzi dotyczące stanu sieci, potencjalnych problemów oraz zalecanych działań naprawczych. To rozwiązanie, opisywane jako „zmiana silnika” wyszukiwarki sieciowej, pozwala na znaczne przyspieszenie i usprawnienie pracy specjalistów IT.
HPE Aruba podkreśla, że kluczem do skuteczności nowych narzędzi AI jest dostęp do ogromnej bazy danych telemetrycznych, zbieranych z czterech milionów zarządzanych urządzeń sieciowych oraz miliarda punktów końcowych. Firma dysponuje zbiorem danych historycznych, zawierającym odpowiedzi na ponad trzy miliony pytań zarejestrowanych przez klientów. Te informacje napędzają modele uczenia maszynowego, umożliwiając dokładną analizę predykcyjną i dostarczając spersonalizowanych rekomendacji.
David Hughes, dyrektor ds. produktów w HPE Aruba, podkreśla, jak generatywna sztuczna inteligencja może rewolucjonizować pracę administratorów IT. Dzięki interfejsowi w języku naturalnym, specjaliści mogą w łatwy sposób zadawać pytania i otrzymywać natychmiastowe odpowiedzi, co znacznie skraca czas potrzebny na identyfikację i rozwiązanie problemów sieciowych. To podejście nie tylko zwiększa efektywność pracy, ale również umożliwia administratorom skupienie się na bardziej strategicznych aspektach zarządzania infrastrukturą IT.
Według Microsoftu, hakerzy z SVR wykorzystali uzyskane dane do kompromitacji niektórych repozytoriów kodu źródłowego oraz systemów wewnętrznych firmy. W swoim blogu oraz zgłoszeniu regulacyjnym Microsoft nie opisał szczegółowo, do jakiego kodu źródłowego uzyskano dostęp, ani jakie dokładnie możliwości uzyskali hakerzy do dalszego kompromitowania systemów klientów oraz samego Microsoftu.
Microsoft zauważył również, że hakerzy ukradli „sekrety” z komunikacji e-mailowej pomiędzy firmą a jej klientami, w tym tajemnice kryptograficzne, takie jak hasła, certyfikaty i klucze uwierzytelniające. Firma podjęła kroki, aby kontaktować się z dotkniętymi klientami i pomóc w podjęciu niezbędnych środków łagodzących.
Ten atak nie był odosobnionym przypadkiem. Hewlett Packard Enterprise, inna duża firma zajmująca się przetwarzaniem w chmurze, również padła ofiarą ataku hakerskiego ze strony SVR, co ujawniła 24 stycznia. Microsoft podkreślił, że ten trwający atak charakteryzuje się wyraźnym zaangażowaniem, koordynacją i skupieniem ze strony cyberprzestępców, używających zdobytych danych do planowania dalszych ataków i zwiększania swoich zdolności.
Eksperci ds. cyberbezpieczeństwa wyrazili zaniepokojenie sytuacją, podkreślając, jak wielkie niebezpieczeństwo stanowi poleganie rządu i biznesu na monokulturze oprogramowania oraz globalnej sieci chmurowej dostarczanej przez jedną firmę, jaką jest Microsoft. Podnoszą oni kwestię bezpieczeństwa narodowego oraz ryzyka ataków na łańcuch dostaw przeciwko klientom Microsoftu.
Microsoft przyznał, że jeszcze nie ustalił, czy incydent wpłynie istotnie na jego finanse, ale zaznaczył, że upór ataku odzwierciedla globalny krajobraz zagrożeń, zwłaszcza w zakresie wyrafinowanych ataków narodowych. Hakerzy, znani jako Cozy Bear, są tym samym zespołem, który stoi za naruszeniem SolarWinds, co dodatkowo podkreśla powagę i potencjalne długotrwałe skutki takich cyberataków.
Zadaniem HPESpaceborne Computer-2 jest rozszerzenie zakresu i zwiększenie złożoności operacji wykonywanych w przestrzeni kosmicznej w takich obszarach jak przetwarzanie danych i obliczenia o wysokiej wydajności (HPC), w tym z wykorzystaniem sztucznej inteligencji i uczenia maszynowego. Obecna konfiguracja wielokrotnie nagradzanego komputera HPE Spaceborne Computer, opartego na serwerach HPE Edgeline i ProLiant, została rozbudowana o ponad 130 TB pamięci flash KIOXIA. Jest to największa pojemność pamięci, jaką kiedykolwiek wysłano na stację kosmiczną w ramach pojedynczej misji. Nowa konfiguracja uwzględnia: 4x KIOXIA 960 GB RM Series Value SAS o pojemności 960 GB, 8x XG Series NVMe o pojemności 1024 GB oraz 4x PM6 Enterprise SAS SSD o pojemności 30,72 TB. Dodatkowa pamięć umożliwi uruchamianie nowego typu aplikacji i prowadzenie badań w ISS National Laboratory z wykorzystaniem większych zbiorów danych.
Międzynarodowa Stacja Kosmiczna
Inne ulepszenia wprowadzone w HPE Spaceborne Computer-2 to m.in. aktualizacja systemu operacyjnego, oprogramowanie NASA wspierające lot w przestrzeni kosmicznej i nowe zabezpieczenia systemu. Po dostarczeniu komputera na Międzynarodową Stację Kosmiczną status sytemu będzie codziennie monitorowany w celu oceny jego działania w trudnych warunkach.
Superkomputer HPE – rozwój badań na Ziemi i w kosmosie
Po zakończeniu instalacji HPE Spaceborne Computer-2 na stacji kosmicznej, naukowcy będą korzystać z komputera by szybciej osiągać efekty badań. W tradycyjnym podejściu, dane gromadzone w kosmosie wysyłane były na Ziemię w celu przetwarzania. Superkomputer pokładowy, znajdujący się na niskiej orbicie okołoziemskiej, umożliwi analizę danych niemal w czasie rzeczywistym. Pozwoli to na zmniejszenie rozmiaru danych wysyłanych na Ziemię 30 000 razy, poprzez przekazanie jedynie wyników analiz.
Planowane badania, które będą przeprowadzane przy użyciu HPE Spaceborne Computer-2 to m.in. uczenie federacyjne (FL), w ramach którego nastąpi niezależne szkolenie modeli uczenia maszynowego i silników wnioskowania pierwotnie utworzonych w chmurze. Eksperyment będzie realizowany wspólnie z dostawcami usług chmurowych. Ma on dwa cele: przyczynić się do rozwoju modeli trenowania uczenia maszynowego stosowanych na Ziemi i zapewnić aktualność silnika wnioskowania sztucznej inteligencji stosowanego na pokładzie stacji kosmicznej.
HPE we współpracy z ISS National Laboratory po raz kolejny przeprowadzi publiczny nabór propozycji eksperymentów do wykonania na HPE Spaceborne Computer-2. Dodatkowe informacje na temat sposobu składania ofert można znaleźć tutaj.
Sieć w modelu otwartym uruchomiona na częstotliwościach lokalnych będzie unikalną wartością pierwszego w Polsce Campus 5G Network – Open RAN Lab, czyli laboratorium pozwalającego na zdobywanie studentom Politechniki Białostockiej kompetencji w zakresie budowania i obsługi takich sieci na całym świecie – zgodnie z najnowszymi trendami. Dostawca sieci, firma IS-Wireless przy użyciu rozwiązań dostarczonych przez Emitel S.A. i Hewlett Packard Enterprise (HPE) uruchomił na uczelni jedną z pierwszych w Polsce prywatnych sieci 5G, działających w paśmie lokalnym n77 na podstawie pozwolenia UKE.
Sieci 5G wg modelu Open RAN oznaczają dywersyfikację dostawców, a co za tym idzie – udział lokalnych producentów sprzętu i oprogramowania. Praktyczna nauka budowy i obsługi takich sieci będzie możliwa dzięki uruchamianemu w budynku Wydziału Elektrycznego Politechniki Białostockiej laboratorium.
– Studenci będą mieli dostęp do najnowszej technologii – podkreśla dr hab. inż. Mirosław Świercz, prof. PB, Prorektor ds. Rozwoju Politechniki Białostockiej. – Będą mogli testować urządzenia komercyjne, a w laboratorium wykonywać testy związane z transmisją radiową 5G – na przykład sprawdzać, jakie zasoby obliczeniowe serwera zużywa ta sieć.
Sieć 5G dostarczyła uczelni polska firma IS-Wireless – jedyny polski dostawca sieci telekomunikacyjnych w modelu Open RAN. – Sieć 5G uruchomiona na Politechnice Białostockiej pokazuje, że takie rozwiązania mogą powstawać oddolnie w oparciu o rozwiązania wielu dostawców. Interfejsy elementów składających się na sieć są otwarte i wyspecyfikowane, co pozwala korzystać ze sprzętu i oprogramowania różnych dostawców. To istota Open RAN – wyjaśnia dr Sławomir Pietrzyk, prezes IS-Wireless. Dzięki takiej koncepcji technologicznej studenci Wydziału Elektrycznego Politechniki Białostockiej będą mogli praktycznie badać i modyfikować prywatną sieć 5G, jaka zaczęła działać na kampusie uczelni.
Nauczyciele akademiccy z Wydziału Elektrycznego i Wydziału Informatyki Politechniki Białostockiej mają już sprecyzowane konkretne ćwiczenia laboratoryjne, które będą realizowane w Campus 5G Network Open RAN Lab.
źródło: IS-Wireless
– Studenci będą mogli praktycznie sprawdzić, jaki wpływ na komunikację mają modulacja czy kodowanie sygnału – wyjaśnia dr inż. Andrzej Zankiewicz z Katedry Fotoniki, Elektroniki i Techniki Świetlnej Wydziału Elektrycznego Politechniki Białostockiej. – Będą mogli zmieniać parametry i obserwować, jak wpływają one na szybkość transmisji danych czy niezawodność transmisji oraz jej odporność na interferencje – zakłócenia od otaczającego środowiska. Dzięki uruchomieniu laboratorium studenci Politechniki Białostockiej będą lepiej przygotowani do wejścia na rynek pracy – dodaje.
– Coraz więcej sieci telekomunikacyjnych na świecie buduje się w oparciu o model Open RAN. Sieci 6G będą powstawać już niemal wyłącznie w tym modelu – przypomina dr Sławomir Pietrzyk. Dlatego instalacja w Białymstoku, pierwsza taka na polskiej uczelni, jest tak ważna. Sieci 6G będą budowane już pod koniec bieżącej dekady– dodaje.
IS-Wireless przekonuje, że w Polsce Politechnika Białostocka będzie pierwszą uczelnią dysponującą takim praktycznym laboratorium sieci 5G. Do tej pory firma uruchomiła kilka takich laboratoriów za granicą. – Politechnika Białostocka to doskonały partner – podsumuje dr Sławomir Pietrzyk. –Wspólnie pokażemy, razem z pozostałymi konsorcjantami, że budowa prywatnych sieci 5G w oparciu o lokalne częstotliwości jest możliwa. Instalacja pomoże wykształcić kompetencje, które są coraz bardziej potrzebne na rynku telekomunikacyjnym.
Campus 5G Network Open RAN Lab w Politechnice Białostockiej to również efekt współpracy z firmą Emitel S.A. – liderem infrastruktury pasywnej w Polsce, który wchodzi w obszar sieci prywatnych. Firma zbudowała infrastrukturę rozproszonych anten (DAS), a serwery zapewniła firma Hewlett Packard Enterprise (HPE) – globalny dostawca rozwiązań IT w tym dla sieci telekomunikacyjnych nowych generacji.
– Z racji rosnącej roli, jaką w nowoczesnym świecie pełni sprawna i szybka komunikacja pomiędzy urządzeniami, pracujące w wysokich częstotliwościach sieci 5G, wymagają umiejętnego projektowania oraz wdrażania, a także niezawodnego systemu dystrybucji sygnału radiowego. To właśnie od tego zależy jakość usług świadczonych w budynkach biurowych, bądź przemysłowych – podkreśla Piotr Guziewicz, Dyrektor Biura Planowania Sieci i Rozwoju Usług w Emitel.
– Najnowsze rozwiązania z obszaru telekomunikacji stanowią jedną z sił napędowych gospodarki, umożliwiając budowę inteligentnych fabryk oraz miast, a także automatyzację oraz wprowadzanie nowych usług, które wymagają błyskawicznego transferu danych. Jako dostawca kompleksowych rozwiązań od brzegu sieci aż po chmurę obliczeniową – w tym pełnego portfolio usług dla łączności przewodowej i bezprzewodowej – z satysfakcją obserwujemy współpracę polskiej nauki z biznesem na tym polu –zaznacza z kolei Krzysztof Kowalczyk, Enterprise Sales Director, Hewlett Packard Enterprise Polska.
Krzysztof Kowalczyk, HPE / źródło: IS-Wireless
Inwestycja została zrealizowana przez firmę IS-Wireless, która pozyskała finansowanie od funduszu Bitspiration Booster składające się z części komercyjnej i środków publicznych z Regionalnego Programu Operacyjnego Województwa Podlaskiego na lata 2014-2020 – Umowa Operacyjna nr 4/RPPD/1219/2019/1/DIF/187, zawarta 5 czerwca 2019 roku pomiędzy Bitspiration Booster Sp. z o.o. (jako Pośrednikiem Finansowym) oraz Bankiem Gospodarstwa Krajowego (jako Menadżerem Funduszu Funduszy na terenie województwa podlaskiego).
Urszula Leciejewska dołączyła do Hewlett Packard Enterprise (HPE), gdzie jako Channel Director odpowiada za polski ekosystem partnerski. W swojej nowej roli zadba o relacje z obecnymi partnerami oraz o rozwój kanału dystrybucji, aby produkty i usługi oferowane przez HPE trafiały do coraz większej liczby odbiorców.
Doświadczona managerka dołącza do HPE
Urszula Leciejewska posiada ponad 20-letnie doświadczenie w obszarze kanału partnerskiego w sektorze IT. Przed dołączeniem do HPE pełniła rolę Channel Managera na Europę Środkowo-Wschodnią w Atlassian. Wcześniej, przez niemal 10 lat, związana była z Google, gdzie zajmowała regionalne stanowiska, rozwijając kanał partnerski w segmencie usług chmurowych. W swojej karierze pracowała również m.in. w Fujitsu-Siemens, EMC oraz IBM.
Jej największe pasje to muzyka (ma wykształcenie muzyczne) i nowe technologie oraz ich wpływ na rozwój gospodarki. Jest absolwentką kierunku Informatyka w Ekonomii na Uniwersytecie Ekonomicznym we Wrocławiu, kształciła się także m.in. w Babson College i Harvard Business School w Stanach Zjednoczonych oraz w University of Cambridge w Wielkiej Brytanii.
HPE potwierdziło ostatnie doniesienia. Firma wydała komunikat potwierdzający, że doszło do porozumienia z Juniper Networks. Przejęcie za kwotę 14 miliardów dolarów nie jest tylko prostą transakcją, ale strategicznym posunięciem, które może zdefiniować przyszłość obu firm.
Nowe przejęcie HPE – relacja win-win
HPE zyskuje dzięki temu połączeniu znaczne wzmocnienie w obszarze sieciowym. Integracja oferty Juniper, specjalisty od sieci, z portfolio HPE może przynieść innowacje i ulepszenia w architekturze natywnej dla chmury i sztucznej inteligencji.
Ta akwizycja może zmienić układ sił w branży technologicznej. Juniper Networks, będąc znaczącym graczem w sektorze sieciowym, pod rządami HPE, może teraz konkurować z innymi gigantami, takimi jak Cisco i Arista Networks.
Każda akwizycja tej skali niesie ze sobą ryzyka. Integracja dwóch różnych korporacyjnych kultur, zarządzanie złożoną infrastrukturą i spełnienie oczekiwań rynkowych to tylko niektóre z wyzwań, przed którymi stanie HPE.
CEO Juniper Networks dołącza do HPE
Wskazanie Rami Rahima, dotychczasowego CEO Juniper Networks, na kierownika biznesu sieciowego HPE, jest strategicznym posunięciem. Jego doświadczenie i wizja mogą być kluczowe w płynnej integracji i dalszym rozwoju.
Przejęcie Juniper Networks przez HPE jest wyraźnym sygnałem ambitnych planów firmy w świecie technologii.
2024 rok zaczynamy zapowiedzią olbrzymiego przejęcia – Hewlett Packard Enterprise (HPE) ma zamiar przejąć Juniper Networks za imponującą kwotę 13 miliardów dolarów. Ten ruch, który Wall Street Journal określa jako bliski finalizacji, zwiastuje znaczące przetasowania na rynku technologicznym.
HPE – nowa strategia, nowe przejęcie
To przejęcie symbolizuje nie tylko potężne połączenie dwóch gigantów technologicznych, ale także wskazuje na strategiczne posunięcia HPE w obszarze sztucznej inteligencji. Firma wyraźnie sygnalizuje swoje zainteresowanie Mist AI Juniper – technologią mającą na celu poprawę dostępu do sieci bezprzewodowych. Integracja Mist AI z portfolio HPE może znacznie wzmocnić ich pozycję na konkurencyjnym rynku AI.
Co z Arubą?
Jednakże, pojawiają się pytania dotyczące synergii między Juniper Networks a istniejącymi ofertami HPE, w szczególności z Arubą, ich obecnym specjalistą od sieci. Czy przejęcie nie będzie redundantne? Czy HPE skutecznie wykorzysta zasoby Juniper, nie tworząc konfliktów wewnętrznych?
Ambicje HPE w dziedzinie AI nie są nowością. Firma ujawniła swoje plany na konferencji Discover w zeszłym roku, prezentując hybrydową platformę chmurową GreenLake jako kluczowy element swojej oferty AI. Przejęcie Juniper Networks może być kluczowym krokiem do realizacji tych planów, oferując „full-stack” AI, który połączy wszystkie warstwy ich oferty.
To przejęcie to nie tylko finansowy kolos, ale przede wszystkim strategiczny ruch w dynamicznie zmieniającej się szachownicy technologicznej. HPE, inwestując w Juniper Networks, nie tylko zwiększa swoje możliwości technologiczne, ale także stawia na innowacje w obszarze AI, co może być kluczowe w nadchodzącej erze cyfrowej transformacji.
Jednakże, sukces tego przedsięwzięcia będzie zależał od zdolności HPE do harmonijnej integracji Juniper w swoje struktury. Wyzwaniem będzie uniknięcie wewnętrznych konfliktów i zapewnienie, że obie firmy skutecznie współpracują na rzecz wspólnego celu.
Hewlett Packard Enterprise (HPE) sprzeciwia się decyzji Departamentu Sprawiedliwości USA o zablokowaniu przejęcia Juniper Networks, argumentując, że może to wzmocnić pozycję Huawei i zagrozić bezpieczeństwu narodowemu USA. HPE twierdzi, że fuzja zwiększy konkurencję na rynku centrów danych i infrastruktury AI, stanowiąc alternatywę dla Cisco i Huawei.
Departament Sprawiedliwości USA wnosi pozew, aby zablokować transakcję, powołując się na obawy związane z ograniczeniem konkurencji na rynku sieciowym.
Komisja Europejska zatwierdza przejęcie, uznając, że nie budzi ono obaw o konkurencję na rynku europejskim. Trzy dni później brytyjski regulator (CMA) wydaje pozytywną decyzję, uznając, że transakcja nie narusza zasad konkurencji w Wielkiej Brytanii.
Brytyjski regulator (CMA) rozpoczyna analizę przejęcia, badając jego wpływ na konkurencję w Wielkiej Brytanii.
Juniper Networks mianuje Hope Gallery, byłą pracowniczkę Cisco, na stanowisko wiceprezesa ds. kanałów w Ameryce, co sugeruje przygotowania do intensyfikacji konkurencji z Cisco.
HPE oficjalnie potwierdza ofertę przejęcia. CEO Antonio Neri podkreśla, że transakcja wzmocni pozycję firmy w sektorze sieciowym.
Pojawiają się pierwsze doniesienia o możliwym przejęciu Juniper Networks przez HPE. Media branżowe, w tym „Wall Street Journal” i „Reuters”, informują o negocjacjach.
W dzisiejszym świecie technologii, gdzie sztuczna inteligencja (AI) staje się coraz bardziej dominującą siłą, HPE wydaje się postawić wszystko na jedną kartę. Ich nowa strategia, skupiająca się na pełnym zakresie rozwiązań AI z udziałem Nvidia, może być zarówno innowacyjna, jak i ryzykowna. HPE stawia na architekturę natywną dla AI, proponując rozwiązania full-stack, które obejmują wszystko od sprzętu po oprogramowanie.
Antoni Neri, CEO HPE, twierdzi, że AI jest „najważniejszą technologią naszych czasów”, przewyższającą wpływem zarówno telefony komórkowe, jak i technologię chmury. Jednak to stwierdzenie, choć odważne, rzuca cień na istotne pytanie: czy HPE jest w stanie dostarczyć unikalną wartość w świecie, gdzie Nvidia wydaje się być wszechobecnym partnerem dla wielu firm technologicznych?
HPE i kluczowe partnerstwo z Nvidia
W centrum strategii HPE znajduje się współpraca z Nvidia. Ta współpraca obejmuje nie tylko sprzęt, ale i oprogramowanie, szkolenia oraz uruchamianie modeli AI w środowisku hybrydowym. To podejście wydaje się sensowne, biorąc pod uwagę dominującą rolę Nvidii w branży AI, zwłaszcza w kontekście ich komponentów sprzętowych niezbędnych do przetwarzania dużych obciążeń AI.
Wyzwania i potencjał
HPE staje przed wyzwaniem: jak wyróżnić się na tle konkurencji, która również wykorzystuje technologię Nvidii? Kluczowym elementem strategii HPE jest tzw. architektura AI-native, czyli architektura dedykowana sztucznej inteligencji. Zakłada ona, że różnorodne obciążenia wymagają różnego sprzętu. HPE wraz z Nvidia proponują rozwiązanie typu full-stack, pokrywające wszystko – od sprzętu, przez oprogramowanie, po szkolenia i uruchamianie modeli AI. Jest to podejście hybrydowe, łączące w sobie różne elementy technologii. Jednakże, brakuje tu jasności, jak ta architektura różni się od rozwiązań konkurencji.
Innowacje w przechowywaniu i wnioskowaniu
Na Discover Barcelona, HPE ogłosiło kluczowe aktualizacje w zakresie przechowywania danych. Z jednej strony, podkreślono wagę danych dla sztucznej inteligencji i szybkiego przechowywania, co znajduje odzwierciedlenie w platformie flash HPE GreenLake for File Storage. Z drugiej strony, zwrócono uwagę na potrzebę efektywnego „karmienia” drogich GPU, czemu służą nowe rozwiązania Nvidia Quantum-2 InfiniBand i Nvidia GPUDirect.
HPE wprowadziło serwery HPE ProLiant DL380a Gen 11, zaprojektowane z Nvidią i oparte na procesorach graficznych Nvidia L40S. Te serwery, zoptymalizowane pod kątem AI, są idealne do wnioskowania i pozwalają na dostrajanie modeli AI, w tym wstępnie wyszkolonych przez HPE.
Oprócz sprzętu, HPE kładzie nacisk na cały stos oprogramowania. Serwery ProLiant DL380a uruchamiają środowisko HPE Machine Learning Development Environment oraz platformę danych HPE Ezmeral, które współpracują z ekosystemem Nvidia AI Enterprise. HPE podkreśla swoje zaangażowanie w hybrydowe rozwiązania, oferując trening i tuning modeli AI w środowisku hybrydowym.
Chociaż partnerstwo HPE z Nvidia wydaje się być strategicznym ruchem, pozostają pytania dotyczące unikalności ich oferty. HPE zdaje się łączyć wiele istniejących rozwiązań w „całkowity stos”, ale brakuje wyraźnego zarysowania, co odróżnia ich podejście od konkurencji.
Czy architektura natywna dla AI HPE jest rzeczywiście rewolucyjna, czy też jest to tylko odpowiedź na ogólny trend dominacji Nvidii w branży AI? To pytanie pozostaje otwarte, a przyszłość pokaże, czy HPE rzeczywiście uda się wyróżnić na tle konkurencji i czy ich podejście do sztucznej inteligencji przyniesie przełomowe zmiany.
Międzynarodowe Centrum Teorii Technologii Kwantowych (ICTQT) działające przy Uniwersytecie Gdańskim rozpoczęło korzystanie z platformy do obliczeń o wysokiej wydajności dostarczonej przez HPE, której głównym elementem jest serwer HPE SuperDome Flex. Dzięki zakupionej platformie pracownicy naukowi są w stanie prowadzić badania nad protokołami kwantowymi, które jak dotąd nie były możliwe ze względu na brak odpowiednio wydajnej infrastruktury, a także emulować pracę komputerów kwantowych i realizować projekty z obszaru metrologii oraz komunikacji kwantowej. W przyszłości może to pomóc w budowie dużo wydajniejszej i bardziej precyzyjnej aparatury pomiarowej oraz w konstruowaniu komputerów kwantowych.
„Badania prowadzone w Międzynarodowym Centrum Teorii Technologii Kwantowych mają specyficzne wymagania, związane z potrzebą skoncentrowania dużej przestrzeni pamięciowej w jednym systemie, zapewniającym także znaczną moc obliczeniową. Dlatego też, wybraliśmy ofertę opartą na rozwiązaniach HPE, odpowiadającą naszym oczekiwaniom” – wyjaśnia dr Piotr Mironowicz – przedstawiciel ICTQT. „Poszukując rozwiązań, które technologicznie mogłyby sprostać naszym wyzwaniom badawczym, rozważaliśmy różne opcję, w tym dostęp do mocy obliczeniowej w postaci usługi w chmurze publicznej. Jednak szczegółowa analiza ofert wykazała, że byłoby to rozwiązanie droższe i mniej wydajne z uwagi na opóźnienia w transferach danych i ograniczenia konstrukcyjne infrastruktury udostępnianej przez hiperskalerów” – dodaje.
Rozwiązanie HPE na ICTQT
Nowe rozwiązanie wykorzystywane przez Międzynarodowe Centrum Teorii Technologii Kwantowych to serwer HPE SuperDome Flex, wyposażony w 12 TB pamięci operacyjnej. Dzięki niemu naukowcy pozyskali efektywną kosztowo platformę, która w jednym systemie przechowa i przeprocesuje dane pochodzące z wielu różnych projektów, wymagających ogromnej mocy obliczeniowej. Ponadto konfiguracja systemu pozwala na jego łatwe skalowanie, jeśli w przyszłości zapotrzebowanie na moc obliczeniową czy pamięć operacyjną ulegnie zmianie. Zakupu sprzętu dokonano dzięki finansowaniu otrzymanemu z Fundacji na rzecz Nauki Polskiej w ramach programu Międzynarodowe Agendy Badawcze, współfinansowanego przez Unię Europejską z funduszy Programu Operacyjnego Inteligentny Rozwój (PO IR). Wdrożenie zostało przeprowadzone przez firmę Koma Nord Sp. z o.o.
„Instytucje naukowe to jedni z najbardziej wymagających użytkowników, charakteryzujący się wyrafinowanymi potrzebami w zakresie rozwiązań do obliczeń o wysokiej wydajności. W Polsce i na całym świecie ośrodki badawcze coraz chętniej budują własne instalacje tego typu, przy wykorzystaniu HPE SuperDome Flex. Dzięki temu mogą sprawnie analizować obszerne zbiory danych i korzystać z elastyczności, wydajności i niezawodności sprzętu” – wyjaśnia Aleksandra Brodiuk, Enterprise Account Manager w Hewlett Packard Enterprise.„Cechy te doceniają także klienci komercyjni, powszechnie wykorzystujący HPE SuperDome Flex do obsługi baz danych typu in-memory, takich jak SAP HANA” – dodaje.
Międzynarodowe Centrum Teorii Technologii Kwantowych (ICTQT) to wspólna jednostka badawcza Uniwersytetu Gdańskiego i Instytutu Optyki Kwantowej i Informacji Kwantowej Austriackiej Akademii Nauk, która koncentruje się na badaniach dotyczących technologii kwantowych przyszłości, a w szczególności komunikacji i informacji kwantowej, oraz samej teorii kwantów. W związku z aktualnie nabytą platformą do obliczeń o wysokiej wydajności planowane są m.in. badania właściwości kwantowej nielokalności oraz nierówności Bella, a tym samym kontynuacja prac nagrodzonych w ubiegłym roku Nagrodą Nobla. Z punktu widzenia praktycznych zastosowań, badania w ICTQT skupiają się na niezawodnych systemach zapewniających absolutne cyberbezpieczeństwo danych (m.in. kwantowa, samotestująca się kryptografia), kwantowych protokołach komunikacyjnych oraz pracach koncepcyjnych dotyczących algorytmów dla komputerów kwantowych.
HPE prezentuje superkomputerowe rozwiązanie dla generatywnej sztucznej inteligencji przeznaczone dla dużych przedsiębiorstw, instytucji badawczych i organizacji rządowych, które pozwala na skrócenie procesu trenowania i dostrajania modeli sztucznej inteligencji przy użyciu prywatnych zbiorów danych. Rozwiązanie to składa się z pakietu oprogramowania umożliwiającego trenowanie i dostrajanie modeli oraz opracowywanie aplikacji korzystających z AI. Rozwiązanie obejmuje również superkomputery chłodzone cieczą, przyspieszone obliczenia, rozwiązania sieciowe, pamięć masową i usługi, które pomagają organizacjom szybciej uzyskiwać rezultaty dzięki zastosowaniu sztucznej inteligencji.
„Wiodące firmy i ośrodki badawcze szkolą i dostrajają modele sztucznej inteligencji, aby zwiększać innowacyjność i osiągać przełomowe rezultaty w prowadzonych badaniach. Jednak by robić to skutecznie i wydajnie, potrzebują specjalnie zaprojektowanych rozwiązań” – powiedział Justin Hotard, wiceprezes i dyrektor generalny ds. HPC, AI & Labs w HPE.„Aby korzystać z generatywnej sztucznej inteligencji, organizacje potrzebują zrównoważonych rozwiązań zapewniających wydajność i skalowalność superkomputera, pozwalających skutecznie szkolić modele sztucznej inteligencji. Cieszymy się z rozszerzenia naszej współpracy z firmą NVIDIA i oferujemy rozwiązanie „pod klucz” oparte na sztucznej inteligencji, które pomoże naszym klientom znacznie przyspieszyć trenowanie modeli i uzyskiwanie wyników z wykorzystaniem sztucznej inteligencji”.
Narzędzia programistyczne do budowania aplikacji AI, dostrajania gotowych modeli oraz opracowywania i modyfikowania kodu są kluczowymi elementami naszego superkomputerowego rozwiązania dla generatywnej sztucznej inteligencji. Oprogramowanie to jest zintegrowane z technologią superkomputerową HPE Cray, która bazuje na potężnej architekturze używanej w najszybszym superkomputerze świata i wykorzystuje „superczipy” NVIDIA Grace Hopper GH200. Rozwiązanie to oferuje organizacjom bezprecedensową skalę i wydajność wymagane dla dużych obciążeń związanych ze sztuczną inteligencją, takich jak trenowanie dużych modeli językowych (LLM) czy modeli rekomendacji bazujących na głębokim uczeniu (DLRM). Korzystając ze środowiska programistycznego HPE Machine Learning Development Environment w tym systemie, działający na open source model Llama 2 o 70 miliardach parametrów został dostrojony w mniej niż 3 minuty, co bezpośrednio przełożyło się na krótszy czas uzyskania wartości dla klientów. Zaawansowane możliwości superkomputerów HPE wspierane przez technologię NVIDIA przekładają się na 2-3-krotne zwiększenie wydajności systemu.
„Generatywna sztuczna inteligencja wpływa na transformację każdego przedsięwzięcia, zarówno w przemyśle, jak i w nauce” – powiedział Ian Buck, wiceprezes ds. Hyperscale i HPC w NVIDIA. „Współpraca firmy NVIDIA z HPE nad tym gotowym rozwiązaniem do szkolenia i symulacji sztucznej inteligencji, opartym na superczipach NVIDIA GH200 Grace Hopper, zapewni klientom wydajność niezbędną do osiągnięcia prawdziwych przełomów w działalności związanej z generatywną sztuczną inteligencją”.
Współpraca HPE i NVIDIA – zaawansowane, zintegrowane rozwiązanie AI
Prezentowane superkomputerowe rozwiązanie dla generatywnej sztucznej inteligencji zostało zaprojektowane jako zintegrowany, natywny dla AI system obejmujący:
Oprogramowanie do akceleracji AI/ML – zestaw trzech narzędzi do trenowania i dostrajania modeli AI i tworzenia własnych aplikacji AI.
– HPE Machine Learning Development Environment to platforma software’owa do uczenia maszynowego, która umożliwia szybsze opracowywanie i wdrażanie modeli sztucznej inteligencji poprzez integrację z popularnymi frameworkami ML i uproszczenie przygotowywania danych.
– NVIDIA AI Enterprise pomaga organizacjom na drodze do najnowocześniejszej sztucznej inteligencji z zachowaniem bezpieczeństwa, stabilności, łatwością zarządzania i pełnym wsparciem. Oferuje rozbudowane struktury, wstępnie wytrenowane modele i narzędzia, które usprawniają opracowywanie i wdrażanie produkcyjnej sztucznej inteligencji.
– Pakiet HPE Cray Programming Environment daje programistom kompletny zestaw narzędzi do projektowania, portowania, debugowania i dopracowywania kodu.
Zaprojektowane z myślą o skalowaniu – rozwiązanie oparte jest na eksaskalowym systemie HPE Cray EX2500 i wyposażone w wiodące układy NVIDIA GH200 Grace Hopper Superchip. Dzięki temu możliwe jest skalowanie nawet do poziomu wielu tysięcy procesorów graficznych (GPU) z możliwością dedykowania pełnej pojemności węzłów do obsługi pojedynczego obciążenia AI, co przyspiesza uzyskiwanie rezultatów. Jest to pierwszy system wyposażony w poczwórną konfigurację węzłów „superczipów” GH200.
Rozwiązanie sieciowe dla sztucznej inteligencji wykorzystywanej w czasie rzeczywistym – HPE Slingshot Interconnect oferuje otwartą, opartą na sieci Ethernet, wysokowydajną sieć zaprojektowaną do obsługi eksaskalowych obciążeń roboczych. Rozwiązanie to bazuje na technologii HPE Cray, co zwiększa wydajność całego systemu, umożliwiając niezwykle szybką pracę w sieci.
Prostota dzięki rozwiązaniu „pod klucz” – oferowane rozwiązanie uzupełniają usługi HPE Complete Care Services, które zapewniają specjalistyczną pomoc w zakresie konfiguracji, instalacji i wsparcia przez cały cykl życia, co ułatwia wdrożenie rozwiązań AI.
źródło: HPE
Bardziej ekologiczna przyszłość superkomputerów i sztucznej inteligencji
Szacuje się, że do 2028 roku wzrost obciążeń związanych ze sztuczną inteligencją będzie oznaczał zapotrzebowanie w centrach danych na około 20 gigawatów mocy. Klienci będą potrzebować rozwiązań zapewniających wyższą efektywność energetyczną, aby zminimalizować emisję CO2.
Rozwiązania obliczeniowe HPE są efektywne energetycznie, m.in. dzięki zastosowaniu chłodzenia cieczą, co pozwala zwiększyć wydajność nawet o 20 proc. w porównaniu do rozwiązań chłodzonych powietrzem i zużyć o 15 proc. mniej energii.
Obecnie większość spośród 10 najbardziej wydajnych superkomputerów na świecie wykorzystujących bezpośrednie chłodzenie cieczą (DLC) to systemy firmy HPE. Ten rodzaj układu chłodzenia jest również stosowany w prezentowanym superkomputerowym rozwiązaniu dla generatywnej sztucznej inteligencji. Pozwala on na wydajne chłodzenie systemu przy jednoczesnym obniżeniu zużycia energii w zastosowaniach wymagających dużej mocy obliczeniowej.
HPE oferuje rozwiązania pomagające organizacjom wykorzystać najpotężniejsze technologie obliczeniowe w celu skutecznego wykorzystania AI przy jednoczesnym zmniejszeniu zużycia energii.
Dostępność
Superkomputerowe rozwiązanie dla generatywnej sztucznej inteligencji będzie dostępne za pośrednictwem HPE w ponad 30 krajach od grudnia tego roku.
Do polskiego zespołu HPE dołączyła Magdalena Kasiewicz, która objęła stanowisko Dyrektorki ds. Sprzedaży Usług Chmurowych. W swojej nowej roli będzie ona zarządzać zespołem ds. rozwiązań hybrydowych, opiekującym się portfolio z obszaru HPE GreenLake Flex Solutions, HPE GreenLake for Private Cloud Enterprise, a także usług zarządzanych i doradztwa w ramach Advisory and Professional Services.
Fokus na chmurę
Magdalena Kasiewicz przynosi ze sobą ponad 20 lat doświadczenia jako liderka IT i strateg transformacji cyfrowej. Przez ostatnie trzy lata była członkinią zarządu polskiego oddziału Microsoft, gdzie pełniła kluczową rolę szefowej zespołu doradzającego klientom w procesach wdrażania strategii chmurowej. W przeszłości piastowała również stanowiska regionalne i globalne w tej organizacji, pracując m.in. w jej siedzibie głównej i odpowiadając za globalną strategię w zakresie DevOps i modernizacji aplikacji.
HPE z nową dyrektorką na pokładzie
W swojej karierze była także związana z Reckitt Benckiser, gdzie jako Head of Digital Delivery and Technology kierowała zespołem dostarczającym cyfrowe rozwiązania dla ponad 30 rynków na całym świecie. Jej doświadczenie obejmuje ponadto zarządzanie programami transformacji cyfrowej u operatorów telekomunikacyjnych, takich jak Polkomtel czy Orange.
Magdalena Kasiewicz ukończyła Akademię Psychologii Przywództwa w Szkole Biznesu Politechniki Warszawskiej oraz Polsko-Japońską Akademię Technik Komputerowych. Jest zaangażowana w inicjatywy mentoringowe dla kobiet, co podkreśla jej zainteresowanie wspieraniem ich rozwoju zawodowego w obszarze technologii.
„Świat IT staje się coraz bardziej hybrydowy, a coraz więcej klientów z segmentu enterprise przestaje postrzegać chmurę publiczną jako jedyny możliwy kierunek transformacji cyfrowej. Dzięki rozwiązaniom takim jak HPE GreenLake mogą oni spersonalizować swoje doświadczenie chmury i wydobyć maksymalną wartość z gromadzonych danych. Zdecydowałam się dołączyć do HPE, aby wraz z moim nowym zespołem pomóc polskim firmom w tej transformacji” – mówi Magdalena Kasiewicz.
Żabka wybrała platformę edge-to-cloud HPE GreenLake do obsługi swoich aplikacji SAP S/4HANA. SAP S/4HANA to dla tej organizacji system o kluczowym znaczeniu. W oparciu o niego funkcjonują procesy takie jak planowanie zatowarowania, cen i promocji, a także logistyka, magazynowanie czy obsługa klienta.
Po głośnym wdrożeniu platformy Cisco SD-WAN, Żabka nie staje w miejscu i podejmuje kolejne inwestycje w IT. Sieć działa w blisko 10 000 lokalizacji i średnio otwiera 1 tys. nowych sklepów każdego roku. Dlatego możliwość łatwego skalowania IT przy przewidywalnych kosztach ma ogromne znaczenie w strategii firmy.
„Przy wyborze technologii kluczowy był dla nas sprawdzony partner, gotowy zaproponować nam narzędzie gwarantujące bezpieczeństwo, jak najlepiej dostosowane do naszych potrzeb. Zdecydowaliśmy się na platformę HPE GreenLake, która zapewni nam zarówno elastyczność i szybkość, charakterystyczną dla rozwiązań chmurowych, jak i możliwości kontroli typowe dla infrastruktury on-premise. Dzięki temu zyskujemy większą wydajność systemu, która pomoże nam stworzyć prawdziwie hybrydowe IT w naszej organizacji” – powiedział Jakub Masłowski, Dyrektor ds. Technologii, Grupa Żabka.
Chmury prywatne przynoszą coraz większe korzyści organizacjom, które oczekują przewidywalności kosztów i wysokiej wydajności dla krytycznych obciążeń, aktywnych 24 godziny na dobę, takich jak SAP S/4HANA. Constellation Research przeprowadziło badanie pośród CIO z całego świata i ustaliło, że przeniesienie obciążeń z chmury publicznej do prywatnej umożliwiło uzyskanie oszczędności finansowych na poziomie 50 proc., zapewniając wydajność wyższą o 65 proc. i 2-krotnie skracając czas cyklu rozwoju IT1.
Platforma SAP S/4HANA Żabki działa w oparciu o infrastrukturę dostarczaną jako usługę (IaaS) w ramach HPE GreenLake, składającą się z serwerów skalowalnych HPE Superdome Flex, serwerów HPE ProLiant oraz pamięci masowej HPE Alletra. HPE GreenLake zapewnia elastyczność typową dla chmury oraz przewidywalność kosztów, ponieważ Żabka płaci tylko za faktyczne wykorzystanie zasobów. Oferta IaaS obejmuje również ciągłe monitorowanie systemu za pomocą sztucznej inteligencji, aby zapobiegać powstawaniu „wąskich gardeł”. W rezultacie pojemność dostępnych zasobów może zostać szybko zwiększona w razie potrzeby.
„Z satysfakcją zauważamy, że coraz więcej firm na całym świecie chce korzystać z doświadczenia chmury, jakie zapewnia platforma HPE GreenLake, zamiast używać rozwiązań oferowanych przez hiperskalerów” – powiedział Krzysztof Kowalczyk, Enterprise Sales Director w HPE Polska.„Daje im to gwarancję wysokiej wydajności, dostępności i elastyczności skalowania przy łatwych do przewidzenia kosztach”.
„Doceniamy zaufanie, jakim obdarzyła nas Żabka, planując kolejny etap współpracy, którym jest wspólna budowa usług chmury prywatnej dla całej Grupy, w oparciu o HPE GreenLake. Dzięki temu klient stworzy Disaster Recovery Center napędzane rozwiązaniem Zerto, łącząc obszar chmury i on-premise. To pierwszy duży krok w kierunku budowy prawdziwie hybrydowego IT” – dodaje Piotr Abramowicz, HPE Enterprise Account Manager.https://www.hpe.com/psnow/doc/a00133121enw
Hewlett Packard Enterprise ogłosiło utworzenie ponad 150 nowych miejsc pracy w swoim Globalnym Centrum Doskonałości dla platformy edge-to-cloud HPE GreenLake zlokalizowanym w Galway w Irlandii. Nowe centrum jest kluczowe dla rozwoju platformy HPE GreenLake, która jest głównym elementem gamy rozwiązań HPE. Zatrudnieni programiści i specjaliści od działalności badawczo-rozwojowej będą wspierać klientów i partnerów firmy za pomocą zintegrowanej platformy obsługi klienta i portfolio różnego rodzaju rozwiązań zgrupowanych pod jedną marką. HPE GreenLake obsługuje 27 000 klientów, działa na ponad 3,4 mln podłączonych urządzeń i zarządza 20 eksabajtami danych klientów na całym świecie.
HPE – inwestycja w Galway
Strategiczna inwestycja w Galway to przejaw dalszego zaangażowania HPE w Europie, która stała się centrum badawczo-rozwojowym zajmującym się takimi obszarami jak: usługi cyfrowe, usługi chmurowe, rozwiązania HPE GreenLake oraz cyberbezpieczeństwo, usługi HPE Financial Services czy rozwiązania HPE Aruba Networking. Zaawansowany europejski ekosystem technologiczny i dostęp do wysoko wykwalifikowanej kadry specjalistów sprawiają, że jest to idealna lokalizacja dla prac badawczo-rozwojowych.
„Nowe Globalne Centrum Doskonałości w Europie pomoże naszej firmie realizować jej wizję i kształtować przyszłe doświadczenie użytkownika na platformie HPE GreenLake” – powiedziała Fidelma Russo, wiceprezes i CTO w Hewlett Packard Enterprise.„Projektowanie rozwiązań technologicznych i tworzenie innowacyjnych aplikacji jest częścią naszego dziedzictwa i esencją tego, czym zajmuje się HPE. Cieszę się, że tworzymy różnorodny zespół, składający się zarówno z osób rozpoczynających przygodę z IT, jak i wysoko doświadczonych specjalistów. Odegrają oni kluczową rolę w rozwoju naszej działalności, jeśli chodzi o chmurę hybrydową”.
Rekrutacja obejmie różnego rodzaju stanowiska, m.in. architektów systemów, inżynierów oprogramowania, menedżerów produktów, kierowników projektów, badaczy, specjalistów od UX, specjalistów ds. bezpieczeństwa, testerów, analityków danych i specjalistów ds. sztucznej inteligencji. Tworzony zespół będzie odgrywał kluczową rolę w nowo utworzonej jednostce biznesowej Hybrid Cloud, która rozpocznie działalność 1 listopada 2023 r. pod kierownictwem Fidelmy Russo, CTO w HPE. Jednostka biznesowa Hybrid Cloud przyspieszy realizację strategii firmy HPE w zakresie chmury hybrydowej. Celem jest oferowanie wspólnego portfela rozwiązań dla platformy HPE GreenLake w takich obszarach jak pamięć masowa, oprogramowanie, dane i usługi chmurowe.
Zarządzaj swoją prywatnością
Żeby zapewnić najlepsze wrażenia, my oraz nasi partnerzy używamy technologii takich jak pliki cookies do przechowywania i/lub uzyskiwania informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam oraz naszym partnerom na przetwarzanie danych osobowych, takich jak zachowanie podczas przeglądania lub unikalny identyfikator ID w tej witrynie. Brak zgody lub jej wycofanie może niekorzystnie wpłynąć na niektóre funkcje.
Kliknij poniżej, aby wyrazić zgodę na powyższe lub dokonać szczegółowych wyborów. Twoje wybory zostaną zastosowane tylko do tej witryny. Możesz zmienić swoje ustawienia w dowolnym momencie, w tym wycofać swoją zgodę, korzystając z przełączników w polityce plików cookie lub klikając przycisk zarządzaj zgodą u dołu ekranu.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.