Tag: Chłodzenie

  • Przyszłość data center: Trendy w chłodzeniu infrastruktury AI

    Przyszłość data center: Trendy w chłodzeniu infrastruktury AI

    Narracja o postępie technologicznym przyzwyczaiła świat do operowania metaforami lekkości. Słowa takie jak „chmura”, „przepływ danych” czy „wirtualna inteligencja” sugerują istnienie sfery niemalże eterycznej, oderwanej od ciężaru materii i brutalnych praw fizyki. Jednak u progu 2026 roku ta cyfrowa iluzja boleśnie zderza się z rzeczywistością hal maszynowych. Okazuje się bowiem, że największą barierą dla rozwoju cywilizacji opartej na algorytmach nie jest brak genialnego kodu, lecz nieubłagana konieczność odprowadzania ciepła. W czasach hiperskalowych data center i procesorów o gęstości mocy wykraczającej poza dotychczasowe standardy, termodynamika staje się kluczowym elementem strategii finansowej oraz nową walutą w globalnym wyścigu o prymat w sektorze AI.

    Paradoks cyfrowego żaru

    Rynek chłodzenia infrastruktury krytycznej przechodzi obecnie transformację, której skala znajduje odzwierciedlenie w twardych danych ekonomicznych. Przewidywany wzrost wartości tego sektora z poziomu 19,5 miliarda dolarów w 2025 roku do niemal 23 miliardów w roku bieżącym, przy utrzymującym się złożonym rocznym tempie wzrostu wynoszącym 17 procent, stanowi czytelny sygnał dla inwestorów. To gwałtowny przypływ wywołany ewolucją sprzętową. Tradycyjne metody oparte na wymuszonym obiegu powietrza, które przez dekady stanowiły fundament klimatyzacji precyzyjnej, zaczynają przypominać próbę chłodzenia silnika odrzutowego za pomocą papierowego wachlarza.

    Przyczyna tego stanu rzeczy jest prozaiczna, a zarazem technologicznie fundamentalna. Nowoczesne akceleratory graficzne i jednostki przetwarzania neuronowego, stanowiące kręgosłup dużych modeli językowych, generują temperatury, przy których powietrze przestaje być efektywnym medium transportującym energię termiczną. W efekcie, branża staje przed koniecznością redefinicji samej architektury obiektu IT. Wyzwanie to dotyczy przede wszystkim ekonomicznej zasadności eksploatacji sprzętu, którego cena nierzadko dorównuje wartości luksusowych nieruchomości.

    Nowa geografia chłodu: Perspektywa europejska i imperatyw ESG

    W europejskim kontekście gospodarczym kwestia zarządzania ciepłem nabiera dodatkowego, regulacyjnego wymiaru. Podczas gdy w innych regionach świata priorytetem pozostaje czysta moc obliczeniowa, Europa buduje swoją przewagę w oparciu o efektywność i odpowiedzialność. Dyrektywa w sprawie efektywności energetycznej (EED) oraz coraz surowsze wymogi dotyczące raportowania ESG sprawiają, że wskaźnik PUE) staje się dla zarządów korporacji niewiele mniej istotny, co wyniki kwartalne. Rok 2024, zapisany w kronikach jako najcieplejszy w historii obserwacji, uświadomił decydentom, że odporność termiczna data center jest integralnym elementem zarządzania ryzykiem operacyjnym.

    Obserwuje się fascynujące zjawisko zmiany postrzegania centrum danych w tkance miejskiej. Zamiast izolowanych, energochłonnych monolitów, powstają obiekty pełniące funkcję „cyfrowych ciepłowni”. W krajach nordyckich czy we Francji, za sprawą innowacji wprowadzanych przez liderów, ciepło odpadowe z serwerów nie jest już traktowane jako uciążliwy produkt uboczny, lecz jako cenny towar. Integracja infrastruktury IT z miejskimi sieciami grzewczymi pozwala na odzyskiwanie energii i zasilanie tysięcy gospodarstw domowych. Taka symbioza przemysłowa nie tylko poprawia profil ekologiczny przedsiębiorstwa, ale generuje wymierne korzyści ekonomiczne, zmieniając strukturę kosztów chłodzenia z pozycji czysto pasywnej na potencjalnie przychodową.

    Przemysłowa konwergencja i zmierzch wentylatorów

    Jednym z najbardziej znamiennych dowodów na dojrzałość i strategiczne znaczenie rynku chłodzenia jest wejście do gry podmiotów tradycyjnie kojarzonych z sektorem wydobywczym i petrochemicznym. Fakt, że ExxonMobil Corporation wprowadza na rynek zaawansowane płyny dielektryczne do chłodzenia zanurzeniowego, świadczy o głębokiej konwergencji branż. Kiedy gigant energetyczny zaczyna projektować chłodziwa dla procesorów, staje się jasne, że chłodzenie cieczą stało się nowym paradygmatem korporacyjnym.

    Technologia chłodzenia immersyjnego, polegająca na całkowitym zanurzeniu elektroniki w chemicznie obojętnym płynie, oferuje korzyści, obok których żaden dyrektor finansowy nie może przejść obojętnie. Możliwość redukcji całkowitego kosztu posiadania o blisko 40 procent wynika z radykalnego uproszczenia infrastruktury. Rezygnacja z ogromnych agregatów chłodniczych, skomplikowanych systemów nawiewnych i kosztownego utrzymywania czystości powietrza pozwala na drastyczne zwiększenie gęstości upakowania serwerów. W tej nowej rzeczywistości mniejsza powierzchnia serwerowni może oferować wielokrotnie większą moc obliczeniową, co wobec rosnących cen gruntów i ograniczonych przydziałów mocy energetycznej w hubach takich jak Frankfurt czy Londyn, stanowi o „być albo nie być” wielu inwestycji.

    Konsolidacja rynku, przejawiająca się chociażby w przejęciu CoolTera przez Vertiv, potwierdza trend dążenia do kompleksowości. Współczesny biznes poszukuje zintegrowanych systemów zarządzania ciepłem, które są w stanie adaptować się do zmiennego obciążenia generowanego przez AI w czasie rzeczywistym. Inteligentne monitorowanie termiczne pozwala na dynamiczne przesuwanie zasobów i zapobieganie awariom zanim systemy bezpieczeństwa odnotują przekroczenie krytycznych parametrów.

    Chłodna kalkulacja: ROI ukryte w przepływach

    Analiza zwrotu z inwestycji w nowoczesne systemy chłodzenia wymaga wyjścia poza prosty horyzont czasowy jednego roku podatkowego. Choć nakłady kapitałowe na technologie cieczowe mogą wydawać się wyższe od tradycyjnych rozwiązań, ich wpływ na żywotność sprzętu IT jest nie do przecenienia. Brak wibracji generowanych przez tysiące wentylatorów, eliminacja korozji wywołanej wilgotnością powietrza oraz stabilność temperaturowa sprawiają, że kosztowne układy krzemowe mogą pracować dłużej i wydajniej. Przedłużenie cyklu życia infrastruktury staje się istotnym atutem strategicznym zwłaszcza, gdy dostępność najnowszych chipów jest ograniczona przez łańcuchy dostaw.

    Należy również zwrócić uwagę na aspekt operacyjny związany z samą gęstością obliczeniową. Nowoczesne centra danych projektowane pod kątem AI muszą być gotowe na obsługę szaf serwerowych pobierających nawet 100 kW mocy. Przy takich parametrach tradycyjne chłodzenie powietrzem po prostu fizycznie nie mieści się w hali maszynowej – wymagałoby ono kanałów wentylacyjnych o przekrojach uniemożliwiających efektywne zagospodarowanie przestrzeni. Chłodzenie cieczą pozwala zatem na realizację projektów, które w starym modelu byłyby technicznie niewykonalne.

    Intelekt potrzebuje spokoju

    Można zaryzykować stwierdzenie, że przyszłość sztucznej inteligencji wykuwa się nie tylko w laboratoriach programistycznych, ale przede wszystkim w ciszy zanurzonych w cieczy serwerowni. Rynek, który do 2030 roku ma osiągnąć wartość blisko 43 miliardów dolarów, nie jest już tylko zapleczem dla branży IT, lecz jej istotnym akceleratorem.

    Płynie stąd lekcja o konieczności przewartościowania fundamentów infrastrukturalnych z perspektywy liderów biznesu. Najpotężniejszy cyfrowy intelekt potrzebuje do pracy warunków, jakie zapewnia mu jedynie zaawansowana inżynieria cieplna. Chłodny spokój procesorów staje się gwarantem ciągłości biznesowej i kluczem do rentowności.

    Pozostaje zatem pytanie o stopień przygotowania obecnych strategii infrastrukturalnych na nadchodzące lata. Czy uwzględniają one fakt, że w cyfrowym świecie najwyższą formą wyrafinowania staje się obecnie umiejętność zachowania niskiej temperatury w najbardziej gorących momentach technologicznej rewolucji? Odpowiedź na to pytanie zdefiniuje układ sił w gospodarce nadchodzącej dekady.

  • Rynek Data Center pod ścianą. Brak prądu hamuje cyfrową transformację

    Rynek Data Center pod ścianą. Brak prądu hamuje cyfrową transformację

    Jeszcze dwa lata temu, u szczytu gorączki AI w 2024 roku, w salach zarządów padało tylko jedno pytanie: „Skąd wziąć procesory Nvidia?”. Dostępność układów scalonych była wąskim gardłem, które dyktowało tempo rozwoju technologicznego. Dziś, w styczniu 2026 roku, sytuacja uległa diametralnej zmianie. Łańcuchy dostaw sprzętu się udrożniły, magazyny dystrybutorów są pełne najnowszych układów Blackwell i Rubin. Mimo to, nowe inwestycje w centra danych stają w miejscu.

    Pytanie roku 2026 nie brzmi już „Czy masz sprzęt?”, ale „Gdzie go podłączysz?”. Dostępność mocy przyłączeniowej (Power Availability) zastąpiła dostępność krzemu jako główny czynnik ryzyka operacyjnego. Wchodzimy w erę, w której o sukcesie projektu AI decyduje stara, analogowa infrastruktura energetyczna, a nie cyfrowy kod.

    Nowe wąskie gardło. Geopolityka gniazdka

    Średni czas oczekiwania na nowe przyłącze energetyczne o mocy powyżej 10 MW w kluczowych hubach Europy wydłużył się z 18 miesięcy w 2023 roku do szokujących 4–5 lat obecnie. Oznacza to, że decyzja o budowie serwerowni podjęta dzisiaj, zmaterializuje się operacyjnie dopiero w okolicach 2030–2031 roku. Dla branży technologicznej to wieczność.

    Problem najmocniej uderza w tzw. rynek FLAP-D (Frankfurt, Londyn, Amsterdam, Paryż, Dublin). Te tradycyjne stolice danych są energetycznie nasycone. Operatorzy sieci przesyłowych w Holandii czy Irlandii odmawiają wydawania nowych warunków przyłączenia, wskazując na ryzyko destabilizacji krajowych systemów energetycznych.

    W tym krajobrazie Warszawa – wyrastająca w ostatnich latach na kluczowy hub Europy Środkowo-Wschodniej – stała się ofiarą własnego sukcesu. Inwestycje gigantów takich jak Google, Microsoft czy lokalnych operatorów chmurowych, błyskawicznie skonsumowały dostępne rezerwy mocy w aglomeracji warszawskiej. Polskie Sieci Elektroenergetyczne (PSE) stają przed wyzwaniem fizyki: sieci w rejonie stolicy nie są w stanie przyjąć kolejnych gigawatowych obciążeń bez gruntownej modernizacji, która potrwa lata. Efekt? Inwestorzy zmuszeni są szukać lokalizacji alternatywnych – na północy Polski (gdzie łatwiej o energię z offshore wind) lub uciekać na południe Europy, gdzie łatwiej o energię słoneczną.

    Fizyka AI: Dlaczego stare serwerownie „topią kable”?

    Kryzys energetyczny ma też drugie dno – techniczne. Nawet jeśli firma posiada miejsce w serwerowni wybudowanej w 2020 roku, często nie może tam zainstalować nowoczesnej infrastruktury AI. Wynika to z drastycznej zmiany w tzw. gęstości mocy (Rack Density).

    W tradycyjnym IT standardem było 5–8 kW poboru mocy na jedną szafę serwerową (rack). Projektowano pod te wartości systemy zasilania i chłodzenia. Współczesne klastry AI, oparte na architekturze Nvidia Blackwell czy następcach, wymagają od 50 do nawet 100 kW na jedną szafę.

    Próba wstawienia takiej infrastruktury do „starego” Data Center (sprzed 5 lat) kończy się fiaskiem. Budynek nie jest w stanie dostarczyć tylu amperów w jedno miejsce, a co ważniejsze – nie jest w stanie odprowadzić wygenerowanego ciepła. Próba chłodzenia szafy o mocy 100 kW tradycyjnym powietrzem (klimatyzacją precyzyjną) przypomina próbę chłodzenia silnika wyścigowego za pomocą biurowego wiatraka. Jest to fizycznie niemożliwe i nieopłacalne.

    Rewolucja chłodzenia: Koniec ery powietrza?

    W konsekwencji rok 2026 to moment ostatecznego triumfu technologii Liquid Cooling (chłodzenia cieczą). To, co jeszcze niedawno było domeną entuzjastów overclockingu i kopaczy kryptowalut, stało się korporacyjnym standardem.

    Każda nowa inwestycja typu Hyperscale oddawana do użytku w tym roku jest projektowana w standardzie hybrydowym lub całkowicie cieczowym. Dominują dwie technologie:

    • Direct-to-Chip (DLC): Gdzie ciecz chłodząca doprowadzana jest rurkami bezpośrednio do bloków wodnych na procesorach CPU i GPU. To rozwiązanie stało się wymogiem gwarancyjnym dla najnowszych serwerów.
    • Immersion Cooling (Chłodzenie zanurzeniowe): Gdzie całe serwery są „topione” w wannach wypełnionych specjalnym płynem dielektrycznym (nieprzewodzącym prądu).

    Zmiana ta jest napędzana nie tylko fizyką, ale i regulacjami unijnymi (EED – Energy Efficiency Directive). Chłodzenie cieczą jest znacznie bardziej efektywne energetycznie, a co więcej – pozwala na odzysk ciepła. Płyn opuszczający serwer ma temperaturę 60-70°C, co pozwala na wpięcie Data Center bezpośrednio do miejskiej sieci ciepłowniczej. W 2026 roku serwerownie stają się de facto cyfrowymi elektrociepłowniami, ogrzewającymi biurowce i osiedla, co jest kluczowe dla uzyskania pozwoleń środowiskowych.

    Ekonomia niedoboru: Power Banking i atom

    Niedobór mocy wywołał gwałtowny wzrost cen. Stawki za kolokację (wynajem powierzchni pod serwery) w Warszawie i Frankfurcie wzrosły r/r o 30–40%. Klienci nie negocjują już cen; licytują się o to, kto pierwszy podpisze umowę na „zasilone szafy”.

    Zmieniła się również strategia deweloperów. Na rynku nieruchomości furorę robi zjawisko „Power Banking”. Fundusze inwestycyjne skupują stare, upadłe fabryki, huty czy zakłady przemysłowe. Nie interesują ich budynki (często przeznaczone do wyburzenia), lecz aktywne, wysokie przydziały mocy energetycznej przypisane do działki. Kupuje się „prawo do prądu”, by w miejscu dawnej odlewni postawić kontenery z serwerami AI.

    Na szczycie piramidy inwestycyjnej widzimy zwrot ku energetyce jądrowej. Śladem Microsoftu i Amazona (głośne umowy z 2024/2025 roku), również europejscy gracze szukają możliwości zasilania swoich kampusów z małych reaktorów modułowych (SMR) lub poprzez bezpośrednie linie (PPA) z istniejących elektrowni jądrowych. Branża IT zrozumiała, że OZE (wiatr i słońce) są zbyt niestabilne dla AI, która musi „uczyć się” 24/7 ze stałym obciążeniem.

    Nowy wskaźnik sukcesu – Time-to-Power

    Dla Dyrektorów IT (CIO) planujących strategie na 2026 i 2027 rok, płynie z tego jedna, kluczowa lekcja: Hardware jest łatwy, prąd jest trudny.

    Tradycyjny model, w którym najpierw zamawia się serwery, a potem szuka dla nich miejsca, jest martwy. Dziś proces należy odwrócić. Rezerwacja mocy w Data Center z wyprzedzeniem 12-24 miesięcznym jest koniecznością. Wskaźnik Time-to-Market (czas wdrożenia produktu) został zastąpiony przez Time-to-Power (czas uzyskania zasilania).

    Cyfrowa rewolucja zależy dziś w stu procentach od analogowej infrastruktury. Bez masowych inwestycji w sieci przesyłowe i nowe źródła generacji, sztuczna inteligencja w Europie uderzy w szklany sufit – nie z braku danych czy algorytmów, ale z prozaicznego braku gniazdka, do którego można by ją podłączyć.

  • Miliard dolarów za czystą wodę w serwerowni. Vertiv domyka strategiczne przejęcie PurgeRite

    Miliard dolarów za czystą wodę w serwerowni. Vertiv domyka strategiczne przejęcie PurgeRite

    Vertiv Holdings Co, globalny dostawca krytycznej infrastruktury cyfrowej, dokonał pomyślnej finalizacji zapowiedzianego wcześniej przejęcia firmy Purge Rite Intermediate LLC („PurgeRite”), wiodącego dostawcy usług mechanicznego płukania, odpowietrzania i filtracji systemów chłodzenia cieczą dla centrów danych oraz innych obiektów o kluczowym znaczeniu dla biznesowej ciągłości działania. Transakcja o wartości około miliarda dolarów rozszerza możliwości Vertiv w obszarze usług zarządzania termicznego i umacnia pozycję firmy jako globalnego lidera całego łańcucha usług klimatyzacyjnych nowej generacji dla systemów chłodzenia cieczą.

    – Cieszymy się, że możemy oficjalnie powitać PurgeRite w Vertiv, co pozwoli nam dalej rozwijać kompetencje w zakresie usług chłodzenia cieczą – powiedział Gio Albertazzi, dyrektor generalny Vertiv. – Specjalistyczna wiedza PurgeRite w obszarze zarządzania cieczą idealnie uzupełnia nasze obecne portfolio i zwiększa naszą zdolność do oferowania produktów i usług w ramach świadczenia kompleksowego wsparcia klientom Vertiv.  Wykorzystują oni bowiem środowiska obliczeniowe o wysokiej gęstości, a w nich rozwiązania sztucznej inteligencji, przy których efektywne zarządzanie temperaturą ma kluczowe znaczenie dla wydajności i niezawodności.

    Wysokowydajne systemy obliczeniowe (HPC) i fabryki AI wymagają do pracy systemów chłodzenia cieczą, a dla maksymalizacji ich efektywności kluczowe znaczenie ma wdrożenie i utrzymanie czystego obiegu chłodziwa. Osiągnięcie tego celu zaczyna się od zapewnienia optymalnego przepływu już na etapie uruchomienia, dzięki zagwarantowaniu, że ciecz będzie ultraczysta, pozbawiona cząsteczek powietrza i stabilna chemicznie. Konieczne jest także utrzymanie tej równowagi, aby zachować wysoką wydajność przez cały cykl życia systemu. 

    Integracja kompetencji PurgeRite z istniejącym portfolio rozwiązań Vertiv w zakresie zarządzania termicznego przyniesie klientom znaczące korzyści. Dzięki usprawnionej wymianie ciepła oraz poprawie wydajności sprzętu uzyskana zostanie wyższa efektywność systemów. Zwiększenie doskonałości operacyjnej wpłynie na ograniczenie ryzyka przestojów. Rozszerzona zostanie także skala usług wspierających globalną działalność operacyjną klientów Vertiv, przy zachowaniu spójnej jakości.

    Firma PurgeRite, z siedzibą w Houston (Teksas, USA), jest liderem w branży mechanicznego płukania, odpowietrzania i filtracji systemów chłodzenia cieczą, a jej kluczowymi klientami są hiperskalerzy i dostawcy usług kolokacji Tier 1, zarządzający krytycznymi środowiskami w centrach danych. Wniesie ona do zasobów Vertiv wiedzę inżynieryjną, zastrzeżone technologie oraz zdolność do skalowania, pozwalające podołać wyzwaniom związanym z wymagającymi harmonogramami pracy i wdrożeniami w centrach danych. Umożliwi także wdrażanie złożonych rozwiązań chłodzenia cieczą w całym łańcuchu termicznym – od agregatów chłodniczych po jednostki dystrybucji chłodziwa. Jej usługi zostaną zintegrowane z dotychczasową ofertą rozwiązań chłodzenia cieczą Vertiv, aby zapewnić kompleksowe środowisko zarządzania temperaturą w całych obiektach i pojedynczych pomieszczeniach, a także w całych rzędach szaf serwerowych, jak też w pojedynczych jednostkach.

    źródło: Vertiv

  • Nowa infrastruktura IT: jak firmy projektują środowiska AI bez kompromisów energetycznych

    Nowa infrastruktura IT: jak firmy projektują środowiska AI bez kompromisów energetycznych

    Wydajność nie wystarczy, by infrastruktura IT sprostała wymaganiom generatywnej sztucznej inteligencji. Rosnące obciążenia, większe zużycie energii i potrzeba skalowalności wymuszają nowe podejście do projektowania środowisk AI-ready.

    Firmy nie chcą już „więcej mocy” – chcą więcej równowagi: między mocą obliczeniową, efektywnością energetyczną, skalowalnością i kosztami operacyjnymi. To przesuwa ciężar decyzji z czystej specyfikacji sprzętowej na systemowe podejście do infrastruktury IT.

    AI zmienia priorytety organizacji

    Wzrost zapotrzebowania na moc obliczeniową przez systemy AI zmienia sposób, w jaki organizacje podchodzą do planowania centrów danych. „Rozwój sztucznej inteligencji stanowi jeden z kluczowych czynników redefiniujących architekturę IT i podejście do efektywności energetycznej w centrach danych. Organizacje coraz częściej poszukują rozwiązań, które zapewniają wysoką wydajność przy ograniczonym zapotrzebowaniu na energię, umożliwiając jednocześnie skalowalność i wsparcie dla zaawansowanych obciążeń. Kluczowym elementem tej transformacji jest wykorzystanie innowacyjnych technologii, takich jak bezpośrednie chłodzenie cieczą (DLC – Direct Liquid Cooling), które odgrywa coraz większą rolę w architekturze AI-ready.” – mówi Karolina Solecka, Compute Sales Director w Hewlett Packard Enterprise Polska.

    Karolina Solecka, HPE
    Karolina Solecka, HPE

    Jeszcze do niedawna głównym kryterium była maksymalna wydajność. Dziś firmy coraz częściej chcą wydajności bez energetycznego przeciążenia. Wynika to zarówno z rosnących kosztów energii, jak i presji środowiskowej (ESG). Efektywność przestaje być dodatkiem – staje się wymogiem.

    Projektowanie infrastruktury zaczyna się od chłodzenia

    AI nie tylko zwiększa zapotrzebowanie na energię – przede wszystkim generuje ciepło, którego nie da się już odprowadzić klasycznymi metodami. Tradycyjne chłodzenie powietrzem przestaje być wystarczające przy rosnącej gęstości obliczeń.

    „Systemy AI wymagają ogromnej mocy obliczeniowej, co generuje znaczne ilości ciepła. Tradycyjne metody chłodzenia, oparte na wymianie powietrza, przestają być efektywne przy wysokiej gęstości obliczeń” – wyjaśnia ekspertka z HPE.

    To oznacza, że fizyczna architektura infrastruktury – od rozstawienia szaf po obieg powietrza – musi być zaprojektowana na nowo. Chłodzenie staje się punktem wyjścia, a nie dodatkiem do infrastruktury.

    DLC: kluczowa technologia transformacji

    Rozwiązaniem, które zyskuje na znaczeniu, jest Direct Liquid Cooling (DLC) – chłodzenie cieczą, bezpośrednio z komponentów takich jak CPU i GPU. W porównaniu z tradycyjnymi metodami, DLC pozwala znacząco ograniczyć zużycie energii i zwiększyć efektywność środowisk obliczeniowych.

    „Dlatego HPE tak mocno inwestuje w rozwój technologii chłodzenia cieczą, która umożliwia bezpośrednie odprowadzanie ciepła z komponentów, takich jak CPU i GPU” – podkreśla Karolina Solecka.

    Oszczędności mogą sięgać nawet 30–40% energii w porównaniu z chłodzeniem powietrzem. Ale to nie wszystko – DLC pozwala również na **kompaktowe projektowanie centrów danych, co jest istotne zwłaszcza dla firm z ograniczoną przestrzenią lub planujących wdrożenia edge.

    „DLC nie tylko zwiększa efektywność energetyczną, redukując zużycie energii o nawet 30–40%, ale również pozwala na bardziej kompaktowe projektowanie centrów danych.”

    Nowe pytania klientów: jak optymalizować, a nie maksymalizować

    Zmienia się także sposób, w jaki klienci podchodzą do zakupu i wdrażania infrastruktury IT. W centrum uwagi nie jest już tylko „maksymalna moc”, ale zrównoważony rozwój, kontrola zużycia i optymalizacja TCO (całkowitego kosztu posiadania).

    „Klienci coraz częściej kierują się nie tylko maksymalizacją wydajności, ale również efektywnością energetyczną i zrównoważonym rozwojem” – zauważa przedstawicielka HPE.

    To przesunięcie priorytetów wiąże się z rosnącą presją na raportowanie środowiskowe, ale też z realnymi potrzebami operacyjnymi – firmy nie chcą płacić za energię, której nie mogą kontrolować. Chcą środowisk, które można monitorować, skalować i zoptymalizować pod kątem faktycznego wykorzystania.

    Model usługowy wspiera energooszczędne podejście

    W tym kontekście zyskują na znaczeniu modele „as-a-service” – elastyczne, rozliczane na podstawie rzeczywistego zużycia zasobów. Takie rozwiązania pozwalają klientom uniknąć przewymiarowania środowiska, a tym samym ograniczają niepotrzebne zużycie energii i chłodzenia.

    „Klienci coraz częściej kierują się nie tylko maksymalizacją wydajności, ale również efektywnością energetyczną i zrównoważonym rozwojem. Technologie takie jak DLC pozwalają na osiągnięcie tej równowagi, zapewniając jednocześnie wsparcie dla zaawansowanych obciążeń AI. Firmy również doceniają elastyczność modeli „as-a-service”, takich jak HPE GreenLake, które pozwalają dostosować infrastrukturę do zmieniających się potrzeb biznesowych, minimalizując przy tym koszty operacyjne.” – mówi Solecka.

    W ten sposób technologia staje się nie tylko bardziej dostępna, ale też bardziej efektywna – zarówno energetycznie, jak i finansowo.

    AI-ready to architektura od podstaw

    Rozwój sztucznej inteligencji wymaga, by całe podejście do infrastruktury IT uległo zmianie. Nie chodzi już o dodanie szybszych procesorów do istniejącej serwerowni. Chodzi o nowe zasady projektowania, które zaczynają się od efektywności energetycznej, uwzględniają chłodzenie jako integralny element systemu i kończą na modelu operacyjnym, który pozwala rosnąć bez marnowania zasobów.

    „Rozwój technologii AI wymaga nowego podejścia do projektowania infrastruktury IT. W HPE wierzymy, że technologie takie jak chłodzenie cieczą są kluczem do efektywnego i zrównoważonego rozwoju centrów danych, które sprostają wymaganiom przyszłości.” – podsumowuje Karolina Solecka.

  • 50 kW na szafę? AI wymusza nową architekturę zasilania i chłodzenia data center

    50 kW na szafę? AI wymusza nową architekturę zasilania i chłodzenia data center

    Jeszcze kilka lat temu 10–15 kW na szafę rackową było uznawane za poziom wysokiej wydajności. Dziś w środowiskach projektowanych z myślą o sztucznej inteligencji to zaledwie punkt wyjścia. Serwerownie muszą być gotowe na przyjęcie po 30, 40, a nawet 50 kW na szafę – i to w sposób ciągły.

    W praktyce oznacza to nie tylko większe zużycie energii, ale konieczność całkowitej zmiany podejścia do projektowania systemów zasilania i chłodzenia. AI redefiniuje infrastrukturę IT – od zasilania, przez chłodzenie, po rozkład okablowania i logikę obiegu cieplnego.

    Gęstość mocy rośnie szybciej niż gotowość infrastruktury

    Największą zmianą, jaką AI wprowadza w data center, jest gwałtowny wzrost gęstości mocy na poziomie pojedynczej szafy. „AI znacząco wpływa na projektowanie zasilania i chłodzenia, zwiększając gęstość mocy w szafach rackowych. Obecnie nie jest już zaskoczeniem, że pojedyncza szafa rackowa może pobierać 50 kW lub więcej, co kiedyś było charakterystyczne dla małych lub średnich serwerowni. Takie gęstości mocy wymuszają przejście na chłodzenie cieczą lub przynajmniej poważne rozważenie takiego rozwiązania.” – mówi Paweł Poziemski, Senior Application Engineer w Vertiv.

    Tak wysokie wartości nie tylko generują więcej ciepła – one całkowicie zmieniają podejście do projektowania systemów infrastrukturalnych. W grę wchodzi już nie tylko moc przyłączeniowa dla całego obiektu, ale precyzyjne planowanie zasilania, chłodzenia i monitorowania dla każdej jednostki rack.

    Zasilanie: musi być gotowe na impuls

    Sztuczna inteligencja zmienia również charakter obciążenia data center. Zamiast stałego i przewidywalnego poboru mocy, pojawiają się krótkie, intensywne skoki zapotrzebowania – szczególnie w procesach trenowania modeli lub przetwarzania dużych zbiorów danych.

    „Obecnie kluczowe trendy w zasilaniu gwarantowanym centrów danych i serwerowni obejmują dążenie do maksymalizacji efektywności energetycznej oraz adaptację do dynamicznych obciążeń generowanych przez sztuczną inteligencję (AI).” – podkreśla Poziemski.

    Jednym z filarów tej zmiany są konstrukcje UPS o zwiększonych zdolnościach przeciążeniowych. Umożliwiają one lepsze zarządzanie impulsowymi obciążeniami AI nie tylko w sytuacjach wyjątkowych, ale w codziennej pracy. Co ważne, technologia podwójnej konwersji nadal jest rozwijana – nie jako rewolucja, ale konsekwentna optymalizacja.

    „Technologia podwójnej konwersji, choć nie oferuje cudów, stale się rozwija, poprawiając sprawność na etapach prostownika i falownika. Ponadto, konstrukcje o zwiększonych zdolnościach przeciążeniowych stają się standardem, umożliwiając lepsze zarządzanie impulsowymi obciążeniami AI, co jest kluczowe nie tylko w sytuacjach wyjątkowych.” – zauważa ekspert Vertiv.

    Chłodzenie: powietrze to za mało

    Gdy rośnie gęstość mocy, rośnie też ilość ciepła, które trzeba efektywnie odprowadzić. Granica możliwości chłodzenia powietrzem została już praktycznie osiągnięta. Dlatego centra danych coraz częściej zwracają się w stronę chłodzenia cieczą – początkowo jako uzupełnienie, a dziś coraz częściej jako konieczność.

    „Chłodzenie powietrzem osiąga swoje granice przy kilkudziesięciu kilowatach mocy cieplnej, które można schłodzić za pomocą aktywnych drzwi chłodzących. W przyszłości, a nawet już teraz, chipy będą oddawać ciepło bezpośrednio do cieczy chłodzącej.” – tłumaczy Poziemski.

    Tego typu układy wymagają precyzyjnej kontroli obiegu cieczy oraz zabezpieczenia ich pracy w trybie ciągłym. Awaria systemu chłodzenia cieczą to nie tylko problem operacyjny – to ryzyko uszkodzenia całych zestawów GPU.

    Nowe elementy – nowe zależności

    Rozwój chłodzenia cieczą wprowadza do serwerowni nowe komponenty. Najważniejszym z nich jest CDU – Cooling Distribution Unit – jednostka odpowiedzialna za utrzymanie obiegu cieczy chłodzącej. Jej ciągłość pracy musi być zabezpieczona zasilaniem awaryjnym – podobnie jak w przypadku najważniejszych urządzeń IT.

    „Wzrost gęstości mocy (ilości mocy na szafę rack) generuje dwa powiązane ze sobą zagadnienia: trzeba dostarczyć energię elektryczną i odebrać wytworzone z niej ciepło. Więcej mocy cieplnej oznacza konieczność przejścia docelowo na systemy chłodzenia bezpośredniego układów obliczeniowych cieczą. Ta ciecz musi bezprzerwowo krążyć, aby nie dopuścić do „usmażenia się” GPU. ” – podkreśla ekspert Vertiv.

    To właśnie dlatego podczas projektowania systemów UPS należy uwzględniać również zapotrzebowanie energetyczne elementów infrastruktury wspomagającej – jak właśnie CDU.

    Zmienią się także standardy dystrybucji zasilania. Zamiast gęstej sieci przewodów pod podłogą techniczną coraz częściej stosuje się szynoprzewody prowadzone nad szafami.

    „To elegancki i bezpieczny sposób, aby rozprowadzić zasilanie po serwerowni wysokiej gęstości. Wężowisko grubych przewodów pod podłogą nie jest rozwiązaniem.” – mówi Poziemski.

    Coraz ważniejszym komponentem stają się też inteligentne listwy zasilające PDU z funkcjami monitoringu środowiskowego.

    „Odpowiedzią na potrzebę monitorowania warunków środowiskowych mogą być listwy zasilające, które stanowią element monitoringu warunków środowiskowych takich jak np. temperatura czy wilgotność. Ułatwia to kontrolę nad coraz bardziej złożonym środowiskiem IT bez konieczności budowania od zera specjalnego systemu.” – podkreśla Paweł Poziemski.

    AI to również infrastruktura

    Zmiany wywołane przez AI są na tyle głębokie, że nie da się ich wdrożyć jako modernizacji istniejącej infrastruktury. Wymagają projektowania architektury IT praktycznie od zera – z uwzględnieniem nowych obciążeń, nowych układów chłodzenia i innej logiki dystrybucji energii.

    Odpowiedzią na potrzebę monitorowania warunków środowiskowych mogą być listwy zasilające, które stanowią element monitoringu warunków środowiskowych takich jak np. temperatura czy wilgotność. Ułatwia to kontrolę nad coraz bardziej złożonym środowiskiem IT bez konieczności budowania od zera specjalnego systemu.  

    Rozwój sztucznej inteligencji przyciąga uwagę głównie z powodu przełomowych modeli i zastosowań, ale równie istotny jest jej wpływ na fizyczne fundamenty IT. Projektowanie centrów danych musi dziś uwzględniać nie tylko kwestie zasilania i chłodzenia, ale także zachowanie ciągłości pracy urządzeń wspomagających oraz precyzyjne monitorowanie środowiska.

    AI to nie tylko skok algorytmiczny – to przede wszystkim skok energetyczny i termiczny. Tylko ci, którzy dostosują swoją infrastrukturę do nowych realiów, będą w stanie realnie z AI korzystać.

  • Gorący problem AI – Jak chłodzenie cieczą tworzy nowy rynek wart miliardy

    Gorący problem AI – Jak chłodzenie cieczą tworzy nowy rynek wart miliardy

    Najnowsze procesory AI od NVIDII, serce rewolucji technologicznej, są tak potężne, że generują problem, który wymyka się spod kontroli tradycyjnych rozwiązań: ekstremalne, skoncentrowane ciepło. Konieczność efektywnego schłodzenia szaf serwerowych, takich jak NVIDIA GB200, zmusza całą branżę do fundamentalnej zmiany, w której chłodzenie cieczą przestaje być niszową ciekawostką, a staje się nowym, nieuniknionym standardem. Ta wymuszona przez fizykę transformacja tworzy od zera wart miliardy dolarów rynek dla wyspecjalizowanych dostawców i na zawsze zmienia sposób, w jaki projektuje się i buduje cyfrowe fabryki przyszłości – centra danych.

    Fizyka wymusza zmianę

    Przez dekady centra danych polegały na wszechobecnym i tanim medium – powietrzu. Potężne systemy klimatyzacji i rzędy wentylatorów przepychały chłodne powietrze przez korytarze i szafy serwerowe, odbierając ciepło z pracujących komponentów. Ten model działał bez zarzutu, dopóki gęstość mocy obliczeniowej nie osiągnęła punktu krytycznego. Nowoczesne układy AI, takie jak te w platformie NVIDIA Blackwell, pakują bezprecedensową liczbę tranzystorów na niewielkiej powierzchni, generując przy tym setki watów ciepła na pojedynczy procesor. W przypadku zintegrowanych szaf, takich jak GB200, gdzie dziesiątki takich układów pracują obok siebie, tradycyjne chłodzenie powietrzem staje się po prostu niewydolne – nie jest w stanie odebrać ciepła wystarczająco szybko, co prowadzi do przegrzewania, spadku wydajności i ryzyka awarii.

    To nie jest już kwestia wyboru czy optymalizacji. Jak zauważają analitycy z TrendForce, wskaźnik adopcji rozwiązań chłodzenia cieczą dla wysokowydajnych chipów AI stale i gwałtownie rośnie. Przechodzimy od ery, w której chłodzenie cieczą było domeną entuzjastów i niszowych superkomputerów, do ery, w której staje się ono standardową konfiguracją dla każdego poważnego wdrożenia AI.

    Narodziny nowego łańcucha dostaw

    Ten przymus technologiczny otworzył drzwi dla zupełnie nowego ekosystemu firm, których produkty nagle stały się krytyczne dla funkcjonowania najpotężniejszych systemów obliczeniowych na świecie. W centrum tej rewolucji znajdują się komponenty, o których jeszcze kilka lat temu słyszeli tylko specjaliści:

    • Płyty chłodzące (cold plates): Precyzyjnie wykonane bloki metalu z wewnętrznymi kanalikami, montowane bezpośrednio na procesorach, przez które przepływa ciecz chłodząca, odbierając ciepło u samego jego źródła.
    • Kolektory (manifolds): Systemy rurek i zaworów, które dystrybuują ciecz chłodzącą do poszczególnych komponentów wewnątrz serwera, zapewniając równomierny przepływ.
    • Złączki szybkiego rozłączania (Quick Disconnects – QD): Zaawansowane złącza, które pozwalają na szybkie podłączanie i odłączanie przewodów z cieczą bez ryzyka wycieku, co jest kluczowe dla serwisowania i skalowalności systemów.

    Na tym nowym, gorącym rynku już teraz wyłaniają się liderzy. Fositek, wraz ze swoją spółką-matką AVC, pozycjonuje się na kluczowego beneficjenta tej fali. Dzięki bliskiej współpracy z NVIDIĄ, firma dostarcza kluczowe złączki QD zaprojektowane specjalnie dla flagowej platformy GB300, które idealnie współpracują z płytami chłodzącymi od AVC. To jednak nie wszystko. Fositek rozpoczął również masową produkcję komponentów dla systemów opartych na niestandardowych układach ASIC firmy AWS, rzucając bezpośrednie wyzwanie dotychczasowym potentatom, takim jak duński Danfoss. To sygnał, że nowi gracze zyskują na znaczeniu w ekspresowym tempie.

    Innym dynamicznym zawodnikiem jest Auras. Firma buduje swoją pozycję, opierając się na szerokiej bazie klientów, w której znajdują się czołowe marki serwerowe, takie jak Oracle, Supermicro i HPE. Strategiczne ruchy Auras, w tym rozpoczęcie dostaw dla Mety i ambitne plany wejścia do łańcucha dostaw dla platformy GB200, pokazują, jak zacięta jest walka o zdobycie statusu zaufanego dostawcy dla chmurowych gigantów.

    Zmiana paradygmatu w budowie centrów danych

    Przejście na chłodzenie cieczą to znacznie więcej niż wymiana komponentów wewnątrz serwera. To fundamentalna zmiana w sposobie projektowania, budowania i zarządzania całą infrastrukturą centrum danych. Wdrożenie tego systemu na dużą skalę wymaga skomplikowanych instalacji hydraulicznych, obejmujących dedykowane rurociągi na poziomie szaf i całego obiektu, potężne jednostki dystrybucji chłodziwa (CDU) oraz zewnętrzne wieże chłodnicze, które odprowadzają ciepło do atmosfery.

    W rezultacie w branży narodził się nowy standard projektowy: centra danych „gotowe do chłodzenia cieczą” (liquid-cooling ready). Nowe obiekty są planowane od podstaw z myślą o tej technologii. Wpływa to na ich architekturę, układ pomieszczeń, systemy zasilania i, co oczywiste, na budżet inwestycyjny. Choć koszty początkowe są wyższe, długoterminowe korzyści są nie do przecenienia. Chłodzenie cieczą oferuje znacznie wyższą wydajność cieplną, co pozwala na gęstsze upakowanie sprzętu i łatwiejsze skalowanie mocy obliczeniowej w przyszłości, a także może prowadzić do znacznych oszczędności energetycznych w porównaniu do energochłonnych systemów klimatyzacji.

    Wartość przesuwa się w stronę infrastruktury

    Rewolucja AI przesuwa środek ciężkości w łańcuchu wartości sprzętu komputerowego. Już nie tylko sam krzem – procesory i akceleratory – stanowi o sile i wartości systemu. Równie krytyczna staje się zaawansowana infrastruktura, która umożliwia jego stabilne i wydajne działanie. Zarządzanie ciepłem awansowało z drugoplanowej kwestii technicznej do rangi jednego z kluczowych filarów nowoczesnej mocy obliczeniowej.

  • Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Gdy ceny energii rosną, a AI rozpycha się w szafach serwerowych, efektywność energetyczna przestaje być technicznym detalem. Staje się językiem rozmów z klientami, miernikiem przewagi konkurencyjnej i fundamentem nowoczesnych centrów danych. W czasie śniadania technologicznego, które odbyło się 8 maja 2025 na kampusie Atman DC WAW-1, eksperci AMD, LenovoAtmana pokazali, że oszczędność prądu w data center zaczyna się dużo wcześniej niż przy liczniku – od projektowania procesorów, przez dobór komponentów, aż po architekturę całego obiektu. Spotkanie było nie tylko okazją do zobaczenia z bliska jednego z największych centrum danych w Polsce, ale przede wszystkim praktyczną lekcją z efektywności energetycznej.

    Energia pod kontrolą: dlaczego temat jest palący

    Gdy koszty energii elektrycznej zaczynają decydować o rentowności centrum danych, efektywność energetyczna przestaje być dodatkiem – staje się fundamentem strategii. Podczas śniadania technologicznego w warszawskim kampusie Atmana, przedstawiciele trzech firm: Atman, Lenovo i AMD, zgodnie podkreślali, że dziś każdy wat prądu musi być uzasadniony.

    „Efektywność energetyczna staje się przewagą konkurencyjną – już nie tylko na poziomie PUE, ale przede wszystkim z perspektywy biznesowej klientów, którzy analizują TCO całości infrastruktury. Dla nich to dziś twardy koszt, nie miękka deklaracja ESG” mówił Adam Dzielnicki, Product Manager Data Center, Atman.

    Presja rośnie z kilku stron. Po pierwsze – finansowa. Wzrost cen energii elektrycznej w Polsce i Europie sprawia, że firmy coraz częściej zaczynają kwestionować zasadność utrzymywania przestarzałego sprzętu, nawet jeśli ten technicznie nadal działa. Po drugie – regulacyjna. Komisja Europejska już zapowiedziała wprowadzenie obowiązkowego raportowania efektywności energetycznej dużych centrów danych, a państwa członkowskie szykują się do wdrożenia lokalnych przepisów.

    „Klienci pytają dziś nie tylko o moc, ale też o to, ile serwerów trzeba będzie zasilić i jaką infrastrukturę chłodzącą do tego dobrać. To zupełnie nowe podejście do planowania IT – bardziej przypomina projekt energetyczny niż zakup sprzętu” zauważył Łukasz Borkowski, Technical Channel Country Sales BI & Infrastructure.

    Do tego dochodzi trzeci czynnik – presja klientów końcowych. Coraz więcej organizacji mierzy własny ślad węglowy i oczekuje, że ich dostawcy usług IT zrobią to samo. „Nie chodzi już tylko o KPI w Excelu. Zdarza się, że klienci żądają deklaracji emisyjności infrastruktury, na której działa ich aplikacja”dodał Dzielnicki.

    W takim otoczeniu rozmowa o efektywności schodzi na poziom mikro – od technologii chłodzenia przez dobór dysków SSD po architekturę procesora. Każdy komponent jest potencjalnym źródłem zysków… lub strat. Jak zaznaczali eksperci, nawet różnica 10 watów na jednym module SSD – pomnożona przez setki maszyn – może w skali centrum danych przełożyć się na tysiące złotych rocznie.

    AMD: więcej rdzeni, mniej prądu

    Jeszcze dekadę temu AMD uchodziło za outsidera rynku serwerów – dziś ma 35% udziału globalnego w Data Center (wg Mercury Research), dostarcza procesory największym hiperskalerom i przekonuje, że wydajność i efektywność energetyczna nie muszą się wykluczać. „Dziś wycena firmy AMD jest zdecydowanie wyższa niż naszego największego konkurent w obszarze x86. W pierwszym kwartale bieżącego roku segment Data Centre w AMD urósł aż o 57% w ujęciu rok do roku.” – powiedział podczas spotkania Adam Tomczak, Territory Development Executive CEE w AMD.

    Architektura AMD EPYC, zaprojektowana od podstaw z myślą o serwerach, w każdej generacji zwiększała liczbę rdzeni, co, między innymi, przekłada się na gęstość upakowania mocy oraz zwiększa sprawność energetyczną. Efekt? „Od 2017 roku mamy sześciokrotny wzrost liczby rdzeni, niemal jedenastokrotny wzrost wydajności i czterokrotny wzrost wydajności na wat. To nie jest tylko marketing – to twarde dane z benchmarków” – dodał Tomczak.

    Innym wyróżnikiem AMD jest także oferta na platformach jednoprocesorowych, która pozwala budować tańsze i bardziej energooszczędne konfiguracje bez kompromisów wydajnościowych. „Stosując platformy jednoprocesorowe zamiast dwu, klienci mogą istotnie zmniejszyć TCO – zużywają mniej energii, chłodzą mniej szaf i mają mniej punktów awarii, bez kompromisu wydajności” – tłumaczył Tomczak.

    Krzysztof Łuka, ekspert techniczny AMD, poszedł jeszcze dalej: „W porównaniu do procesorów Intela mamy dziś nawet dwukrotnie lepszą metrykę SPECpower, czyli wydajność obliczeniową przy konkretnym zużyciu energii. A przy tym potrafimy na jednej maszynie osiągnąć do 384 rdzeni.”

    Co to oznacza dla firm? Mniej serwerów, mniej licencji, mniej energii – a więc także mniej emisji CO₂. AMD nie oferuje najtańszych chipów, ale w ujęciu całkowitych kosztów infrastruktury często okazuje się bezkonkurencyjne.

    Lenovo: mniej sprzętu, więcej wydajności

    W czasach, gdy jeden serwer potrafi pobierać nawet 10 kilowatów mocy, pytanie o wydajność nieodłącznie łączy się z pytaniem o zużycie energii. Dla Lenovo kluczem okazuje się optymalizacja całego ekosystemu sprzętowego – od projektowania płyty głównej po selekcję dysków NVMe. „To, co wyróżnia Lenovo, to fakt, że korzystamy teoretycznie z tych samych komponentów co inni – ale nasze własne systemy chłodzenia i autorskie projekty płyt głównych pozwalają wyciągnąć z nich znacznie więcej.”mówił Łukasz Borkowski, Technical Channel Sales w Lenovo.

    Podczas spotkania Borkowski nie szczędził konkretów. Jak wyliczał, dwa dyski NVMe o podobnych parametrach mogą różnić się poborem energii nawet o 10 watów – a przy dziesiątkach serwerów z kilkunastoma dyskami każdy, daje to setki watów możliwych oszczędności. „Na samych dyskach można zaoszczędzić ponad pół kilowata. A to dopiero początek.”

    Lenovo nie tylko koncentruje się na komponentach, ale również na systemach chłodzenia. Firma już od lat rozwija wodne systemy chłodzenia – dziś dostępne nawet w standardowych serwerach rackowych. „W szóstej generacji naszego systemu Liquid-to-Air jesteśmy w stanie zmniejszyć zużycie energii na chłodzenie nawet o 30%, eliminując wentylatory także w zasilaczach.” podkreślał Borkowski.

    Równolegle Lenovo promuje podejście oparte na konsolidacji – mniej serwerów, ale bardziej wydajnych. „Dzięki współczesnym procesorom możemy osiągnąć współczynnik 5 do 1 – czyli zastąpić pięć starszych serwerów jednym nowym. W praktyce, po około 16 miesiącach zaczynamy zarabiać na tej modernizacji.”mówił Borkowski, zachęcając do porzucania nieefektywnego sprzętu.

    Lenovo twierdzi, że benchmarki potwierdzają sześciokrotnie wyższą liczbę rekordów wydajnościowych niż u konkurencji. Przy rosnących kosztach licencji per rdzeń i energii, oznacza to konkretne oszczędności – nie tylko na sprzęcie, ale także na oprogramowaniu.

    Atman: jak wygląda PUE od środka

    Wzrost zapotrzebowania na moc obliczeniową oznacza nie tylko więcej serwerów, ale też więcej energii i ciepła. A to przekłada się bezpośrednio na koszty i parametry infrastruktury. „Efektywność energetyczna jest dziś nie tylko tematem technicznym – to kwestia strategiczna.”mówił podczas wydarzenia Adam Dzielnicki, Product manager w Atmanie.

    Jako operator największego kampusu data center w Polsce – Atman DC WAW-1 – firma znajduje się na styku presji klienta, regulatora i własnej optymalizacji. „Klienci coraz częściej pytają o PUE, a nawet o ślad węglowy. To nie jest już tylko CSR – to wymóg przetargowy.”przyznał Dzielnicki. I dodał:PUE poniżej 1,3 to już nie jest science fiction. Ale wymaga decyzji podejmowanych znacznie wcześniej – od etapu projektowania po dobór sprzętu.”

    Atman inwestuje w monitoring energetyczny na poziomie komponentów i usług, co pozwala klientom precyzyjnie rozliczać się z energii i kontrolować zużycie. W czasie prezentacji podkreślano również znaczenie współpracy z dostawcami infrastruktury – jak Lenovo i AMD – aby minimalizować pobór mocy na poziomie CPU, GPU, chłodzenia i całych szaf rackowych.

    „Nie ma jednej recepty na efektywność. W naszym przypadku kluczowe jest podejście warstwowe: od konstrukcji hali, przez systemy HVAC, po softwarowy nadzór nad obciążeniem. To wszystko wpływa na finalne PUE”tłumaczył Dzielnicki.

    Atman wyraźnie stawia na transparentność i praktykę – uczestnicy spotkania mieli okazję zobaczyć na własne oczy, jak wygląda infrastruktura DC WAW-1 od środka. Widać było, że optymalizacja energetyczna przestała być deklaracją – a stała się integralną częścią architektury usług.

    Energoefektywność jako nowy standard rynku

    W dyskusji o efektywności energetycznej coraz mniej miejsca zostaje na slogany – a coraz więcej na konkretne dane, wskaźniki i decyzje inwestycyjne. Jak pokazało wydarzenie zorganizowane przez Atmana, Lenovo i AMD, technologia i energooszczędność nie tylko się nie wykluczają, ale zaczynają iść w parze.

    „W 2025 roku serwer może pobierać 10 kW, a jego chłodzenie – kolejne kilowaty. Jeśli nie zoptymalizujemy tej infrastruktury, rachunek za energię zaczyna przygniatać biznes.”mówił Łukasz Borkowski z Lenovo, wskazując na coraz większy udział chłodzenia w całkowitym zużyciu energii.

    Z kolei Adam Tomczak z AMD przypomniał, że efektywność nie jest kwestią dopłat czy dodatkowych funkcji. „My nie oferujemy bezpieczeństwa jako płatnego dodatku. Nasz Infinity Guard jest dostępny od pierwszej generacji EPYC – bo tak rozumiemy odpowiedzialną technologię.”

    Dla operatorów takich jak Atman, temat nie jest już tylko kwestią wewnętrznej efektywności, ale mierzalnej przewagi rynkowej. „PUE to nie jest liczba do prezentacji – to metryka, która przesądza o konkurencyjności oferty w oczach klientów korporacyjnych.”tłumaczył Adam Dzielnicki.

    Wydarzenie jasno pokazało, że przyszłość rynku infrastruktury IT w Polsce nie będzie się opierać wyłącznie na mocy obliczeniowej. Równie ważna będzie zdolność do przeliczenia tej mocy na waty, złotówki – i zaufanie klientów. Bo efektywność to dziś nie tylko parametr – to język, w którym rozmawiają liderzy branży.

    Materiał powstał we współpracy z firmą Atman.

  • Data center i walka o energię: czy chłodzenie parowe to game changer?

    Data center i walka o energię: czy chłodzenie parowe to game changer?

    Rosnące zapotrzebowanie na moc obliczeniową oznacza rosnące zużycie energii. Choć sektor IT przywykł do walki o wydajność, to właśnie chłodzenie staje się jedną z największych przeszkód w dalszej ekspansji. Tymczasem naukowcy z Uniwersytetu Kalifornijskiego w San Diego twierdzą, że znaleźli prostsze, cichsze i znacznie bardziej energooszczędne rozwiązanie. Ich nowa technologia chłodzenia oparta na zimnie parowania może zredukować zużycie energii w centrach danych nawet o rząd wielkości.

    Brzmi jak obietnica rodem z laboratorium — i nią właśnie jest. Ale to także reakcja na bardzo realne zagrożenie: według prognoz Międzynarodowej Agencji Energii (IEA) zapotrzebowanie energetyczne centrów danych na świecie może wzrosnąć dwukrotnie do 2030 roku. Jednym z motorów tej zmiany jest rozwój sztucznej inteligencji i coraz bardziej intensywne przetwarzanie danych w chmurze. W tym kontekście nawet drobne usprawnienia w chłodzeniu mogą przełożyć się na realne miliardy dolarów oszczędności.

    Parowanie zamiast prądu

    Nowe podejście z Kalifornii sięga po mechanizm znany z natury: zjawisko parowania, które – choć pozbawione fanfar – skutecznie chłodzi wodę w glinianym dzbanie czy nasze ciało podczas upału. W centrum projektu znajduje się cienka membrana z mikroskopijną siecią porów. Gdy przepływająca pod nią woda wsiąka w materiał i paruje, naturalnie odbiera ciepło z otoczenia — bez potrzeby stosowania sprężarek, wentylatorów czy pomp.

    W przeciwieństwie do klasycznych systemów chłodzenia cieczą czy powietrzem, rozwiązanie to nie wymaga energii do samego procesu chłodzenia. To nie tylko ekologiczne, ale i potencjalnie przełomowe – zwłaszcza jeśli potwierdzi się deklarowana wydajność: aż 800 watów na centymetr kwadratowy. Dla porównania, konwencjonalne chłodnice osiągają zazwyczaj kilkadziesiąt watów na tej samej powierzchni.

    Od laboratoriów do serwerowni

    Zespół pod kierownictwem prof. Renkuna Chena planuje komercjalizację technologii poprzez dedykowany start-up. Ich celem jest integracja membran z płaskimi płytami chłodzącymi, które można łatwo zamontować na procesorach serwerowych. Jeśli prototypy spełnią pokładane w nich nadzieje, nowy system mógłby wyeliminować jedną z największych przeszkód na drodze do dalszej miniaturyzacji i zwiększenia mocy obliczeniowej bez kompromisów energetycznych.

    Ale droga od laboratorium do centrum danych bywa wyboista. Chociaż technologia oparta na parowaniu nie jest nowością samą w sobie – była już testowana w różnych formach – dotychczasowe rozwiązania nie radziły sobie z kontrolą przepływu wody, zatykaniem mikroporów lub niewystarczającą wydajnością. Tym razem naukowcy twierdzą, że udało im się precyzyjnie dobrać strukturę porów do optymalnego poziomu – ani zbyt małych, ani zbyt dużych – co pozwala na stabilny, długotrwały proces chłodzenia.

    Wyzwania skalowania

    Wprowadzenie nowej technologii do produkcji masowej będzie jednak wymagać czegoś więcej niż udanego prototypu. Kluczowe będzie skalowanie produkcji membran w sposób powtarzalny i kosztowo efektywny. Do tego dochodzi konieczność przekonania operatorów centrów danych do przejścia na nieznane rozwiązanie w środowisku, gdzie niezawodność i przewidywalność są cenniejsze niż innowacja.

    Warto przy tym pamiętać, że sektor data center przechodzi właśnie intensywną transformację. Coraz więcej uwagi poświęca się efektywności energetycznej – zarówno z powodów kosztowych, jak i regulacyjnych. Według szacunków firmy badawczej Omdia, chłodzenie może odpowiadać za 30–40% całkowitego zużycia energii w centrum danych. Nic więc dziwnego, że inwestycje w nowe technologie chłodzenia rosną: Bloomberg szacuje, że tylko w 2024 roku globalny rynek chłodzenia data center osiągnął wartość ponad 15 mld dolarów.

    Gra o zero netto

    Technologia z Kalifornii wpisuje się też w szerszy trend „zielonej transformacji” centrów danych. Giganci branży – od Google po Microsoft – deklarują osiągnięcie neutralności klimatycznej w ciągu najbliższych kilkunastu lat. Ale każde dodatkowe megawaty zużywane przez nowe klastry GPU, trenowanie modeli AI i streaming wideo stawiają te deklaracje pod znakiem zapytania. Nowe metody chłodzenia mogą więc nie tylko ograniczyć zużycie energii, ale też wspomóc realizację celów ESG, coraz częściej wpisywanych do polityki zakupowej firm.

    Zespół z San Diego nie ujawnia jeszcze, kiedy ich technologia trafi do testów w warunkach produkcyjnych. W najbliższych miesiącach planowana jest dalsza optymalizacja membran i rozpoczęcie rozmów z partnerami przemysłowymi. Choć z pewnością nie jest to rozwiązanie gotowe do wdrożenia na masową skalę, to już dziś przyciąga uwagę inwestorów i firm z sektora infrastruktury IT.

    Czy parowanie odmieni chłodzenie centrów danych? Historia zna wiele innowacji, które zaczynały się jako niszowe eksperymenty, a kończyły jako nowy standard. Dziś jeszcze nie wiadomo, czy tak będzie i tym razem. Wiadomo jednak, że chłodzenie – nie moc obliczeniowa – może być prawdziwym ograniczeniem przyszłości IT.

  • Zimna rewolucja – czy obliczenia kriogeniczne staną się odpowiedzią na energetyczny kryzys data center?

    Zimna rewolucja – czy obliczenia kriogeniczne staną się odpowiedzią na energetyczny kryzys data center?

    Gdy sztuczna inteligencja staje się fundamentem cyfrowej gospodarki, a data center pochłaniają coraz więcej energii, branża IT zaczyna szukać sposobów na przebudowanie podstaw swojej efektywności. Jednym z najbardziej zaskakujących kierunków tej transformacji może być… głęboki chłód. Dosłownie.

    Zespół naukowców z Forschungszentrum Jülich, RWTH Aachen, EPFL, TSMC i japońskich uczelni sugeruje, że znane od dziesięcioleci układy CMOS, napędzające praktycznie każdą elektronikę, mogą działać znacznie efektywniej w bardzo niskich temperaturach. Przy zastosowaniu odpowiednich materiałów i architektur, możliwe są – według badaczy – oszczędności energetyczne nawet do 80%.

    To podejście, choć brzmi futurystycznie, wpisuje się w coraz bardziej palącą potrzebę radykalnego zwiększenia wydajności energetycznej w centrach danych.

    Od ciepła do chłodu – zmiana paradygmatu

    Współczesne chipy projektowane są z myślą o pracy w temperaturze pokojowej. Generują one znaczne ilości ciepła, które trzeba skutecznie odprowadzać – co samo w sobie wymaga ogromnych nakładów energii. Według Międzynarodowej Agencji Energetycznej (IEA), zapotrzebowanie data center na energię elektryczną może podwoić się do 2030 roku, głównie za sprawą rozwoju AI i chmury.

    Ale co, jeśli zamiast zarządzać ciepłem, należałoby go po prostu unikać? Obliczenia kriogeniczne, czyli prowadzone w temperaturach bliskich zera absolutnego, mogą umożliwić znaczące zmniejszenie napięcia potrzebnego do przełączania tranzystorów. A niższe napięcie to mniej strat, mniej ciepła i więcej wydajności.

    W teorii, im niższa temperatura, tym bardziej „zdyscyplinowane” zachowanie elektronów i mniejsze napięcie progowe potrzebne do przełączania. W praktyce – przy temperaturze -196°C (77 K, osiąganej przy pomocy ciekłego azotu) można osiągnąć oszczędności rzędu 70%. W skrajnych przypadkach, przy chłodzeniu helem do poziomu 4 K, zyski energetyczne sięgają 80%.

    Fizyczne ograniczenia i materiałowa rewolucja

    Sęk w tym, że tradycyjne układy CMOS nie są zoptymalizowane do pracy w tak niskich temperaturach. Wchodzą tu w grę zjawiska fizyczne, które są pomijalne w warunkach „ciepłych”, ale dominują w chłodzie. Mowa o efektach opasmowego ogona, defektach materiałowych i zjawiskach kwantowych, takich jak tunelowanie elektronów.

    Aby osiągnąć deklarowaną efektywność, konieczna jest więc zmiana nie tylko warunków pracy układów, ale i ich samej budowy. Zespół badawczy wskazuje na konkretne kierunki: wykorzystanie nanoprzewodów, struktur SOI, dielektryków o wysokiej przenikalności elektrycznej czy materiałów z wąską przerwą energetyczną. Wszystko po to, by stworzyć coś, co naukowcy nazywają „supertranzystorem dla zimna”.

    To już nie tylko korekta architektury. To potencjalne otwarcie nowego rozdziału w projektowaniu elektroniki – dostosowanej nie do biurka inżyniera, lecz do wnętrza kriostatu.

    Od komputerów kwantowych po hyperscale

    Choć obliczenia kriogeniczne kojarzą się głównie z komputerami kwantowymi, ich potencjalne zastosowania są znacznie szersze. Chipy zoptymalizowane do pracy w niskich temperaturach mogą znaleźć zastosowanie w obrazowaniu medycznym, misjach kosmicznych i – co najważniejsze – w klasycznych data center. Tam, gdzie instaluje się tysiące procesorów i zużywa megawaty mocy, każda oszczędność energii przekłada się na konkretne miliony dolarów rocznie.

    Warto przy tym podkreślić, że technologia nie jest w fazie czysto akademickiej. W badaniu bierze udział TSMC – największy producent chipów na świecie, dostarczający układy m.in. Apple, AMD i Nvidii. To sygnał, że temat nie jest już tylko naukową ciekawostką, ale realnym kierunkiem rozwoju branży półprzewodników.

    Co to oznacza dla rynku IT?

    Zimne chipy nie trafią jutro na rynek, ale długofalowo mogą okazać się odpowiedzią na kilka jednoczesnych wyzwań: ograniczenia prawa Moore’a, energetyczne potrzeby AI i rosnące koszty operacyjne centrów danych. Ich wdrożenie będzie wymagało nie tylko rewolucji materiałowej, ale i zmiany w projektowaniu infrastruktury IT – od chłodzenia po integrację elektroniki niskotemperaturowej.

    Jednak warto obserwować ten kierunek z bliska. Bo jeśli obecne tempo wzrostu zapotrzebowania na moc obliczeniową się utrzyma, sektor IT będzie musiał sięgnąć po każde dostępne narzędzie, by ograniczyć swoją energochłonność – nawet jeśli oznacza to zejście do temperatur znanych dotąd głównie z laboratoriów fizyki kwantowej.

  • Chłodzenie cieczą w centrach danych: przyszłość napędzana przez AI

    Chłodzenie cieczą w centrach danych: przyszłość napędzana przez AI

    Entuzjazm wobec generatywnej sztucznej inteligencji wywołał kolejną falę inwestycji w infrastrukturę, ale to, co napędza dziś innowację, może jutro wymusić przebudowę całych fundamentów centrów danych. W miarę jak klastry treningowe AI osiągają bezprecedensowe poziomy zagęszczenia i zapotrzebowania na moc, tradycyjne systemy chłodzenia powietrzem przestają wystarczać. Na horyzoncie widać rewolucję chłodzenia cieczą – choć niekoniecznie dla całego sektora IT.

    AI potrzebuje chłodu – i to dosłownie

    Szkolenie generatywnych modeli AI to zadanie zbliżone do pracy superkomputerów: wysokie moce obliczeniowe, ogromna liczba parametrów i ciasno połączone węzły o niskim opóźnieniu. Odpowiedzią na rosnące wymagania energetyczne stają się systemy chłodzenia cieczą – od zimnych płyt po pełne zanurzenie komponentów. Branża spodziewa się nawet 200 kW mocy na pojedynczy stojak serwerowy w ciągu kilku lat – poziom nieosiągalny dla tradycyjnego chłodzenia powietrzem – pisze Jacqueline Davis, analityk badawczy, Uptime Institute.

    Chociaż rozwiązania tego typu nie są nowe, dotąd pozostawały domeną niszowych zastosowań HPC, kryptowalut czy symulacji inżynierskich. AI zmienia tę dynamikę, sprawiając, że chłodzenie cieczą staje się komercyjnie opłacalne i inżynieryjnie konieczne.

    Ale to nie jest gra dla wszystkich

    Firmy operujące klasyczną infrastrukturą IT – zwłaszcza w sektorach o wysokim poziomie dostępności – podchodzą do chłodzenia cieczą z rezerwą. Ich aplikacje są często czułe na przerwy w działaniu, a każde zakłócenie może oznaczać realną stratę przychodów. Z kolei procesy treningu modeli AI są bardziej elastyczne: mogą być wznawiane z punktów kontrolnych, tolerują awarie pojedynczych węzłów i są oderwane czasowo od momentu generowania wartości biznesowej.

    Ten rozdźwięk oznacza, że nawet jeśli technologia chłodzenia cieczą dojrzewa i skaluje się wraz z AI, niekoniecznie stanie się natychmiast standardem w centrach danych obsługujących konwencjonalne aplikacje biznesowe.

    Opór na poziomie organizacyjnym i operacyjnym

    Przejście na chłodzenie cieczą nie dotyczy tylko sprzętu. To także transformacja w zakresie zarządzania operacyjnego i bezpieczeństwa infrastruktury. Bezpośrednie chłodzenie cieczą (DLC) redefiniuje interfejsy między działami IT a fizycznym obiektem, wprowadza nowe ryzyka awarii sprzętu i wymaga dopracowanych procedur konserwacyjnych.

    Nie bez znaczenia są też kwestie odporności. W przeciwieństwie do powietrza, systemy cieczowe trudniej zaprojektować z redundancją – a więc tolerancją na awarie. Dlatego wiele organizacji podchodzi do nich ostrożnie, szczególnie gdy nie mają rozbudowanej architektury odporności oprogramowania, umożliwiającej dynamiczne przenoszenie obciążeń w czasie awarii lub konserwacji.

    Chłodzenie cieczą zyska na rozwoju AI – ale nie zdominuje rynku

    Z badań Uptime Institute wynika, że dominacja chłodzenia cieczą w AI może skutkować tym, że producenci skupią swoje wysiłki projektowe właśnie na tym segmencie. Efekt? Tradycyjni operatorzy IT, nie mogąc liczyć na dostosowane do ich potrzeb produkty, mogą jeszcze bardziej opóźnić adopcję nowych technologii.

    Z drugiej strony, rozwój AI popycha cały rynek chłodzenia w stronę skalowalności i standaryzacji. To, co dziś testuje się w centrach danych AI, za kilka lat może znaleźć zastosowanie – w wersji uproszczonej – w środowiskach korporacyjnych. Jednak ten transfer nie będzie automatyczny. AI i klasyczny IT różnią się nie tylko technicznie, ale też organizacyjnie i finansowo.

    Zimna rewolucja, ale nie dla każdego

    Boom AI pełni dziś rolę katalizatora dla chłodzenia cieczą, jednak nie oznacza to natychmiastowej transformacji całej branży centrów danych. Prędzej zobaczymy podział rynku: wysoko zagęszczone klastry AI chłodzone cieczą i ostrożnie modernizowane centra obsługujące aplikacje biznesowe, które nadal polegają na sprawdzonym, odpornym chłodzeniu powietrzem.

    Jeśli chłodzenie cieczą ma stać się bardziej powszechne, konieczne będzie nie tylko dostosowanie technologii, ale też zmiana podejścia do odporności, procedur i planowania infrastruktury IT. Do tego potrzebna będzie nie tyle kolejna fala entuzjazmu dla AI, co konkretna, rynkowa presja.

  • Schneider Electric opracuje systemy chłodzenia dla serwerów Nvidii

    Schneider Electric opracuje systemy chłodzenia dla serwerów Nvidii

    Schneider Electric nawiązał współpracę z Nvidią, liderem w dziedzinie technologii sztucznej inteligencji, w celu opracowania nowoczesnych systemów chłodzenia przeznaczonych dla centrów danych nowej generacji. Projekty te mają być odpowiedzią na rosnące zapotrzebowanie na wydajne i skalowalne rozwiązania chłodzące, wynikające z dynamicznego rozwoju serwerów AI o wysokim zużyciu energii.

    Centralnym elementem tej współpracy są nowe serwery Nvidii, które zawierają aż 72 zaawansowane chipy AI i wymagają chłodzenia cieczą. Najwydajniejsze wersje tych serwerów, planowane do wdrożenia w 2024 roku, zużywają do 132 kilowatów energii na szafę serwerową, co znacząco przekracza wymagania dotychczasowych systemów. Decyzja Nvidii o przejściu na chłodzenie cieczą wpłynęła na potrzebę modernizacji infrastruktury centrów danych.

    Schneider Electric, znany z doświadczenia w branży zasilania i chłodzenia, opracował zestaw elastycznych systemów, które można skalować w zależności od liczby serwerów i poziomu zużycia energii. Rozwiązania te mają trafić zarówno do operatorów przetwarzania w chmurze, jak i klientów zarządzających centrami danych.

  • HPE wprowadza nowe systemy HPC z innowacyjnym chłodzeniem cieczą

    HPE wprowadza nowe systemy HPC z innowacyjnym chłodzeniem cieczą

    HPE ogłosiło wprowadzenie nowego portfolio systemów obliczeniowych o wysokiej wydajności (HPC) i sztucznej inteligencji (AI), które obejmuje nowoczesne serwery i technologie chłodzenia. Główna uwaga skupiona jest na rozwiązaniach chłodzenia cieczą, które są niezbędne do efektywnego zarządzania rosnącą mocą obliczeniową nowoczesnych systemów HPC.

    W ramach odświeżenia oferty HPE, firma zaprezentowała nowe systemy Cray Supercomputing EX, które przeznaczone są do skomplikowanych zadań badawczo-technologicznych. Kluczowym elementem oferty jest model EX4252 Gen 2 Compute Blade, który oferuje do 98 304 rdzeni w jednym przypadku, napędzany przez procesory AMD EPYC. Te serwery będą dostępne na rynku od wiosny 2025 roku.

    Również zaawansowane systemy akceleracyjne EX154n, wyposażone w procesory graficzne Nvidia B200 oraz procesory Nvidia Grace, umożliwiają instalację aż do 224 procesorów graficznych w jednej obudowie. Te innowacyjne rozwiązania zadebiutują pod koniec 2025 roku. Oprócz tego, HPE wprowadza interfejs sieciowy Slingshot Interconnect 400, który zapewni przepustowość 400 Gb/s, co ma kluczowe znaczenie dla dużych obciążeń obliczeniowych.

    Chłodzenie cieczą stanowi integralną część nowego portfolio. HPE wykorzystuje własną technologię chłodzenia cieczą bez wentylatorów, która zmniejsza zużycie energii i poprawia wydajność w centrach danych. Zwiększona gęstość obliczeniowa współczesnych systemów wymaga efektywnego odprowadzania ciepła, a chłodzenie cieczą staje się kluczowe w tym kontekście.

    Dodatkowo, HPE ogłosiło wprowadzenie dwóch nowych serwerów ProLiant Compute XD, zaprojektowanych specjalnie do zastosowań w zakresie treningu i tuningu AI. Serwer XD680, wyposażony w akceleratory Intel Gaudi 3, trafi na rynek w grudniu 2024 roku, a model XD685, dostępny od początku 2025 roku, będzie oferowany w wersjach z procesorami graficznymi Nvidia lub akceleratorami AMD Instinct.

    Nowe rozwiązania HPE są skierowane głównie do instytucji rządowych oraz organizacji badawczo-naukowych, które potrzebują dużych mocy obliczeniowych wspierających rozwój sztucznej inteligencji. W obliczu rosnącego zapotrzebowania na superkomputery, HPE kładzie nacisk na dostarczanie wydajnych, energooszczędnych systemów, które umożliwią przyspieszenie badań i rozwoju w tej dziedzinie.

  • Chłodzenie data center – czy AI zmusi centra danych do ekologicznej rewolucji?

    Chłodzenie data center – czy AI zmusi centra danych do ekologicznej rewolucji?

    Szybki rozwój sztucznej inteligencji (AI) pociąga za sobą znaczny wzrost zapotrzebowania na moc obliczeniową, a co za tym idzie – na infrastrukturę przetwarzania danych. To globalne zjawisko prowadzi do dynamicznej ekspansji centrów danych, które stały się podstawą funkcjonowania nowoczesnych technologii. Jednakże intensywna eksploatacja tych energochłonnych obiektów budzi coraz większe obawy o ich wpływ na środowisko. Rosnący pobór mocy oraz konieczność nieprzerwanego chłodzenia sprzętu wymuszają opracowanie nowatorskich rozwiązań technologicznych, które umożliwią funkcjonowanie centrów danych w sposób bardziej zrównoważony.

    Raport „Deep Dive in The Environmental Impact of Data Centers” opublikowany przez GlobalData Strategic Intelligence zwraca uwagę na powszechne wykorzystanie chłodzenia wodnego w centrach danych. Technika ta, choć skuteczna, stanowi wyzwanie w kontekście kurczących się zasobów wodnych, zwłaszcza w regionach o ograniczonym dostępie do tego surowca. W miarę jak wzrasta liczba aplikacji opartych na sztucznej inteligencji, rośnie także zużycie wody w procesach chłodzenia, szczególnie podczas treningu dużych modeli językowych. Problem ten staje się istotny zarówno pod względem ekologicznym, jak i operacyjnym, ponieważ przegrzanie sprzętu może skutkować poważnymi awariami, narażając na ryzyko całe sektory gospodarki uzależnione od płynnego działania infrastruktury cyfrowej.

    Firmy i instytucje badawcze intensywnie pracują nad opracowaniem alternatywnych metod chłodzenia, które zmniejszyłyby zależność od wody. Wśród innowacyjnych rozwiązań pojawia się chłodzenie zanurzeniowe, polegające na umieszczaniu sprzętu w płynach dielektrycznych, które efektywnie rozpraszają ciepło, minimalizując zużycie wody. Innym kierunkiem są rozwiązania oparte na materiałach ceramicznych, które mają potencjał chłodzenia półprzewodników i płyt drukowanych, podnosząc jednocześnie ich efektywność energetyczną.

    Badacze rozważają także bardziej futurystyczne koncepcje, takie jak centra danych pod wodą lub w przestrzeni kosmicznej. Dzięki specyficznym warunkom środowiskowym, takim jak niższe temperatury na większych głębokościach czy w kosmosie, tego rodzaju lokalizacje mogłyby oferować naturalne chłodzenie i znacząco zmniejszyć potrzebę na zasoby energetyczne. W dłuższej perspektywie można również spodziewać się większej liczby centrów danych ulokowanych w chłodniejszych klimatach, co pozwoliłoby na bardziej naturalne rozpraszanie ciepła.

    Zrównoważony rozwój centrów danych to nie tylko kwestia technologii, ale także regulacji. Rosnąca presja społeczna i legislacyjna wymusza wdrażanie bardziej ekologicznych praktyk oraz stosowanie zaawansowanych technologii, które minimalizują wpływ na środowisko. Firmy z sektora Big Tech, będące jednymi z największych użytkowników centrów danych, coraz częściej sięgają po rozwiązania przyjazne dla środowiska, aby sprostać wymaganiom regulacyjnym i własnym celom zrównoważonego rozwoju.

    Przyszłość centrów danych zależy od zdolności adaptacyjnych branży technologicznej. Wprowadzanie zrównoważonych technologii chłodzenia oraz projektowanie infrastruktury w sposób sprzyjający efektywności energetycznej staną się kluczowymi czynnikami w zarządzaniu rosnącym zapotrzebowaniem na przetwarzanie danych. Wybór odpowiednich metod chłodzenia nie tylko zwiększy stabilność operacyjną tych placówek, ale także przyczyni się do ochrony zasobów naturalnych i budowy bardziej zrównoważonej cyfrowej przyszłości.

  • Super Micro Computer rośnie na fali popularności AI i chłodzenia cieczą

    Super Micro Computer rośnie na fali popularności AI i chłodzenia cieczą

    Super Micro Computer, znana również jako Supermicro, osiągnęła imponujący wzrost na rynku serwerów, szczególnie w segmencie sztucznej inteligencji (AI), wykorzystując swoje bliskie powiązania z gigantami technologicznymi, takimi jak Nvidia i Advanced Micro Devices (AMD). Firma stała się kluczowym graczem w produkcji serwerów niezbędnych dla aplikacji generatywnego AI, dzięki czemu jej akcje wzrosły w tym roku o imponujące 289%.

    Supermicro wykorzystuje swoje strategiczne partnerstwa, aby szybko wprowadzać na rynek nowe produkty. Analitycy i eksperci branżowi podkreślają, że firma była jednym z pierwszych odbiorców chipów AI od Nvidii, co pozwoliło jej na szybsze niż konkurencja testowanie i wprowadzanie prototypów serwerów.

    Przychody Supermicro wzrosły ponad dwukrotnie w ciągu ostatnich trzech miesięcy 2023 roku, a analitycy prognozują kontynuację trzycyfrowego wzrostu przynajmniej do września 2024 roku. Oczekuje się, że udział firmy w rynku serwerów AI wzrośnie do około 17% w 2026 roku, z 10% w 2023 roku, co świadczy o rosnącym optymizmie inwestorów i ekspertów branżowych.

    Oprócz serwerów AI, Supermicro wyróżnia się na rynku dzięki swoim innowacjom w technologii chłodzenia cieczą. Ze względu na rosnące zapotrzebowanie na bardziej energochłonne i generujące więcej ciepła układy AI, firma rozwija technologię chłodzenia cieczą, która może zmniejszyć zużycie energii o około 40% w porównaniu z tradycyjnym chłodzeniem powietrzem. Przewiduje się, że chłodzenie cieczą stanie się dominującą metodą chłodzenia serwerów do 2030 roku.

    Mimo imponującego wzrostu i innowacji, Supermicro stoi przed wyzwaniami, w tym koniecznością utrzymania przewagi konkurencyjnej w obliczu zwiększonego zainteresowania ze strony większych rywali, takich jak Dell i HPE. Kosztowna wycena PE firmy zwiększa również ryzyko wyprzedaży, jeśli nie spełni przyszłych oczekiwań dotyczących zysków.

  • ADATA zaprezentuje NeonStorm PCIe Gen5 M.2 SSD z samodzielnym chłodzeniem wodnym na CES

    ADATA zaprezentuje NeonStorm PCIe Gen5 M.2 SSD z samodzielnym chłodzeniem wodnym na CES

    W erze szybkiego postępu technologicznego, kiedy prędkości dysków SSD osiągają zawrotne poziomy dzięki rozwiązaniom PCIe Gen5, stoimy przed kolejnym wyzwaniem: efektywnym odprowadzaniem ciepła. Tradycyjne metody chłodzenia wydają się niewystarczające, a rynek zaczyna dostrzegać potrzebę innowacji. Na CES 2024, ADATA zaprezentuje odpowiedź na te wyzwania – dysk SSD XPG NeonStorm PCIe Gen5 M.2, który wprowadza przełomową technologię chłodzenia cieczą.

    Początek nowej ery chłodzenia SSD

    NeonStorm wykracza poza standardowe rozwiązania chłodzące. Jego konstrukcja łączy chłodzenie cieczą AIO z aktywnym systemem wentylatorów. To nie tylko krok naprzód w zarządzaniu temperaturą, ale także innowacja, która może zrewolucjonizować całą branżę pamięci masowej.

    Wysoka wydajność i design

    Z kontrolerem Silicon Motion SM2508, NeonStorm osiąga z prędkości odczytu do 14 000 MB/s i zapisu do 12 000 MB/s. Dysk ma też charakterystyczny design – wbudowana lampa nadaje mu nowoczesny wygląd

    Więcej niż tylko chłodzenie

    ADATA twierdzi, że konstrukcja NeonStorm oferuje co najmniej 10% lepsze odprowadzanie ciepła w porównaniu do dysków SSD bez chłodzenia cieczą. Jest to znacząca różnica, biorąc pod uwagę rosnące wymagania termiczne i prędkościowe nowoczesnych dysków.

    Zgodność i pojemność

    Zgodny z M.2 2280 SSD i NVMe 2.0, NeonStorm zapewnia również wysoką kompatybilność. ADATA obiecuje warianty o pojemności do 8 TB.

  • Intel i Submer z nową technologią chłodzenia dla High-Performance Computing

    Intel i Submer z nową technologią chłodzenia dla High-Performance Computing

    Firma Submer, założona w 2015 roku, skupia się na rozwoju zaawansowanych rozwiązań chłodzenia, ze szczególnym naciskiem na chłodzenie zanurzeniowe. To podejście wykorzystuje zanurzenie komponentów elektronicznych w dielektrycznym płynie chłodzącym, co pozwala na znaczne obniżenie temperatury pracy i utrzymanie optymalnych warunków dla serwerów i komponentów.

    Tradycyjne metody chłodzenia powietrzem i chłodzenia wodą osiągnęły pewne ograniczenia w kontekście wydajności i skalowalności. W miarę jak komponenty elektroniczne stają się coraz bardziej wymagające pod względem mocy i szybkości, wzrasta potrzeba bardziej zaawansowanych technologii chłodzenia. Intel, we współpracy z Submer, wprowadza nowy sposób na rozwiązanie tego problemu – wymuszony radiator konwekcyjny (FCHS).

    Chłodzenie zanurzeniowe o mocy 1000 watów

    Nowa technologia, choć nie jest jeszcze szczegółowo opisana przez obie firmy, zdaje się być przełomem w dziedzinie chłodzenia zanurzeniowego. W wersji demonstracyjnej udało się Intelowi utrzymać procesor zużywający ponad 800 watów, co prawdopodobnie odnosi się do nowego układu Xeon Sapphire Rapids. To znaczący krok naprzód w kontekście wydajności i możliwości dostarczania coraz bardziej potężnych procesorów.

    Według Submer, FCHS nie tylko zapewnia wydajne chłodzenie, ale również może być wdrożony kosztowo, niezależnie od tego, czy wykorzystuje się drukarki 3D, czy nie. To otwiera drzwi dla przyszłej współpracy, która może obsługiwać nawet procesory o mocy przekraczającej 1000 watów.

    Przyszłość High-Performance Computing

    Innowacyjna technologia chłodzenia poprzez zanurzenie ma potencjał do rewolucji w dziedzinie High-Performance Computing. Główną korzyścią jest utrzymanie komponentów w odpowiedniej temperaturze, co przekłada się na zwiększoną wydajność, niezawodność i trwałość systemów. To może być kluczowe w sektorach takich jak nauka, przetwarzanie danych, czy przemysł.

    Jednak, aby technologia ta stała się szeroko dostępna i zyskała akceptację na rynku, potrzebujemy bardziej szczegółowych informacji na temat FCHS oraz jego dostępności na rynku. Jednak już teraz można dostrzec, że Intel i Submer kierują się ku przyszłości, w której komponenty o ogromnej mocy będą dostępne dla szerszej grupy użytkowników.

    Współpraca Intel i Submer w dziedzinie chłodzenia poprzez zanurzenie może zapowiadać nowy etap w rozwoju technologii komputerowych. Dzięki zdolności utrzymania procesorów o mocy nawet 1000 watów w odpowiednich warunkach temperaturowych, ta technologia ma potencjał zmienić sposób, w jaki myślimy o wydajności i chłodzeniu w świecie High-Performance Computing. Jednak aby to osiągnąć, potrzebujemy więcej szczegółów i informacji na temat komercjalizacji tego innowacyjnego rozwiązania.