Tag: Pamięć

  • Ceny pamięci NAND wzrosną o 200 proc. Samsung i AI zmieniają rynek

    Ceny pamięci NAND wzrosną o 200 proc. Samsung i AI zmieniają rynek

    Samsung wysyła jasny sygnał: era taniej przestrzeni na dane dobiega końca. Według ostatnich doniesień gigant planuje podwoić ceny kości NAND w drugim kwartale 2026 roku. To już kolejna tak drastyczna podwyżka w tym roku, co oznacza, że w skali zaledwie dwunastu miesięcy komponenty te podrożeją o 200 procent. Dla sektora technologicznego to wstrząs, który zmieni matematykę produkcji wszystkiego – od smartfonów po serwery.

    Przyczyna tego zjawiska leży w architekturze współczesnej sztucznej inteligencji. Do tej pory uwaga inwestorów skupiona była na pamięciach HBM, czyli ultraszybkim RAM-ie niezbędnym do pracy procesorów graficznych. Jednak potężne systemy AI, takie jak modele Llama od Meta, potrzebują nie tylko „myśleć” szybko, ale i błyskawicznie pobierać dane. Klasyczne dyski twarde okazały się zbyt wolne, by nadążyć za tempem pracy nowoczesnych klastrów obliczeniowych. W efekcie giganci technologiczni zaczęli masowo wykupować zasoby NAND, aby budować macierze SSD zdolne zasilić infrastrukturę AI.

    Rynek pamięci jest de facto oligopolem, gdzie ton nadają Samsung oraz SK Hynix. Gdy jeden gracz podnosi ceny, reszta zazwyczaj podąża tym samym śladem, konsumując marże mniejszych podmiotów. Producenci laptopów i telefonów staną przed trudnym wyborem: albo przerzucą koszty na klientów końcowych, albo zastosują cyfrowe „zaciskanie pasa”, oferując urządzenia o mniejszych pojemnościach dyskowych w standardzie.

    Największą ofiarą tej zmiany nie będą jednak korporacje z Doliny Krzemowej, które stać na każdą cenę w wyścigu zbrojeń AI. Najmocniej ucierpi sektor małych i średnich przedsiębiorstw. Podczas gdy Meta czy Google zabezpieczają dostawy dla swoich centrów danych, lokalne firmy budujące własne stacje robocze lub serwerownie zapłacą za ten sam sprzęt dwukrotnie więcej niż rok temu. W 2026 roku pamięć NAND przestała być tanim towarem masowym, a stała się strategicznym zasobem, którego cena odzwierciedla teraz ambicje najbogatszych graczy na świecie.

  • Ceny RAM i SSD idą w górę. Czy to koniec taniej modernizacji?

    Ceny RAM i SSD idą w górę. Czy to koniec taniej modernizacji?

    Budowa lub modernizacja infrastruktury w przedsiębiorstwie przestała być rutynowym zadaniem operacyjnym, a stała się testem dla budżetów IT. Jak wynika z najnowszego raportu portalu guenstiger.de, który przeanalizował ponad 28 000 produktów między listopadem 2025 a styczniem 2026 roku, ceny RAM i rynek podzespołów komputerowych wkroczył w fazę gwałtownych wzrostów cen, jakich nie widzieliśmy od lat.

    Pamięć w cenie złota

    Największy wstrząs dotknął segmentu pamięci operacyjnej. Ceny nowoczesnych modułów DDR5 w zaledwie trzy miesiące wzrosły dwukrotnie, co stawia pod znakiem zapytania opłacalność masowej wymiany sprzętu na najnowsze standardy. Problem nie ogranicza się jednak wyłącznie do nowinek technicznych. Starsza, ale wciąż powszechnie stosowana architektura DDR4 podrożała o 46 procent, a nawet niszowe już moduły DDR3 odnotowały wzrost o blisko jedną trzecią.

    Eksperci wskazują, że winowajcą nie jest zwiększony popyt ze strony użytkowników końcowych, lecz strukturalna zmiana w łańcuchach dostaw. Giganci technologiczni, napędzani wyścigiem zbrojeń w obszarze sztucznej inteligencji, wykupują ogromne zasoby wysokowydajnej pamięci do swoich centrów danych. Producenci chipów, reagując na te lukratywne zamówienia, przestawili linie produkcyjne, drastycznie ograniczając podaż na rynku konsumenckim i biznesowym.

    Więcej niż tylko RAM

    Efekt domina jest widoczny w całym ekosystemie sprzętowym. Nośniki SSD zdrożały średnio o 25 procent, co bezpośrednio przekłada się na wyższe koszty budowy serwerów i stacji roboczych. Nawet komponenty takie jak karty graficzne czy płyty główne notują dwucyfrowe wzrosty, co przy większych zamówieniach flotowych generuje różnice idące w tysiące euro.

    Interesujące jest jednak to, że segmenty urządzeń gotowych, takich jak notebooki, smartfony czy tablety, wykazują na razie dużą odporność na te zawirowania, utrzymując stabilne poziomy cenowe. Sugeruje to, że producenci OEM posiadają długoterminowe kontrakty zabezpieczające ich przed nagłymi wahaniami rynkowymi, co może skłaniać firmy do zakupu gotowych rozwiązań zamiast samodzielnego konfigurowania systemów.

    Strategia na trudne czasy

    Torben Mallwitz, dyrektor ds. technologii w guenstiger.de, ostrzega, że szybki powrót do niskich cen jest mało prawdopodobny. Centra danych AI będą nadal absorbować lwią część globalnej produkcji. W obecnej sytuacji biznesowej odkładanie inwestycji w nadziei na korektę może przynieść skutek odwrotny do zamierzonego.

  • Western Digital redukuje udziały w SanDisk: Strategiczny odwrót czy optymalizacja kapitału?

    Western Digital redukuje udziały w SanDisk: Strategiczny odwrót czy optymalizacja kapitału?

    Western Digital zdecydował się na gwałtowny ruch kapitałowy, ogłaszając sprzedaż akcji SanDisk o wartości 3,17 miliarda dolarów. Transakcja obejmuje ponad 5,8 miliona udziałów, wycenionych na 545 dolarów za sztukę. Cena ta odzwierciedla blisko 7,7-procentowe dyskonto względem ostatniego kursu zamknięcia, co sugeruje chęć szybkiej monetyzacji aktywów w obliczu dynamicznych zmian na rynku pamięci masowych.

    Ten ruch jest sygnałem głębszej restrukturyzacji portfela giganta dysków twardych. Choć SanDisk pozostaje kluczowym graczem w segmencie flash, Western Digital najwyraźniej priorytetyzuje płynność finansową lub przygotowuje grunt pod nowe inwestycje w technologie nowej generacji.

    Tak znaczące przesunięcie kapitału rzadko bywa przypadkowe. Inwestorzy będą teraz bacznie przyglądać się, czy uzyskane środki zostaną przeznaczone na redukcję zadłużenia, czy też na agresywną ekspansję w obszarze pamięci chmurowych, gdzie marginesy zysku stają się nowym polem bitwy o dominację.

  • Samsung odzyskuje tempo w wyścigu o zlecenia od Nvidii

    Samsung odzyskuje tempo w wyścigu o zlecenia od Nvidii

    Przez ostatnie kwartały Samsung Electronics znajdował się w rzadkim dla siebie położeniu technologicznym — w roli pretendenta goniącego uciekającą czołówkę. Podczas gdy SK Hynix i Micron z sukcesem monetyzowały gwałtowny popyt na pamięci o wysokiej przepustowości (HBM), gigant z Suwon zmagał się z barierami certyfikacyjnymi i operacyjną inercją. Czwartkowy komunikat o rozpoczęciu dostaw próbek HBM4 do kluczowych partnerów stanowi jednak wyraźną cezurę: Samsung oficjalnie kończy okres defensywy i przystępuje do walki o prymat w ekosystemie akceleratorów Nvidii.

    Technologiczna odpowiedź na „wąskie gardło” danych

    Kluczowym argumentem w nowej ofensywie Samsunga jest surowa wydajność, która uderza bezpośrednio w najbardziej newralgiczny punkt współczesnych centrów danych — przepustowość komunikacji między procesorem a pamięcią. Nowa generacja układów HBM4 legitymuje się stałą prędkością przesyłu danych na poziomie 11,7 Gbps, co stanowi 22-procentowy progres względem standardu HBM3E. W scenariuszach szczytowego obciążenia jednostki te są w stanie osiągnąć 13 Gbps. Z perspektywy biznesowej te parametry nie są jedynie technologicznym popisem; to realne narzędzie do redukcji czasu szkolenia wielkich modeli językowych (LLM) i optymalizacji kosztów operacyjnych infrastruktury obliczeniowej.

    Gra o zaufanie i rynkową redefinicję

    Deklaracja Song Jai-hyuka, dyrektora ds. technologii w dziale półprzewodników, o „bardzo zadowalających” opiniach klientów, jest sygnałem o głębokim znaczeniu strategicznym. Sugeruje ona, że Samsung odrobił lekcję z poprzednich generacji i odzyskał zaufanie liderów rynku AI, którzy do tej pory dywersyfikowali ryzyko, opierając się głównie na podaży od SK Hynix. Reakcja giełdy — wzrost kursu akcji o 6,4% — potwierdza, że inwestorzy dostrzegają w tych działaniach potencjał na przełamanie dotychczasowego status quo.

    Krajobraz konkurencyjny pozostaje jednak niezwykle wymagający. SK Hynix, zapowiadając utrzymanie „przytłaczającej” dominacji rynkowej, oraz Micron, raportujący masową produkcję, nie zamierzają oddawać pola bez walki. Samsung, świadomy tempa tej ewolucji, już teraz anonsuje próbki układów HBM4E na drugą połowę roku, próbując narzucić rynkowi własną dynamikę innowacji.

    Dla szerokiego sektora technologicznego powrót Samsunga do pełnej sprawności operacyjnej oznacza stabilizację łańcuchów dostaw i pożądaną pluralizację rynku. Przejście z modelu duopolistycznego do zaciekłej rywalizacji trzech potęg może stać się katalizatorem dalszych spadków cen jednostkowych mocy obliczeniowej, co ostatecznie przyspieszy demokratyzację zaawansowanych rozwiązań AI w globalnym biznesie.

  • Sygnał dla rynku: Technologia CMR wciąż wygrywa ekonomicznie w segmencie 32 TB

    Sygnał dla rynku: Technologia CMR wciąż wygrywa ekonomicznie w segmencie 32 TB

    W branży pamięci masowej od miesięcy odmieniano przez przypadki technologię HAMR oraz platformę Mozaic-3+, które miały zrewolucjonizować gęstość zapisu danych. Tymczasem Seagate wykonuje krok, który na pierwszy rzut oka może wydawać się konserwatywny, lecz w rzeczywistości stanowi pragmatyczną odpowiedź na bieżące potrzeby centrów danych i biznesu. Amerykański gigant wprowadził na rynek trzy nowe modele dysków twardych o pojemności 32 TB, oparte w całości na sprawdzonym, klasycznym zapisie magnetycznym (CMR). Zagęszczenie zapisu danych, w zakresie którego producenci obecnie konkurują, jest niesamowicie istotne z perspektywy biznesu. Dzięki takiemu kierunkowi rozwoju, wzrost danych nie musi oznaczać zwiększania powierzchni data center, a jedynie modernizacji obecnej infrastruktury na taką, której gęstość jest większa. Taki kierunek może znacząco ograniczyć koszty przechowywania i przetwarzania danych, ponieważ zwiększy się ilość danych na metr kwadratowy. 

    Decyzja o wykorzystaniu konwencjonalnej technologii, w momencie gdy firma dysponuje już rozwiązaniami nowej generacji pozwalającymi na produkcję nośników powyżej 30 TB, jest sygnałem dla całego rynku. Sugeruje to, że choć HAMR jest bezsprzeczną przyszłością w wyścigu o upakowanie danych, technologia CMR wciąż oferuje lepszy balans między kosztami produkcji, niezawodnością a dostępnością wolumenu. Seagate udowadnia tym samym, że starszy standard nie został jeszcze ostatecznie rozegrany i wciąż posiada potencjał do skalowania.

    Nowe napędy zasiliły kluczowe linie produktowe producenta, precyzyjnie celując w różne sektory B2B. Model Exos przeznaczony jest dla serwerów w centrach danych, SkyHawk AI zoptymalizowano pod kątem zaawansowanego monitoringu wideo, natomiast IronWolf Pro dedykowany jest systemom NAS. Od strony technicznej inżynierowie Seagate’a postawili na unifikację: wszystkie trzy modele to 3,5-calowe dyski SATA pracujące z prędkością 7200 obr./min, wspierane przez 512 MB pamięci podręcznej. Producent deklaruje ich wytrzymałość na poziomie 550 TBW rocznie oraz średni czas bezawaryjnej pracy (MTBF) wynoszący 2,5 miliona godzin, co znajduje odzwierciedlenie w pięcioletniej gwarancji.

    Polityka cenowa wyraźnie różnicuje te segmenty. Najbardziej przystępny cenowo model SkyHawk AI wyceniono na 699,99 USD. Za wariant serwerowy Exos przedsiębiorstwa zapłacą 729,99 USD, podczas gdy najwyżej pozycjonowany w tym zestawieniu IronWolf Pro wiąże się z wydatkiem rzędu 849,99 USD. Premiera ta pokazuje, że dla klientów biznesowych priorytetem pozostaje obecnie pojemność dostarczana w sprawdzonej architekturze, a niekoniecznie wyścig technologiczny za wszelką cenę.

  • Dell aktualizuje PowerStore i redukuje zużycie energii o 23 proc.

    Dell aktualizuje PowerStore i redukuje zużycie energii o 23 proc.

    W obliczu rosnących kosztów energii i chronicznego braku miejsca w serwerowniach, Dell Technologies aktualizuje swoją kluczową platformę pamięci masowej. Premiera PowerStore 4.3 nie jest rewolucją architektoniczną, lecz precyzyjnym uderzeniem w koszty operacyjne przedsiębiorstw (OpEx), oferującym drastyczne zwiększenie gęstości zapisu przy jednoczesnym ograniczeniu apetytu na prąd.

    Najważniejszą zmianą z perspektywy infrastrukturalnej jest obsługa dysków QLC o pojemności 30 TB. Ten ruch pozwala inżynierom Della na upakowanie do 2 petabajtów danych w obudowie o wysokości zaledwie 2U. Dla managerów IT oznacza to w praktyce podwojenie pojemności na jednostkę szafy rackowej, co bezpośrednio przekłada się na oszczędność cennego miejsca w centrum danych. Dell szacuje, że nowa konfiguracja zmniejsza zużycie energii nawet o 23 procent, a całkowity koszt posiadania (TCO) może spaść o 15 procent. W obecnym klimacie makroekonomicznym, gdzie efektywność energetyczna staje się kluczowym KPI, są to argumenty mogące przeważyć szalę w przetargach B2B.

    Warstwa programowa również doczekała się istotnych usprawnień, koncentrując się na ciągłości działania i bezpieczeństwie. Wprowadzenie synchronicznej replikacji przez Fibre Channel oraz funkcji Metro Sync z automatycznym przełączaniem awaryjnym (failover) ma na celu eliminację ryzyka utraty danych w krytycznych momentach. System oferuje teraz także replikację asynchroniczną na większe odległości z punktem odzyskiwania (RPO) wynoszącym pięć minut. Co istotne, Dell implementuje mechanizmy sztucznej inteligencji do wykrywania anomalii w środowisku danych oraz wieloskładnikową autoryzację administracyjną, co stanowi odpowiedź na rosnące zagrożenia typu ransomware i insider threats.

    Dla administratorów systemów kluczowe będą nowe narzędzia analityczne. Funkcja „Top Talkers” zapewnia wgląd w procesy najbardziej obciążające sieć, co pozwala na precyzyjniejsze zarządzanie polityką Quality of Service (QoS). Dodatkowo, pełne wsparcie dla standardu NFSv4.2 usprawnia zarządzanie dużymi wolumenami plików. Aktualizacja jest dostępna natychmiastowo i bezpłatnie dla obecnych klientów, co stanowi wyraźny sygnał, że Dell zamierza agresywnie bronić swojej bazy użytkowników przed konkurencją.

  • Projekt „Stargate” i 40% światowych zasobów. Jak giganci AI drenują rynek pamięci

    Projekt „Stargate” i 40% światowych zasobów. Jak giganci AI drenują rynek pamięci

    Wszyscy zachwycamy się możliwościami generatywnej sztucznej inteligencji, analizując jej wpływ na rynek pracy czy bezpieczeństwo danych. Jednak rzadziej patrzymy na rachunek, jaki ten postęp wystawia branży hardware. Nie chodzi tu o subskrypcje za modele językowe, ale o drastyczne zmiany w fizycznym łańcuchu dostaw. Kiedy OpenAI i Microsoft rozmawiają o inwestycjach rzędu 500 miliardów dolarów, rynek komponentów wstrzymuje oddech. Gigantyczne centra danych stają się „czarną dziurą” wchłaniającą światowe zasoby krzemu, a my – jako branża i konsumenci – musimy przygotować się na bolesne skutki tego zjawiska.

    Od miesięcy analitycy i dystrybutorzy ostrzegali przed wzrostem cen pamięci. Rzeczywistość okazała się jednak bardziej brutalna niż prognozy. Wzrosty były szybsze i gwałtowniejsze, a to dopiero początek trendu, który zdefiniuje rynek IT na najbliższe lata. Mamy do czynienia z klasycznym efektem kanibalizacji rynku konsumenckiego przez rynek Enterprise, napędzanym przez nienasycony apetyt sztucznej inteligencji.

    Efekt „Gwiezdnych Wrót” – skala, która zmienia wszystko

    Aby zrozumieć, dlaczego ceny RAM-u czy dysków SSD szybują w górę, trzeba spojrzeć na skalę inwestycji w infrastrukturę AI. Symbolem tych przemian jest projekt „Stargate”, prowadzony przez OpenAI. To nie jest po prostu kolejna serwerownia. To przedsięwzięcie o wartości pół biliona dolarów, które ma na celu zapewnienie mocy obliczeniowej dla przyszłych generacji modeli AI.

    Liczby stojące za tym projektem są wręcz abstrakcyjne dla przeciętnego dostawcy sprzętu. Mówimy o umowach z gigantami takimi jak Samsung czy SK Hynix, które opiewają na dostawy rzędu 900 000 wafli krzemowych miesięcznie.

    Co to oznacza w praktyce? Szacuje się, że realizacja tylko tego jednego kontraktu może zmniejszyć globalną podaż pamięci DRAM o 40%. Jeśli jeden projekt pochłania prawie połowę światowej produkcji, to dla całej reszty rynku – od producentów smartfonów, przez branżę automotive, aż po rynek PC – zostaje znacznie mniejszy kawałek tortu. Walka o zasoby staje się zacięta, a w ekonomii rzadkość zawsze oznacza jedno: wzrost ceny.

    HBM to nowe złoto (i gwóźdź do trumny taniego DDR5)

    Sytuację pogarsza fakt, że producenci pamięci – tzw. Wielka Trójka (Samsung, SK Hynix, Micron) – działają racjonalnie. Linie produkcyjne nie są z gumy, a moce przerobowe są skończone. W obliczu gigantycznego popytu na pamięci serwerowe HBM (High Bandwidth Memory) i moduły RDIMM, które są niezbędne do trenowania AI i oferują znacznie wyższe marże, producenci masowo przestawiają swoje fabryki.

    Produkcja standardowych modułów DDR5, używanych w laptopach i desktopach, schodzi na drugi plan. Jest to segment mniej opłacalny i obecnie traktowany jako drugorzędny. Skutki są już widoczne w raportach finansowych. Micron, jeden z kluczowych graczy, już teraz ogłosił, że wyprzedał swoje moce produkcyjne pamięci HBM aż do 2026 roku.

    Dla kanału partnerskiego i klientów końcowych to jasny sygnał: towaru będzie mniej. Ceny kontraktowe DRAM wzrosły w ostatnim czasie o 171%. Dla porównania – to skok wyższy niż w przypadku wielu aktywów inwestycyjnych, w tym złota, uważanego za bezpieczną przystań w niepewnych czasach. Pamięć stała się towarem luksusowym.

    Efekt domina – oberwie nie tylko PC

    Błędem jest myślenie, że problem dotyczy tylko osób składających nowe komputery PC. Pamięć jest „krwiobiegiem” całego ekosystemu technologicznego. Te same wafle krzemowe i te same fabryki są potrzebne do produkcji pamięci NAND Flash (dyski SSD, karty pamięci), pamięci VRAM do kart graficznych czy podzespołów do konsol.

    • Rynek GPU: Tutaj sytuacja jest bliźniaczo podobna. Podczas gdy sprzedaż kart graficznych dla klientów indywidualnych pozostaje na relatywnie niskim poziomie, segment akceleratorów do centrów danych notuje wzrosty rzędu 145%. NVIDIA i inni producenci priorytetyzują hiperskalery (klientów typu Google, Meta, Microsoft), bo tam są pieniądze. Rynek konsumencki dostaje „resztki” z pańskiego stołu.
    • Konsole i Gaming: Analitycy przewidują, że Steam Machine będzie kosztować znacznie więcej, niż początkowo zakładano. Co więcej, Microsoft rozważa podniesienie cen konsol Xbox. Powód? Rosnące koszty komponentów, których nie da się już dłużej brać „na klatę”.

    Krajobraz po bitwie – zapomnijcie o tanich zakupach

    Czy jest szansa na szybką poprawę? Niestety, wskaźniki na to nie wskazują. Sztuczna inteligencja, z samej swojej natury, uczy się i poprawia bez przerwy. To oznacza, że jest technologią nienasyconą – jej zapotrzebowanie na zasoby (energię, wodę do chłodzenia i krzem) będzie rosło wykładniczo, a nie liniowo.

    Dostosowanie globalnych łańcuchów dostaw do tak nagłego skoku popytu zajmie branży lata. Budowa nowych fabryk to proces długotrwały i kosztowny. Dlatego też scenariusz, w którym ceny wracają do normy w 2026 roku, wydaje się optymistyczny, by nie powiedzieć – naiwny.

    Jeśli konsumenci lub firmy planują zakupy sprzętu, licząc na „wielkie obniżki” podczas Czarnego Piątku w 2025 roku, mogą się srogo zawieść. Ceny bazowe produktów będą prawdopodobnie na tyle wysokie, że nawet promocyjne rabaty nie sprowadzą ich do poziomu, który pamiętamy sprzed ery boomu na AI.

    Znajdujemy się w punkcie zwrotnym. „Podatek od AI” stał się faktem, który musimy uwzględnić w budżetach IT. Dla resellerów, integratorów i działów zakupów wniosek płynący z analizy rynku jest jeden: czasy taniego hardware’u minęły.

    Odkładanie modernizacji infrastruktury czy zakupu floty laptopów w oczekiwaniu na spadki cen jest obecnie strategią wysoce ryzykowną. Dostępność komponentów dla segmentu konsumenckiego jest zagrożona przez priorytetowe traktowanie gigantów AI. W tym wyścigu zbrojeń przeciętny użytkownik komputera stoi niestety na przegranej pozycji, a jego portfel staje się mimowolnym sponsorem technologicznej rewolucji.

  • Seagate waliduje dyski 69 TB. Kluczowy rekord gęstości zapisu

    Seagate waliduje dyski 69 TB. Kluczowy rekord gęstości zapisu

    Ostatnie osiągnięcia laboratoryjne Seagate’a mogą zmienić trajektorię rynku pamięci masowych szybciej, niż zakładano. Osiągnięcie gęstości zapisu pozwalającej na zmieszczenie 6,9 TB danych na pojedynczym talerzu to techniczny dowód na to, że konstrukcja dysków o pojemności niemal 70 TB w standardowym formacie 3,5 cala jest wykonalna. Biorąc pod uwagę, że współczesne napędy klasy enterprise mieszczą do dziesięciu takich talerzy, wizja skokowego wzrostu pojemności staje się namacalna.

    Dla operatorów centrów danych i dostawców usług chmurowych, gdzie każdy cal przestrzeni w szafie rack ma wymierną wartość finansową, to kluczowy sygnał. W tym segmencie gra toczy się o maksymalizację gęstości upakowania danych, co bezpośrednio przekłada się na obniżenie całkowitego kosztu posiadania (TCO). Fundamentem tego sukcesu jest platforma Mozaic 3+, będąca rynkową implementacją technologii HAMR. Choć obecny flagowiec marki, model Exos 32 TB, już korzysta z zaawansowanego zapisu magnetycznego wspomaganego laserem, laboratoryjne wyniki potwierdzają, że technologia ta posiada wciąż olbrzymi zapas skalowalności.

    Dotychczasowe zapowiedzi dysków o pojemności 50 TB czy 100 TB branża traktowała z pewną rezerwą. Jednak wynik bliski 7 TB na talerz pokazuje, że ambitne harmonogramy Seagate’a opierają się na twardej fizyce, a nie tylko marketingu. Choć na rynkową premierę gotowych jednostek 69 TB przyjdzie nam jeszcze poczekać, udane skalowanie HAMR sugeruje, że wejście w erę dysków 100-terabajtowych jest już tylko kwestią optymalizacji procesów produkcyjnych, a nie odległą teorią.

  • Przełom w cieniu AI: Samsung i obietnica ultraoszczędnych pamięci NAND

    Przełom w cieniu AI: Samsung i obietnica ultraoszczędnych pamięci NAND

    Eksplozja generatywnej sztucznej inteligencji wymusiła na branży technologicznej gwałtowną rewizję podejścia do efektywności energetycznej. W odpowiedzi na rosnące zapotrzebowanie centrów danych, które dławią się od nadmiaru przetwarzanych informacji, dział badawczy Samsunga ujawnił technologię mogącą drastycznie zmienić ekonomikę pamięci masowej. Nowa generacja pamięci flash NAND obiecuje redukcję zużycia energii podczas operacji odczytu i zapisu nawet o 96 procent w porównaniu do obecnych standardów rynkowych.

    Inżynierowie koreańskiego giganta odeszli od tradycyjnych półprzewodników tlenkowych na rzecz tranzystorów ferroelektrycznych. Choć technologia ta była dotychczas pomijana w układach o dużej mocy ze względu na wysokie napięcie progowe, Samsung zdołał przekuć tę pozorną wadę w kluczowy atut architektoniczny. W nowoczesnych strukturach 3D NAND, gdzie ogniwa łączone są szeregowo, precyzyjna kontrola prądów upływowych jest krytyczna dla stabilności układu. Nowe rozwiązanie skutecznie blokuje przepływ prądu poniżej określonego progu, eliminując straty energii, które dotychczas rosły wykładniczo wraz z dodawaniem kolejnych warstw pamięci.

    Implikacje tego odkrycia wykraczają poza samą architekturę chipów. Przy obecnym wyścigu na liczbę warstw w pamięciach masowych, ferroelektryki mogą stać się standardem umożliwiającym dalsze skalowanie pojemności bez paraliżujących kosztów zasilania. Choć technologia ta w pierwszej kolejności trafi do zastosowań serwerowych i enterprise, w dłuższej perspektywie zdefiniuje również rynek urządzeń mobilnych i wearables. Należy jednak zachować ostrożny optymizm – harmonogram masowej produkcji pozostaje na razie w sferze planów korporacyjnych, a na konsumenckie wdrożenia przyjdzie rynkowi jeszcze poczekać.

  • HP ostrzega: ceny DDR5 wzrosną o 200%. Jak rynek PC poradzi sobie z kryzysem podaży

    HP ostrzega: ceny DDR5 wzrosną o 200%. Jak rynek PC poradzi sobie z kryzysem podaży

    Każdy z nas to widział w sklepie spożywczym. Ulubiona tabliczka czekolady, która kiedyś ważyła 100 gramów, nagle waży 90, choć cena na półce ani drgnęła. Zjawisko shrinkflacji – czyli ukrytego wzrostu cen poprzez zmniejszanie produktu – przestaje być jednak domeną wyłącznie rynku FMCG. Wszystko wskazuje na to, że nadchodząca wiosna przyniesie nam technologiczną wersję tego trendu. Tym razem jednak „odchudzone” zostaną nie słodycze, a konfiguracje naszych laptopów i stacji roboczych.

    Przez lata branża IT przyzwyczaiła nas do komfortowego trendu: każda kolejna generacja sprzętu oferowała więcej mocy obliczeniowej i pamięci za te same (lub niższe) pieniądze. Prawo Moore’a i ekonomia skali działały na korzyść klienta końcowego. Ten mechanizm właśnie się zacina. Powodem są gwałtowne turbulencje na rynku pamięci RAM, gdzie ceny modułów DDR5 w ostatnich tygodniach wystrzeliły o 100, a w skrajnych przypadkach nawet o 200 procent. To wstrząs, którego nie da się zamieść pod dywan, a jego skutki odczujemy szybciej, niż myślimy.

    Koniec ery bezpiecznych zapasów

    Do tej pory rynek PC był w pewnym sensie impregnowany na te podwyżki. Wielcy gracze, tacy jak HP, dysponowali potężnymi zapasami magazynowymi, które działały jak bufor bezpieczeństwa, amortyzując skoki cen komponentów u dostawców. Dzięki temu cenniki u dystrybutorów pozostawały względnie stabilne, mimo że na giełdach podzespołów panowała gorączka.

    Jednak ten okres ochronny dobiega końca. Enrique Lores, CEO HP, nie pozostawia złudzeń w swoich prognozach rynkowych. Sygnalizuje on jasno, że zgromadzone przez giganta zapasy wyczerpią się prawdopodobnie do wiosny przyszłego roku. To kluczowy moment dla całego kanału sprzedaży. Gdy magazyny opustoszeją, producenci będą musieli wyjść na rynek i kupić komponenty po nowych, drastycznie wyższych stawkach.

    Dla resellera i integratora oznacza to jedno: obecne cenniki to relikt przeszłości, który utrzyma się jeszcze tylko przez kwartał, może dwa. Potem nastąpi bolesne zderzenie z nowym kosztem BOM (Bill of Materials).

    Mniej RAM-u albo wyższa faktura

    Tu dochodzimy do sedna problemu, czyli wspomnianej shrinkflacji. Producenci sprzętu doskonale wiedzą, że rynek – zwłaszcza w segmencie podstawowym (entry-level) oraz w sektorze MŚP – jest niezwykle wrażliwy na cenę. Podniesienie ceny podstawowego laptopa biurowego o 15-20% może drastycznie wyhamować popyt.

    Jaką strategię przyjmie branża? Zgodnie z przewidywaniami płynącymi z obozu HP, aby utrzymać określone punkty cenowe (price points), producenci będą zmuszeni do cięcia specyfikacji. W praktyce może to oznaczać, że model, który w tym roku standardowo oferowany był z 16 GB pamięci RAM, w przyszłym roku w tej samej cenie będzie miał na pokładzie jedynie 8 GB.

    Urządzenia z „przyzwoitą” ilością pamięci nie znikną, ale nieuchronnie przesuną się do kategorii premium. Klient będzie miał wybór: zaakceptować gorszą wydajność w starym budżecie lub sięgnąć głębiej do kieszeni.

    O ile w przypadku potężnych stacji roboczych dla inżynierów czy grafików firmy prawdopodobnie „przełkną to kwaśne jabłko” – bo tam wydajność jest krytyczna dla biznesu – o tyle w przypadku masowych zamówień do biur czy szkół, możemy spodziewać się powrotu do konfiguracji, które jeszcze niedawno uważaliśmy za absolutne minimum, by nie powiedzieć: przeżytek.

    Dlaczego jest tak drogo? Niewidzialny podatek od AI

    Można by zapytać: dlaczego pamięć drożeje akurat teraz, gdy rynek PC wciąż liże rany po post-pandemicznym spowolnieniu? Odpowiedź jest krótka: Sztuczna Inteligencja.

    Branża PC stała się w pewnym sensie zakładnikiem rewolucji AI. Producenci pamięci, tacy jak Micron czy Samsung, działają racjonalnie. Widząc nienasycony apetyt gigantów technologicznych na serwery do trenowania modeli językowych, przekierowują swoje moce produkcyjne na wytwarzanie pamięci HBM (High Bandwidth Memory). To właśnie te kości są niezbędne do działania akceleratorów AI i to na nich generuje się obecnie najwyższe marże.

    Problem w tym, że fabryka półprzewodników to nie piekarnia – nie da się z dnia na dzień zmienić asortymentu ani dobudować nowej linii produkcyjnej. Budowa nowych fabryk trwa lata i kosztuje miliardy dolarów. Skoro więc linie produkcyjne są zajęte wytwarzaniem drogiej pamięci dla serwerów AI, brakuje miejsca na produkcję „zwykłego” RAM-u do laptopów.

    Mamy do czynienia z klasycznym efektem domina. Produkcja DDR4 została w dużej mierze wygaszona (co już podbiło jej ceny), a podaż DDR5 nie nadąża za popytem, bo priorytetem jest HBM. W rezultacie, kupując zwykłego laptopa do Excela, płacimy swoisty „podatek”, który finansuje budowę centrów danych Mety czy Google’a, napędzanych tysiącami procesorów Nvidia Blackwell.

    Rynek nie znosi próżni, a rachunek ekonomiczny jest nieubłagany. W 2026 roku AI nie tylko zmieni sposób, w jaki pracujemy, ale też realnie wpłynie na to, na jakim sprzęcie przyjdzie nam tę pracę wykonywać. Wiele wskazuje na to, że nadchodząca wiosna w branży hardware będzie wyjątkowo kosztowna.

  • Intel stawia na jeden standard. Przyszłe układy Xeon 7 wyłącznie z 16 kanałami pamięci

    Intel stawia na jeden standard. Przyszłe układy Xeon 7 wyłącznie z 16 kanałami pamięci

    Intel dokonał istotnej korekty w swojej mapie drogowej dla procesorów serwerowych, decydując się na strategiczne uproszczenie oferty. Firma potwierdziła, że nadchodząca rodzina układów Xeon 7, znana pod nazwą kodową Diamond Rapids, nie będzie oferowana w planowanych wcześniej, bardziej budżetowych wariantach z ośmioma kanałami pamięci. Zamiast tego, cała linia produktów, która ma zadebiutować w 2026 roku, zostanie oparta wyłącznie na platformie z szesnastoma kanałami pamięci.

    Uproszczenie jako strategia konkurencyjna

    Ruch ten jest komunikowany przez Intela jako „uproszczenie” ekosystemu. W praktyce oznacza to rezygnację z segmentacji rynku pod kątem przepustowości pamięci na rzecz ustanowienia nowego, wysokiego standardu. Dla producenta oznacza to mniejszą liczbę platform do walidacji i wspierania. Dla klientów, w tym dużych centrów danych, korzyścią ma być dostęp do maksymalnej przepustowości pamięci nawet w teoretycznie niższych konfiguracjach Xeon 7. Jest to kluczowe w erze obciążeń AI i HPC, gdzie szybki dostęp do danych jest równie ważny jak moc obliczeniowa rdzeni.

    Decyzja ta stanowi również bezpośrednią odpowiedź na działania konkurencji. Przez ostatnie generacje Intel, ze swoimi ośmioma kanałami, pozostawał w tyle za AMD. Konkurencyjne układy Epyc (serie 9004 i 9005) oferują jednolity, dwunastokanałowy kontroler pamięci. Wprowadzenie w 2026 roku nowej platformy serwerowej z zaledwie ośmioma kanałami byłoby strategicznie trudne do obrony. Przeskakując od razu do szesnastu kanałów, Intel nie tylko nadrabia zaległości, ale także próbuje narzucić rynkowi nowy standard wydajności.

    Czekając na nową architekturę

    Sama platforma Diamond Rapids (Xeon 7) będzie nastawiona na maksymalną wydajność, oferując do 192 rdzeni P-core opartych na architekturze Panther Cove. Jej premiera rynkowa przewidziana jest na drugą połowę 2026 roku. Wcześniej, na początku 2026 roku, Intel planuje wprowadzić układy Xeon 6+ (Clearwater Forest), produkowane w procesie Intel 18A i skupione na energooszczędnych rdzeniach E. Rezygnacja z 8-kanałowego Diamond Rapids pokazuje, że Intel jest gotów poświęcić niższą półkę cenową na rzecz mocniejszego uderzenia w segment premium i walki o przywództwo w kluczowym dla centrów danych wskaźniku – przepustowości pamięci.

  • Samsung dyktuje ceny. Pamięci DDR5 zdrożeją nawet o 60 proc. przez boom na AI

    Samsung dyktuje ceny. Pamięci DDR5 zdrożeją nawet o 60 proc. przez boom na AI

    Samsung Electronics, największy na świecie producent układów pamięci, gwałtownie podnosi ceny kluczowych komponentów wykorzystywanych w centrach danych. Jak donoszą źródła zaznajomione ze sprawą, ceny niektórych modułów pamięci DDR5, niezbędnych do budowy infrastruktury AI, wzrosły w listopadzie aż o 60% w porównaniu z wrześniem. Ten ruch sygnalizuje rosnącą presję na globalny łańcuch dostaw i zwiastuje wyższe koszty dla całej branży technologicznej.

    Decyzja Samsunga o tak drastycznej podwyżce została poprzedzona nietypowym opóźnieniem formalnego ogłoszenia cen kontraktowych w październiku. Rosnące ceny układów serwerowych, takich jak moduły DDR5, stanowią poważne wyzwanie dla gigantów technologicznych inwestujących miliardy w centra danych.

    Efekt domina w łańcuchu dostaw

    Skutki niedoborów są już odczuwalne na całym rynku. Wielu największych producentów serwerów akceptuje fakt, że nie otrzyma wystarczającej ilości produktu i płaci znaczące premie cenowe. Konkretne dane pokazują skalę problemu: cena kontraktowa modułu 32 GB DDR5 wzrosła ze 149 USD we wrześniu do 239 USD obecnie. Podobne wzrosty, rzędu 50%, dotknęły moduły 16 GB i 128 GB.

    Problem wykracza jednak poza serwerownie. Chiński producent smartfonów Xiaomi ostrzegał niedawno, że rosnące ceny pamięci podnoszą koszty produkcji telefonów. Co więcej, czołowa chińska odlewnia SMIC poinformowała, że jej klienci wstrzymują zamówienia na inne typy chipów, ponieważ nie są w stanie zabezpieczyć niezbędnych modułów pamięci do ukończenia swoich produktów.

    Strategiczna wygrana Samsunga

    Podczas gdy rynek zmaga się z kryzysem, dla Samsunga niedobór ten jest strategicznym błogosławieństwem. Firma, która do niedawna pozostawała w tyle za rywalami takimi jak SK Hynix czy Micron w segmencie zaawansowanych chipów AI (jak HBM), teraz nadrabia zaległości dzięki swojej dominującej pozycji na rynku tradycyjnych pamięci DDR5. Analitycy wskazują, że daje to Samsungowi znacznie większą siłę negocjacyjną.

    Prognozy rynkowe sugerują, że to dopiero początek. Analitycy z firmy TrendForce spodziewają się, że Samsung podniesie kwartalne ceny kontraktowe w okresie październik-grudzień o 40-50%, czyli znacznie powyżej oczekiwanej średniej rynkowej wynoszącej 30%. Siła popytu jest tak duża, że klienci już teraz zawierają długoterminowe umowy na dostawy na lata 2026 i 2027, próbując zabezpieczyć się przed dalszymi wzrostami.

     

  • Popyt na AI dławi podaż DDR4, windując ceny starszej technologii

    Popyt na AI dławi podaż DDR4, windując ceny starszej technologii

    Na rynku pamięci DRAM dochodzi do anomalii cenowej. Starsza technologia DDR4, zamiast tanieć, staje się droższa od nowocześniejszych modułów DDR5. Producenci, skupieni na obsłudze lukratywnego sektora sztucznej inteligencji, ograniczają produkcję starszych chipów, co prowadzi do niedoborów i zmusza nabywców do płacenia premii za schodzący standard.

    Jeszcze do niedawna naturalną koleją rzeczy był spadek cen starszych generacji komponentów komputerowych. Obecnie jednak obserwujemy sytuację odwrotną. Podaż pamięci DDR4 kurczy się w szybkim tempie, co jest bezpośrednim skutkiem strategicznych decyzji największych graczy na rynku.

    Producenci tacy jak SamsungMicron oficjalnie komunikowali plany wygaszania linii produkcyjnych DDR4, aby zwolnić moce przerobowe na rzecz bardziej zaawansowanych i rentownych technologii.

    Głównym motorem tych zmian jest bezprecedensowy boom w sektorze sztucznej inteligencji. Centra danych i systemy obliczeniowe wykorzystywane do trenowania modeli AI wymagają ogromnych ilości pamięci o wysokiej przepustowości (HBM) oraz najnowszych modułów DDR5.

    To właśnie na produkcji tych komponentów koncentrują się obecnie globalni liderzy, ponieważ przynoszą one znacznie wyższe marże. Zapotrzebowanie na HBM jest tak duże, że producenci mają już zakontraktowaną sprzedaż na cały 2025 rok.

    W rezultacie cierpi dostępność DDR4, standardu wciąż powszechnie wykorzystywanego w milionach komputerów i systemów serwerowych na całym świecie, zwłaszcza w segmencie budżetowym.

    Zmniejszona podaż przy wciąż istniejącym popycie doprowadziła do sytuacji, w której ceny kontraktowe za chipy DDR4 przewyższają te dla szybszych kości DDR5. Producenci urządzeń, którzy wciąż opierają swoje produkty na starszych platformach procesorowych kompatybilnych wyłącznie z DDR4, nie mają wyboru – muszą akceptować wyższe ceny.

    Sytuację na globalnym rynku pamięci dodatkowo komplikują napięcia geopolityczne. Niedawne decyzje Stanów Zjednoczonych, mające na celu ograniczenie transferu technologii do fabryk południowokoreańskich firm zlokalizowanych w Chinach, mogą w przyszłości wpłynąć na koszty i efektywność produkcji.

    Choć na razie trudno oszacować pełne konsekwencje tych ruchów, analitycy wskazują, że każda forma zakłócenia łańcucha dostaw może prowadzić do dalszej niestabilności cenowej na rynku, który i tak zmaga się z głęboką transformacją podyktowaną przez rewolucję AI.

  • Synology prezentuje BeeStation Plus – prostą alternatywę dla chmury z 8 TB pamięci

    Synology prezentuje BeeStation Plus – prostą alternatywę dla chmury z 8 TB pamięci

    Synology rozszerza swoją ofertę konsumenckich rozwiązań do przechowywania danych, wprowadzając BeeStation Plus – nowy model z serii plug-and-play, który łączy prostotę obsługi z funkcjami do tej pory zarezerwowanymi raczej dla półprofesjonalnych NAS-ów. Z 8 TB pamięci i zauważalnym skokiem wydajności względem podstawowej BeeStation, produkt celuje w segment użytkowników, dla których chmura publiczna nie jest wystarczająco prywatna ani elastyczna.

    Nowe urządzenie oferuje nie tylko lokalny backup zdjęć i dokumentów z wielu źródeł, ale też wsparcie dla Plex Media Server, AI do rozpoznawania treści zdjęć czy zabezpieczenia w postaci szyfrowanej kopii zapasowej w chmurze Synology. Kluczowy wyróżnik? To wszystko dzieje się bez potrzeby konfigurowania połączeń sieciowych, terminali czy zaawansowanego konta administratora. BeeStation Plus wpisuje się więc w rosnący trend produktów typu „zero konfiguracji”, które mają działać od razu po podłączeniu do prądu.

    Wprowadzenie lokalnej sztucznej inteligencji do prostego, domowego NAS-a to ruch, który zasługuje na uwagę. W świecie, gdzie prywatność danych jest coraz częściej traktowana jako przewaga konkurencyjna, BeeStation Plus stawia na lokalne przetwarzanie, bez wysyłania zdjęć do chmury zewnętrznej. To bezpośrednia odpowiedź na nieufność wobec Google Photos czy iCloud – szczególnie w Europie, gdzie świadomość regulacji RODO jest znacznie wyższa niż w USA.

    Choć na pierwszy rzut oka BeeStation Plus nie jest produktem dla firm, może okazać się atrakcyjną alternatywą dla małych zespołów kreatywnych – fotografów, agencji czy pracowni graficznych – które szukają rozwiązań bezpiecznych, niedrogich i dostępnych lokalnie. W dłuższej perspektywie może to oznaczać, że Synology będzie częściej balansować na granicy między rynkiem konsumenckim a SOHO, nie tylko dostarczając sprzęt, ale też budując własny ekosystem usług backupu i synchronizacji.

  • Toshiba omija Europę z dyskami NAS 24 TB. Co stoi za tą decyzją?

    Toshiba omija Europę z dyskami NAS 24 TB. Co stoi za tą decyzją?

    Toshiba ogłosiła, że nie wprowadzi swoich najnowszych dysków NAS o pojemności 24 TB – N300 i N300 Pro – na rynek europejski. Oficjalnie powodem jest „niewystarczający popyt”. Tymczasem konkurenci, tacy jak SeagateWestern Digital, z powodzeniem oferują podobne (a nawet większe) pojemności w tym samym segmencie.

    To nie pierwszy raz, gdy producent elektroniki różnicuje ofertę regionalnie. Jednak brak wersji NAS 24 TB w Europie jest zaskakujący – tym bardziej, że Toshiba już sprzedaje tu 24-terabajtowe dyski z serii MG11, tyle że do innych zastosowań. Ograniczenie dystrybucji może więc być mniej kwestią popytu, a bardziej przemyślanej logistyki lub kalkulacji rynkowej.

    Możliwym powodem jest alokacja zapasów – Toshiba może priorytetowo traktować rynki strategiczne, takie jak USA i Azja, gdzie sprzedaż wysokopojemnościowych dysków NAS rośnie dynamicznie. Nie można też wykluczyć wpływu nadchodzących zmian celnych w Unii Europejskiej, które mogą wpłynąć na opłacalność wprowadzenia nowego produktu.

    Dla europejskich klientów oznacza to chwilowe ograniczenie wyboru – i potencjalne zacieśnienie konkurencji między Seagate i WD. Jeśli popyt jednak wzrośnie, Toshiba może wrócić do rozmów o ekspansji. Na razie obserwuje rynek z dystansu.

  • Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Choć świat chmur publicznych coraz mocniej stawia na nośniki flash, Google nie rezygnuje z dysków twardych. Wręcz przeciwnie – w sercu jego infrastruktury wciąż biją talerzowe napędy, tyle że pod kontrolą wysoce zaawansowanego systemu, który pozwala im działać w tempie zbliżonym do SSD.

    Podstawą niemal wszystkich usług Google – od YouTube’a po Gmaile i Cloud Storage – jest Colossus: zaprojektowany wewnętrznie system zarządzania danymi, który integruje i automatyzuje zarządzanie pamięcią masową w skali eksabajtów – wskazuje Google w poście na swoim blogu. Każde centrum danych Google działa na jednym klastrze Colossusa, który może osiągać prędkości do 50 TB/s przy odczycie i 25 TB/s przy zapisie. Dla porównania – to jak przepuszczenie całej zawartości dysku SSD klasy konsumenckiej w ułamku sekundy.

    Klucz do sukcesu? Połączenie taniej pojemności dysków twardych z inteligencją automatyzacji i precyzją uczenia maszynowego. Choć Google posiada również infrastrukturę opartą o SSD, pełne przejście na nośniki półprzewodnikowe byłoby kosztowne na masową skalę. Stąd hybrydowe podejście – z wyraźnym rozdzieleniem danych „szybkich” od „wolnych”.

    Rolę kuratora pełni tutaj system L4 – zaawansowany mechanizm cache’owania, który w czasie rzeczywistym analizuje wzorce dostępu do danych i decyduje, które z nich powinny trafić na SSD, a które mogą bezpiecznie pozostać na talerzach HDD. Dzięki temu popularne, często odczytywane dane są dostępne błyskawicznie, a mniej aktywne zasoby nie obciążają droższej przestrzeni.

    To podejście nie jest jednak pozbawione ograniczeń. HDD sprawdzają się świetnie przy danych często aktualizowanych, ale tracą przewagę przy plikach, które rosną poprzez liczne, drobne dopiski – np. logi czy dane telemetryczne. W takich przypadkach Google świadomie omija dyski twarde, kierując dane bezpośrednio na SSD.

    Dla reszty rynku IT to cenne case study. Choć producenci infrastruktury kuszą coraz szybszymi macierzami all-flash, przykład Google pokazuje, że inwestycja w inteligentne warstwy oprogramowania potrafi wycisnąć maksimum z konwencjonalnego sprzętu. W dobie optymalizacji kosztów i eksplozji danych, taka strategia może być bardziej atrakcyjna niż pełna migracja do flasha – zwłaszcza w środowiskach hyperscale.

  • Zawirowania na rynku pamięci. SK Hynix stawia na HBM, obawiając się amerykańskich ceł

    Zawirowania na rynku pamięci. SK Hynix stawia na HBM, obawiając się amerykańskich ceł

    SK Hynix, drugi co do wielkości producent chipów pamięci na świecie, balansuje między optymizmem napędzanym przez boom na sztuczną inteligencję a niepewnością związaną z potencjalnymi cłami handlowymi. Firma przyznaje, że niektórzy klienci ograniczają zamówienia w odpowiedzi na zapowiadane przez Stany Zjednoczone cła na półprzewodniki, co wprowadza element ostrożności do i tak dynamicznego rynku.

    Podczas dorocznego zgromadzenia akcjonariuszy, Lee Sang-rak, szef globalnej sprzedaży i marketingu SK Hynix, potwierdził, że zjawisko „pull-in” (przyspieszenie zakupów przed wprowadzeniem ceł) oraz redukcja zapasów przez klientów, tymczasowo poprawiły warunki rynkowe. Jednak Lee zastrzegł, że trwałość tego trendu pozostaje niepewna. Przypomnijmy, że w styczniu SK Hynix prognozował spadek dostaw chipów DRAM i NAND o 10-20% w pierwszym kwartale roku, co wskazuje na wcześniejsze obawy o osłabienie popytu.

    Cła i AI napędzają zmienność

    Rynek chipów pamięci znajduje się obecnie pod wpływem dwóch przeciwstawnych sił. Z jednej strony, potencjalne cła, zapowiedziane przez byłego prezydenta USA Donalda Trumpa, wywołują nerwowość. Nomura w swoim raporcie wskazuje, że obawy o cła skłaniają do prewencyjnego przenoszenia zapasów półprzewodników do Stanów Zjednoczonych. Analitycy ostrzegają, że jeśli cła wejdą w życie, mogą doprowadzić do wzrostu cen i osłabienia popytu.

    Z drugiej strony, gwałtowny rozwój sztucznej inteligencji generuje bezprecedensowy popyt na wysokowydajne chipy pamięci. Konkurenci SK Hynix, tacy jak Micron, SanDisk i chiński YMTC, już podnieśli ceny chipów, częściowo w odpowiedzi na ten popyt. SK Hynix, jako kluczowy dostawca dla lidera rynku AI, Nvidii, również korzysta z tego trendu.

    HBM gwiazdą wzrostu

    SK Hynix szczególnie optymistycznie patrzy na perspektywy rynku chipów HBM (High Bandwidth Memory), kluczowych dla akceleratorów AI. Dyrektor generalny firmy, Kwak Noh-Jung, zapowiada „wybuchowy wzrost” popytu na HBM, napędzany inwestycjami w centra danych. W styczniu SK Hynix prognozował ponad dwukrotny wzrost sprzedaży HBM w tym roku. Co więcej, Kwak ujawnił, że sprzedaż HBM na rok 2025 jest już wyprzedana, a firma planuje finalizować umowy na dostawy w 2026 roku. To pokazuje ogromne zaufanie do długoterminowego wzrostu tego segmentu rynku.

    DeepSeek: zagrożenie czy szansa?

    Pojawienie się chińskiego startupu DeepSeek, który twierdzi, że opracował modele AI konkurujące z zachodnimi odpowiednikami za ułamek kosztów, wywołało w styczniu obawy o potencjalne spowolnienie wydatków na sprzęt AI. Jednak Nvidia, a teraz i SK Hynix, zdają się nie podzielać tych obaw. Kwak Noh-Jung postrzega rozwój DeepSeek jako potencjalnie korzystny dla popytu na układy pamięci AI w średnim i długim terminie. Jego argumentacja opiera się na przekonaniu, że pojawienie się nowych graczy i konkurencja w dziedzinie AI będą napędzać dalszy rozwój i zapotrzebowanie na wysokowydajne komponenty.

  • Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Rozwój technologii pamięci masowych odgrywa kluczową rolę w kształtowaniu przyszłości branży IT, wpływając na wydajność, bezpieczeństwo i energooszczędność systemów informatycznych. O najnowszych innowacjach, trendach oraz wyzwaniach rynkowych rozmawiamy z Maciejem Kamińskim, Dyrektorem dywizji Memory w Samsung Electronics Polska i regionie CEE.

    Bartosz Martyka, BrandsIT: Jakie innowacje w technologii pamięci mają największy wpływ na całą branżę IT?

    Maciej Kamiński, Samsung: Każde novum dotyczące pamięci masowych napędza rozwój branży IT, wpływając na wydajność, energooszczędność oraz przetwarzanie i przechowywanie danych. W ostatnich latach kilka przełomowych technologii znacząco ukształtowało przyszłość centrów danych, urządzeń konsumenckich i AI.

    Jednym z największych postępów jest pamięć NVMe, która zastąpiła starsze interfejsy SATA. Dyski NVMe oferują wielokrotnie wyższą prędkość odczytu i zapisu, co znacząco skraca czas ładowania systemów, aplikacji i baz danych. Wykorzystanie NVMe w centrach danych, gamingowych PC i AI przyspiesza obliczenia, zwiększa efektywność operacyjną i redukuje opóźnienia. Technologia ta jest kluczowa dla nowoczesnych serwerów, gdzie każda milisekunda ma znaczenie. Firmy mogą przetwarzać ogromne ilości danych w czasie rzeczywistym, co ma istotne znaczenie dla machine learning i chmury. Dzięki wysokiej przepustowości NVMe stopniowo wypiera SSD oparte na SATA, które nie spełniają już współczesnych wymagań wydajnościowych.

    Kolejną istotną innowacją jest rozwój pamięci 3D NAND, w której komórki są układane warstwowo, co pozwala na zwiększenie gęstości zapisu i pojemności dysków SSD bez zmiany ich rozmiaru. Producenci mogą dostarczać bardziej wydajne i tańsze nośniki, co ma ogromne znaczenie dla chmury i użytkowników indywidualnych. Wzrost popularności przechowywania danych w chmurze i modelu subskrypcyjnego napędza popyt na szybkie, pojemne pamięci.

    Nowoczesne algorytmy zarządzania pamięcią wydłużają jej żywotność, co jest kluczowe dla biznesu i centrów danych. Samsung jako lider w tej dziedzinie stale rozwija 3D NAND, zwiększając liczbę warstw nawet do planowanych 430. Takie innowacje zwiększają pojemność i optymalizują zużycie energii. Jest to istotne dla zrównoważonego rozwoju IT. Technologia Samsung V-NAND poprawia wydajność i trwałość dzięki pionowemu układaniu komórek, redukując zakłócenia między-poziomowe i zwiększając niezawodność pamięci w długim okresie.

    B.M.: Jakie są kluczowe elementy skutecznego partnerstwa w sektorze rozwiązań pamięciowych?

    M.K.: Efektywna współpraca nie tylko w sektorze pamięci masowych, a w sadzie w każdej branży, opiera się na kilku kluczowych elementach, które umożliwiają długoterminową współpracę i budowanie przewagi konkurencyjnej.

    1. Wspólna wartość biznesowa
      Współpracujące firmy muszą mieć jasno określone cele oraz strategie, które pozwalają na rozwój innowacyjnych rozwiązań odpowiadających na realne potrzeby klientów. W dywizji Memory w Samsung nie stawiamy na wielką liczbę partnerów, a na jakość współpracy – kluczowe jest dla nas budowanie długofalowych relacji, w których partnerzy dostarczają wartość dodaną do sektora technologii pamięciowych.
    2. Elastyczność i adaptacja do zmian rynkowych
      Sektor IT charakteryzuje się szybką zmiennością, dlatego elastyczność i zdolność adaptacji do nowych wyzwań jest niezbędna. Współpraca z partnerami musi uwzględniać zmieniające się potrzeby klientów, rozwój sztucznej inteligencji, wzrost znaczenia chmury obliczeniowej oraz potrzeby sektora data center. Samsung, wspierając swoich partnerów, dostarcza nie tylko najnowsze rozwiązania sprzętowe, ale także edukację i wsparcie techniczne, co ułatwia ich skuteczne wdrażanie.
    3. Transparentność i zaufanie
      Współpraca w sektorze pamięci masowej wymaga transparentności i partnerstwa opartego na zaufaniu. Kluczowe jest dzielenie się wiedzą, analizowanie trendów rynkowych oraz dostosowywanie strategii sprzedażowych do potrzeb klientów. Realizujemy to m.in. poprzez cykliczne szkolenia dla partnerów oraz współpracę w zakresie tworzenia materiałów case study, które pokazują praktyczne zastosowanie rozwiązań pamięciowych w rzeczywistych projektach.
    4. Wsparcie operacyjne i marketingowe
      Skuteczne partnerstwo nie kończy się na dostarczeniu produktu – istotne jest wsparcie operacyjne, po-sprzedażowe, serwisowe oraz marketingowe. Samsung wdraża model 360°, w którym oprócz innowacyjnych produktów oferuje showroomy technologiczne, szkolenia i materiały edukacyjne, które pomagają partnerom w skutecznej promocji i sprzedaży pamięci masowych.

    B.M.: Jak współpraca z producentami sprzętu, dystrybutorami oraz dostawcami chmury wpływa na rozwój rozwiązań pamięciowych?

    M.K.: Wymiana doświadczeń z firmami tworzącymi sprzęt IT pozwala na optymalizację wydajności, kompatybilności i trwałości produktów. Integracja technologii NVMe z nowoczesnymi urządzeniami przyspiesza przetwarzanie danych. Stanowi to nieocenioną wartośćdla klientów indywidualnych, centrów danych i branży AI.

    Współpracujemy z producentami sprzętu, by dostosować firmware i kontrolery pamięci do konkretnych zastosowań. Przykładem jest rozwój dysków SSD zoptymalizowanych pod kątem gier, które minimalizują opóźnienia i zwiększają prędkość ładowania.

    Dystrybutorzy natomiast odgrywają kluczową rolę w łańcuchu dostaw, zapewniając dostępność najnowszych technologii pamięciowych. Współpraca z nimi przyspiesza wdrażanie innowacji i zwiększa skalę dystrybucji. Jako dywizja Memory stawiamy na bliskie relacje z partnerami, oferując im nie tylko produkty, ale także szkolenia, które pomagają skutecznie sprzedawać nowoczesne rozwiązania. Dzięki temu możliwe jest dostosowanie oferty do lokalnych rynków – w Europie rośnie zapotrzebowanie na dyski enterprise, podczas gdy w krajach rozwijających się dominują podstawowe nośniki danych.

    Dynamiczny rozwój usług chmurowych znacząco wpływa na innowacje w pamięciach masowych. Samsung współpracuje z dostawcami chmury, by tworzyć rozwiązania zoptymalizowane pod kątem centrów danych. W nich to priorytetowymi są szybkość dostępu, energooszczędność i skalowalność. Przykładem jest rosnące zapotrzebowanie na dyski SSD NVMe dla serwerów cloudowych. Samsung inwestuje w rozwój pamięci o dużej gęstości zapisu, co zwiększa efektywność przechowywania i przetwarzania informacji w chmurze.

    B.M.: Jakie wyzwania technologiczne i rynkowe przewidujecie, a które mogą zostać złagodzone dzięki strategicznym partnerstwom?

    M.K.: Niestabilność łańcucha dostaw półprzewodników, nasilona przez pandemię i napięcia geopolityczne, pokazała, jak duży wpływ na branżę mają niedobory surowców i zakłócenia logistyczne. Producenci pamięci mierzyli się z ograniczoną dostępnością kluczowych komponentów, co wpłynęło na tempo produkcji i terminowość dostaw. Rosnący popyt na elektronikę, napędzany rozwojem AI, big data i chmury, dodatkowo uwypuklił znaczenie niezachwianego łańcucha wartości.

    Samsung Memory, dzięki partnerstwom z dystrybutorami i dostawcami surowców, minimalizuje ryzyko braków i optymalizuje logistykę. Długoterminowa współpraca pozwala skuteczniej zarządzać zasobami i przewidywać problemy z dostępnością komponentów. Inwestycje w lokalne centra produkcyjne i magazynowe zmniejszają zależność od odległych dostawców, a globalna współpraca ułatwia monitorowanie sytuacji rynkowej i zapewnia ciągłość produkcji.

    W dobie cyfryzacji rosną zagrożenia cybernetyczne. Ataki ransomware i kradzież danych stały się codziennością, a firmy potrzebują zaawansowanych zabezpieczeń. Sektory finansowy, zdrowotny i infrastruktura krytyczna wymagają najwyższego poziomu ochrony, co wymusza stosowanie technologii szyfrowania i odporności na manipulacje.

    Samsung wdraża szyfrowanie sprzętowe w pamięciach SSD oraz systemy odporne na ataki. Dzięki temu firmy skuteczniej chronią dane, a użytkownicy indywidualni zyskują większe bezpieczeństwo. Rozwój technologii Hardware-Based Encryption i unikalnych identyfikatorów sprzętowych wzmacnia ochronę informacji. Samsung Memory nie tylko dostarcza sprzęt, ale także edukuje partnerów w zakresie najlepszych praktyk cyberbezpieczeństwa, pomagając firmom skutecznie przeciwdziałać zagrożeniom.


    Maciej Kamiński pełni funkcję Dyrektora Dywizji Memory w Samsung Electronics na Polskę i region Europy Środkowo-Wschodniej (CEE). Posiada szerokie doświadczenie w zakresie marketingu, sprzedaży oraz zarządzaniu produktami i usługami technologicznymi. W swojej roli odpowiada za rozwój i skalowanie biznesu pamięci masowych Samsung w regionie, kładąc nacisk na budowanie stabilnych relacji z partnerami oraz wspieranie ich w rozwoju oferty. Pod jego kierownictwem dywizja Memory została zbudowana od podstaw i obecnie dynamicznie rozwija się.

  • Liderzy IT wybierają pamięć obiektową, by kontrolować koszty generatywnej AI

    Liderzy IT wybierają pamięć obiektową, by kontrolować koszty generatywnej AI

    Zgodnie z raportem firmy MinIO, przedsiębiorstwa coraz częściej wybierają pamięć obiektową jako rozwiązanie wspierające rozwój technologii sztucznej inteligencji (AI) i uczenia maszynowego (ML). Ankieta przeprowadzona wśród 656 liderów IT wykazała, że organizacje planują znacząco zwiększyć wykorzystanie tej technologii w najbliższych dwóch latach, przewidując, że przechowywanie obiektów będzie odpowiadać za trzy czwarte danych w porównaniu do 70% obecnie.

    Pamięć obiektowa jako fundament strategii danych w erze AI

    Wzrost znaczenia pamięci obiektowej jest związany z intensywnym rozwojem generatywnej sztucznej inteligencji oraz tradycyjnych rozwiązań ML. Przechowywanie obiektowe, które oferuje wydajność, skalowalność i niższe koszty w porównaniu do innych form przechowywania danych, stało się kluczowym elementem strategii wielu firm. Według raportu, ponad połowa respondentów uznała AI za główny czynnik wyboru tej technologii, wskazując na jej zdolność do obsługi dużych zbiorów danych oraz wymagania związane z ich przetwarzaniem.

    Optymalizacja kosztów dzięki hybrydowym ekosystemom danych

    Rynek przechowywania danych w chmurze również rośnie – zgodnie z prognozami, do 2028 roku wartość tego rynku ma przekroczyć 128 miliardów dolarów. Przechowywanie obiektowe stanowi ponad dwie trzecie wszystkich repozytoriów danych w chmurze, co pokazuje jego dominującą rolę w nowoczesnych architekturach IT.

    Przechowywanie danych a przyszłość generatywnej i tradycyjnej AI

    Mimo że generatywna AI zyskuje na popularności, przedsiębiorstwa nie rezygnują z tradycyjnych rozwiązań ML i analityki. Zgodnie z danymi MinIO, najczęstsze obciążenia dla pamięci obiektowej to zaawansowane analizy (54% respondentów), szkolenie i wnioskowanie modeli AI (51%) oraz przechowywanie danych w domowych jeziorach danych (44%).

    Firmy dążą również do zminimalizowania ryzyka i kosztów, wprowadzając hybrydowe podejście do infrastruktury danych. Raport wskazuje, że jedna trzecia organizacji stosuje równowagę między chmurą a infrastrukturą lokalną, podczas gdy tylko 19% firm działa w pełni w chmurze.

    Warto zauważyć, że mimo rosnącego znaczenia rozwiązań w chmurze, kontrola nad danymi pozostaje priorytetem dla wielu organizacji, co może tłumaczyć wybór hybrydowych ekosystemów danych.

  • Qnap przewidzi awarie dysków. Nawet kilka miesięcy przed ich wystąpieniem

    Qnap przewidzi awarie dysków. Nawet kilka miesięcy przed ich wystąpieniem

    Qnap wprowadza na rynek DA Drive Analyzer 2.0 – nowatorskie oprogramowanie z AI, które obiecuje przewidzieć awarie dysków twardych nawet kilka miesięcy  przed ich wystąpieniem, dzięki sztucznej inteligencji.

    Drive Analyzer 2.0, opierając się na sztucznej inteligencji, ma zdolność do przewidywania awarii dysków twardych nawet sześć miesięcy przed ich wystąpieniem. To podejście, łączące telemetrię z zaawansowanymi algorytmami AI, wydaje się być krokiem naprzód w porównaniu do tradycyjnego systemu S.M.A.R.T., który, jak twierdzi QNAP, nie wykrywa 30% problemów dyskowych. Jednakże, warto zastanowić się, czy przetwarzanie tak ogromnej ilości danych i ich przesyłanie do chmury, gdzie są Qnzpanalizowane, nie rodzi obaw o prywatność i bezpieczeństwo danych.

    Koszt innowacji

    Chociaż DA Drive Analyzer 2.0 jest dostępny bezpłatnie dla użytkowników QNAP przez App Center, rzeczywisty koszt korzystania z niego nie jest całkowicie wolny od opłat. Standardowa licencja umożliwia monitorowanie jednego dysku, ale monitorowanie dodatkowych dysków wiąże się z rocznym kosztem. Czy taka strategia cenowa nie ogranicza dostępności tej technologii dla małych i średnich przedsiębiorstw, które mogą potrzebować ochrony wielu dysków, ale niekoniecznie dysponują wystarczającymi środkami?

    Bezpieczeństwo i prywatność

    QnapP zapewnia, że podczas przesyłania danych do chmury adres IP użytkownika pozostaje ukryty, co jest krokiem w kierunku ochrony prywatności. Jednakże, kwestia bezpieczeństwa danych, które są regularnie przesyłane do analizy zewnętrznej, pozostaje otwarta. Czy dane te są wystarczająco zabezpieczone przed potencjalnymi zagrożeniami cybernetycznymi?

    Wsparcie dla różnych typów dysków

    Pochwalić należy fakt, że DA Drive Analyzer 2.0 obsługuje nie tylko klasyczne dyski SATA, ale także SSD i SAS oraz NVMe, co pokazuje elastyczność QNAP w dostosowywaniu się do różnorodnych potrzeb użytkowników.

  • Giganci robią krok wstecz – ożywienie na rynku pamięci NAND i DRAM

    Giganci robią krok wstecz – ożywienie na rynku pamięci NAND i DRAM

    Według UDN, firmy specjalizujące się w produkcji pamięci, takie jak Adata i Phison, odnotowują wzrost przychodów. Wielu producentów pamięci, którzy wcześniej borykali się z problemami finansowymi z powodu niskich cen, teraz patrzy w przyszłość z optymizmem.

    Phison, znany dostawca SSD, odnotował imponujący wzrost przychodów do 1,56 miliarda dolarów, co stanowi wzrost o 25 procent w porównaniu z poprzednim miesiącem i o 4 procent w stosunku do tego samego okresu ubiegłego roku. Jest to najwyższa miesięczna sprzedaż od ponad roku. Co więcej, ich przychody kwartalne wzrosły o 24 procent w porównaniu z poprzednim kwartałem.

    Nie tylko Phison cieszy się z takich wyników. Adata również opublikował swoje dane finansowe, które są równie imponujące. We wrześniu ich przychód wyniósł 461 milionów dolarów, co oznacza wzrost o 16,5 procent w porównaniu z sierpniem i aż 113 procent rok do roku. Chociaż ich wynik kwartalny był niższy o 35 procent niż w poprzednim kwartale, to w porównaniu z tym samym kwartałem w 2022 roku wzrósł o 116 procent.

    Adata przewiduje, że ceny ich produktów wzrosną o 10 do 15 procent w nadchodzącym kwartale. Jest to oznaka, że rynek pamięci komputerowej zaczyna się ożywiać i że firmy mogą spodziewać się korzystnych warunków w najbliższej przyszłości.

    Po trudnym okresie dla producentów pamięci komputerowej, rynek zaczyna się stabilizować. Decyzje głównych graczy o zmniejszeniu produkcji przyniosły pożądane efekty, a firmy takie jak Phison i Adata cieszą się z rosnących przychodów. Wszystko wskazuje na to, że przyszłość tego sektora jest jasna i pełna optymizmu.