Tag: AMD

  • Łączność satelitarna i AI: AMD współpracuje z NEC i NASA nad nowymi technologiami

    Łączność satelitarna i AI: AMD współpracuje z NEC i NASA nad nowymi technologiami

    W miarę jak NASA przesuwa punkt ciężkości z krótkich misji badawczych w stronę trwałej obecności na Księżycu, front walki o technologiczną dominację przenosi się w miejsce, gdzie opóźnienia w transmisji danych stają się krytycznym wąskim gardłem. W nowej rzeczywistości, w której odległość od ziemskich serwerowni uniemożliwia bieżącą analizę danych, kluczem do sukcesu staje się „inteligentna krawędź” (edge computing) – i to właśnie tutaj AMD upatruje swojej szansy na zdefiniowanie standardów nowej ery kosmicznej.

    Strategia giganta z Santa Clara opiera się na prostym założeniu: aby Ameryka mogła przewodzić w kosmosie, musi posiadać przewagę w produkcji zaawansowanych układów scalonych zdolnych do pracy w ekstremalnych warunkach. Tradycyjne podejście, polegające na przesyłaniu surowych danych na Ziemię, przestaje być wydajne przy projektach takich jak misja NISAR czy program Artemis. Rozwiązaniem są adaptacyjne układy SoC z serii Versal, które łączą w sobie programowalną logikę z silnikami AI, pozwalając na przetwarzanie informacji bezpośrednio na pokładzie statku kosmicznego.

    Dla partnerów komercyjnych, takich jak Blue Origin, wybór technologii AMD to nie tylko kwestia wydajności, ale przede wszystkim elastyczności. Komputery lotnicze zasilające testowy pojazd lądownika Mark 2 muszą być gotowe na aktualizację algorytmów AI już po starcie, co w przypadku sztywnych architektur sprzętowych było dotychczas niemożliwe. Zdolność do rekonfiguracji systemów na orbicie pozwala optymalizować misję w odpowiedzi na nieprzewidziane wyzwania, co radykalnie zwiększa zwrot z inwestycji w wieloletnie programy kosmiczne.

    Zastosowanie tych technologii wykracza poza ambicje NASA. Japoński koncern NEC wykorzystuje adaptacyjne układy AMD do budowy konstelacji satelitów komunikacji optycznej, co ma zrewolucjonizować routing danych w przestrzeni pozaziemskiej. To pokazuje, że rywalizacja o krzem w kosmosie to nie tylko kwestia prestiżu narodowego, ale realny rynek usług infrastrukturalnych. 

    Sukces AMD na Marsie, gdzie układy FPGA wspierały nawigację łazika Perseverance, stanowi solidny fundament zaufania. Jednak prawdziwym testem dla spółki będzie nadchodząca dekada, w której autonomiczne systemy będą musiały radzić sobie z promieniowaniem i ekstremalnymi temperaturami bez wsparcia z bazy. W tym wysokomarżowym sektorze, gdzie niezawodność jest cenniejsza niż surowa moc obliczeniowa, AMD pozycjonuje się jako niezbędny architekt nowej, orbitalnej gospodarki opartej na danych.

  • AMD i Meta: Kontrakt za 60 mld USD zmieni układ sił w AI

    AMD i Meta: Kontrakt za 60 mld USD zmieni układ sił w AI

    Meta Platforms, gigant rządzony przez Marka Zuckerberga, zawarł z AMD porozumienie warte 60 miliardów dolarów. Na pierwszy rzut oka to klasyczny kontrakt na dostawy chipów, mający zabezpieczyć infrastrukturę pod ambitne projekty AI. Jednak głębsza analiza struktury tej transakcji ujawnia mechanizm, który coraz mocniej niepokoi inwestorów: powrót do tzw. transakcji o obiegu zamkniętym.

    Kapitał za krzem

    Kluczowym elementem umowy nie jest sama kwota, lecz prawo Meta do objęcia do 10% udziałów w AMD. Mechanizm oparty na warrantach, które stają się wymagalne po osiągnięciu przez akcje AMD określonych celów (nawet 600 USD), sprawia, że Meta przestaje być jedynie klientem, a staje się strategicznym współwłaścicielem.

    Dla Lisy Su, prezes AMD, jest to potężne wotum zaufania. Pozyskanie tak dużego gracza pozwala rzucić wyzwanie dominacji Nvidii, szczególnie w nadchodzącym cyklu układów MI450. Rynek zareagował entuzjastycznie, windując kurs AMD o 6%, podczas gdy Nvidia odnotowała lekki spadek. Jednak krytycy, tacy jak analitycy z Hargreaves Lansdown, słusznie zauważają, że konieczność oddania dziesiątej części firmy sugeruje, iż AMD wciąż musi „kupować” swój udział w rynku, zamiast polegać wyłącznie na organicznym popycie.

    Dywersyfikacja jako polisa ubezpieczeniowa

    Strategia Meta jest klarowna: uniezależnienie się od jednego dostawcy. Choć firma nadal kupuje miliony procesorów od Nvidii i rozwija własne układy, sojusz z AMD daje jej bezpośredni wpływ na architekturę sprzętową. Nowe chipy mają być optymalizowane pod kątem wnioskowania – etapu, który zdaniem ekspertów wkrótce przyćmi rynek samego trenowania modeli pod względem generowanych zysków.

    To partnerstwo wpisuje się w szerszy trend, w którym Big Tech – dysponujący niemal nieograniczonym kapitałem – przejmuje kontrolę nad łańcuchem dostaw. Podobne ruchy Alphabetu wobec Anthropic czy wcześniejsze pakty AMD z OpenAI tworzą sieć wzajemnych powiązań kapitałowych.

  • Rynek studzi zapał wobec AMD

    Rynek studzi zapał wobec AMD

    Środowy spadek akcji AMD o 13% to nie tylko reakcja na liczby, ale przede wszystkim sygnał narastającego sceptycyzmu wobec tempa, w jakim goniący liderów gracze mogą realnie monetyzować rewolucję AI. Choć AMD prognozuje przychody w pierwszym kwartale na poziomie około 9,8 miliarda dolarów — co formalnie przebija konsensus analityków — inwestorzy dostrzegli w raporcie pęknięcia, których nie zdołał zasypać nawet niespodziewany zastrzyk gotówki z Chin.

    Fundamentem niepokoju jest fakt, że bez 390 milionów dolarów pochodzących ze sprzedaży licencjonowanych chipów na rynek chiński, kluczowy segment centrów danych AMD nie sprostałby rynkowym oczekiwaniom. Dla analityków to dowód na to, że organiczna dynamika wzrostu w obszarze AI może nie być tak odporna na wstrząsy, jak maluje to zarząd. Podczas gdy Nvidia agresywnie broni swoich terytoriów, AMD musi mierzyć się z nowym frontem: rosnącą dominacją niestandardowych układów projektowanych wewnętrznie przez gigantów technologicznych.

    Sytuację AMD komplikuje kontekst makroekonomiczny i strategiczne partnerstwa konkurencji. Umowa Google z Anthropic na dostawy procesorów o wartości miliardów dolarów to jasny sygnał, że rynek szuka alternatyw, ale niekoniecznie tam, gdzie AMD chciałoby je widzieć. Co więcej, rynkowa wycena AMD — oscylująca wokół 33-krotności przyszłych zysków — wydaje się dziś ciężarem w porównaniu do znacznie niższych mnożników partnerów infrastrukturalnych, takich jak Super Micro Computer. Ten ostatni, dzięki podniesieniu prognoz rocznych, stał się beneficjentem optymizmu, którego zabrakło producentowi układów z Santa Clara.

    Dyrektor generalna Lisa Su zachowuje spokój, zapowiadając gwałtowne przyspieszenie dostaw do OpenAI i innych kluczowych graczy w drugiej połowie roku. Strategia „cierpliwej ofensywy” opiera się na założeniu, że globalne braki pamięci nie uderzą w produkcję, a popyt na serwery nowej generacji w końcu przełoży się na twarde zyski. Jednak dla biznesu płynie z tej lekcji jasny wniosek: w dobie AI sama obietnica technologii to za mało. Liczy się zdolność do błyskawicznej egzekucji i odporność na próby dywersyfikacji dostaw przez największych klientów.

  • Fizyka kontra marketing. Co naprawdę zyskujesz, inwestując w procesory 1.8 nm i 3 nm?

    Fizyka kontra marketing. Co naprawdę zyskujesz, inwestując w procesory 1.8 nm i 3 nm?

    Intel wytacza ciężkie działa w postaci procesorów Core Ultra trzeciej generacji, znanych jako Panther Lake, które oparte są na technologii 18A, czyli 1,8 nanometra. Po drugiej stronie rynkowej barykady stoi AMD ze swoimi układami Ryzen, wypiekanymi w tajwańskich fabrykach TSMC w procesie 3 nm. Na papierze przewaga Intela wydaje się miażdżąca, sugerując technologię niemal o połowę mniejszą i nowocześniejszą. Jednak w portfelu dyrektora finansowego ta różnica może okazać się błędem statystycznym. W świecie, gdzie „nanometr” stał się marką, a nie miarą, biznes musi nauczyć się patrzeć na to, co naprawdę napędza wydajność, ignorując etykiety na pudełkach.

    Gdy menedżerowie IT przeglądają specyfikacje nowych laptopów czy serwerów, ich wzrok naturalnie kieruje się na cyfry, ponieważ w branży technologicznej mniejsze zazwyczaj oznacza lepsze, szybsze i bardziej oszczędne. Producenci doskonale zdają sobie z tego sprawę, dlatego wyścig zbrojeń w sektorze półprzewodników przeniósł się z laboratoriów fizycznych do działów marketingu. Aby podjąć świadomą decyzję zakupową na lata 2025–2026, trzeba zrozumieć, gdzie kończy się inżynieria, a zaczyna gra słów.

    Wielka iluzja nanometra

    Przez dekady branża IT operowała prostą i zrozumiałą walutą. Jeszcze w 1995 roku, gdy mówiliśmy o procesie technologicznym 350 nm, oznaczało to, że bramka tranzystora na płytce krzemu faktycznie miała długość 350 nanometrów. Inżynier i handlowiec mówili tym samym językiem, a nazwa węzła była bezpośrednim odzwierciedleniem fizycznej rzeczywistości. Ten porządek załamał się jednak pod koniec lat dziewięćdziesiątych wraz z wprowadzeniem nowych technologii budowy mikrotranzystorów, które zerwały bezpośrednie połączenie między nazwą węzła a fizycznym wymiarem komponentów.

    Dziś nazwy takie jak „Intel 4”, „18A” oznaczające 18 Angstromów, czy „TSMC N3” to w przeważającej mierze nazwy handlowe. Traktowanie ich jako technicznej miary długości jest błędem mogącym prowadzić do mylnych wniosków biznesowych. To sytuacja analogiczna do rynku motoryzacyjnego, gdzie oznaczenie modelu samochodu, na przykład BMW 330, nie musi już oznaczać silnika o pojemności trzech litrów. Cyfra służy obecnie pozycjonowaniu produktu w ofercie, a nie precyzyjnemu opisowi jego parametrów technicznych.

    Dla biznesu oznacza to konieczność zmiany podejścia do analizy ofert. Fakt, że jeden procesor jest oznaczony jako „1,8 nm”, a drugi jako „3 nm”, nie oznacza automatycznie, że ten pierwszy jest fizycznie znacznie mniejszy. W rzeczywistości różnice mogą być minimalne, a w skrajnych przypadkach relacja gęstości upakowania może być nawet odwrotna do tego, co sugerują liczby.

    Twarda waluta krzemu

    Skoro nanometry są umowne, świadomy inwestor lub szef działu IT powinien patrzeć na inne wskaźniki. Jeśli zajrzymy pod maskę procesorów Panther Lake czy najnowszych Ryzenów, znajdziemy obiektywne parametry, o których działy PR mówią niechętnie, a które są kluczowe dla inżynierów. Są to przede wszystkim Gate Pitch, czyli minimalna odległość między poszczególnymi tranzystorami, oraz Metal Pitch, oznaczający minimalną odległość między miedzianymi ścieżkami łączącymi te elementy.

    Analiza tych twardych danych prowadzi do zaskakujących wniosków. Porównując obecną generację procesów, okazuje się, że technologia Intel 4 oraz konkurencyjna TSMC N4 mają niemal identyczne parametry fizyczne, ze skokiem bramki oscylującym w granicach 50–51 nanometrów. Mimo różnych nazw handlowych, gęstość upakowania technologii jest do siebie bardzo zbliżona. Jeszcze ciekawiej zapowiada się przyszłość, w której Intel promuje proces 18A sugerujący 1,8 nm, podczas gdy TSMC szykuje się do wdrożenia procesu 2 nm. Paradoksalnie, według wielu analiz technicznych, to tajwańskie „2 nm” może oferować wyższą gęstość tranzystorów niż amerykańskie rozwiązanie. Intel nadrabia marketingiem, sugerując liderowanie, ale w praktyce obaj giganci idą łeb w łeb, a ich węzły będą się spotykać w połowie drogi pod względem realnej wydajności.

    Fizyka przekłada się na koszty

    Mimo że etykiety są mylące, postęp technologiczny jest realny i kluczowy dla kosztów prowadzenia biznesu, czyli TCO. Niezależnie od nazewnictwa, dążenie do gęstszego upakowania tranzystorów wynika z nieubłaganych praw fizyki, ponieważ mniejszy tranzystor z krótszą drogą między źródłem a drenem wymaga niższego napięcia do przełączenia stanu logicznego. Dla przedsiębiorstwa przekłada się to bezpośrednio na efektywność energetyczną oraz wydajność termiczną.

    Chip wykonany w nowszym, gęstszym procesie zużywa mniej energii przy tym samym obciążeniu. W skali jednego laptopa oznacza to dodatkową godzinę pracy na baterii podczas podróży służbowej, natomiast w skali centrum danych przekłada się na tysiące złotych oszczędności na rachunkach za prąd. Równie istotny jest aspekt termiczny, gdyż mniejsze zużycie energii oznacza mniej generowanego ciepła. Dzięki temu procesory mogą pracować z wyższymi częstotliwościami bez ryzyka dławienia termicznego, co zapewnia stabilniejszą pracę wymagających aplikacji. Dlatego Intel Panther Lake będzie z natury lepszy od swojego poprzednika nie ze względu na nazwę „18A”, ale dlatego, że inżynierowie faktycznie ulepszyli fizyczną strukturę chipa, co jest prawdą również w przypadku AMD korzystającego z ulepszeń TSMC.

    Strategiczna pułapka jednego dostawcy

    W tej technologicznej układance istnieje jeszcze jeden element ryzyka biznesowego, związany z brakiem kompatybilności. Procesy produkcyjne Intela, TSMC i Samsunga rozjechały się drastycznie, a każdy gigant stosuje inne metody produkcji chipów, wdrażając technologie takie jak FinFET czy RibbonFET w różnym czasie. Oznacza to, że projektanci układów, tacy jak AMD czy NVIDIA, są mocno przywiązani do wybranej fabryki i nie mogą przenieść produkcji do konkurenta z dnia na dzień. Dostosowanie projektu do innej fabryki to proces trwający nawet rok i generujący ogromne koszty. Wybierając platformę sprzętową do firmy, decydenci wybierają więc nie tylko procesor, ale cały łańcuch dostaw, gdzie stabilność partnera produkcyjnego staje się czynnikiem strategicznym, ważniejszym niż marketingowa nazwa nanometra.

    Zbliżamy się do momentu, w którym porównywanie procesorów wyłącznie na podstawie litografii staje się bezcelowe. Intel Panther Lake i nadchodzące generacje Ryzenów będą potężnymi układami, jednak ich wartość dla biznesu nie wynika z etykiet na pudełku. Przy planowaniu zakupów infrastruktury kluczowym wskaźnikiem powinien być współczynnik wydajności do wata. To ten parametr decyduje o tym, czy inwestycja w nowy sprzęt przełoży się na realny wzrost efektywności pracy i obniżenie kosztów operacyjnych przedsiębiorstwa.

  • Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Tegoroczne targi CES w Las Vegas przyniosły rzadki w ostatnich latach zwrot akcji w branży półprzewodników. Po okresie nadrabiania zaległości, Intel wydaje się odzyskiwać technologiczną palmę pierwszeństwa, co ma bezpośrednie przełożenie na strategie zakupowe w sektorze B2B. „Niebiescy” zdominowali narrację dzięki układom Panther Lake (Intel Core Ultra Series 3), wytwarzanym w procesie technologicznym Intel 18A. To odpowiednik technologii 2 nm, której główny konkurent, AMD, nie wprowadził jeszcze na rynek masowy, oferując w zamian odświeżoną architekturę w postaci Ryzen AI 400.

    Reakcja producentów OEM była natychmiastowa i jednoznaczna. Lenovo zacieśnił współpracę z Intelem, promując linię „Aura Edition” jako ekskluzywną dla tej architektury, szczególnie w segmentach premium ThinkPad i ThinkBook. Z kolei HP przyjęło postawę agnostyczną, oferując w modelu EliteBook X G2 wybór między Intelem, AMD a architekturą ARM od Qualcomma w ramach tego samego SKU. To pragmatyczne podejście, które przenosi ciężar wyboru architektury bezpośrednio na klienta korporacyjnego.

    Ciekawym zjawiskiem jest wyraźne ochłodzenie entuzjazmu wobec architektury ARM w ekosystemie Windows. Mimo premiery tańszych wariantów Snapdragon X2, Qualcomm nie zdołał w tym roku zdominować rozmów w kuluarach. Uwaga sektora biznesowego, po krótkim flircie z alternatywami, zdaje się wracać do sprawdzonej architektury x86. ARM odnosi za to spektakularne sukcesy w segmencie serwerowym i HPC, gdzie Nvidia zaprezentowała procesory Vera i Rubin, cementując swoją pozycję w infrastrukturze AI.

    Wydarzeniem, które może zdefiniować marketing B2B na najbliższe kwartały, jest jednak zmiana retoryki Della. Kevin Terwilliger, szef produktu w Dell, otwarcie przyznał, że klienci biznesowi nie podejmują decyzji zakupowych w oparciu o obecność „AI” w nazwie produktu. Firma drastycznie ograniczyła stosowanie tego akronimu w nowym portfolio, w tym w reaktywowanej linii XPS. To trzeźwy kontrapunkt dla konkurencji, takiej jak MSI, która wciąż eksperymentuje ze skomplikowanym nazewnictwem typu „Pro Max AI+”.

    Mimo technologicznego optymizmu, nad rynkiem wisi widmo kosztów. W Las Vegas zabrakło konkretnych cen w euro za podstawowe konfiguracje. Biorąc pod uwagę niedobory pamięci DDR5 i rosnące koszty wafli krzemowych w najniższych procesach litograficznych, działy zakupów IT powinny przygotować się na to, że powrót innowacji będzie miał swoją wysoką cenę.

  • Ofensywa AMD: Platforma Helios i zapowiedź 1000-krotnego wzrostu wydajności

    Ofensywa AMD: Platforma Helios i zapowiedź 1000-krotnego wzrostu wydajności

    Wystąpienie dr Lisy Su podczas targów CES 2026 nie było wyłącznie standardową prezentacją produktową. Obecność na scenie przedstawicieli OpenAI, Blue Origin oraz Dyrektora Biura Polityki Naukowej Białego Domu wyraźnie sygnalizuje zmianę w pozycjonowaniu firmy.

    AMD przestaje być tylko dostawcą podzespołów, stając się strategicznym filarem „Misji Genesis” – amerykańskiej inicjatywy rozwoju nauki przez AI. To jasny sygnał dla rynku: w geopolitycznym wyścigu technologicznym Santa Clara zajmuje miejsce w pierwszej linii.

    Główną osią wystąpienia była prognoza, według której globalna moc obliczeniowa przekroczy poziom 10 JottaFLOPS w ciągu najbliższych pięciu lat. Odpowiedzią AMD na to wyzwanie jest platforma Helios.

    Ten zunifikowany system rackowy, integrujący akceleratory Instinct, procesory EPYC oraz rozwiązania sieciowe Pensando, ma oferować wydajność rzędu 3 EksaFLOPS w pojedynczej szafie. Jednak to zapowiedzi na rok 2027 zelektryzowały sektor data center. Nadchodzące akceleratory Instinct MI500, oparte na architekturze CDNA 6 i 2-nanometrowym procesie, mają przynieść tysiąckrotny wzrost wydajności AI względem obecnych rozwiązań, co wyznacza nową, agresywną ścieżkę rozwoju dla infrastruktury chmurowej.

    Równie istotna walka toczy się o „brzeg sieci” i narzędzia dla twórców. Wprowadzenie Ryzen AI Halo, deweloperskiego MiniPC z układem graficznym o mocy 60 TFLOPS, to próba obniżenia progu wejścia dla inżynierów AI, którzy potrzebują lokalnej mocy obliczeniowej.

    Uzupełnieniem tej strategii są nowe procesory Ryzen AI 400 dla laptopów konsumenckich i biznesowych, które zadebiutują w ofertach czołowych producentów, takich jak Dell czy Lenovo, już w pierwszym kwartale tego roku.

    Całość ekosystemu spina oprogramowanie, będące dotąd piętą achillesową konkurentów Nvidii. Nowy ROCm 7.2, zintegrowany z popularnym ComfyUI, notuje skokowe wzrosty pobrań, co sugeruje, że deweloperzy zaczynają realnie adaptować otwarte środowisko AMD.

    Ofertę domyka segment gamingowy z procesorem Ryzen 7 9850X3D, który dzięki technologii 3D V-Cache ma skutecznie rywalizować z topowymi układami Intela.

  • AMD podgryza Intela, ale gigant z Santa Clara pozostaje na czele

    AMD podgryza Intela, ale gigant z Santa Clara pozostaje na czele

    Rywalizacja na rynku procesorów x86 nabiera tempa, a AMD konsekwentnie umacnia swoją pozycję kosztem Intela. Choć Intel nadal dominuje, kontrolując około 70% rynku, najnowsze analizy Mercury Research potwierdzają, że AMD skutecznie zabezpieczyło dla siebie blisko 30% udziałów.

    Dynamika wzrostu AMD nie jest jednak jednolita we wszystkich segmentach. Największe sukcesy firma odnotowuje na rynku komputerów stacjonarnych, gdzie w ostatnim kwartale jej udział wzrósł o imponujące pięć procent, osiągając poziom 33,6%. Znacznie spokojniej jest w segmencie mobilnym – tu udziały obu graczy pozostały niemal bez zmian, a Intel zdołał nawet zanotować symboliczny wzrost o 0,4%.

    Interesująco wygląda również rynek serwerowy, który zrekompensował obu producentom słabszy kwartał w segmencie PC, prawdopodobnie spowodowany niepewnością związaną z cłami importowymi. W centrach danych AMD również rośnie w siłę, zwiększając swój udział o 3,5% i kontrolując obecnie 27,8% tego strategicznego rynku.

    Według Mercury Research, zyski AMD wynikają po części z faktu, że firma „dostarcza szybciej”, podczas gdy uwaga Intela była odwrócona od procesorów klasy podstawowej. Mimo to, liczby nie kłamią – dominacja Intela jest nadal bezdyskusyjna, a AMD ma przed sobą bardzo długą drogę, aby realnie zagrozić pozycji lidera.

    Wydaje się jednak, że Intel, być może uśpiony w ostatnich latach, definitywnie się przebudził. Koncern pod kierownictwem Pata Gelsingera przechodzi głęboką transformację, bez wahania odcinając działy, które nie są już kluczowe dla strategii firmy. Celem jest przywrócenie dawnej sprawności operacyjnej.

    Analiza Mercury Research skupia się wyłącznie na duecie x86. Należy jednak pamiętać o trzecim graczu, architekturze Arm, która według szacunków kontroluje już około 10% całego rynku procesorów i coraz śmielej próbuje wejść do gry na podwórku zarezerwowanym dotąd dla Intela i AMD.

  • AMD rzuca rękawicę Nvidii. Cel: 100 miliardów dolarów z AI

    AMD rzuca rękawicę Nvidii. Cel: 100 miliardów dolarów z AI

    Akcje AMD zyskały w środę 7%, zwiększając kapitalizację firmy o ponad 26 miliardów dolarów. Powodem entuzjazmu inwestorów był nowy, odważny cel strategiczny ogłoszony podczas dnia analityka: osiągnięcie 100 miliardów dolarów rocznego przychodu z segmentu centrów danych. To bezpośrednie wyzwanie rzucone Nvidii, która obecnie dominuje na rozgrzanym do czerwoności rynku akceleratorów AI.

    CEO AMD, Lisa Su, szacuje, że sam rynek chipów dla centrów danych może osiągnąć wartość 1 biliona dolarów do 2030 roku. To prognoza obejmująca procesory ogólnego przeznaczenia, chipy sieciowe i akceleratory AI. W tej walce AMD nie jest bezbronne. Firma podkreśla kluczowe partnerstwa, m.in. z OpenAI i Oracle, które już teraz mają generować znaczące przychody i otwierają drzwi do rozmów z innymi gigantami hiperskalowymi.

    Technologicznym orężem w tej walce mają być chipy nowej generacji MI400 oraz zintegrowany system Helios, które mają pojawić się na rynku w 2026 roku. Plan AMD zakłada zdobycie znaczącego udziału w rynku, co odzwierciedlają wewnętrzne prognozy. Firma spodziewa się 60% średniorocznego wzrostu (CAGR) w swoim biznesie centrów danych oraz 35% wzrostu w całej firmie w ciągu najbliższych trzech do pięciu lat.

    Ambicje te widać również w docelowym zysku na akcję (EPS) na poziomie 20 dolarów. To odważna deklaracja, biorąc pod uwagę, że konsensus LSEG na rok 2025 przewiduje zysk w wysokości zaledwie 2,68 dolara na akcję.

    Część analityków podchodzi do tych zapowiedzi z rezerwą. Stacy Rasgon z Bernstein określił cele jako „nieco agresywne i aspiracyjne”. Zaznaczył, że ostateczny sukces będzie zależał od zdolności AMD do faktycznego przejęcia udziałów w rynku za pomocą systemu Helios i przejścia z pozycji marginalnego gracza AI do realnego konkurenta. Kierownictwo AMD wyraźnie idzie na ofensywę, próbując zmienić rynkową narrację.

    Tymczasem lider rynku, Nvidia, wydaje się niewzruszony wyzwaniem. W dniu ogłoszenia planów AMD, akcje Nvidii również zanotowały spokojny wzrost o 1,5%.

  • Oracle i AMD łączą siły: nowa chmura AI z chipami MI450

    Oracle i AMD łączą siły: nowa chmura AI z chipami MI450

    OracleAMD zacieśniają współpracę, stawiając na przyszłe generacje infrastruktury AI. Według ogłoszenia firm, Oracle zacznie oferować usługi chmurowe oparte na nadchodzących chipach AMD MI450 — procesorach zaprojektowanych specjalnie pod obciążenia sztucznej inteligencji. Pierwsze 50 000 układów trafi do centrów danych Oracle w trzecim kwartale 2026 roku, a skala wdrożeń ma rosnąć w kolejnych latach.

    To partnerstwo wpisuje się w rosnącą presję rynku: firmy technologiczne ścigają się, by zabezpieczyć wystarczającą moc obliczeniową do trenowania coraz większych modeli AI. Oracle – dotąd kojarzone głównie z oprogramowaniem biznesowym i bazami danych – konsekwentnie przebudowuje swoją chmurę na potrzeby AI, trafiając w segment klientów poszukujących alternatyw dla AWS, Azure czy Google Cloud. Współpraca z AMD daje jej przewagę: możliwość zaoferowania wysokowydajnych “superklastrów AI” opartych na konstrukcjach Helios, konkurencyjnych wobec rozwiązań Nvidii.

    Dla AMD to kolejny strategiczny kontrakt potwierdzający ambicje na rynku AI, dotychczas zdominowanym przez Nvidię. Po zeszłotygodniowej informacji o dostawach chipów do OpenAI, umowa z Oracle wzmacnia narrację o tym, że MI450 ma być realną alternatywą dla H100 czy B200. Co więcej, AMD projektowało MI450 we współpracy z OpenAI, co sygnalizuje, że chipy powstawały z myślą o generacyjnych modelach o ogromnym apetycie na moc obliczeniową.

    Rynek natychmiast zareagował: kurs AMD wzrósł przed sesją o ponad 3%, wbrew szerszemu spadkowi sektora związanemu z obawami o relacje handlowe USA–Chiny. Oracle zanotował lekką korektę, co można interpretować jako chłodną reakcję inwestorów na rosnące koszty ekspansji infrastrukturalnej.

    W tle unosi się jeszcze większy wątek: OpenAI. Według doniesień, startup Sama Altmana miał zobowiązać się do zakupu mocy obliczeniowej Oracle o wartości nawet 300 miliardów dolarów w ciągu pięciu lat — co byłoby jedną z największych transakcji chmurowych w historii. Jeśli to się potwierdzi, Oracle stałby się filarem infrastrukturalnym generacyjnej sztucznej inteligencji.m

  • OpenAI wybiera AMD. Kontrakt na procesory AI wart dziesiątki miliardów

    OpenAI wybiera AMD. Kontrakt na procesory AI wart dziesiątki miliardów

    Partnerstwo AMD i OpenAI to coś więcej niż tylko kolejna umowa na dostawę sprzętu. To strategiczne przetasowanie na szczycie branży sztucznej inteligencji, które pozycjonuje AMD jako realną alternatywę dla dominującej Nvidii i zapewnia twórcy ChataGPT potężne zasoby na przyszłość. Wieloletni kontrakt zakłada nie tylko dostawę setek tysięcy chipów AI, ale również daje OpenAI opcję objęcia do 10% udziałów w AMD.

    Dla AMD to transformacyjny moment. Umowa, która ma przynieść dziesiątki miliardów dolarów rocznego przychodu, jest najmocniejszym jak dotąd potwierdzeniem konkurencyjności ich układów i oprogramowania AI. Kontrakt obejmuje wdrożenie chipów o łącznej mocy sześciu gigawatów, począwszy od drugiej połowy 2026 roku. Pierwsza faza zakłada budowę przez OpenAI centrum danych o mocy jednego gigawata w oparciu o nadchodzącą serię procesorów MI450. AMD szacuje, że efekt fali wywołany tą transakcją może przynieść firmie ponad 100 miliardów dolarów nowych przychodów w ciągu czterech lat, gdy inni gracze pójdą śladem lidera.

    Z perspektywy OpenAI umowa jest kluczowym elementem strategii zabezpieczania mocy obliczeniowej, niezbędnej do trenowania coraz bardziej zaawansowanych modeli. Zamiast polegać wyłącznie na Nvidii, z którą również ma gigantyczny kontrakt, firma dywersyfikuje swoich dostawców, co daje jej większą elastyczność i siłę negocjacyjną. Partnerstwo z AMD nie zmienia przy tym innych planów, takich jak rozwój własnych układów krzemowych czy współpraca z Microsoftem.

    Najciekawszym elementem umowy jest jej struktura finansowa. AMD przyznało OpenAI warranty, które uprawniają do zakupu do 160 milionów akcji firmy po symbolicznym 1 cencie za sztukę. Uruchomienie kolejnych transz warrantów jest uzależnione od realizacji kamieni milowych, w tym od osiągnięcia przez akcje AMD ceny docelowej, sięgającej nawet 600 dolarów. Taki mechanizm tworzy z OpenAI nie tylko klienta, ale partnera bezpośrednio zainteresowanego rynkowym sukcesem AMD. To sygnał, że na rynku chipów AI kończy się era monopolu i zaczyna się czas prawdziwej konkurencji.

  • Rynek akceleratorów AI w Europie: cyfrowa suwerenność vs. dominacja Nvidii

    Rynek akceleratorów AI w Europie: cyfrowa suwerenność vs. dominacja Nvidii

    Rewolucja związana z generatywną sztuczną inteligencją (GenAI) stworzyła nienasycony popyt na moc obliczeniową, fundamentalnie zmieniając architekturę centrów danych. Tradycyjne procesory (CPU), przez dekady stanowiące serce informatyki, stały się wąskim gardłem dla modeli językowych (LLM) i innych systemów GenAI. W odpowiedzi na to wyzwanie narodziła się nowa klasa wyspecjalizowanego sprzętu: akceleratory AI.

    Koniec ery CPU i narodziny nowego paradygmatu

    Problem z procesorami CPU w kontekście AI nie leży w ich prędkości, ale w fundamentalnym niedopasowaniu architektonicznym. Zoptymalizowane do sekwencyjnego wykonywania złożonych zadań, posiadają one zaledwie kilka potężnych rdzeni. Tymczasem algorytmy głębokiego uczenia wymagają masowego przetwarzania równoległego – wykonywania bilionów prostych operacji jednocześnie. To zadanie, do którego idealnie nadają się procesory graficzne (GPU), wyposażone w tysiące mniejszych rdzeni .

    Obok GPU, które stały się standardem w treningu modeli, wyłoniły się jeszcze bardziej wyspecjalizowane jednostki. Neuronalne jednostki przetwarzające (NPU) to szeroka kategoria układów zaprojektowanych od podstaw z myślą o AI, priorytetyzujących efektywność energetyczną, co czyni je kluczowymi w zastosowaniach brzegowych (Edge AI). Z kolei tensorowe jednostki przetwarzające (TPU) to autorskie układy ASIC firmy Google, zoptymalizowane pod kątem jej ekosystemu oprogramowania i masowych obliczeń w chmurze .

    Ta zmiana paradygmatu napędza w Europie rynek o ogromnym potencjale. Wyceniany w 2024 roku na około 4,88 miliarda euro, europejski rynek akceleratorów AI ma wzrosnąć do blisko 43 miliardów euro do 2033 roku, przy imponującym skumulowanym rocznym wskaźniku wzrostu (CAGR) na poziomie 27,4% .

    Unikalne europejskie drivery: Polityka spotyka popyt rynkowy

    Europejski rynek akceleratorów jest kształtowany przez unikalne połączenie oddolnego popytu komercyjnego i odgórnych inicjatyw strategicznych, co odróżnia go od rynków w USA czy Azji.

    Z jednej strony, rośnie adopcja AI w kluczowych sektorach, takich jak opieka zdrowotna, motoryzacja i finanse. Już 13,5% przedsiębiorstw w UE korzysta z technologii AI, a cały europejski rynek AI (oprogramowanie, sprzęt i usługi) rośnie w tempie ponad 33% rocznie.   

    Z drugiej strony, Unia Europejska realizuje ambitny program wzmacniania swojej suwerenności cyfrowej i technologicznej. Obawy geopolityczne i chęć uniezależnienia się od pozaunijnych dostawców doprowadziły do powstania potężnych mechanizmów inwestycyjnych:

    • EU Chips Act: Inicjatywa ta ma na celu zmobilizowanie ponad 43 miliardów euro w inwestycjach publicznych i prywatnych, aby do 2030 roku podwoić udział Europy w globalnej produkcji półprzewodników z 10% do 20% . Przyciąganie inwestycji w budowę zaawansowanych fabryk, takich jak zakłady Intela czy TSMC w Niemczech, ma kluczowe znaczenie dla przyszłej produkcji akceleratorów w Europie.   
    • AI Continent Action Plan: Ten opiewający na 200 miliardów euro plan zakłada stworzenie suwerennego, paneuropejskiego ekosystemu AI. Jego kluczowym elementem jest inicjatywa InvestAI, która ma zmobilizować 20 miliardów euro na budowę 4-5 „Gigafabryk AI” – każda wyposażona w ponad 100 000 zaawansowanych chipów AI.
    • EuroHPC i „Fabryki AI”: Wspólne Przedsięwzięcie w dziedzinie Europejskich Obliczeń Wielkiej Skali (EuroHPC JU) inwestuje miliardy euro w budowę floty superkomputerów. Wokół nich powstaje 13 „Fabryk AI”, które demokratyzują dostęp do mocy obliczeniowej dla startupów i MŚP, stymulując innowacje i tworząc gwarantowany popyt na infrastrukturę .

    Krajobraz konkurencyjny: Dominacja Nvidii i strategie pretendentów

    Rynek akceleratorów dla centrów danych jest bliski monopolu. Nvidia kontroluje około 98% globalnego rynku pod względem liczby dostarczonych jednostek, a jej prawdziwą przewagą jest dojrzały ekosystem oprogramowania CUDA, z którego korzysta 5 milionów deweloperów . Tworzy to potężny efekt „lock-in”, utrudniając konkurentom zdobycie udziałów.

    Mimo to pretendenci realizują przemyślane strategie:

    • AMD: Pozycjonuje się jako główna, wysokowydajna alternatywa. Seria akceleratorów Instinct MI300 ma konkurować z ofertą Nvidii, a jej kluczowym atutem jest otwarta platforma oprogramowania ROCm, mająca na celu przełamanie monopolu CUDA.
    • Intel: Stawia na konkurencję cenową z akceleratorami Gaudi (mają być o 50% tańsze od H100 Nvidii) oraz na otwarty ekosystem oneAPI.
    • Google (TPU): Nie sprzedaje chipów bezpośrednio, lecz wykorzystuje je jako kluczowy element wyróżniający swoją platformę chmurową, oferując doskonały stosunek wydajności do kosztów dla specyficznych obciążeń AI.

    Na tym tle pojawiają się również europejscy gracze, tacy jak brytyjski Graphcore czy francuski Blaize, którzy koncentrują się na niszach, takich jak nowatorskie architektury (IPU) czy energooszczędne układy dla Edge AI

    Trylemat wzrostu: Koszt, energia i talent

    Pomimo optymistycznych prognoz, europejski rynek napotyka trzy fundamentalne bariery, które tworzą strategiczny trylemat dla decydentów.

    Koszt i dostępność: Cena pojedynczego akceleratora z najwyższej półki, jak Nvidia H100, sięga 40 000 USD, co czyni budowę własnej infrastruktury AI zaporową dla większości firm . Dodatkowo, globalne łańcuchy dostaw są wrażliwe na zakłócenia i kontrole eksportu, co zagraża ciągłości projektów .

    Energia i ESG: Centra danych dedykowane AI zużywają od czterech do pięciu razy więcej energii niż tradycyjne. Prognozuje się, że do 2030 roku zużycie energii przez centra danych w Europie wzrośnie niemal trzykrotnie. Stoi to w sprzeczności z ambitnymi celami UE w zakresie zrównoważonego rozwoju, takimi jak    

    Dyrektywa w sprawie efektywności energetycznej, która nakłada obowiązek redukcji zużycia energii.   

    Talent: Europa boryka się z krytycznym niedoborem specjalistów w dziedzinie AI i HPC. Luka kompetencyjna spowalnia innowacje i uniemożliwia firmom efektywne wykorzystanie nawet już posiadanej infrastruktury, wzmacniając pozycję globalnych dostawców chmury.

    Trendy na przyszłość: Od posiadania do dostępu, od monolitu do modułu

    W perspektywie do 2030 roku rynek będzie kształtowany przez trzy kluczowe trendy:

    • Dominacja modelu „Compute-as-a-Service”: Ze względu na wspomniany trylemat, większość firm nie będzie kupować akceleratorów, lecz wynajmować do nich dostęp. Model ten, realizowany zarówno przez publiczne „Fabryki AI”, jak i komercyjnych dostawców chmury, przekształca ogromne wydatki kapitałowe (CAPEX) w przewidywalne koszty operacyjne (OPEX).
    • Bitwa o oprogramowanie: Długoterminowa struktura rynku zależeć będzie od sukcesu otwartych standardów, takich jak ROCm i oneAPI, w przełamywaniu dominacji CUDA. Uniknięcie uzależnienia od jednego dostawcy jest potężnym motywatorem dla całej branży

    Nowe architektury sprzętowe: Aby przezwyciężyć fizyczne ograniczenia, branża zmierza w kierunku chipletów – mniejszych, wyspecjalizowanych kostek krzemowych łączonych w jeden system. Pozwala to na większą modułowość i niższe koszty. W dłuższej perspektywie rewolucją mogą okazać się    

    obliczenia fotoniczne, wykorzystujące światło zamiast elektronów, co obiecuje o rzędy wielkości większą przepustowość i efektywność energetyczną .

    Wnioski strategiczne dla liderów technologicznych

    Europejski rynek akceleratorów AI to arena, na której globalna konkurencja technologiczna spotyka się z unikalnymi ambicjami politycznymi i regulacyjnymi. Dla dyrektorów ds. technologii i innowacji oznacza to konieczność nawigowania w złożonym ekosystemie.

    Kluczowe pytanie strategiczne przesuwa się z „jaki akcelerator kupić?” na „jak strategicznie uzyskać dostęp do mocy obliczeniowej?”. Odpowiedź wymaga zbalansowania wydajności, kosztów, suwerenności i zrównoważonego rozwoju. Sukces w erze GenAI nie będzie zależał od samego posiadania najnowszego sprzętu, ale od umiejętności inteligentnego wykorzystania zarówno publicznych inicjatyw, jak i prywatnych innowacji do budowania trwałej przewagi konkurencyjnej na unikalnym europejskim rynku.

  • Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    W Dolinie Krzemowej istnieją sojusze, które wydają się naturalne, oraz takie, które wstrząsają posadami całej branży. Ogłoszona wczoraj współpraca między Nvidią a Intelem bez wątpienia należy do tej drugiej kategorii.

    To nie jest zwykła umowa biznesowa; to strategiczny pakt zawarty przez dwóch dawnych, zaciekłych rywali. Obserwujemy historyczny moment, w którym lider rewolucji AI (Nvidia) podaje rękę gigantowi, który tę rewolucję niemal przespał (Intel).

    Pytanie, które musimy sobie zadać, wykracza daleko poza korporacyjne komunikaty prasowe: czy jesteśmy świadkami narodzin synergii, która napędzi innowacje, czy raczej tworzenia potężnego duopolu, który na lata zabetonuje rynek i zmarginalizuje konkurencję?

    Akt desperacji czy mistrzowska szachownica?

    Aby zrozumieć wagę tego sojuszu, trzeba spojrzeć na pozycję, z jakiej startują obaj gracze. Intel, niegdyś niekwestionowany król krzemu, od lat zmaga się z kryzysem. Problemy z przejściem na niższe procesy technologiczne, opóźnienia i rosnąca w siłę konkurencja sprawiły, że firma straciła pozycję lidera na rzecz Nvidii i Samsunga.

    W czasach gwałtownego rozwoju sztucznej inteligencji, napędzanej przez procesory graficzne, dominacja Intela w segmencie CPU okazała się niewystarczająca. Z tej perspektywy, pakt z Nvidią wygląda jak desperacka próba powrotu do gry o najwyższą stawkę.

    To przyznanie, że bez technologii lidera AI, Intel nie jest w stanie samodzielnie konkurować na najważniejszym froncie innowacji.

    Z kolei dla Nvidii, ten ruch jest czystą, wyrachowaną strategią. Firma Jensena Huanga absolutnie dominuje w centrach danych i segmencie akceleratorów AI. Jednak jej kolejnym celem jest zdobycie rynku, na którym Intel wciąż ma hegemonię: komputerów osobistych. 

    Poprzez natywną integrację swoich układów graficznych (w postaci chipletów RTX) z procesorami Intela, Nvidia zyskuje dostęp do ogromnego ekosystemu x86. To genialne posunięcie, które pozwala jej wejść „drzwiami i oknami” do segmentu AI PC, omijając konieczność budowania wszystkiego od zera.

    Nvidia nie kupuje tylko akcji Intela za 5 miliardów dolarów; kupuje dekady doświadczenia, bazę klientów i kanały dystrybucji swojego byłego rywala.

    Co na to AMD?

    Każdy wielki sojusz tworzy nie tylko zwycięzców, ale i przegranych. W tym przypadku firma, która ma najwięcej do stracenia, jest oczywista: AMD. Pod wodzą Lisy Su, AMD dokonało rzeczy niemal niemożliwej, stając się realną alternatywą zarówno dla Intela na rynku procesorów (seria Ryzen), jak i dla Nvidii na rynku kart graficznych (seria Radeon).

    Firma zręcznie lawirowała między dwoma gigantami, odbierając im udziały rynkowe.

    Teraz jednak AMD staje w obliczu koszmarnego scenariusza – walki z połączonym frontem. Wyobraźmy sobie laptopy i stacje robocze, w których procesor Intela i układ graficzny Nvidii są zintegrowane na poziomie krzemu.

    Taka synergia może zaoferować wydajność i efektywność energetyczną, z którą samodzielnym produktom AMD będzie niezwykle trudno konkurować. To już nie jest walka na dwóch oddzielnych frontach; to starcie z nowo powstałym, technologicznym behemotem, który kontroluje kluczowe elementy platformy PC.

    Od konkurencji do nowego porządku

    W branży IT mówi się o zjawisku „coopetition” – współpracy między konkurentami w określonych obszarach. Jednak umowa Nvidii i Intela wydaje się czymś znacznie głębszym. To nie jest tymczasowy projekt, ale fundament pod nowy porządek rynkowy.

    Celem jest stworzenie tak zintegrowanej i zoptymalizowanej platformy sprzętowej, że stanie się ona de facto standardem dla każdego, kto poważnie myśli o sztucznej inteligencji na komputerach osobistych i w serwerach.

    Długofalowe konsekwencje mogą być druzgocące dla rynkowej różnorodności. Jeśli duet Nvidia-Intel zdominuje segment AI PC, producenci oprogramowania zaczną optymalizować swoje aplikacje właśnie pod tę architekturę, jeszcze bardziej marginalizując alternatywy.

    Znajdziemy się w sytuacji, w której realny wybór zostanie ograniczony, a innowacje spoza tego ekosystemu mogą mieć ogromne trudności z przebiciem się do masowego odbiorcy.

    Złota klatka dla konsumenta?

    Niewątpliwie, w krótkim okresie, ta współpraca przyniesie ekscytujące produkty. Komputery staną się potężniejsze, a funkcje oparte na AI bardziej dostępne. Jednak w dłuższej perspektywie ryzykujemy wejściem do „złotej klatki” – ekosystemu tak doskonałego i zintegrowanego, że nie będziemy chcieli lub mogli go opuścić.

    Historia uczy nas, że gdy konkurencja słabnie, cierpi na tym innowacyjność, a ceny rosną.

    Zaskakujący ruch Nvidii jest nie tylko świetny pod kątem strategicznym. Pokazuje, że wzrost i rozwój podejmowany jest w IT za wszelką cenę, a dążenie zagarnięcia jak największej ilości rynku jest kluczowym priorytetem. Ruch ten uchroni Intela przed najgorszym, pytanie brzmi: jakim kosztem?

    Fuzja VMware i Broadcom pokazała, że wprowadzanie nowych porządków bywa bolesne dla rynków. A rosnące centralne potęgi IT, poza pokazowymi procesami, nie tylko nie są w żaden skuteczny sposób ograniczane przez organy państwowe. Wręcz przeciwnie, dziś rządy uznają technologicznych monopolistów za element przewagi geopolitycznej, co w dobie cyfrowego pędu jest logiczne, choć krótkowzroczne i potencjalnie szkodliwe w długiej perspektywie.

  • Rynek akceleratorów AI: NVIDIA, AMD, Intel – walka o dominację

    Rynek akceleratorów AI: NVIDIA, AMD, Intel – walka o dominację

    Na Uniwersytecie Stanowym Karoliny Północnej robotyczne ramiona precyzyjnie mieszają chemikalia, a strumienie danych przepływają przez systemy w czasie rzeczywistym. To „samonapędzające się laboratorium”, platforma napędzana sztuczną inteligencją, odkrywa nowe materiały dla czystej energii i elektroniki nie w ciągu lat, ale dni.

    Zbierając dane 10 razy szybciej niż tradycyjne metody, obserwuje reakcje chemiczne niczym pełnometrażowy film, a nie pojedynczą migawkę. To nie jest science fiction; to nowa rzeczywistość odkryć naukowych.   

    Ten niewiarygodny skok napędzany jest przez nowy rodzaj silnika obliczeniowego: wyspecjalizowane układy akceleratorów AI. To „krzemowe mózgi” rewolucji. Prawo Moore’a, stary paradygmat podwajania mocy obliczeniowej w układach ogólnego przeznaczenia, ustąpiło miejsca nowemu prawu postępu wykładniczego, napędzanemu przez masowe przetwarzanie równoległe.   

    Sedno tej historii jest jednak bardziej złożone. O ile algorytmy AI są oprogramowaniem nowej ery naukowej, o tyle fizyczny sprzęt – chipy AI – stał się fundamentalnym czynnikiem umożliwiającym postęp, a paradoksalnie, również jego największym wąskim gardłem.

    Zdolność do odkrycia nowego leku ratującego życie lub zaprojektowania wydajniejszego ogniwa słonecznego jest dziś nierozerwalnie związana z hiperkonkurencyjnym, wielomiliardowym wyścigiem zbrojeń korporacyjnych oraz kruchym krajobrazem geopolitycznym, w którym dostęp do tych chipów jest narzędziem globalnej potęgi.

    Anatomia boomu: kto buduje krzemowe mózgi?

    Boom na generatywną sztuczną inteligencję stworzył nienasycony popyt na moc obliczeniową. Nie chodzi tu tylko o chatboty, ale o modele fundamentalne, które stanowią podstawę nowej fali badań naukowych. Ten popyt przekształcił niszowy rynek w globalne pole bitwy o dominację.   

    Panujący mistrz: NVIDIA

    NVIDIA ugruntowała swoją pozycję głównego architekta rewolucji AI, co potwierdzają jej oszałamiające wyniki finansowe. Dział centrów danych, serce biznesu AI firmy, odnotował w jednym kwartale przychody w wysokości 41,1 mld USD, co stanowi wzrost o 56% rok do roku.

    Dominacja ta opiera się na kolejnych generacjach potężnych architektur, takich jak Hopper, a teraz Blackwell, które są podstawowym sprzętem dla gigantów technologicznych, takich jak Microsoft, Meta i OpenAI .

    Energiczny pretendent: AMD

    AMD pozycjonuje się nie jako odległy numer dwa, ale jako poważny i szybko rosnący konkurent. Firma odnotowała rekordowe przychody z centrów danych w wysokości 3,5 mld USD w trzecim kwartale 2024 roku, co oznacza ogromny wzrost o 122% rok do roku, napędzany silnym przyjęciem akceleratorów GPU z serii Instinct.

    Co istotne, główni dostawcy usług chmurowych oraz firmy takie jak Microsoft i Meta aktywnie wdrażają akceleratory MI300X od AMD, co sygnalizuje chęć posiadania realnej alternatywy dla NVIDII. Firma prognozuje, że jej przychody z GPU dla centrów danych przekroczą 5 mld USD w 2024 roku.

    Gambit historycznego giganta: Intel

    Sytuacja Intela stanowi strategiczne wyzwanie. Mimo że firma twierdzi, iż jej akceleratory Gaudi 3 oferują lepszy stosunek ceny do wydajności w porównaniu z H100 NVIDII , ma trudności ze zdobyciem udziału w rynku.

    Intel nie osiągnął swojego celu przychodów w wysokości 500 mln USD dla Gaudi w 2024 roku, wskazując na wolniejszą niż oczekiwano adopcję z powodu problemów z przejściem między generacjami produktów oraz, co kluczowe, wyzwań związanych z „łatwością użycia oprogramowania”.

    Analiza tych danych ujawnia głębsze trendy. Po pierwsze, rynek sprzętu AI to nie tylko wyścig na komponenty, ale wojna platform. Trudności Intela z oprogramowaniem  wskazują na prawdziwe pole bitwy: ekosystem. Platforma CUDA firmy NVIDIA ma ponad dekadę przewagi, tworząc głęboką „fosę” narzędzi deweloperskich, bibliotek i wiedzy eksperckiej.

    Konkurenci nie sprzedają tylko krzemu; muszą przekonać cały świat nauki i rozwoju do nauki nowego języka programowania. Po drugie, boom na AI prowadzi do pionowej integracji centrum danych.

    NVIDIA nie tylko dominuje na rynku GPU, ale po przejęciu firmy sieciowej Mellanox w 2020 roku stała się również liderem w dziedzinie przełączników Ethernet, notując wzrost sprzedaży o 7,5x rok do roku.

    NVIDIA nie sprzedaje już tylko chipów; sprzedaje kompletny, zoptymalizowany projekt „fabryki AI”, tworząc jeszcze silniejszy efekt „lock-in”.   

    Od laboratorium do rzeczywistości: przełomy naukowe napędzane krzemem

    Ta bezprecedensowa moc obliczeniowa jest paliwem dla rewolucji w sposobie, w jaki prowadzimy badania naukowe, co prowadzi do przełomów, które jeszcze kilka lat temu wydawały się niemożliwe.

    Medycyna jutra

    Tradycyjny, trwający od 10 do 15 lat proces odkrywania leków ulega radykalnemu skróceniu. CEO DeepMind, Demis Hassabis, przewiduje, że AI skróci ten czas do „kwestii miesięcy”.

    Isomorphic Labs, spółka zależna DeepMind, wykorzystuje AI do modelowania złożonych systemów biologicznych i przewidywania interakcji między lekami a białkami. Naukowcy z Virginia Tech opracowali narzędzie AI o nazwie ProRNA3D-single, które tworzy modele 3D interakcji białko-RNA – kluczowe dla zrozumienia wirusów i chorób neurologicznych, takich jak Alzheimer.

    Co więcej, nowe narzędzie z Harvardu, PDGrapher, wykracza poza model „jeden cel, jeden lek”. Wykorzystuje grafową sieć neuronową do mapowania całego złożonego systemu chorej komórki i przewiduje kombinacje terapii, które mogą przywrócić ją do zdrowia.   

    Klimat w wysokiej rozdzielczości

    Dawniej dokładne modelowanie klimatu wymagało superkomputera. Dziś modele AI, takie jak NeuralGCM od Google, mogą działać na pojedynczym laptopie . Ten model, wytrenowany na dziesięcioleciach danych pogodowych, pomógł przewidzieć nadejście monsunu w Indiach z miesięcznym wyprzedzeniem, dostarczając kluczowe prognozy 38 milionom rolników.

    Nowy model AI z Uniwersytetu Waszyngtońskiego jest w stanie zasymulować 1000 lat klimatu Ziemi w zaledwie jeden dzień na jednym procesorze – zadanie, które superkomputerowi zajęłoby 90 dni.

    Firmy takie jak Google DeepMind (WeatherNext), NVIDIA (Earth-2) i uniwersytety jak Cambridge (Aardvark Weather) budują w pełni napędzane przez AI systemy, które są szybsze, wydajniejsze i często dokładniejsze niż tradycyjne modele.

    Alchemia XXI Wieku

    Jak wspomniano na początku, AI tworzy autonomiczne laboratoria, które przyspieszają odkrywanie materiałów dziesięciokrotnie lub bardziej. Paradygmat zmienia się z przeszukiwania istniejących materiałów na generowanie zupełnie nowych.

    Modele AI, takie jak MatterGen od Microsoftu, potrafią od podstaw projektować nowe materiały nieorganiczne o pożądanych właściwościach. Ta zdolność do „projektowania odwrotnego”, gdzie naukowcy określają potrzebę, a AI proponuje rozwiązanie, była świętym Graalem materiałoznawstwa.   

    Te przykłady ilustrują fundamentalną zmianę w samej metodzie naukowej. Komputer przestał być tylko narzędziem do analizy; stał się aktywnym uczestnikiem w generowaniu hipotez. Rola naukowca ewoluuje w kierunku kuratora potężnych systemów generatywnych.

    To przyspiesza cykl odkryć w sposób wykładniczy  i pozwala naukowcom badać znacznie większą „przestrzeń problemową”, niż było to kiedykolwiek możliwe dla człowieka.   

    Geopolityczna burza i nowy podział świata

    W miarę jak rośnie znaczenie tych krzemowych mózgów, stają się one najcenniejszym zasobem strategicznym XXI wieku – nową ropą naftową, kluczową dla konkurencyjności gospodarczej i przywództwa naukowego.   

    Strategia USA: „mały ogródek, wysoki płot”

    Stany Zjednoczone wdrożyły strategię „małego ogródka, wysokiego płotu”, wprowadzając kontrole eksportowe mające na celu spowolnienie zdolności Chin do rozwijania zaawansowanej AI. Ograniczenia te dotyczą nie tylko samych chipów (jak H100 NVIDII), ale także sprzętu niezbędnego do ich produkcji (od firm takich jak holenderska ASML).

    W krótkim okresie uderzyło to w chiński przemysł półprzewodnikowy, powodując niedobory sprzętu i „okaleczając” jego zdolności produkcyjne.   

    Zdeterminowana odpowiedź Chin

    Reakcja Chin była wielotorowa: ogromne inwestycje w krajowy przemysł półprzewodnikowy oraz wykorzystanie własnej dźwigni ekonomicznej poprzez ograniczenie eksportu kluczowych metali ziem rzadkich. Studium przypadku stanowi Huawei.

    Mimo że firma została sparaliżowana przez sankcje, opracowała własną linię chipów AI Ascend (910B/C/D), które są obecnie postrzegane jako realna alternatywa dla produktów NVIDII w Chinach.

    W odpowiedzi rząd USA zaostrzył stanowisko, oświadczając, że używanie tych chipów gdziekolwiek na świecie narusza amerykańskie kontrole eksportowe, co eskaluje podział technologiczny.

    Badanie przeprowadzone przez Uniwersytet Oksfordzki ujawnia surową rzeczywistość: zaawansowane procesory graficzne są silnie skoncentrowane w zaledwie kilku krajach, głównie w USA i Chinach. Stany Zjednoczone przodują w dostępie do najnowocześniejszych chipów, podczas gdy znaczna część świata znajduje się na „obliczeniowych pustyniach”.

    Ta sytuacja prowadzi do niezamierzonych konsekwencji. Amerykańskie kontrole eksportowe, mające na celu spowolnienie Chin, stały się dla nich „nieumyślnym akceleratorem innowacji”, zmuszając Pekin do zbudowania całkowicie niezależnego stosu technologicznego.

    Za dekadę świat może mieć dwa całkowicie oddzielne, niekompatybilne stosy AI, co fundamentalnie podzieli globalne badania.   

    Chmura jako wielki równoważnik?

    Istnieje potężna kontrargumentacja: chmura obliczeniowa demokratyzuje dostęp do elitarnej AI. Platformy takie jak Amazon Web Services (AWS), Microsoft Azure i Google Cloud oferują AI-as-a-Service (AIaaS), pozwalając uniwersytetowi lub startupowi wynająć te same potężne procesory graficzne, których używa OpenAI.

    Giganci chmurowi oferują bogate ekosystemy. AWS udostępnia usługi takie jak SageMaker do budowy modeli i Bedrock do dostępu do wiodących modeli fundamentalnych. Google Cloud promuje demokratyzację za pomocą narzędzi takich jak Vertex AI, zaprojektowanych z myślą o minimalnej złożoności.

    Microsoft Azure ściśle integruje AI ze swoim ekosystemem za pomocą Azure AI Foundry, oferując dostęp do ponad 1700 modeli i prowadząc dedykowane laboratoria badawcze „AI for Science”.

    Obietnicę dostępu należy jednak zestawić z surową rzeczywistością kosztów. Trenowanie najnowocześniejszego modelu jest zaporowo drogie, a szacunki sięgają 78 mln USD dla GPT-4 i 191 mln USD dla Gemini Ultra. To prowadzi do powstania „dwupoziomowej demokracji” w badaniach nad AI.

    Z jednej strony, każdy badacz z grantem może uzyskać dostęp do światowej klasy narzędzi AI. Jest to demokratyzacja zastosowania . Z drugiej strony, zdolność do trenowania nowego, wielkoskalowego modelu fundamentalnego od podstaw pozostaje wyłączną domeną garstki podmiotów: samych dostawców chmury i ich kluczowych partnerów.

    To jest centralizacja tworzenia. Chmura „demokratyzuje” AI w taki sam sposób, w jaki biblioteka publiczna demokratyzuje dostęp do książek. Każdy może je czytać, ale tylko nieliczni mają zasoby, by je pisać i wydawać.

    Przyszłość pisana w krzemie

    Zapierające dech w piersiach tempo odkryć naukowych w medycynie, klimatologii i materiałoznawstwie jest bezpośrednią konsekwencją ogromnej mobilizacji przemysłowej i geopolitycznej wokół jednej technologii: akceleratora AI.

    Postęp stał się kruchy i głęboko współzależny. Przełom naukowy nie jest już tylko funkcją genialnego umysłu. Zależy teraz również od kwartalnych raportów finansowych NVIDII i AMD, polityki handlowej uchwalanej w Waszyngtonie i Pekinie, stabilności łańcucha dostaw przechodzącego przez Tajwan  oraz modeli cenowych AWS, Google i Microsoft.

    Wkroczyliśmy w erę, w której przyszłość jest dosłownie pisana w krzemie. Wielkie wyzwania naszych czasów – leczenie chorób, walka ze zmianami klimatu, tworzenie zrównoważonej przyszłości – zostaną rozwiązane za pomocą tych nowych narzędzi.

    Ale kto będzie mógł nimi władać i w jakim celu, pozostaje najważniejszym i nierozstrzygniętym pytaniem XXI wieku. Kolejna wielka rewolucja naukowa będzie transmitowana na żywo, ale prawa do jej transmisji są obecnie negocjowane w salach konferencyjnych korporacji i w korytarzach globalnej władzy.

  • IBM i AMD łączą siły. Cel: Superkomputery kwantowe

    IBM i AMD łączą siły. Cel: Superkomputery kwantowe

    Giganci technologiczni, IBMAMD, ogłosili strategiczne partnerstwo, które ma na celu zintegrowanie mocy obliczeń kwantowych z klasycznymi superkomputerami.

    Współpraca skupi się na stworzeniu hybrydowych architektur, które połączą wiodącą pozycję IBM w technologii kwantowej z doświadczeniem AMD w dziedzinie obliczeń o wysokiej wydajności (HPC) i akceleratorów AI.

    Partnerstwo ma doprowadzić do powstania otwartych, skalowalnych platform, które mogą zredefiniować przyszłość zaawansowanych obliczeń. Ideą stojącą za tym projektem jest stworzenie tzw. superkomputerów kwantowo-centrycznych.

    W takim modelu procesory kwantowe będą działały w tandemie z klasyczną infrastrukturą HPC, napędzaną przez procesory CPU, GPU i układy FPGA od AMD.

    Koncepcja hybrydowa zakłada, że złożone problemy obliczeniowe będą dzielone na części i rozwiązywane przez technologię, która najlepiej się do tego nadaje.

    Przykładowo, komputer kwantowy mógłby zająć się symulacją zachowania atomów i molekuł na poziomie kwantowym – zadaniem niewykonalnym dla maszyn klasycznych – podczas gdy superkomputery oparte na architekturze AMD analizowałyby ogromne zbiory danych wynikowych i wspierały procesy z wykorzystaniem sztucznej inteligencji.

    Taka synergia ma pozwolić na rozwiązywanie realnych problemów w dziedzinach takich jak odkrywanie nowych leków i materiałów, logistyka czy optymalizacja złożonych systemów w skali i z szybkością dotychczas nieosiągalną.

    Firmy badają, w jaki sposób zintegrować technologie AMD z systemami kwantowymi IBM, aby przyspieszyć działanie nowej klasy algorytmów.

    Jednym z kluczowych aspektów współpracy ma być wykorzystanie rozwiązań AMD do korekcji błędów w czasie rzeczywistym, co jest fundamentalnym wyzwaniem na drodze do budowy stabilnych i odpornych na zakłócenia komputerów kwantowych.

    Pierwsza demonstracja pokazująca, jak systemy kwantowe IBM współpracują z technologią AMD, planowana jest jeszcze w tym roku. Partnerzy zamierzają również rozwijać ekosystemy open-source, takie jak Qiskit, aby ułatwić tworzenie algorytmów dla nowych, hybrydowych superkomputerów.

    Działania te wpisują się w szerszą strategię IBM, która obejmuje już podobne integracje z superkomputerem Fugaku w Japonii oraz współpracę z takimi podmiotami jak Cleveland Clinic czy Lockheed Martin.

  • Nowa taktyka USA: NVIDIA i AMD zapłacą 15% prowizji od sprzedaży chipów do Chin

    Nowa taktyka USA: NVIDIA i AMD zapłacą 15% prowizji od sprzedaży chipów do Chin

    Waszyngton zmienia zasady gry w technologicznym sporze z Pekinem. Zamiast całkowitego blokowania eksportu zaawansowanych chipów AI, administracja USA wprowadza model prowizyjny.

    NVIDIA i AMD zgodziły się oddawać 15% przychodów ze sprzedaży swoich wyspecjalizowanych układów w Chinach w zamian za uzyskanie licencji eksportowych. To radykalne odejście od dotychczasowej polityki, opartej głównie na względach bezpieczeństwa narodowego.

    Porozumienie dotyczy konkretnych modeli, które zostały zaprojektowane z myślą o ominięciu wcześniejszych restrykcji – akceleratora NVIDIA H20 oraz układu AMD MI308. Decyzja o wydaniu licencji zapadła niedługo po spotkaniu prezesa NVIDII, Jensena Huanga, z Donaldem Trumpem.

    Krok ten sygnalizuje zwrot w kierunku bardziej transakcyjnego podejścia, gdzie dostęp do chińskiego rynku staje się możliwy za odpowiednią opłatą na rzecz amerykańskiego budżetu. Dla firm technologicznych to szansa na odzyskanie częściowo utraconego, ogromnego rynku, nawet kosztem niższej marży.

    Reakcje na nowe rozwiązanie są jednak mieszane. Rynki finansowe okazały się sceptyczne – po ogłoszeniu informacji akcje NVIDII i AMD zanotowały spadki, odpowiednio o 1,5% i 3%. Inwestorzy obawiają się zarówno o rentowność, jak i o realne zapotrzebowanie na nowe układy.

    Co ważniejsze, sam pomysł spotyka się z chłodnym przyjęciem w Chinach. Według doniesień tamtejsze władze odradzają lokalnym firmom zakup chipów H20, wskazując na ich niższą wydajność w porównaniu do globalnych odpowiedników oraz potencjalne luki w zabezpieczeniach.

    Tworzy to paradoksalną sytuację, w której amerykańscy giganci, mimo uzyskanej licencji, mogą mieć trudności ze znalezieniem nabywców.

    Przyszłość tej strategii pozostaje niepewna. NVIDIA i AMD przyznają, że zwiększenie produkcji układów na rynek chiński zajmie czas. Nie wiadomo też, czy popyt zdoła osiągnąć poziomy sprzed wprowadzenia restrykcji.

    Otwarte pozostaje również pytanie, jak rząd USA zamierza wykorzystać środki pozyskane z tej nietypowej „prowizji”. Na razie jedynym pewnikiem jest to, że zasady technologicznej rywalizacji na linii USA-Chiny stają się coraz bardziej nieprzewidywalne.

  • Threadripper 9000 i Radeon AI PRO R9700 – AMD prezentuje nowości dla profesjonalistów

    Threadripper 9000 i Radeon AI PRO R9700 – AMD prezentuje nowości dla profesjonalistów

    AMD po raz kolejny zaznacza swoją obecność na rynku stacji roboczych. Firma ogłosiła wprowadzenie nowej generacji procesorów Ryzen Threadripper 9000 oraz profesjonalnej karty graficznej Radeon AI PRO R9700. Oba produkty mają zadebiutować na rynku globalnym 23 lipca i celują w segment HEDT (High-End Desktop) oraz zaawansowane stacje robocze dla twórców i inżynierów.

    Threadripper 9000 – procesory do zadań ekstremalnych

    Nowe Threadrippery to pierwsze układy HEDT AMD oparte na architekturze ZEN5, wcześniej zaprezentowanej podczas targów Computex. Platforma, rozwijana pod nazwą „Shimada Peak”, opiera się na serwerowych chipach EPYC „Turin”, ale została dostosowana do wymagań desktopowych: otrzymuje gniazdo TR5, do 128 linii PCIe Gen 5 i obsługę pamięci DDR5 w konfiguracji 8-kanałowej.

    Wersja PRO osiąga szczyt możliwości w modelu 9995WX – 96 rdzeni, 192 wątki i 128 linii PCIe Gen 5. Wszystko to przy TDP na poziomie 350W. AMD celuje tymi układami w sektor renderingu 3D, symulacji inżynierskich, edycji wideo oraz półprofesjonalnych zastosowań, gdzie granica między segmentem konsumenckim a profesjonalnym coraz bardziej się zaciera.

    AMD 2

    Radeon AI PRO R9700 – AI na stacji roboczej

    Równolegle firma wprowadza profesjonalną kartę graficzną Radeon AI PRO R9700 – sprzęt stworzony z myślą o lokalnej akceleracji sztucznej inteligencji i renderingu. To rozwinięcie architektury RDNA 4, z 64 jednostkami obliczeniowymi, 4096 shaderami i 32 GB pamięci GDDR6. Zbudowana na chipie Navi 48 w litografii 4 nm, karta oferuje przepustowość 640 GB/s i moc obliczeniową do 96 TFLOP w FP16.

    Co ważne, R9700 korzysta z 128 jednostek AI drugiej generacji i w pełni wspiera środowisko ROCm, co czyni ją interesującą alternatywą dla rozwiązań NVIDII, zwłaszcza w środowiskach opartych na Linuksie.

    Nowe rozdanie dla partnerów OEM i kanału

    AMD planuje dystrybucję nowych układów zarówno przez specjalistyczny kanał sprzedaży, jak i w gotowych stacjach roboczych Lenovo, Dell, HP i Supermicro. To wyraźny sygnał, że firma intensyfikuje działania w lukratywnym segmencie stacji roboczych, który rośnie wraz z zapotrzebowaniem na moc lokalną dla AI, symulacji i kreatywnych obciążeń.

     

     

  • AMD wraca do Chin z MI308. USA zmienia kurs

    AMD wraca do Chin z MI308. USA zmienia kurs

    Po miesiącach niepewności AMD dołącza do grona firm, które znów mogą eksportować swoje układy AI do Chin. Po Nvidii, która kilka dni temu otrzymała zielone światło dla wysyłek procesorów graficznych H20, także AMD uzyskało pozytywną decyzję Departamentu Handlu USA w sprawie eksportu chipów Instinct MI308.

    To znaczący zwrot w amerykańskiej polityce eksportowej, która od kwietnia była jednym z głównych narzędzi presji wobec Chin. Wprowadzone przez administrację USA ograniczenia miały powstrzymać rozwój chińskiej infrastruktury AI, odcinając tamtejszych graczy od zaawansowanych półprzewodników. Skutki gospodarcze tej decyzji były odczuwalne — Nvidia oszacowała potencjalne straty z tytułu wstrzymanego eksportu na 5,5 miliarda dolarów, AMD – na 800 milionów.

    Teraz sytuacja ulega zmianie. Zgoda na eksport nie oznacza całkowitego zniesienia restrykcji – każda wysyłka wciąż wymaga licencji. Ale decyzje dotyczące Nvidii i AMD sygnalizują nowe podejście Waszyngtonu: bardziej selektywne, mniej zero-jedynkowe. To również odpowiedź na rosnącą presję przemysłu technologicznego w USA, który postrzega ograniczenia jako zagrożenie dla własnych przychodów i globalnej pozycji.

    Dla Chin to powiew ulgi, ale nie pełne zwycięstwo. Dostęp do chipów H20 i MI308 oznacza, że lokalne firmy znów mogą rozwijać projekty AI, choć nadal z mniejszym zakresem swobody niż przed 2023 rokiem. Dla amerykańskich firm to szansa na odzyskanie części rynku, bez całkowitego łamania polityki kontroli eksportu.

  • HPE i AMD łączą siły, by uprościć modernizację wirtualizacji

    HPE i AMD łączą siły, by uprościć modernizację wirtualizacji

    Hewlett Packard Enterprise rozszerza swoją platformę wirtualizacji Morpheus VM Essentials o obsługę najnowszych procesorów AMD Epyc piątej generacji. Ten ruch to nie tylko techniczna integracja – to także jasny sygnał: HPE i AMD wspólnie chcą powalczyć o rynek klientów modernizujących infrastrukturę IT w kierunku większej efektywności i gotowości na chmurę hybrydową.

    Morpheus VM Essentials to uproszczona, vendor-neutralna platforma do zarządzania maszynami wirtualnymi. Oferuje funkcje takie jak klastrowanie, migracja VM czy backup, a także zunifikowane zarządzanie środowiskami VMware i HPE. Platforma działa w modelu licencji na gniazdo, co upraszcza kalkulację kosztów, szczególnie dla średnich organizacji. Teraz zyskuje jeszcze jeden atut – wsparcie dla energooszczędnych i wydajnych chipów AMD.

    To właśnie argument energetyczno-ekonomiczny może okazać się kluczowy. AMD deklaruje, że jego procesory Epyc zużywają o 27 proc. mniej energii i są o 28 proc. tańsze w pięcioletnim TCO niż konkurencyjne układy Intela. W dobie presji na efektywność energetyczną centrów danych, zwłaszcza w kontekście wzrostu obciążeń związanych z AI, może to mieć realne przełożenie na decyzje zakupowe.

    Z biznesowego punktu widzenia, sojusz HPE z AMD to też sposób na budowę alternatywy dla dominującego duetu VMware–Intel. Choć Morpheus nadal współpracuje z VMware, daje użytkownikom większą elastyczność, a HPE może dzięki temu uniezależniać się od dostawców o niepewnej przyszłości (jak VMware po przejęciu przez Broadcom).

    To kolejny krok w szerszej strategii HPE, która od miesięcy koncentruje się na uproszczonej ofercie chmurowej i narzędziach do zarządzania środowiskami hybrydowymi. Wersja Morpheus Enterprise obsługuje również konteneryzację i wielochmurowość – VM Essentials może być więc pierwszym etapem adopcji bardziej zaawansowanej architektury.

    Współpraca z AMD dobrze wpisuje się także w trend dywersyfikacji infrastruktury IT. W 2024 roku udział procesorów AMD w serwerach x86 przekroczył 30 proc., a w niektórych segmentach (np. HPC i AI) ich popularność rośnie jeszcze szybciej. Klienci coraz częściej oczekują możliwości wyboru – również na poziomie CPU.

    Dla HPE i AMD to ruch defensywny i ofensywny zarazem: odpowiedź na rosnącą presję kosztową, a zarazem próba wykorzystania impasu u konkurencji. A dla klientów – szansa, by bez wielkich inwestycji zacząć modernizować własną infrastrukturę w oparciu o bardziej otwarte i efektywne komponenty.

  • Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Gdy ceny energii rosną, a AI rozpycha się w szafach serwerowych, efektywność energetyczna przestaje być technicznym detalem. Staje się językiem rozmów z klientami, miernikiem przewagi konkurencyjnej i fundamentem nowoczesnych centrów danych. W czasie śniadania technologicznego, które odbyło się 8 maja 2025 na kampusie Atman DC WAW-1, eksperci AMD, LenovoAtmana pokazali, że oszczędność prądu w data center zaczyna się dużo wcześniej niż przy liczniku – od projektowania procesorów, przez dobór komponentów, aż po architekturę całego obiektu. Spotkanie było nie tylko okazją do zobaczenia z bliska jednego z największych centrum danych w Polsce, ale przede wszystkim praktyczną lekcją z efektywności energetycznej.

    Energia pod kontrolą: dlaczego temat jest palący

    Gdy koszty energii elektrycznej zaczynają decydować o rentowności centrum danych, efektywność energetyczna przestaje być dodatkiem – staje się fundamentem strategii. Podczas śniadania technologicznego w warszawskim kampusie Atmana, przedstawiciele trzech firm: Atman, Lenovo i AMD, zgodnie podkreślali, że dziś każdy wat prądu musi być uzasadniony.

    „Efektywność energetyczna staje się przewagą konkurencyjną – już nie tylko na poziomie PUE, ale przede wszystkim z perspektywy biznesowej klientów, którzy analizują TCO całości infrastruktury. Dla nich to dziś twardy koszt, nie miękka deklaracja ESG” mówił Adam Dzielnicki, Product Manager Data Center, Atman.

    Presja rośnie z kilku stron. Po pierwsze – finansowa. Wzrost cen energii elektrycznej w Polsce i Europie sprawia, że firmy coraz częściej zaczynają kwestionować zasadność utrzymywania przestarzałego sprzętu, nawet jeśli ten technicznie nadal działa. Po drugie – regulacyjna. Komisja Europejska już zapowiedziała wprowadzenie obowiązkowego raportowania efektywności energetycznej dużych centrów danych, a państwa członkowskie szykują się do wdrożenia lokalnych przepisów.

    „Klienci pytają dziś nie tylko o moc, ale też o to, ile serwerów trzeba będzie zasilić i jaką infrastrukturę chłodzącą do tego dobrać. To zupełnie nowe podejście do planowania IT – bardziej przypomina projekt energetyczny niż zakup sprzętu” zauważył Łukasz Borkowski, Technical Channel Country Sales BI & Infrastructure.

    Do tego dochodzi trzeci czynnik – presja klientów końcowych. Coraz więcej organizacji mierzy własny ślad węglowy i oczekuje, że ich dostawcy usług IT zrobią to samo. „Nie chodzi już tylko o KPI w Excelu. Zdarza się, że klienci żądają deklaracji emisyjności infrastruktury, na której działa ich aplikacja”dodał Dzielnicki.

    W takim otoczeniu rozmowa o efektywności schodzi na poziom mikro – od technologii chłodzenia przez dobór dysków SSD po architekturę procesora. Każdy komponent jest potencjalnym źródłem zysków… lub strat. Jak zaznaczali eksperci, nawet różnica 10 watów na jednym module SSD – pomnożona przez setki maszyn – może w skali centrum danych przełożyć się na tysiące złotych rocznie.

    AMD: więcej rdzeni, mniej prądu

    Jeszcze dekadę temu AMD uchodziło za outsidera rynku serwerów – dziś ma 35% udziału globalnego w Data Center (wg Mercury Research), dostarcza procesory największym hiperskalerom i przekonuje, że wydajność i efektywność energetyczna nie muszą się wykluczać. „Dziś wycena firmy AMD jest zdecydowanie wyższa niż naszego największego konkurent w obszarze x86. W pierwszym kwartale bieżącego roku segment Data Centre w AMD urósł aż o 57% w ujęciu rok do roku.” – powiedział podczas spotkania Adam Tomczak, Territory Development Executive CEE w AMD.

    Architektura AMD EPYC, zaprojektowana od podstaw z myślą o serwerach, w każdej generacji zwiększała liczbę rdzeni, co, między innymi, przekłada się na gęstość upakowania mocy oraz zwiększa sprawność energetyczną. Efekt? „Od 2017 roku mamy sześciokrotny wzrost liczby rdzeni, niemal jedenastokrotny wzrost wydajności i czterokrotny wzrost wydajności na wat. To nie jest tylko marketing – to twarde dane z benchmarków” – dodał Tomczak.

    Innym wyróżnikiem AMD jest także oferta na platformach jednoprocesorowych, która pozwala budować tańsze i bardziej energooszczędne konfiguracje bez kompromisów wydajnościowych. „Stosując platformy jednoprocesorowe zamiast dwu, klienci mogą istotnie zmniejszyć TCO – zużywają mniej energii, chłodzą mniej szaf i mają mniej punktów awarii, bez kompromisu wydajności” – tłumaczył Tomczak.

    Krzysztof Łuka, ekspert techniczny AMD, poszedł jeszcze dalej: „W porównaniu do procesorów Intela mamy dziś nawet dwukrotnie lepszą metrykę SPECpower, czyli wydajność obliczeniową przy konkretnym zużyciu energii. A przy tym potrafimy na jednej maszynie osiągnąć do 384 rdzeni.”

    Co to oznacza dla firm? Mniej serwerów, mniej licencji, mniej energii – a więc także mniej emisji CO₂. AMD nie oferuje najtańszych chipów, ale w ujęciu całkowitych kosztów infrastruktury często okazuje się bezkonkurencyjne.

    Lenovo: mniej sprzętu, więcej wydajności

    W czasach, gdy jeden serwer potrafi pobierać nawet 10 kilowatów mocy, pytanie o wydajność nieodłącznie łączy się z pytaniem o zużycie energii. Dla Lenovo kluczem okazuje się optymalizacja całego ekosystemu sprzętowego – od projektowania płyty głównej po selekcję dysków NVMe. „To, co wyróżnia Lenovo, to fakt, że korzystamy teoretycznie z tych samych komponentów co inni – ale nasze własne systemy chłodzenia i autorskie projekty płyt głównych pozwalają wyciągnąć z nich znacznie więcej.”mówił Łukasz Borkowski, Technical Channel Sales w Lenovo.

    Podczas spotkania Borkowski nie szczędził konkretów. Jak wyliczał, dwa dyski NVMe o podobnych parametrach mogą różnić się poborem energii nawet o 10 watów – a przy dziesiątkach serwerów z kilkunastoma dyskami każdy, daje to setki watów możliwych oszczędności. „Na samych dyskach można zaoszczędzić ponad pół kilowata. A to dopiero początek.”

    Lenovo nie tylko koncentruje się na komponentach, ale również na systemach chłodzenia. Firma już od lat rozwija wodne systemy chłodzenia – dziś dostępne nawet w standardowych serwerach rackowych. „W szóstej generacji naszego systemu Liquid-to-Air jesteśmy w stanie zmniejszyć zużycie energii na chłodzenie nawet o 30%, eliminując wentylatory także w zasilaczach.” podkreślał Borkowski.

    Równolegle Lenovo promuje podejście oparte na konsolidacji – mniej serwerów, ale bardziej wydajnych. „Dzięki współczesnym procesorom możemy osiągnąć współczynnik 5 do 1 – czyli zastąpić pięć starszych serwerów jednym nowym. W praktyce, po około 16 miesiącach zaczynamy zarabiać na tej modernizacji.”mówił Borkowski, zachęcając do porzucania nieefektywnego sprzętu.

    Lenovo twierdzi, że benchmarki potwierdzają sześciokrotnie wyższą liczbę rekordów wydajnościowych niż u konkurencji. Przy rosnących kosztach licencji per rdzeń i energii, oznacza to konkretne oszczędności – nie tylko na sprzęcie, ale także na oprogramowaniu.

    Atman: jak wygląda PUE od środka

    Wzrost zapotrzebowania na moc obliczeniową oznacza nie tylko więcej serwerów, ale też więcej energii i ciepła. A to przekłada się bezpośrednio na koszty i parametry infrastruktury. „Efektywność energetyczna jest dziś nie tylko tematem technicznym – to kwestia strategiczna.”mówił podczas wydarzenia Adam Dzielnicki, Product manager w Atmanie.

    Jako operator największego kampusu data center w Polsce – Atman DC WAW-1 – firma znajduje się na styku presji klienta, regulatora i własnej optymalizacji. „Klienci coraz częściej pytają o PUE, a nawet o ślad węglowy. To nie jest już tylko CSR – to wymóg przetargowy.”przyznał Dzielnicki. I dodał:PUE poniżej 1,3 to już nie jest science fiction. Ale wymaga decyzji podejmowanych znacznie wcześniej – od etapu projektowania po dobór sprzętu.”

    Atman inwestuje w monitoring energetyczny na poziomie komponentów i usług, co pozwala klientom precyzyjnie rozliczać się z energii i kontrolować zużycie. W czasie prezentacji podkreślano również znaczenie współpracy z dostawcami infrastruktury – jak Lenovo i AMD – aby minimalizować pobór mocy na poziomie CPU, GPU, chłodzenia i całych szaf rackowych.

    „Nie ma jednej recepty na efektywność. W naszym przypadku kluczowe jest podejście warstwowe: od konstrukcji hali, przez systemy HVAC, po softwarowy nadzór nad obciążeniem. To wszystko wpływa na finalne PUE”tłumaczył Dzielnicki.

    Atman wyraźnie stawia na transparentność i praktykę – uczestnicy spotkania mieli okazję zobaczyć na własne oczy, jak wygląda infrastruktura DC WAW-1 od środka. Widać było, że optymalizacja energetyczna przestała być deklaracją – a stała się integralną częścią architektury usług.

    Energoefektywność jako nowy standard rynku

    W dyskusji o efektywności energetycznej coraz mniej miejsca zostaje na slogany – a coraz więcej na konkretne dane, wskaźniki i decyzje inwestycyjne. Jak pokazało wydarzenie zorganizowane przez Atmana, Lenovo i AMD, technologia i energooszczędność nie tylko się nie wykluczają, ale zaczynają iść w parze.

    „W 2025 roku serwer może pobierać 10 kW, a jego chłodzenie – kolejne kilowaty. Jeśli nie zoptymalizujemy tej infrastruktury, rachunek za energię zaczyna przygniatać biznes.”mówił Łukasz Borkowski z Lenovo, wskazując na coraz większy udział chłodzenia w całkowitym zużyciu energii.

    Z kolei Adam Tomczak z AMD przypomniał, że efektywność nie jest kwestią dopłat czy dodatkowych funkcji. „My nie oferujemy bezpieczeństwa jako płatnego dodatku. Nasz Infinity Guard jest dostępny od pierwszej generacji EPYC – bo tak rozumiemy odpowiedzialną technologię.”

    Dla operatorów takich jak Atman, temat nie jest już tylko kwestią wewnętrznej efektywności, ale mierzalnej przewagi rynkowej. „PUE to nie jest liczba do prezentacji – to metryka, która przesądza o konkurencyjności oferty w oczach klientów korporacyjnych.”tłumaczył Adam Dzielnicki.

    Wydarzenie jasno pokazało, że przyszłość rynku infrastruktury IT w Polsce nie będzie się opierać wyłącznie na mocy obliczeniowej. Równie ważna będzie zdolność do przeliczenia tej mocy na waty, złotówki – i zaufanie klientów. Bo efektywność to dziś nie tylko parametr – to język, w którym rozmawiają liderzy branży.

    Materiał powstał we współpracy z firmą Atman.

  • AMD: 38 razy większa efektywność energetyczna AI i nowy sojusz z HCLTech

    AMD: 38 razy większa efektywność energetyczna AI i nowy sojusz z HCLTech

    Rosnące zapotrzebowanie na energię elektryczną ze strony centrów danych – które według Międzynarodowej Agencji Energii do 2030 roku może przekroczyć 945 TWh rocznie – stawia producentów sprzętu IT przed wyzwaniem tworzenia coraz bardziej energooszczędnych rozwiązań. Dla AMD ten temat nie jest nowy, ale właśnie zyskał nowy wymiar: firma nie tylko deklaruje kontynuację działań na rzecz efektywności energetycznej, ale ogłasza też ambitne cele oraz strategiczne partnerstwo z globalnym integratorem – HCLTech.

    38 razy mniej energii – i to dopiero początek

    Inicjatywa AMD „30×25”, ogłoszona w 2021 roku, miała na celu 30-krotne zwiększenie efektywności energetycznej przy trenowaniu AI i w systemach HPC do 2025 roku. Ten cel udało się osiągnąć szybciej, a wynik – 38-krotny wzrost wydajności energetycznej – pokazuje, że firma potrafi nie tylko wyznaczać ambitne cele, ale też je realizować.

    Teraz AMD idzie o krok dalej. Do 2030 roku planuje osiągnąć 20-krotne zwiększenie efektywności energetycznej maszyn rackowych wykorzystywanych do trenowania i inferencji AI (w porównaniu z poziomem z 2024 roku). W praktyce oznacza to, że uruchomienie złożonego modelu AI, który dziś wymaga 275 szaf serwerowych, będzie możliwe w ramach jednej – przy zużyciu nawet o 95% mniejszej ilości energii.

    To nie tylko znacząca redukcja kosztów operacyjnych, ale też realny wkład w ograniczanie śladu węglowego centrów danych. W kontekście rosnącej presji regulacyjnej i kosztów energii – również w Europie – tego typu parametry stają się kluczowe dla decyzji zakupowych w sektorze enterprise.

    Współpraca z HCLTech – AI i chmura w centrum uwagi

    Jednocześnie AMD ogłosiło nowy sojusz strategiczny z HCLTech – globalnym integratorem IT, który od lat wspiera największe firmy w projektach transformacyjnych. Partnerstwo obejmuje wspólne centra innowacji, laboratoria badawczo-rozwojowe oraz programy szkoleniowe dla klientów. W praktyce oznacza to zbliżenie know-how integratora i dostawcy krzemu, co ma skrócić czas wdrażania nowych rozwiązań AI, chmurowych i analitycznych.

    AMD wnosi do sojuszu swoje procesory EPYC, akceleratory Instinct i układy Ryzen PRO – projektowane z myślą o wydajności i energooszczędności. HCLTech zapewnia warstwę integracyjną, operacyjną i kompetencyjną – szczególnie istotną w kontekście rosnącego niedoboru specjalistów AI oraz zapotrzebowania na gotowe, zweryfikowane koncepcje wdrożeniowe.

    Z perspektywy odbiorców końcowych – zarówno dużych korporacji, jak i średnich firm stawiających na automatyzację i chmurę – taki model współpracy może przyspieszyć adaptację AI bez konieczności budowy własnych kompetencji od zera. Wspólne laboratoria AMD i HCLTech mają pełnić funkcję środowisk testowych, co pozwoli klientom lepiej ocenić opłacalność nowych technologii przed skalowaniem.

    Co istotne, partnerstwo nie kończy się na technologii – obejmuje również inicjatywy szkoleniowe i programy przekwalifikowania, które mają wspierać firmy w zarządzaniu zmianą technologiczną i kadrową. To szczególnie ważne w obliczu szybkiej ewolucji AI i wyzwań związanych z jej integracją w procesach biznesowych.

  • Xbox ogłasza wieloletnią współpracę z AMD

    Xbox ogłasza wieloletnią współpracę z AMD

    MicrosoftAMD zacieśniają współpracę w kluczowym momencie dla całej branży gier. W ogłoszonym właśnie strategicznym partnerstwie, Xbox i AMD zamierzają wspólnie rozwijać technologie nowej generacji, które mają wynieść doświadczenia graczy na wyższy poziom – niezależnie od platformy, z której korzystają.

    W praktyce oznacza to inwestycję w rozwój gier działających płynnie na konsolach, komputerach, urządzeniach mobilnych oraz w chmurze. W tle partnerstwa znajduje się również mocno akcentowana rola sztucznej inteligencji – zarówno w zakresie optymalizacji rozgrywki, jak i generowania realistycznych doświadczeń audiowizualnych. Microsoft stawia więc na spójny ekosystem gamingowy, który ma działać jak usługa: dostępna na każdym urządzeniu, z tą samą jakością i z tą samą biblioteką gier.

    To nie pierwszy raz, kiedy Xbox i AMD współpracują. Już wcześniejsze generacje konsol Xbox bazowały na układach AMD. Tym razem jednak zakres partnerstwa jest szerszy: obejmuje zarówno sprzęt, jak i oprogramowanie, a także rozwiązania chmurowe. Xbox podkreśla też współpracę z zespołem Windows, co może zwiastować głębszą integrację usług gamingowych z systemem operacyjnym – potencjalnie z korzyścią dla graczy PC i twórców gier.

    Z perspektywy AMD, to kolejny krok w kierunku ugruntowania pozycji monopolisty na rynku konsol. Firma już wcześniej zdobyła kontrakt na dostarczenie chipów do PlayStation 6. Sony, mimo rozmów z Intelem, ostatecznie wybrało AMD ze względu na niższy koszt oraz potrzebę zachowania wstecznej kompatybilności z PlayStation 5.

    W efekcie AMD ma dziś realny wpływ na przyszłość całego rynku konsol. Microsoft i Sony – najwięksi gracze w branży – bazują na tym samym dostawcy układów. Choć to może wydawać się ryzykowne z punktu widzenia konkurencji sprzętowej, to w praktyce otwiera przestrzeń na rywalizację w innych obszarach: usługach, ekskluzywnych tytułach i integracji z chmurą.

    Wspólna oś technologiczna z AMD w roli centralnej siły sprawia, że rozgrywka przestaje być definiowana przez fizyczne urządzenie. A to może być największa zmiana dla branży od czasu premiery pierwszego Xboxa.