Tag: Intel

  • Apple szuka alternatywy dla TSMC. Rozmowy z Intelem i Samsungiem

    Apple szuka alternatywy dla TSMC. Rozmowy z Intelem i Samsungiem

    Apple podjęło wstępne rozmowy z Intelem oraz Samsung Electronics w sprawie potencjalnej produkcji swoich głównych procesorów. Jak wynika z doniesień agencji Bloomberg, kadra zarządzająca giganta z Cupertino odwiedziła już teksańską fabrykę Samsunga i przeprowadziła niezależne konsultacje z Intelem. Choć negocjacje są na wczesnym etapie i nie przełożyły się na konkretne zamówienia, ruch ten ma na celu stworzenie alternatywy dla tajwańskiego TSMC. Decyzja ta zapada w cieniu ostrzeżeń Tima Cooka o ograniczeniach podaży zaawansowanych układów, które negatywnie wpłynęły na sprzedaż iPhone’ów. Sytuację potęguje fakt, że nadchodzące procesory dla smartfonów Apple korzystają z technologii współdzielonej z najbardziej pożądanymi chipami AI.

    Działania Apple prowadzą do jednoznacznych wniosków. Głębokie uzależnienie rynku od jednego dostawcy, jakim stało się TSMC, rodzi potężne ryzyko operacyjne, szczególnie w erze masowego zapotrzebowania na architekturę sztucznej inteligencji, która drastycznie kurczy dostępne moce przerobowe. Jednocześnie sceptycyzm Apple wobec standardów niezawodności i skali alternatywnych dostawców obnaża brutalną prawdę: technologiczna i logistyczna przewaga TSMC tworzy barierę, której konkurenci nie są w stanie szybko pokonać.

    Warto zwrócić uwagę na strategiczną potrzebę rewizji procesów zakupowych w sektorze zaawansowanych technologii. Liderzy biznesowi powinni wkalkulować długoterminowe deficyty w najnowocześniejszych węzłach litograficznych i traktować dywersyfikację nie jako opcję awaryjną, lecz stały element strategii. Wskazane jest rozwijanie bliższej współpracy z alternatywnymi partnerami produkcyjnymi już na wczesnym etapie projektowania i fazy R&D. Takie podejście pozwoli zminimalizować ryzyko technologiczne i uelastycznić architekturę sprzętową, co w obliczu kolejnych kryzysów podażowych skutecznie zabezpieczy ciągłość biznesową przedsiębiorstwa.

  • Intel wraca do gry – wyniki powyżej oczekiwań i potężny wzrost akcji

    Intel wraca do gry – wyniki powyżej oczekiwań i potężny wzrost akcji

    Po latach strategicznego dryfu i błędów w zarządzaniu, Intel pod wodzą Lip-Bu Tana zaczyna udowadniać, że jego plan naprawczy to coś więcej niż tylko agresywne cięcie kosztów. Najnowsze prognozy przychodów na drugi kwartał, oscylujące w granicach 14,3 miliarda dolarów, nie tylko pobiły oczekiwania Wall Street, ale wywołały euforyczny, 19-procentowy wzrost wartości akcji. To sygnał, że dawna ikona Doliny Krzemowej odnalazła swoją ścieżkę w świecie zdominowanym przez sztuczną inteligencję.

    Strategiczny zwrot ku CPU i agentom AI

    Kluczem do optymizmu Intela jest zmiana paradygmatu w sektorze centrów danych. Podczas gdy pierwsza faza boomu AI należała bezsprzecznie do układów GPU Nvidii, wykorzystywanych do trenowania potężnych modeli, rynek wchodzi obecnie w fazę wdrażania (inferencji). To właśnie tutaj procesory CPU Intela odzyskują znaczenie. W architekturze opartej na autonomicznych agentach AI, wymagających zaawansowanego rozumowania i obsługi złożonych obciążeń, tradycyjne jednostki centralne okazują się nieodzownym elementem infrastruktury. Lip-Bu Tan wyraźnie zaznacza, że popyt ten nie jest jedynie życzeniowym myśleniem, lecz realnym trendem płynącym od największych dostawców usług chmurowych.

    Partnerstwo z Muskiem jako fundament odlewni

    Największym zwycięstwem wizerunkowym i technologicznym ostatnich dni jest jednak zabezpieczenie Tesli jako kluczowego klienta dla nadchodzącego procesu technologicznego 14A. Udział w projekcie Terafab Elona Muska to dla biznesu produkcyjnego Intela (Intel Foundry) potężny zastrzyk wiarygodności. Partnerstwo to ma na celu stworzenie procesorów nowej generacji dla robotyki i centrów danych, co bezpośrednio rzuca wyzwanie dominacji TSMC. Choć detale finansowe pozostają poufne, strategiczny sojusz z takimi graczami jak Musk, Nvidia czy SoftBank daje Intelowi paliwo niezbędne do transformacji w nowoczesną, kontraktową odlewnię chipów.

    Ryzykowna droga do 2030 roku

    Mimo sukcesów finansowych w pierwszym kwartale, gdzie skorygowany zysk na akcję wyniósł 29 centów, Intel wciąż stąpa po cienkim lodzie. Transformacja ze „starego giganta” w „zwinnego sportowca odlewnictwa” wymaga nie tylko przełamania wąskich gardeł w produkcji, ale i utrzymania tempa innowacji w obliczu rosnącej konkurencji ze strony AMD i ARM. Dla inwestorów obecna wycena może być jednak atrakcyjnym punktem wejścia. Jeśli Intel skutecznie zagospodaruje popyt na krzem w nadchodzącej erze robotyki, dzisiejszy „hazard o wysokie stawki” może zakończyć się powrotem firmy na tron technologicznego imperium.

  • Efekt Lip-Bu Tana: Czy Intel w końcu wychodzi na prostą?

    Efekt Lip-Bu Tana: Czy Intel w końcu wychodzi na prostą?

    Po latach strukturalnych problemów i strategicznych błędów, Intel zdaje się wreszcie łapać wiatr w żagle. Inwestorzy, którzy przez ostatnie kwartały z niepokojem obserwowali topniejącą przewagę technologiczną giganta, zaczynają wierzyć w plan naprawczy CEO Lip-Bu Tana. Liczby mówią same za siebie: w 2025 roku akcje spółki wzrosły o imponujące 84 procent, deklasując benchmarkowy indeks półprzewodników, który zyskał w tym czasie 42 procent.

    Fundamentem tego optymizmu nie jest jednak wyłącznie rynkowa spekulacja, ale realne zmiany w strukturze kapitałowej i operacyjnej. Kluczowe okazały się strategiczne zastrzyki gotówki – 5 miliardów dolarów od Nvidii oraz 2 miliardy od SoftBanku, wsparte zaangażowaniem rządu USA. Dało to Tanowi niezbędną elastyczność finansową do walki z „nadętą strukturą zarządzania” i przyspieszenia transformacji modelu produkcyjnego. Rynek zareagował entuzjastycznie – w ostatnich dwóch miesiącach co najmniej dziesięć domów maklerskich podniosło swoje rekomendacje dla spółki.

    Motorem napędowym wyników pozostają centra danych. Według danych LSEG, Intel zaraportuje ponad 30-procentowy skok przychodów w tym segmencie, osiągając poziom 4,43 miliarda dolarów. Paradoksalnie, boom na AI, który początkowo zepchnął Intela do defensywy, teraz stymuluje popyt na jego tradycyjne procesory serwerowe, niezbędne do współpracy z układami graficznymi konkurencji. Analitycy przewidują nawet dwucyfrowe podwyżki cen procesorów serwerowych w 2026 roku, co zwiastuje poprawę marż w długim terminie.

    Obraz ten nie jest jednak pozbawiony rys. Odbudowa pozycji na rynku PC to wciąż wyzwanie. Intel traci udziały na rzecz AMD i architektury Arm, a globalny wzrost cen pamięci – stanowiącej nawet 30 procent kosztu materiałowego komputera – może schłodzić popyt na nowe laptopy. Analitycy UBS prognozują wręcz 4-procentowy spadek dostaw komputerów PC w 2026 roku.

    Największym testem dla strategii Tana pozostaje jednak produkcja w litografii 18A. Choć firma rozpoczęła wysyłkę chipów „Panther Lake” wyprodukowanych we własnych fabrykach, wskaźniki uzysku (yield) wciąż są na poziomie, który ogranicza szeroką dostępność dla klientów zewnętrznych, takich jak Broadcom czy Nvidia. Presja na rentowność jest widoczna – skorygowana marża brutto ma spaść do 36,5 procent. Intel stoi więc przed jasnym wyborem: musi udowodnić, że potrafi produkować najnowocześniejsze czipy nie tylko dla siebie, ale i dla rynku, zanim skończy się kredyt zaufania inwestorów.

  • Fizyka kontra marketing. Co naprawdę zyskujesz, inwestując w procesory 1.8 nm i 3 nm?

    Fizyka kontra marketing. Co naprawdę zyskujesz, inwestując w procesory 1.8 nm i 3 nm?

    Intel wytacza ciężkie działa w postaci procesorów Core Ultra trzeciej generacji, znanych jako Panther Lake, które oparte są na technologii 18A, czyli 1,8 nanometra. Po drugiej stronie rynkowej barykady stoi AMD ze swoimi układami Ryzen, wypiekanymi w tajwańskich fabrykach TSMC w procesie 3 nm. Na papierze przewaga Intela wydaje się miażdżąca, sugerując technologię niemal o połowę mniejszą i nowocześniejszą. Jednak w portfelu dyrektora finansowego ta różnica może okazać się błędem statystycznym. W świecie, gdzie „nanometr” stał się marką, a nie miarą, biznes musi nauczyć się patrzeć na to, co naprawdę napędza wydajność, ignorując etykiety na pudełkach.

    Gdy menedżerowie IT przeglądają specyfikacje nowych laptopów czy serwerów, ich wzrok naturalnie kieruje się na cyfry, ponieważ w branży technologicznej mniejsze zazwyczaj oznacza lepsze, szybsze i bardziej oszczędne. Producenci doskonale zdają sobie z tego sprawę, dlatego wyścig zbrojeń w sektorze półprzewodników przeniósł się z laboratoriów fizycznych do działów marketingu. Aby podjąć świadomą decyzję zakupową na lata 2025–2026, trzeba zrozumieć, gdzie kończy się inżynieria, a zaczyna gra słów.

    Wielka iluzja nanometra

    Przez dekady branża IT operowała prostą i zrozumiałą walutą. Jeszcze w 1995 roku, gdy mówiliśmy o procesie technologicznym 350 nm, oznaczało to, że bramka tranzystora na płytce krzemu faktycznie miała długość 350 nanometrów. Inżynier i handlowiec mówili tym samym językiem, a nazwa węzła była bezpośrednim odzwierciedleniem fizycznej rzeczywistości. Ten porządek załamał się jednak pod koniec lat dziewięćdziesiątych wraz z wprowadzeniem nowych technologii budowy mikrotranzystorów, które zerwały bezpośrednie połączenie między nazwą węzła a fizycznym wymiarem komponentów.

    Dziś nazwy takie jak „Intel 4”, „18A” oznaczające 18 Angstromów, czy „TSMC N3” to w przeważającej mierze nazwy handlowe. Traktowanie ich jako technicznej miary długości jest błędem mogącym prowadzić do mylnych wniosków biznesowych. To sytuacja analogiczna do rynku motoryzacyjnego, gdzie oznaczenie modelu samochodu, na przykład BMW 330, nie musi już oznaczać silnika o pojemności trzech litrów. Cyfra służy obecnie pozycjonowaniu produktu w ofercie, a nie precyzyjnemu opisowi jego parametrów technicznych.

    Dla biznesu oznacza to konieczność zmiany podejścia do analizy ofert. Fakt, że jeden procesor jest oznaczony jako „1,8 nm”, a drugi jako „3 nm”, nie oznacza automatycznie, że ten pierwszy jest fizycznie znacznie mniejszy. W rzeczywistości różnice mogą być minimalne, a w skrajnych przypadkach relacja gęstości upakowania może być nawet odwrotna do tego, co sugerują liczby.

    Twarda waluta krzemu

    Skoro nanometry są umowne, świadomy inwestor lub szef działu IT powinien patrzeć na inne wskaźniki. Jeśli zajrzymy pod maskę procesorów Panther Lake czy najnowszych Ryzenów, znajdziemy obiektywne parametry, o których działy PR mówią niechętnie, a które są kluczowe dla inżynierów. Są to przede wszystkim Gate Pitch, czyli minimalna odległość między poszczególnymi tranzystorami, oraz Metal Pitch, oznaczający minimalną odległość między miedzianymi ścieżkami łączącymi te elementy.

    Analiza tych twardych danych prowadzi do zaskakujących wniosków. Porównując obecną generację procesów, okazuje się, że technologia Intel 4 oraz konkurencyjna TSMC N4 mają niemal identyczne parametry fizyczne, ze skokiem bramki oscylującym w granicach 50–51 nanometrów. Mimo różnych nazw handlowych, gęstość upakowania technologii jest do siebie bardzo zbliżona. Jeszcze ciekawiej zapowiada się przyszłość, w której Intel promuje proces 18A sugerujący 1,8 nm, podczas gdy TSMC szykuje się do wdrożenia procesu 2 nm. Paradoksalnie, według wielu analiz technicznych, to tajwańskie „2 nm” może oferować wyższą gęstość tranzystorów niż amerykańskie rozwiązanie. Intel nadrabia marketingiem, sugerując liderowanie, ale w praktyce obaj giganci idą łeb w łeb, a ich węzły będą się spotykać w połowie drogi pod względem realnej wydajności.

    Fizyka przekłada się na koszty

    Mimo że etykiety są mylące, postęp technologiczny jest realny i kluczowy dla kosztów prowadzenia biznesu, czyli TCO. Niezależnie od nazewnictwa, dążenie do gęstszego upakowania tranzystorów wynika z nieubłaganych praw fizyki, ponieważ mniejszy tranzystor z krótszą drogą między źródłem a drenem wymaga niższego napięcia do przełączenia stanu logicznego. Dla przedsiębiorstwa przekłada się to bezpośrednio na efektywność energetyczną oraz wydajność termiczną.

    Chip wykonany w nowszym, gęstszym procesie zużywa mniej energii przy tym samym obciążeniu. W skali jednego laptopa oznacza to dodatkową godzinę pracy na baterii podczas podróży służbowej, natomiast w skali centrum danych przekłada się na tysiące złotych oszczędności na rachunkach za prąd. Równie istotny jest aspekt termiczny, gdyż mniejsze zużycie energii oznacza mniej generowanego ciepła. Dzięki temu procesory mogą pracować z wyższymi częstotliwościami bez ryzyka dławienia termicznego, co zapewnia stabilniejszą pracę wymagających aplikacji. Dlatego Intel Panther Lake będzie z natury lepszy od swojego poprzednika nie ze względu na nazwę „18A”, ale dlatego, że inżynierowie faktycznie ulepszyli fizyczną strukturę chipa, co jest prawdą również w przypadku AMD korzystającego z ulepszeń TSMC.

    Strategiczna pułapka jednego dostawcy

    W tej technologicznej układance istnieje jeszcze jeden element ryzyka biznesowego, związany z brakiem kompatybilności. Procesy produkcyjne Intela, TSMC i Samsunga rozjechały się drastycznie, a każdy gigant stosuje inne metody produkcji chipów, wdrażając technologie takie jak FinFET czy RibbonFET w różnym czasie. Oznacza to, że projektanci układów, tacy jak AMD czy NVIDIA, są mocno przywiązani do wybranej fabryki i nie mogą przenieść produkcji do konkurenta z dnia na dzień. Dostosowanie projektu do innej fabryki to proces trwający nawet rok i generujący ogromne koszty. Wybierając platformę sprzętową do firmy, decydenci wybierają więc nie tylko procesor, ale cały łańcuch dostaw, gdzie stabilność partnera produkcyjnego staje się czynnikiem strategicznym, ważniejszym niż marketingowa nazwa nanometra.

    Zbliżamy się do momentu, w którym porównywanie procesorów wyłącznie na podstawie litografii staje się bezcelowe. Intel Panther Lake i nadchodzące generacje Ryzenów będą potężnymi układami, jednak ich wartość dla biznesu nie wynika z etykiet na pudełku. Przy planowaniu zakupów infrastruktury kluczowym wskaźnikiem powinien być współczynnik wydajności do wata. To ten parametr decyduje o tym, czy inwestycja w nowy sprzęt przełoży się na realny wzrost efektywności pracy i obniżenie kosztów operacyjnych przedsiębiorstwa.

  • Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Tegoroczne targi CES w Las Vegas przyniosły rzadki w ostatnich latach zwrot akcji w branży półprzewodników. Po okresie nadrabiania zaległości, Intel wydaje się odzyskiwać technologiczną palmę pierwszeństwa, co ma bezpośrednie przełożenie na strategie zakupowe w sektorze B2B. „Niebiescy” zdominowali narrację dzięki układom Panther Lake (Intel Core Ultra Series 3), wytwarzanym w procesie technologicznym Intel 18A. To odpowiednik technologii 2 nm, której główny konkurent, AMD, nie wprowadził jeszcze na rynek masowy, oferując w zamian odświeżoną architekturę w postaci Ryzen AI 400.

    Reakcja producentów OEM była natychmiastowa i jednoznaczna. Lenovo zacieśnił współpracę z Intelem, promując linię „Aura Edition” jako ekskluzywną dla tej architektury, szczególnie w segmentach premium ThinkPad i ThinkBook. Z kolei HP przyjęło postawę agnostyczną, oferując w modelu EliteBook X G2 wybór między Intelem, AMD a architekturą ARM od Qualcomma w ramach tego samego SKU. To pragmatyczne podejście, które przenosi ciężar wyboru architektury bezpośrednio na klienta korporacyjnego.

    Ciekawym zjawiskiem jest wyraźne ochłodzenie entuzjazmu wobec architektury ARM w ekosystemie Windows. Mimo premiery tańszych wariantów Snapdragon X2, Qualcomm nie zdołał w tym roku zdominować rozmów w kuluarach. Uwaga sektora biznesowego, po krótkim flircie z alternatywami, zdaje się wracać do sprawdzonej architektury x86. ARM odnosi za to spektakularne sukcesy w segmencie serwerowym i HPC, gdzie Nvidia zaprezentowała procesory Vera i Rubin, cementując swoją pozycję w infrastrukturze AI.

    Wydarzeniem, które może zdefiniować marketing B2B na najbliższe kwartały, jest jednak zmiana retoryki Della. Kevin Terwilliger, szef produktu w Dell, otwarcie przyznał, że klienci biznesowi nie podejmują decyzji zakupowych w oparciu o obecność „AI” w nazwie produktu. Firma drastycznie ograniczyła stosowanie tego akronimu w nowym portfolio, w tym w reaktywowanej linii XPS. To trzeźwy kontrapunkt dla konkurencji, takiej jak MSI, która wciąż eksperymentuje ze skomplikowanym nazewnictwem typu „Pro Max AI+”.

    Mimo technologicznego optymizmu, nad rynkiem wisi widmo kosztów. W Las Vegas zabrakło konkretnych cen w euro za podstawowe konfiguracje. Biorąc pod uwagę niedobory pamięci DDR5 i rosnące koszty wafli krzemowych w najniższych procesach litograficznych, działy zakupów IT powinny przygotować się na to, że powrót innowacji będzie miał swoją wysoką cenę.

  • Intel Core Ultra Series 3: Koniec Hyper-Threadingu i debiut procesu 18A

    Intel Core Ultra Series 3: Koniec Hyper-Threadingu i debiut procesu 18A

    Tegoroczne targi CES w Las Vegas stały się sceną dla jednego z najważniejszych sprawdzianów w najnowszej historii Intela. Prezentacja układów Core Ultra Series 3, znanych pod kryptonimem Panther Lake, to nie tylko odświeżenie portfolio produktowego, ale przede wszystkim demonstracja operacyjnej dojrzałości procesu technologicznego 18A.

    Wytwarzane we własnych zakładach Intela czipy, oparte na litografii 18 angstremów (odpowiednik 2 nm u TSMC), mają stanowić technologiczną odpowiedź na dominację azjatyckich odlewni, oferując tranzystory o wyższej gęstości i efektywności energetycznej.

    Nowa architektura przynosi istotne zmiany w budowie krzemu. Intel zdecydował się na całkowite porzucenie technologii wielowątkowości (Hyper-Threading). Zamiast tego, czternaście nowych modeli laptopowych opiera się na fizycznej kombinacji rdzeni wydajnościowych (P), efektywnych (E) oraz tych o niskim poborze mocy (LPE), gdzie każdy rdzeń obsługuje dokładnie jeden wątek.

    Minimalne TDP ustalono na poziomie 25 watów, jednak elastyczność konfiguracji energetycznej sprawia, że ostateczna wydajność laptopa będzie w dużej mierze zależeć od decyzji inżynieryjnych producentów sprzętu OEM.

    Sama oferta modelowa staje się coraz bardziej labiryntowa dla kanału sprzedaży. Wprowadzono rozróżnienie na układy standardowe oraz te z sufiksem „X”, który sygnalizuje obecność wydajniejszego układu graficznego Intel Arc Pro B390.

    Co istotne dla integratorów, poszczególne modele różnią się drastycznie liczbą dostępnych linii PCIe, co może komplikować projektowanie płyt głównych pod konkretne konfiguracje z dyskretnymi kartami graficznymi.

    W tle premiery technologicznej wyraźnie wybrzmiewa kontekst polityczno-marketingowy. Intel mocno akcentuje amerykański rodowód nowych procesorów – od projektu po produkcję – co jest wyraźnym ukłonem w stronę nowej administracji USA. Z perspektywy użytkowej, mimo obecności jednostek NPU we wszystkich modelach, skok wydajności w zadaniach AI wydaje się ewolucyjny, a nie rewolucyjny.

    Choć hasło „AI PC” nadal dominuje w przekazie marketingowym, realna wartość Panther Lake zostanie zweryfikowana przez rynek pod koniec miesiąca, gdy pierwsze urządzenia trafią na półki sklepowe. Dla branży IT kluczowe będzie jednak nie tyle samo hasło sztucznej inteligencji, co potwierdzenie, czy proces 18A faktycznie pozwala Intelowi na powrót do gry o tron wydajności.

    Rodzina Intel Core Ultra Series 3 składa się z następujących komponentów w momencie premiery:

    ProcesorRdzenie (P+E+LPE)GHz (maks.)Rdzenie GPUTOPY NPUPCIeTDP max. (W)
    Ultra X9 388H16 (4+8+4)5,112501265,8
    Ultra 9 368H16 (4+8+4)4,94502065,8
    Ultra X7 368H16 (4+8+4)5,012501265,8
    Ultra 7 366H16 (4+8+4)4,84502065,8
    Ultra 7 365 4,84491255
    Ultra X7 358H16 (4+8+4)4,812501265,8
    Ultra 7 365H16 (4+8+4)4,74502065,8
    Ultra 7 3658 (4+0+4)4,74491255
    Ultra 5 338H12 (4+4+4)4,710471265,8
    Ultra 5 336H12 (4+4+4)4,64472065,8
    Ultra 5 3558 (4+0+4)4,64471255
    Ultra 5 3258 (4+0+4)4.54471255
    Ultra 5 3326 (2+0+4)4.42461255

  • MSI wprowadza układy Panther Lake. Serie Prestige i Modern z litografią 18A

    MSI wprowadza układy Panther Lake. Serie Prestige i Modern z litografią 18A

    MSI wykorzystało tegoroczne targi CES do gruntownego odświeżenia swojego portfolio biznesowego, jednak to, co najistotniejsze, kryje się nie w nowym designie obudowy, lecz w krzemie. Tajwański producent jako jeden z pierwszych wprowadza na rynek maszyny oparte na procesorach Intel Core Ultra Series 3, znanych szerzej jako Panther Lake.

    Dla kanału partnerskiego i całej branży to istotny sygnał – układy te są pierwszym rynkowym sprawdzianem dla nowego procesu technologicznego Intel 18A, który ma zdefiniować wydajność energetyczną urządzeń mobilnych w nadchodzących kwartałach.

    W seriach Prestige i Modern zmiany wizualne są ewolucyjne, ale specyfikacja celuje wysoko. Modele Prestige 14 AI+ oraz 16 AI+, dostępne także w wariantach konwertowalnych „Flip”, otrzymały procesory Intel Core Ultra X9 388H.

    Oznaczenie „X” wskazuje na obecność zintegrowanego, ale stosunkowo wydajnego układu graficznego Intel Arc B390. W połączeniu z matrycami OLED i solidnymi bateriami 81 Wh, MSI pozycjonuje te maszyny jako narzędzia zdolne obsłużyć nie tylko pakiety biurowe, ale i bardziej wymagające zadania graficzne.

    Najwięcej dyskusji może wywołać najmniejszy przedstawiciel rodziny, czyli Prestige 13 AI+. Inżynierom MSI udało się zejść z wagą do imponujących 899 gramów, zachowując przy tym procesor Core Ultra 9 i panel 2,8K OLED. Tutaj jednak pojawia się technologiczne ryzyko: bateria o pojemności zaledwie 53 Wh przy matrycy o tak wysokiej rozdzielczości może okazać się wyzwaniem dla czasu pracy.

    Rynkowy sukces tego modelu będzie bezpośrednim testem tego, czy obietnice Intela dotyczące skoku efektywności energetycznej w węźle 18A mają pokrycie w rzeczywistości.

    Dla głównego nurtu korporacyjnego MSI przygotowało odświeżoną serię Modern (modele 14S i 16S). Tu postawiono na pragmatyzm: procesory Core Ultra 7, metalowe wykończenie i pełen zestaw portów, w tym rzadko już spotykany natywny Ethernet, co w środowisku biurowym wciąż pozostaje atutem.

    Co znaczące, mimo równoległych premier ze strony AMD, MSI w obecnym rozdaniu biznesowym stawia wyłącznie na „niebieskich”, nie ogłaszając w tych seriach żadnych modeli opartych na konkurencyjnych chipach. Sprzedaż flagowej serii Prestige ma ruszyć 27 stycznia.

  • Sądowa „przecena” dla Intela. Gigant zapłaci UE o 1/3 mniej

    Sądowa „przecena” dla Intela. Gigant zapłaci UE o 1/3 mniej

    Dla Intela, giganta zmagającego się obecnie z jedną z najtrudniejszych restrukturyzacji w swojej historii, każda pozytywna wiadomość finansowa jest na wagę złota. W środę Sąd Unii Europejskiej dostarczył kalifornijskiej spółce rzadki w ostatnim czasie powód do zadowolenia, decydując o znaczącej redukcji grzywny antymonopolowej. Choć wina producenta w kwestii blokowania konkurencji nie została podważona, wymiar kary uległ złagodzeniu, co kończy kolejny rozdział w trwającej blisko dwie dekady sadze prawnej.

    Sprawa, oznaczona sygnaturą T-1129/23, sięga korzeniami do okresu agresywnej walki o dominację na rynku procesorów x86 między Intelem a Advanced Micro Devices (AMD). W centrum sporu znalazły się praktyki stosowane w latach 2002–2006, które Komisja Europejska zidentyfikowała jako tak zwane „nagie ograniczenia” (naked restrictions). Mechanizm ten polegał na przekazywaniu płatności kluczowym partnerom OEM – firmom HP, Acer oraz Lenovo – w zamian za wstrzymywanie lub celowe opóźnianie wprowadzania na rynek komputerów wyposażonych w układy konkurencji.

    Pierwotnie, w 2009 roku, Bruksela nałożyła na Intela rekordową wówczas karę 1,06 miliarda euro. Po latach batalii sądowej ta gigantyczna suma została uchylona, jednak w 2023 roku Komisja powróciła z nowym wymiarem kary, ustalonym na poziomie 376 milionów euro. To właśnie od tej decyzji odwołał się amerykański producent, argumentując, że sankcja jest nieproporcjonalna do rzeczywistej szkodliwości czynu.

    Intel
    źródło: Intel

    Sędziowie w Luksemburgu przychylili się do części argumentacji obrony. W uzasadnieniu wyroku wskazano, że kwota 376 milionów euro nie odzwierciedlała adekwatnie wagi naruszenia. Trybunał zwrócił uwagę na ograniczony zasięg procederu, który dotyczył stosunkowo niewielkiej liczby urządzeń, a także na fakt, że antykonkurencyjne działania nie miały charakteru ciągłego – w materiale dowodowym wskazano na dwunastomiesięczną przerwę między poszczególnymi incydentami. W rezultacie grzywna została zredukowana o około jedną trzecią, do poziomu niespełna 237 milionów euro.

    Dla rynku kanałowego i branży IT wyrok ten jest istotnym sygnałem. Potwierdza on, że europejskie organy regulacyjne pozostają nieustępliwe w kwestii ochrony zasad konkurencji, nawet jeśli procesy egzekwowania prawa ciągną się latami. Z drugiej strony, decyzja sądu pokazuje, że Komisja Europejska musi precyzyjnie kalibrować kary, opierając się na twardych danych dotyczących skali naruszeń, a nie jedynie na ogólnej pozycji rynkowej podmiotu.

    Decyzja nie jest jeszcze ostateczna. Zarówno Intel, jak i Komisja Europejska mają możliwość złożenia odwołania do Trybunału Sprawiedliwości UE, co mogłoby przedłużyć ten prawny maraton. Jednak w obecnej sytuacji makroekonomicznej i przy napiętym budżecie Intela, zaoszczędzenie blisko 140 milionów euro stanowi istotny zastrzyk, nawet jeśli jest to tylko częściowe zwycięstwo w sprawie, która kładzie się cieniem na reputacji firmy z czasów jej absolutnej dominacji.

  • AMD podgryza Intela, ale gigant z Santa Clara pozostaje na czele

    AMD podgryza Intela, ale gigant z Santa Clara pozostaje na czele

    Rywalizacja na rynku procesorów x86 nabiera tempa, a AMD konsekwentnie umacnia swoją pozycję kosztem Intela. Choć Intel nadal dominuje, kontrolując około 70% rynku, najnowsze analizy Mercury Research potwierdzają, że AMD skutecznie zabezpieczyło dla siebie blisko 30% udziałów.

    Dynamika wzrostu AMD nie jest jednak jednolita we wszystkich segmentach. Największe sukcesy firma odnotowuje na rynku komputerów stacjonarnych, gdzie w ostatnim kwartale jej udział wzrósł o imponujące pięć procent, osiągając poziom 33,6%. Znacznie spokojniej jest w segmencie mobilnym – tu udziały obu graczy pozostały niemal bez zmian, a Intel zdołał nawet zanotować symboliczny wzrost o 0,4%.

    Interesująco wygląda również rynek serwerowy, który zrekompensował obu producentom słabszy kwartał w segmencie PC, prawdopodobnie spowodowany niepewnością związaną z cłami importowymi. W centrach danych AMD również rośnie w siłę, zwiększając swój udział o 3,5% i kontrolując obecnie 27,8% tego strategicznego rynku.

    Według Mercury Research, zyski AMD wynikają po części z faktu, że firma „dostarcza szybciej”, podczas gdy uwaga Intela była odwrócona od procesorów klasy podstawowej. Mimo to, liczby nie kłamią – dominacja Intela jest nadal bezdyskusyjna, a AMD ma przed sobą bardzo długą drogę, aby realnie zagrozić pozycji lidera.

    Wydaje się jednak, że Intel, być może uśpiony w ostatnich latach, definitywnie się przebudził. Koncern pod kierownictwem Pata Gelsingera przechodzi głęboką transformację, bez wahania odcinając działy, które nie są już kluczowe dla strategii firmy. Celem jest przywrócenie dawnej sprawności operacyjnej.

    Analiza Mercury Research skupia się wyłącznie na duecie x86. Należy jednak pamiętać o trzecim graczu, architekturze Arm, która według szacunków kontroluje już około 10% całego rynku procesorów i coraz śmielej próbuje wejść do gry na podwórku zarezerwowanym dotąd dla Intela i AMD.

  • Intel stawia na jeden standard. Przyszłe układy Xeon 7 wyłącznie z 16 kanałami pamięci

    Intel stawia na jeden standard. Przyszłe układy Xeon 7 wyłącznie z 16 kanałami pamięci

    Intel dokonał istotnej korekty w swojej mapie drogowej dla procesorów serwerowych, decydując się na strategiczne uproszczenie oferty. Firma potwierdziła, że nadchodząca rodzina układów Xeon 7, znana pod nazwą kodową Diamond Rapids, nie będzie oferowana w planowanych wcześniej, bardziej budżetowych wariantach z ośmioma kanałami pamięci. Zamiast tego, cała linia produktów, która ma zadebiutować w 2026 roku, zostanie oparta wyłącznie na platformie z szesnastoma kanałami pamięci.

    Uproszczenie jako strategia konkurencyjna

    Ruch ten jest komunikowany przez Intela jako „uproszczenie” ekosystemu. W praktyce oznacza to rezygnację z segmentacji rynku pod kątem przepustowości pamięci na rzecz ustanowienia nowego, wysokiego standardu. Dla producenta oznacza to mniejszą liczbę platform do walidacji i wspierania. Dla klientów, w tym dużych centrów danych, korzyścią ma być dostęp do maksymalnej przepustowości pamięci nawet w teoretycznie niższych konfiguracjach Xeon 7. Jest to kluczowe w erze obciążeń AI i HPC, gdzie szybki dostęp do danych jest równie ważny jak moc obliczeniowa rdzeni.

    Decyzja ta stanowi również bezpośrednią odpowiedź na działania konkurencji. Przez ostatnie generacje Intel, ze swoimi ośmioma kanałami, pozostawał w tyle za AMD. Konkurencyjne układy Epyc (serie 9004 i 9005) oferują jednolity, dwunastokanałowy kontroler pamięci. Wprowadzenie w 2026 roku nowej platformy serwerowej z zaledwie ośmioma kanałami byłoby strategicznie trudne do obrony. Przeskakując od razu do szesnastu kanałów, Intel nie tylko nadrabia zaległości, ale także próbuje narzucić rynkowi nowy standard wydajności.

    Czekając na nową architekturę

    Sama platforma Diamond Rapids (Xeon 7) będzie nastawiona na maksymalną wydajność, oferując do 192 rdzeni P-core opartych na architekturze Panther Cove. Jej premiera rynkowa przewidziana jest na drugą połowę 2026 roku. Wcześniej, na początku 2026 roku, Intel planuje wprowadzić układy Xeon 6+ (Clearwater Forest), produkowane w procesie Intel 18A i skupione na energooszczędnych rdzeniach E. Rezygnacja z 8-kanałowego Diamond Rapids pokazuje, że Intel jest gotów poświęcić niższą półkę cenową na rzecz mocniejszego uderzenia w segment premium i walki o przywództwo w kluczowym dla centrów danych wskaźniku – przepustowości pamięci.

  • Intel traci szefa AI na rzecz OpenAI

    Intel traci szefa AI na rzecz OpenAI

    Intel potwierdził znaczącą zmianę kadrową w swoim kluczowym segmencie. Sachin Katti, dotychczasowy dyrektor ds. technologii (CTO) i szef grupy AI, opuszcza firmę, aby dołączyć do OpenAI. To strategiczny transfer w samym środku globalnej wojny o talenty specjalizujące się w sztucznej inteligencji. W OpenAI Katti ma odpowiadać za projektowanie i budowę infrastruktury obliczeniowej wspierającej badania nad ogólną sztuczną inteligencją (AGI), raportując bezpośrednio do prezesa Grega Brockmana.

    Dla Intela moment odejścia jest trudny. Firma intensywnie próbuje nadrobić zaległości wobec Nvidii (NVDA) na lukratywnym rynku akceleratorów AI dla centrów danych. Mimo że procesory Intela są szeroko stosowane w systemach serwerowych, firma wciąż walczy o stworzenie chipa, który mógłby realnie konkurować z dominującymi układami Nvidii produkowanymi przez TSMC. Utrata kluczowego menedżera odpowiedzialnego za tę strategię komplikuje wysiłki firmy.

    Obowiązki Kattiego, byłego profesora Stanforda, który w Intelu pracował od około czterech lat, przejmie tymczasowo Lip-Bu Tan. Tan, pełni funkcję CEO Intela i jest weteranem branży półprzewodników (m.in. były CEO Cadence). Intel zapewnia w oficjalnym komunikacie, że AI pozostaje „jednym z najwyższych priorytetów strategicznych” i firma koncentruje się na realizacji swojej mapy drogowej.

  • Intel świętuje sukces księgowych, nie inżynierów

    Intel świętuje sukces księgowych, nie inżynierów

    Euforia zalała rynek po ostatnich wynikach Intela. Akcje szybujące o 90% w 2025 roku, kwartalny zysk na akcję w wysokości 23 centów (zamiast oczekiwanego 1 centa) i marże brutto na poziomie 40% wyglądają jak powrót króla. Inwestorzy, podgrzani szumem AI-PC i świeżym zastrzykiem 15 miliardów dolarów, otwierają szampana.

    Jednak musimy zadać pytanie: co tak naprawdę świętujemy?

    Odpowiedź jest prosta: świętujemy sukces księgowych, a nie inżynierów. Ostatnie wyniki Intela to nie owoc odzyskanej dominacji technologicznej, lecz efekt „drastycznych środków cięcia kosztów” wprowadzonych przez nowego dyrektora generalnego, Lip-Bu Tana. To iluzja sukcesu, która maskuje strategiczny odwrót i ciche przyznanie się do porażki w kluczowym wyścigu o przyszłość produkcji chipów.

    Cud finansowy

    Spójrzmy, skąd wziął się ten imponujący zysk. Nie pochodzi on z nowych, rewolucyjnych produktów, które pobiłyby Nvidię na rynku AI. Pochodzi z cięć.

    Po pierwsze, Intel kończy rok z siłą roboczą mniejszą o ponad jedną piątą (ponad 20%) niż w roku ubiegłym. Po drugie, firma agresywnie wyprzedaje aktywa – w tym 51% udziałów w Altera, firmie nabytej w 2015 roku za 16,7 miliarda dolarów.

    To zimna kalkulacja finansowa. Nowy CEO, Tan, robi dokładnie to, po co został zatrudniony: gasi pożar, który zostawił jego poprzednik.

    Pamiętajmy, że ambitne plany Pata Gelsingera, by przekształcić Intela w kontraktowego producenta na miarę TSMC, doprowadziły firmę do pierwszej rocznej straty od 1986 roku. Tan radykalnie zmniejszył te kosztowne ambicje. Obecne zyski to zatem nie wzrost, lecz zatrzymanie krwotoku.

    Ratunek, nie nagroda

    W centrum uwagi znalazły się także gigantyczne inwestycje: 5 miliardów dolarów od Nvidii, 2 miliardy od SoftBanku i bezprecedensowe 8,9 miliarda dolarów od rządu USA w zamian za 10% udziałów.

    Nie dajmy się zwieść. To nie jest nagroda dla lidera rynku. To ratunek dla firmy, która stara się utrzymać swoją dominację i której powtarzające się próby włamania się na rynek chipów AI nie przyniosły rezultatów.

    Inwestycja Nvidii – rywala, który zdetronizował Intela w segmencie AI – to strategiczny zakład, a nie akt wiary. To próba zabezpieczenia dostępu do mocy produkcyjnych na Zachodzie i wpływu na rozwój procesorów CPU, które (jak na ironię) są niezbędne w serwerach AI do obsługi… układów GPU Nvidii.

    Jeszcze bardziej wymowna jest interwencja rządu USA. Przejęcie 10% udziałów, które nastąpiło po tym, jak prezydent Donald Trump wezwał do rezygnacji Tana w związku z jego powiązaniami z Chinami, nie jest ruchem rynkowym. To interwencja geopolityczna. Intel stał się aktywem bezpieczeństwa narodowego; firmą zbyt ważną, by upaść, ale zbyt słabą, by samodzielnie wygrać.

    Bomba zegarowa: prawda o procesie 18A

    Podczas gdy analitycy z Wall Street ekscytowali się marżą brutto, kluczowa informacja padła z ust samego dyrektora finansowego Intela, Dave’a Zinsnera.

    Zapytany o fundament przyszłej konkurencyjności Intela – proces produkcyjny 18A – Zinsner przyznał otwarcie, że proces ten nie da Intelowi takiego poziomu marżowości, jakiego obecnie potrzebuje.

    To już brzmi źle. Na domiar złego, chwilę później Zinsner powiedział, że proces ten nie będzie gotowy na poziomie “akceptowalnym dla branży” aż do 2027 roku.

    To jest prawdziwy obraz Intela, ukryty za fasadą dobrych wyników kwartalnych. Proces 18A to nie jest „jakiś” projekt. To miała być odpowiedź na dominację TSMC i Samsunga. To technologia, która miała przywrócić Intela na tron lidera produkcji. Przyznanie, że nie będzie ona gotowa do 2027 roku, to katastrofa. W branży półprzewodników to wieczność. Oznacza to, że przez kolejne 2-3 lata Intel technologicznie pozostanie daleko w tyle.

    Odwrót od dominacji

    Co zatem Intel będzie robił, skoro nie może konkurować z TSMC? CEO Tan ma nową wizję: stworzenie „centralnej grupy inżynieryjnej”, która będzie oferować specjalnie zaprojektowane chipy dla klientów zewnętrznych, takich jak Google czy Amazon.

    Mówiąc wprost: Intel rezygnuje z walki o globalną dominację w masowej produkcji. Zamiast tego spróbuje stać się niszowym dostawcą drogich, niestandardowych rozwiązań, konkurując z takimi firmami jak Broadcom czy Marvell Technologies. To radykalne, ale, jak się zdaje, konieczne obniżenie ambicji.

    Stabilny pacjent, nie zdrowy lider

    Intel 3.0, kierowany przez Lip-Bu Tana, jest firmą finansowo stabilniejszą niż chwiejny gigant pod wodzą Pata Gelsingera. Zastrzyk 15 miliardów dolarów i brutalne cięcia kosztów kupiły firmie czas.

    Jednak inwestorzy, którzy kupują dziś akcje, nie kupują technologicznego lidera. Kupują firmę, która właśnie przyznała, że jej kluczowa technologia produkcyjna jest opóźniona o lata. Kupują firmę, która wyprzedaje aktywa i rezygnuje z walki o tron, by stać się dostawcą usług premium dla innych gigantów.

    Co ironiczne, obecny „problem wysokiej klasy”, o którym wspomniał CFO Zinsner – czyli popyt przewyższający podaż – wynika w dużej mierze z tego, że centra danych muszą aktualizować procesory CPU (Intela), aby nadążyć za zaawansowanymi układami AI (Nvidii).

    Intel nie prowadzi już rewolucji AI. Stał się dla niej niezbędnym, ale jednak drugoplanowym dostawcą części. To nie jest powrót króla. To początek życia w roli strategicznego aktywa, utrzymywanego przy życiu przez rywali i rząd, którego głównym celem nie jest już dominacja, lecz przetrwanie.

  • Intel bije prognozy dzięki cięciom kosztów, ale walczy z produkcją 18A

    Intel bije prognozy dzięki cięciom kosztów, ale walczy z produkcją 18A

    Intel znacząco pobił oczekiwania analityków dotyczące zysku za trzeci kwartał, co jest bezpośrednim efektem „drastycznych środków cięcia kosztów” wdrożonych przez nowego dyrektora generalnego, Lip-Bu Tana. W reakcji na wyniki oraz strategiczne inwestycje, akcje firmy wzrosły w 2025 roku o blisko 90%, odrabiając straty po 60% spadku w roku ubiegłym.

    Było to pierwsze ogłoszenie o zarobkach od czasu pozyskania przez firmę wielomiliardowych funduszy, określanych jako „linia ratunkowa”. W Intela zainwestowały m.in. Nvidia (5 mld USD), SoftBank (2 mld USD) oraz rząd USA, który za 8,9 mld USD objął 10% udziałów. Fundusze mają wesprzeć firmę w walce konkurencyjnej z AMD na rynku PC i serwerów oraz w nieudanych dotąd próbach wejścia na rynek AI, zdominowany przez Nvidię.

    Nowa strategia Tana odchodzi od kosztownych ambicji poprzednika, Pata Gelsingera, by konkurować z TSMC. Cięcia objęły m.in. redukcję zatrudnienia o ponad jedną piątą. Intel skupi się teraz na tworzeniu niestandardowych chipów dla klientów zewnętrznych, konkurując z Broadcom i Marvell.

    Mimo silnego popytu, który według dyrektora finansowego Dave’a Zinsnera przewyższa obecnie podaż, firma stoi przed poważnymi wyzwaniami. Zinsner przyznał, że wydajność kluczowego procesu produkcyjnego 18A jest niewystarczająca i prawdopodobnie „nie osiągnie poziomu akceptowalnego dla branży” aż do 2027 roku.

  • PW eSkills: rządowy program dla cyfrowych kompetencji zyskał nowych partnerów

    PW eSkills: rządowy program dla cyfrowych kompetencji zyskał nowych partnerów

    Program PW eSkills, uruchomiony przez Ministerstwo Cyfryzacji, poszerzył grono partnerów o cztery kolejne podmioty: iCodeTrust Sp. z o.o., Intel Corporation, Polski Fundusz Rozwoju oraz Uniwersytet Łódzki. Włączenie tych organizacji to kolejny sygnał, że rozwój cyfrowych kompetencji staje się kwestią ponadsektorową, łączącą naukę, biznes i administrację.

    Inicjatywa PW eSkills działa w pięciu obszarach: podnoszenie poziomu kompetencji cyfrowych, promowanie ich rozwoju i dobrych praktyk, wspieranie równości i różnorodności w sektorze ICT, wzmacnianie współpracy pomiędzy podmiotami edukującymi w tym zakresie oraz tworzenie nowych inicjatyw i rekomendacji. Program jest otwarty dla administracji rządowej i samorządowej, organizacji pozarządowych, przedsiębiorców, środowiska naukowego i edukacyjnego oraz rad sektorowych ds. kompetencji.

    Zaangażowanie tych czterech instytucji wnosi w PW eSkills konkretne możliwości: Intel jako technologiczny gracz może wnieść kompetencje w obszarze przetwarzania danych i sztucznej inteligencji, Uniwersytet Łódzki reprezentuje akademickie zaplecze badań i edukacji, Polski Fundusz Rozwoju jako instytucja finansowa może wspomóc mechanizmy wsparcia oraz iCodeTrust Sp. z o.o. – zapewne w zakresie usług, szkoleń czy certyfikacji. Wiceminister cyfryzacji Paweł Olszewski podkreślił, że “cyfrowe kompetencje stają się wspólnym priorytetem”, a nowi partnerzy ułatwią budowę społeczeństwa przygotowanego na transformację cyfrową.

    W kontekście wyzwań, jakie stawia dynamicznie zmieniające się otoczenie technologiczne — automatyzacja, sztuczna inteligencja, zmiany modeli pracy — program zyskuje na znaczeniu jako część narodowej strategii edukacji cyfrowej. Polski rynek może dzięki temu lepiej odpowiadać na zapotrzebowanie na kompetencje ICT, co wpływa zarówno na gospodarkę, jak i na ograniczenie wykluczenia cyfrowego.

    Kluczowym pytaniem jest teraz: jak efektywnie przełożyć deklaracje partnerów na konkretne efekty operacyjne — dostępne kursy, praktyki, certyfikacje — oraz jak zmierzyć wpływ programu na rynek pracy i społeczeństwo.

  • Intel robi kolejne podejście do AI. „Nie wszystko dla wszystkich”

    Intel robi kolejne podejście do AI. „Nie wszystko dla wszystkich”

    Intel ponownie wchodzi do gry o rynek AI, ogłaszając na szczycie Open Compute nowy procesor graficzny dla centrów danych — Crescent Island. Chip ma zadebiutować w przyszłym roku i według deklaracji firmy będzie zoptymalizowany nie pod imponujące benchmarki, lecz ekonomię działania: koszt przetwarzania jednego tokena, efektywność energetyczną oraz wnioskowanie modeli AI.

    To wyraźny sygnał zmiany strategii. Po latach nieudanych podejść — od porzuconej linii Gaudi po zamrożony projekt Falcon Shores — Intel stawia na pragmatyzm. „Nie chcemy budować wszystkiego dla wszystkich. Koncentrujemy się na wnioskowaniu”, podkreślił CTO firmy, Sachin Katti. W tłumaczeniu na język rynku: Intel nie będzie walczyć z Nvidią tam, gdzie ta jest najsilniejsza, czyli w treningu gigantycznych modeli. Zamiast tego celuje w etap, na którym zarabia się na wdrożeniach AI w skali enterprise.

    Technicznie Crescent Island stawia na 160 GB pamięci typu klasycznego — wolniejszej niż HBM stosowanej przez konkurentów. To kompromis: niższa wydajność szczytowa, ale potencjalnie lepsza dostępność i koszt na wat. Chip bazuje na architekturze konsumenckich GPU Intela, co sugeruje krótszy cykl wdrożeniowy i niższe ryzyko produkcyjne. Wciąż jednak brak kluczowych szczegółów: jaki proces technologiczny (TSMC? własne fabryki?) i jakie realne TCO wobec układów AMD Instinct czy Nvidia Hopper/Blackwell.

    Na rynku, który od premiery ChatGPT cierpi na chroniczny niedobór GPU, miejsce dla trzeciego gracza oczywiście istnieje — ale nie ma już cierpliwości. Klienci hyperscalerowi chcą rocznych premier, interoperacyjności i otwartego ekosystemu. Intel obiecuje dokładnie to: modułowość i możliwość mieszania chipów różnych dostawców. To ruch defensywno-ofensywny — jeśli nie może wygrać solo, chce być niezbędny jako CPU w każdym systemie AI. Potwierdza to ostatnia transakcja z Nvidią, która zainwestowała 5 mld dolarów i objęła ok. 4% udziałów Intela.

    Czy to wystarczy? Intel gra o czas i drugą szansę. AI przestało być wyścigiem mocy — zaczyna być wyścigiem ekonomiki. Jeśli Crescent Island dowiezie „performance per dollar”, Intel może wrócić do stołu. Jeśli nie — pozostanie fabryką dla innych zwycięzców tej rewolucji.

  • Panther Lake: nowy procesor Intela ma odwrócić trend spadków w segmencie laptopów

    Panther Lake: nowy procesor Intela ma odwrócić trend spadków w segmencie laptopów

    Intel zapowiedział, że w najbliższy czwartek ujawni szczegóły techniczne dotyczące nowego układu mobilnego — Panther Lake — pierwszego produktu firmy, który w całości ma być produkowany w procesie 18A. To ważny moment: Intel stara się odzyskać zaufanie inwestorów po seriach potknięć w zaawansowanych węzłach technologicznych.

    Panther Lake to flagowy procesor przeznaczony do laptopów klasy premium, projektowany z myślą o wysokiej wydajności i efektywności energetycznej. Niższe zużycie energii ma wynieść ok. 30 proc. względem obecnej generacji, a w pewnych scenariuszach wzrost mocy obliczeniowej – nawet do 50 proc. Chipy mają trafić do rynku na początku 2026 roku.

    Intel w ubiegłym tygodniu zorganizował szereg prezentacji technicznych i wycieczek po swych zakładach w Arizonie, w tym w nowej fabryce Fab 52, mającej obsługiwać produkcję Panther Lake. Firma szczegółowo omówiła przeprojektowany silnik AI, rdzenie CPU i GPU, technologie zasilania oraz mikroarchitekturę.

    Jednak kluczowe wyzwanie — plony produkcyjne — nadal budzi wątpliwości. Według wcześniejszych doniesień, plon („yield”) dla Panther Lake wciąż pozostaje niski: spółka podała, że latem udało się osiągnąć ok. 10 proc., wzrost z ok. 5 proc. pod koniec ubiegłego roku. Nie podano jednak, ile spośród wyprodukowanych jednostek spełnia najwyższe wymagania jakościowe. 

    Ten punkt jest kluczowy: jeśli Intel nie poprawi plonów do poziomów umożliwiających rentowną produkcję masową, to nawet imponujące parametry techniczne mogą nie wystarczyć.

    Sytuacja rynkowa nie ułatwia zadania. W drugim kwartale Intel odnotował stratę w wysokości 2,9 mld USD i groził zawieszeniem prac nad przyszłym węzłem 14A, jeśli nie znajdzie kluczowego klienta. Jednocześnie firma pozyskała finansowanie od SoftBanku i Nvidii, a w ramach prawa CHIPS transformowano dotację na udział 9,9 proc. w kapitale Intela

    Panther Lake może być kluczem w nowej strategii Intela — albo symbolem odrodzenia, albo przypomnieniem, jak daleko firma pozostała za konkurencją. W czwartek poznamy więcej technicznych szczegółów, które mogą dać pierwszą wyraźną wskazówkę, czy proces 18A jest gotowy, by stać się fundamentem nowej ery Intela.

  • Rynek akceleratorów AI w Europie: cyfrowa suwerenność vs. dominacja Nvidii

    Rynek akceleratorów AI w Europie: cyfrowa suwerenność vs. dominacja Nvidii

    Rewolucja związana z generatywną sztuczną inteligencją (GenAI) stworzyła nienasycony popyt na moc obliczeniową, fundamentalnie zmieniając architekturę centrów danych. Tradycyjne procesory (CPU), przez dekady stanowiące serce informatyki, stały się wąskim gardłem dla modeli językowych (LLM) i innych systemów GenAI. W odpowiedzi na to wyzwanie narodziła się nowa klasa wyspecjalizowanego sprzętu: akceleratory AI.

    Koniec ery CPU i narodziny nowego paradygmatu

    Problem z procesorami CPU w kontekście AI nie leży w ich prędkości, ale w fundamentalnym niedopasowaniu architektonicznym. Zoptymalizowane do sekwencyjnego wykonywania złożonych zadań, posiadają one zaledwie kilka potężnych rdzeni. Tymczasem algorytmy głębokiego uczenia wymagają masowego przetwarzania równoległego – wykonywania bilionów prostych operacji jednocześnie. To zadanie, do którego idealnie nadają się procesory graficzne (GPU), wyposażone w tysiące mniejszych rdzeni .

    Obok GPU, które stały się standardem w treningu modeli, wyłoniły się jeszcze bardziej wyspecjalizowane jednostki. Neuronalne jednostki przetwarzające (NPU) to szeroka kategoria układów zaprojektowanych od podstaw z myślą o AI, priorytetyzujących efektywność energetyczną, co czyni je kluczowymi w zastosowaniach brzegowych (Edge AI). Z kolei tensorowe jednostki przetwarzające (TPU) to autorskie układy ASIC firmy Google, zoptymalizowane pod kątem jej ekosystemu oprogramowania i masowych obliczeń w chmurze .

    Ta zmiana paradygmatu napędza w Europie rynek o ogromnym potencjale. Wyceniany w 2024 roku na około 4,88 miliarda euro, europejski rynek akceleratorów AI ma wzrosnąć do blisko 43 miliardów euro do 2033 roku, przy imponującym skumulowanym rocznym wskaźniku wzrostu (CAGR) na poziomie 27,4% .

    Unikalne europejskie drivery: Polityka spotyka popyt rynkowy

    Europejski rynek akceleratorów jest kształtowany przez unikalne połączenie oddolnego popytu komercyjnego i odgórnych inicjatyw strategicznych, co odróżnia go od rynków w USA czy Azji.

    Z jednej strony, rośnie adopcja AI w kluczowych sektorach, takich jak opieka zdrowotna, motoryzacja i finanse. Już 13,5% przedsiębiorstw w UE korzysta z technologii AI, a cały europejski rynek AI (oprogramowanie, sprzęt i usługi) rośnie w tempie ponad 33% rocznie.   

    Z drugiej strony, Unia Europejska realizuje ambitny program wzmacniania swojej suwerenności cyfrowej i technologicznej. Obawy geopolityczne i chęć uniezależnienia się od pozaunijnych dostawców doprowadziły do powstania potężnych mechanizmów inwestycyjnych:

    • EU Chips Act: Inicjatywa ta ma na celu zmobilizowanie ponad 43 miliardów euro w inwestycjach publicznych i prywatnych, aby do 2030 roku podwoić udział Europy w globalnej produkcji półprzewodników z 10% do 20% . Przyciąganie inwestycji w budowę zaawansowanych fabryk, takich jak zakłady Intela czy TSMC w Niemczech, ma kluczowe znaczenie dla przyszłej produkcji akceleratorów w Europie.   
    • AI Continent Action Plan: Ten opiewający na 200 miliardów euro plan zakłada stworzenie suwerennego, paneuropejskiego ekosystemu AI. Jego kluczowym elementem jest inicjatywa InvestAI, która ma zmobilizować 20 miliardów euro na budowę 4-5 „Gigafabryk AI” – każda wyposażona w ponad 100 000 zaawansowanych chipów AI.
    • EuroHPC i „Fabryki AI”: Wspólne Przedsięwzięcie w dziedzinie Europejskich Obliczeń Wielkiej Skali (EuroHPC JU) inwestuje miliardy euro w budowę floty superkomputerów. Wokół nich powstaje 13 „Fabryk AI”, które demokratyzują dostęp do mocy obliczeniowej dla startupów i MŚP, stymulując innowacje i tworząc gwarantowany popyt na infrastrukturę .

    Krajobraz konkurencyjny: Dominacja Nvidii i strategie pretendentów

    Rynek akceleratorów dla centrów danych jest bliski monopolu. Nvidia kontroluje około 98% globalnego rynku pod względem liczby dostarczonych jednostek, a jej prawdziwą przewagą jest dojrzały ekosystem oprogramowania CUDA, z którego korzysta 5 milionów deweloperów . Tworzy to potężny efekt „lock-in”, utrudniając konkurentom zdobycie udziałów.

    Mimo to pretendenci realizują przemyślane strategie:

    • AMD: Pozycjonuje się jako główna, wysokowydajna alternatywa. Seria akceleratorów Instinct MI300 ma konkurować z ofertą Nvidii, a jej kluczowym atutem jest otwarta platforma oprogramowania ROCm, mająca na celu przełamanie monopolu CUDA.
    • Intel: Stawia na konkurencję cenową z akceleratorami Gaudi (mają być o 50% tańsze od H100 Nvidii) oraz na otwarty ekosystem oneAPI.
    • Google (TPU): Nie sprzedaje chipów bezpośrednio, lecz wykorzystuje je jako kluczowy element wyróżniający swoją platformę chmurową, oferując doskonały stosunek wydajności do kosztów dla specyficznych obciążeń AI.

    Na tym tle pojawiają się również europejscy gracze, tacy jak brytyjski Graphcore czy francuski Blaize, którzy koncentrują się na niszach, takich jak nowatorskie architektury (IPU) czy energooszczędne układy dla Edge AI

    Trylemat wzrostu: Koszt, energia i talent

    Pomimo optymistycznych prognoz, europejski rynek napotyka trzy fundamentalne bariery, które tworzą strategiczny trylemat dla decydentów.

    Koszt i dostępność: Cena pojedynczego akceleratora z najwyższej półki, jak Nvidia H100, sięga 40 000 USD, co czyni budowę własnej infrastruktury AI zaporową dla większości firm . Dodatkowo, globalne łańcuchy dostaw są wrażliwe na zakłócenia i kontrole eksportu, co zagraża ciągłości projektów .

    Energia i ESG: Centra danych dedykowane AI zużywają od czterech do pięciu razy więcej energii niż tradycyjne. Prognozuje się, że do 2030 roku zużycie energii przez centra danych w Europie wzrośnie niemal trzykrotnie. Stoi to w sprzeczności z ambitnymi celami UE w zakresie zrównoważonego rozwoju, takimi jak    

    Dyrektywa w sprawie efektywności energetycznej, która nakłada obowiązek redukcji zużycia energii.   

    Talent: Europa boryka się z krytycznym niedoborem specjalistów w dziedzinie AI i HPC. Luka kompetencyjna spowalnia innowacje i uniemożliwia firmom efektywne wykorzystanie nawet już posiadanej infrastruktury, wzmacniając pozycję globalnych dostawców chmury.

    Trendy na przyszłość: Od posiadania do dostępu, od monolitu do modułu

    W perspektywie do 2030 roku rynek będzie kształtowany przez trzy kluczowe trendy:

    • Dominacja modelu „Compute-as-a-Service”: Ze względu na wspomniany trylemat, większość firm nie będzie kupować akceleratorów, lecz wynajmować do nich dostęp. Model ten, realizowany zarówno przez publiczne „Fabryki AI”, jak i komercyjnych dostawców chmury, przekształca ogromne wydatki kapitałowe (CAPEX) w przewidywalne koszty operacyjne (OPEX).
    • Bitwa o oprogramowanie: Długoterminowa struktura rynku zależeć będzie od sukcesu otwartych standardów, takich jak ROCm i oneAPI, w przełamywaniu dominacji CUDA. Uniknięcie uzależnienia od jednego dostawcy jest potężnym motywatorem dla całej branży

    Nowe architektury sprzętowe: Aby przezwyciężyć fizyczne ograniczenia, branża zmierza w kierunku chipletów – mniejszych, wyspecjalizowanych kostek krzemowych łączonych w jeden system. Pozwala to na większą modułowość i niższe koszty. W dłuższej perspektywie rewolucją mogą okazać się    

    obliczenia fotoniczne, wykorzystujące światło zamiast elektronów, co obiecuje o rzędy wielkości większą przepustowość i efektywność energetyczną .

    Wnioski strategiczne dla liderów technologicznych

    Europejski rynek akceleratorów AI to arena, na której globalna konkurencja technologiczna spotyka się z unikalnymi ambicjami politycznymi i regulacyjnymi. Dla dyrektorów ds. technologii i innowacji oznacza to konieczność nawigowania w złożonym ekosystemie.

    Kluczowe pytanie strategiczne przesuwa się z „jaki akcelerator kupić?” na „jak strategicznie uzyskać dostęp do mocy obliczeniowej?”. Odpowiedź wymaga zbalansowania wydajności, kosztów, suwerenności i zrównoważonego rozwoju. Sukces w erze GenAI nie będzie zależał od samego posiadania najnowszego sprzętu, ale od umiejętności inteligentnego wykorzystania zarówno publicznych inicjatyw, jak i prywatnych innowacji do budowania trwałej przewagi konkurencyjnej na unikalnym europejskim rynku.

  • Apple ratunkiem dla Intela? Niespodziewany sojusz może zmienić rynek chipów

    Apple ratunkiem dla Intela? Niespodziewany sojusz może zmienić rynek chipów

    W ramach szeroko zakrojonej strategii powrotu na szczyt, Intel prowadzi wczesne rozmowy z Apple na temat potencjalnej inwestycji i zacieśnienia współpracy. Dla Intela, borykającego się z wyzwaniami na rynku AI, wsparcie finansowe i technologiczne od giganta z Cupertino byłoby potężnym sygnałem dla rynku.

    Dla Apple, byłaby to szansa na dywersyfikację łańcucha dostaw w niestabilnych geopolitycznie czasach.

    Inicjatywa jest najnowszym elementem ambitnego planu CEO Pata Gelsingera, który ma na celu odzyskanie przez Intela dawnej chwały. Firma, niegdyś synonim innowacji w Dolinie Krzemowej, w ostatnich latach pozostawała w cieniu konkurentów takich jak Nvidia i AMD, szczególnie w dynamicznie rozwijającym się segmencie sztucznej inteligencji.

    Aby sfinansować kosztowną transformację i budowę nowych fabryk w USA, Intel aktywnie poszukuje strategicznych partnerów. Rozmowy z Apple toczą się zaledwie kilka dni po tym, jak Nvidia ogłosiła inwestycję 5 miliardów dolarów w zamian za około 4% udziałów.

    Wcześniej firma zabezpieczyła także 10 miliardów dolarów od rządu federalnego USA (w zamian za 10% udziałów) oraz 2 miliardy dolarów od SoftBank Group. Te zastrzyki gotówki już poprawiły nastroje inwestorów, co przełożyło się na ponad 40% wzrost wartości akcji od połowy sierpnia.

    Dlaczego Apple, które w 2020 roku porzuciło procesory Intela na rzecz własnych układów Apple Silicon, miałoby teraz wracać do stołu negocjacyjnego? Odpowiedź leży w strategii i zarządzaniu ryzykiem.

    Po pierwsze, dywersyfikacja łańcucha dostaw. Apple jest dziś w dużej mierze uzależnione od tajwańskiego producenta TSMC. Potencjalne partnerstwo z Intelem pozwoliłoby firmie zdywersyfikować produkcję kluczowych komponentów i zabezpieczyć się na wypadek eskalacji napięć geopolitycznych w regionie Tajwanu.

    Po drugie, relacje z amerykańską administracją. Inwestycja w kluczowego amerykańskiego producenta chipów wpisuje się w zobowiązania Apple do zwiększania krajowych inwestycji, co mogłoby dodatkowo wzmocnić pozycję firmy w Waszyngtonie.

    Choć rozmowy są na wczesnym etapie i nie ma gwarancji ich powodzenia, sam fakt ich prowadzenia jest znamienny. Dla Intela pozyskanie Apple jako klienta dla swojej działalności odlewniczej (foundry) byłoby ostatecznym potwierdzeniem słuszności obranej strategii IDM 2.0.

    Byłby to znacznie większy sukces niż umowa z Nvidią, która co prawda obejmuje wspólny rozwój układów, ale nie zakłada produkcji jej chipów obliczeniowych w fabrykach Intela.

    Przyszłość Intela zależy od zdolności do przyciągnięcia zewnętrznych klientów do swoich fabryk. Potencjalny sojusz z byłym, kluczowym partnerem może okazać się decydującym krokiem w tej rozgrywce.

  • Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    W Dolinie Krzemowej istnieją sojusze, które wydają się naturalne, oraz takie, które wstrząsają posadami całej branży. Ogłoszona wczoraj współpraca między Nvidią a Intelem bez wątpienia należy do tej drugiej kategorii.

    To nie jest zwykła umowa biznesowa; to strategiczny pakt zawarty przez dwóch dawnych, zaciekłych rywali. Obserwujemy historyczny moment, w którym lider rewolucji AI (Nvidia) podaje rękę gigantowi, który tę rewolucję niemal przespał (Intel).

    Pytanie, które musimy sobie zadać, wykracza daleko poza korporacyjne komunikaty prasowe: czy jesteśmy świadkami narodzin synergii, która napędzi innowacje, czy raczej tworzenia potężnego duopolu, który na lata zabetonuje rynek i zmarginalizuje konkurencję?

    Akt desperacji czy mistrzowska szachownica?

    Aby zrozumieć wagę tego sojuszu, trzeba spojrzeć na pozycję, z jakiej startują obaj gracze. Intel, niegdyś niekwestionowany król krzemu, od lat zmaga się z kryzysem. Problemy z przejściem na niższe procesy technologiczne, opóźnienia i rosnąca w siłę konkurencja sprawiły, że firma straciła pozycję lidera na rzecz Nvidii i Samsunga.

    W czasach gwałtownego rozwoju sztucznej inteligencji, napędzanej przez procesory graficzne, dominacja Intela w segmencie CPU okazała się niewystarczająca. Z tej perspektywy, pakt z Nvidią wygląda jak desperacka próba powrotu do gry o najwyższą stawkę.

    To przyznanie, że bez technologii lidera AI, Intel nie jest w stanie samodzielnie konkurować na najważniejszym froncie innowacji.

    Z kolei dla Nvidii, ten ruch jest czystą, wyrachowaną strategią. Firma Jensena Huanga absolutnie dominuje w centrach danych i segmencie akceleratorów AI. Jednak jej kolejnym celem jest zdobycie rynku, na którym Intel wciąż ma hegemonię: komputerów osobistych. 

    Poprzez natywną integrację swoich układów graficznych (w postaci chipletów RTX) z procesorami Intela, Nvidia zyskuje dostęp do ogromnego ekosystemu x86. To genialne posunięcie, które pozwala jej wejść „drzwiami i oknami” do segmentu AI PC, omijając konieczność budowania wszystkiego od zera.

    Nvidia nie kupuje tylko akcji Intela za 5 miliardów dolarów; kupuje dekady doświadczenia, bazę klientów i kanały dystrybucji swojego byłego rywala.

    Co na to AMD?

    Każdy wielki sojusz tworzy nie tylko zwycięzców, ale i przegranych. W tym przypadku firma, która ma najwięcej do stracenia, jest oczywista: AMD. Pod wodzą Lisy Su, AMD dokonało rzeczy niemal niemożliwej, stając się realną alternatywą zarówno dla Intela na rynku procesorów (seria Ryzen), jak i dla Nvidii na rynku kart graficznych (seria Radeon).

    Firma zręcznie lawirowała między dwoma gigantami, odbierając im udziały rynkowe.

    Teraz jednak AMD staje w obliczu koszmarnego scenariusza – walki z połączonym frontem. Wyobraźmy sobie laptopy i stacje robocze, w których procesor Intela i układ graficzny Nvidii są zintegrowane na poziomie krzemu.

    Taka synergia może zaoferować wydajność i efektywność energetyczną, z którą samodzielnym produktom AMD będzie niezwykle trudno konkurować. To już nie jest walka na dwóch oddzielnych frontach; to starcie z nowo powstałym, technologicznym behemotem, który kontroluje kluczowe elementy platformy PC.

    Od konkurencji do nowego porządku

    W branży IT mówi się o zjawisku „coopetition” – współpracy między konkurentami w określonych obszarach. Jednak umowa Nvidii i Intela wydaje się czymś znacznie głębszym. To nie jest tymczasowy projekt, ale fundament pod nowy porządek rynkowy.

    Celem jest stworzenie tak zintegrowanej i zoptymalizowanej platformy sprzętowej, że stanie się ona de facto standardem dla każdego, kto poważnie myśli o sztucznej inteligencji na komputerach osobistych i w serwerach.

    Długofalowe konsekwencje mogą być druzgocące dla rynkowej różnorodności. Jeśli duet Nvidia-Intel zdominuje segment AI PC, producenci oprogramowania zaczną optymalizować swoje aplikacje właśnie pod tę architekturę, jeszcze bardziej marginalizując alternatywy.

    Znajdziemy się w sytuacji, w której realny wybór zostanie ograniczony, a innowacje spoza tego ekosystemu mogą mieć ogromne trudności z przebiciem się do masowego odbiorcy.

    Złota klatka dla konsumenta?

    Niewątpliwie, w krótkim okresie, ta współpraca przyniesie ekscytujące produkty. Komputery staną się potężniejsze, a funkcje oparte na AI bardziej dostępne. Jednak w dłuższej perspektywie ryzykujemy wejściem do „złotej klatki” – ekosystemu tak doskonałego i zintegrowanego, że nie będziemy chcieli lub mogli go opuścić.

    Historia uczy nas, że gdy konkurencja słabnie, cierpi na tym innowacyjność, a ceny rosną.

    Zaskakujący ruch Nvidii jest nie tylko świetny pod kątem strategicznym. Pokazuje, że wzrost i rozwój podejmowany jest w IT za wszelką cenę, a dążenie zagarnięcia jak największej ilości rynku jest kluczowym priorytetem. Ruch ten uchroni Intela przed najgorszym, pytanie brzmi: jakim kosztem?

    Fuzja VMware i Broadcom pokazała, że wprowadzanie nowych porządków bywa bolesne dla rynków. A rosnące centralne potęgi IT, poza pokazowymi procesami, nie tylko nie są w żaden skuteczny sposób ograniczane przez organy państwowe. Wręcz przeciwnie, dziś rządy uznają technologicznych monopolistów za element przewagi geopolitycznej, co w dobie cyfrowego pędu jest logiczne, choć krótkowzroczne i potencjalnie szkodliwe w długiej perspektywie.

  • Intel sprzedał Alterę i obniża prognozy. Akcje spółki rosną

    Intel sprzedał Alterę i obniża prognozy. Akcje spółki rosną

    Intel sygnalizuje rynkowi zwrot w kierunku dyscypliny finansowej, obniżając prognozę skorygowanych kosztów operacyjnych na 2025 rok do 16,8 miliarda dolarów. Korekta, choć niewielka, została pozytywnie odebrana przez inwestorów, a akcje spółki zyskały na wartości blisko 4%. Zmiana jest bezpośrednim efektem finalizacji sprzedaży większościowego pakietu udziałów w firmie Altera.

    Dyscyplina po latach inwestycji

    Decyzja o cięciu prognozowanych wydatków wpisuje się w nową strategię firmy, która pod wodzą CEO Pata Gelsingera przechodzi restrukturyzację. Firma odczuwa skutki wielomiliardowych inwestycji w rozwój mocy produkcyjnych i strategię IDM 2.0, mającą na celu konkurowanie z azjatyckimi gigantami w produkcji kontraktowej.

    Te ambitne plany mocno obciążyły bilans spółki, prowadząc do znaczących strat w ostatnich latach.

    Nowe kierownictwo zapowiada koniec z „czekami in blanco” i zaostrzenie dyscypliny kosztowej. Jednym z jej przejawów jest zapowiedziana na ten rok redukcja zatrudnienia o ponad jedną piątą w stosunku do roku ubiegłego.

    Altera poza bilansem

    Kluczowym elementem optymalizacji jest dekonsolidacja biznesu programowalnych chipów (FPGA) – Altera. We wrześniu fundusz private equity Silver Lake sfinalizował przejęcie 51% udziałów w spółce.

    Transakcja, która wyceniła Alterę na 8,75 miliarda dolarów, pozwoliła Intelowi zdjąć z bilansu koszty operacyjne generowane przez ten segment. Warto przypomnieć, że Intel zapłacił za Alterę niemal 17 miliardów dolarów w 2015 roku, co pokazuje, jak zmieniła się ocena wartości tego biznesu.

    W pierwszej połowie 2025 roku Altera, jeszcze jako część Intela, wygenerowała 816 milionów dolarów przychodu przy marży brutto na poziomie 55% i kosztach operacyjnych sięgających 356 milionów dolarów.

    Utrzymanie mniejszościowego pakietu udziałów pozwala Intelowi czerpać korzyści z potencjalnego wzrostu Altery, jednocześnie odciążając własne finanse. Cel kosztów operacyjnych na 2026 rok pozostaje bez zmian i wynosi 16 miliardów dolarów.

  • Rynek akceleratorów AI: NVIDIA, AMD, Intel – walka o dominację

    Rynek akceleratorów AI: NVIDIA, AMD, Intel – walka o dominację

    Na Uniwersytecie Stanowym Karoliny Północnej robotyczne ramiona precyzyjnie mieszają chemikalia, a strumienie danych przepływają przez systemy w czasie rzeczywistym. To „samonapędzające się laboratorium”, platforma napędzana sztuczną inteligencją, odkrywa nowe materiały dla czystej energii i elektroniki nie w ciągu lat, ale dni.

    Zbierając dane 10 razy szybciej niż tradycyjne metody, obserwuje reakcje chemiczne niczym pełnometrażowy film, a nie pojedynczą migawkę. To nie jest science fiction; to nowa rzeczywistość odkryć naukowych.   

    Ten niewiarygodny skok napędzany jest przez nowy rodzaj silnika obliczeniowego: wyspecjalizowane układy akceleratorów AI. To „krzemowe mózgi” rewolucji. Prawo Moore’a, stary paradygmat podwajania mocy obliczeniowej w układach ogólnego przeznaczenia, ustąpiło miejsca nowemu prawu postępu wykładniczego, napędzanemu przez masowe przetwarzanie równoległe.   

    Sedno tej historii jest jednak bardziej złożone. O ile algorytmy AI są oprogramowaniem nowej ery naukowej, o tyle fizyczny sprzęt – chipy AI – stał się fundamentalnym czynnikiem umożliwiającym postęp, a paradoksalnie, również jego największym wąskim gardłem.

    Zdolność do odkrycia nowego leku ratującego życie lub zaprojektowania wydajniejszego ogniwa słonecznego jest dziś nierozerwalnie związana z hiperkonkurencyjnym, wielomiliardowym wyścigiem zbrojeń korporacyjnych oraz kruchym krajobrazem geopolitycznym, w którym dostęp do tych chipów jest narzędziem globalnej potęgi.

    Anatomia boomu: kto buduje krzemowe mózgi?

    Boom na generatywną sztuczną inteligencję stworzył nienasycony popyt na moc obliczeniową. Nie chodzi tu tylko o chatboty, ale o modele fundamentalne, które stanowią podstawę nowej fali badań naukowych. Ten popyt przekształcił niszowy rynek w globalne pole bitwy o dominację.   

    Panujący mistrz: NVIDIA

    NVIDIA ugruntowała swoją pozycję głównego architekta rewolucji AI, co potwierdzają jej oszałamiające wyniki finansowe. Dział centrów danych, serce biznesu AI firmy, odnotował w jednym kwartale przychody w wysokości 41,1 mld USD, co stanowi wzrost o 56% rok do roku.

    Dominacja ta opiera się na kolejnych generacjach potężnych architektur, takich jak Hopper, a teraz Blackwell, które są podstawowym sprzętem dla gigantów technologicznych, takich jak Microsoft, Meta i OpenAI .

    Energiczny pretendent: AMD

    AMD pozycjonuje się nie jako odległy numer dwa, ale jako poważny i szybko rosnący konkurent. Firma odnotowała rekordowe przychody z centrów danych w wysokości 3,5 mld USD w trzecim kwartale 2024 roku, co oznacza ogromny wzrost o 122% rok do roku, napędzany silnym przyjęciem akceleratorów GPU z serii Instinct.

    Co istotne, główni dostawcy usług chmurowych oraz firmy takie jak Microsoft i Meta aktywnie wdrażają akceleratory MI300X od AMD, co sygnalizuje chęć posiadania realnej alternatywy dla NVIDII. Firma prognozuje, że jej przychody z GPU dla centrów danych przekroczą 5 mld USD w 2024 roku.

    Gambit historycznego giganta: Intel

    Sytuacja Intela stanowi strategiczne wyzwanie. Mimo że firma twierdzi, iż jej akceleratory Gaudi 3 oferują lepszy stosunek ceny do wydajności w porównaniu z H100 NVIDII , ma trudności ze zdobyciem udziału w rynku.

    Intel nie osiągnął swojego celu przychodów w wysokości 500 mln USD dla Gaudi w 2024 roku, wskazując na wolniejszą niż oczekiwano adopcję z powodu problemów z przejściem między generacjami produktów oraz, co kluczowe, wyzwań związanych z „łatwością użycia oprogramowania”.

    Analiza tych danych ujawnia głębsze trendy. Po pierwsze, rynek sprzętu AI to nie tylko wyścig na komponenty, ale wojna platform. Trudności Intela z oprogramowaniem  wskazują na prawdziwe pole bitwy: ekosystem. Platforma CUDA firmy NVIDIA ma ponad dekadę przewagi, tworząc głęboką „fosę” narzędzi deweloperskich, bibliotek i wiedzy eksperckiej.

    Konkurenci nie sprzedają tylko krzemu; muszą przekonać cały świat nauki i rozwoju do nauki nowego języka programowania. Po drugie, boom na AI prowadzi do pionowej integracji centrum danych.

    NVIDIA nie tylko dominuje na rynku GPU, ale po przejęciu firmy sieciowej Mellanox w 2020 roku stała się również liderem w dziedzinie przełączników Ethernet, notując wzrost sprzedaży o 7,5x rok do roku.

    NVIDIA nie sprzedaje już tylko chipów; sprzedaje kompletny, zoptymalizowany projekt „fabryki AI”, tworząc jeszcze silniejszy efekt „lock-in”.   

    Od laboratorium do rzeczywistości: przełomy naukowe napędzane krzemem

    Ta bezprecedensowa moc obliczeniowa jest paliwem dla rewolucji w sposobie, w jaki prowadzimy badania naukowe, co prowadzi do przełomów, które jeszcze kilka lat temu wydawały się niemożliwe.

    Medycyna jutra

    Tradycyjny, trwający od 10 do 15 lat proces odkrywania leków ulega radykalnemu skróceniu. CEO DeepMind, Demis Hassabis, przewiduje, że AI skróci ten czas do „kwestii miesięcy”.

    Isomorphic Labs, spółka zależna DeepMind, wykorzystuje AI do modelowania złożonych systemów biologicznych i przewidywania interakcji między lekami a białkami. Naukowcy z Virginia Tech opracowali narzędzie AI o nazwie ProRNA3D-single, które tworzy modele 3D interakcji białko-RNA – kluczowe dla zrozumienia wirusów i chorób neurologicznych, takich jak Alzheimer.

    Co więcej, nowe narzędzie z Harvardu, PDGrapher, wykracza poza model „jeden cel, jeden lek”. Wykorzystuje grafową sieć neuronową do mapowania całego złożonego systemu chorej komórki i przewiduje kombinacje terapii, które mogą przywrócić ją do zdrowia.   

    Klimat w wysokiej rozdzielczości

    Dawniej dokładne modelowanie klimatu wymagało superkomputera. Dziś modele AI, takie jak NeuralGCM od Google, mogą działać na pojedynczym laptopie . Ten model, wytrenowany na dziesięcioleciach danych pogodowych, pomógł przewidzieć nadejście monsunu w Indiach z miesięcznym wyprzedzeniem, dostarczając kluczowe prognozy 38 milionom rolników.

    Nowy model AI z Uniwersytetu Waszyngtońskiego jest w stanie zasymulować 1000 lat klimatu Ziemi w zaledwie jeden dzień na jednym procesorze – zadanie, które superkomputerowi zajęłoby 90 dni.

    Firmy takie jak Google DeepMind (WeatherNext), NVIDIA (Earth-2) i uniwersytety jak Cambridge (Aardvark Weather) budują w pełni napędzane przez AI systemy, które są szybsze, wydajniejsze i często dokładniejsze niż tradycyjne modele.

    Alchemia XXI Wieku

    Jak wspomniano na początku, AI tworzy autonomiczne laboratoria, które przyspieszają odkrywanie materiałów dziesięciokrotnie lub bardziej. Paradygmat zmienia się z przeszukiwania istniejących materiałów na generowanie zupełnie nowych.

    Modele AI, takie jak MatterGen od Microsoftu, potrafią od podstaw projektować nowe materiały nieorganiczne o pożądanych właściwościach. Ta zdolność do „projektowania odwrotnego”, gdzie naukowcy określają potrzebę, a AI proponuje rozwiązanie, była świętym Graalem materiałoznawstwa.   

    Te przykłady ilustrują fundamentalną zmianę w samej metodzie naukowej. Komputer przestał być tylko narzędziem do analizy; stał się aktywnym uczestnikiem w generowaniu hipotez. Rola naukowca ewoluuje w kierunku kuratora potężnych systemów generatywnych.

    To przyspiesza cykl odkryć w sposób wykładniczy  i pozwala naukowcom badać znacznie większą „przestrzeń problemową”, niż było to kiedykolwiek możliwe dla człowieka.   

    Geopolityczna burza i nowy podział świata

    W miarę jak rośnie znaczenie tych krzemowych mózgów, stają się one najcenniejszym zasobem strategicznym XXI wieku – nową ropą naftową, kluczową dla konkurencyjności gospodarczej i przywództwa naukowego.   

    Strategia USA: „mały ogródek, wysoki płot”

    Stany Zjednoczone wdrożyły strategię „małego ogródka, wysokiego płotu”, wprowadzając kontrole eksportowe mające na celu spowolnienie zdolności Chin do rozwijania zaawansowanej AI. Ograniczenia te dotyczą nie tylko samych chipów (jak H100 NVIDII), ale także sprzętu niezbędnego do ich produkcji (od firm takich jak holenderska ASML).

    W krótkim okresie uderzyło to w chiński przemysł półprzewodnikowy, powodując niedobory sprzętu i „okaleczając” jego zdolności produkcyjne.   

    Zdeterminowana odpowiedź Chin

    Reakcja Chin była wielotorowa: ogromne inwestycje w krajowy przemysł półprzewodnikowy oraz wykorzystanie własnej dźwigni ekonomicznej poprzez ograniczenie eksportu kluczowych metali ziem rzadkich. Studium przypadku stanowi Huawei.

    Mimo że firma została sparaliżowana przez sankcje, opracowała własną linię chipów AI Ascend (910B/C/D), które są obecnie postrzegane jako realna alternatywa dla produktów NVIDII w Chinach.

    W odpowiedzi rząd USA zaostrzył stanowisko, oświadczając, że używanie tych chipów gdziekolwiek na świecie narusza amerykańskie kontrole eksportowe, co eskaluje podział technologiczny.

    Badanie przeprowadzone przez Uniwersytet Oksfordzki ujawnia surową rzeczywistość: zaawansowane procesory graficzne są silnie skoncentrowane w zaledwie kilku krajach, głównie w USA i Chinach. Stany Zjednoczone przodują w dostępie do najnowocześniejszych chipów, podczas gdy znaczna część świata znajduje się na „obliczeniowych pustyniach”.

    Ta sytuacja prowadzi do niezamierzonych konsekwencji. Amerykańskie kontrole eksportowe, mające na celu spowolnienie Chin, stały się dla nich „nieumyślnym akceleratorem innowacji”, zmuszając Pekin do zbudowania całkowicie niezależnego stosu technologicznego.

    Za dekadę świat może mieć dwa całkowicie oddzielne, niekompatybilne stosy AI, co fundamentalnie podzieli globalne badania.   

    Chmura jako wielki równoważnik?

    Istnieje potężna kontrargumentacja: chmura obliczeniowa demokratyzuje dostęp do elitarnej AI. Platformy takie jak Amazon Web Services (AWS), Microsoft Azure i Google Cloud oferują AI-as-a-Service (AIaaS), pozwalając uniwersytetowi lub startupowi wynająć te same potężne procesory graficzne, których używa OpenAI.

    Giganci chmurowi oferują bogate ekosystemy. AWS udostępnia usługi takie jak SageMaker do budowy modeli i Bedrock do dostępu do wiodących modeli fundamentalnych. Google Cloud promuje demokratyzację za pomocą narzędzi takich jak Vertex AI, zaprojektowanych z myślą o minimalnej złożoności.

    Microsoft Azure ściśle integruje AI ze swoim ekosystemem za pomocą Azure AI Foundry, oferując dostęp do ponad 1700 modeli i prowadząc dedykowane laboratoria badawcze „AI for Science”.

    Obietnicę dostępu należy jednak zestawić z surową rzeczywistością kosztów. Trenowanie najnowocześniejszego modelu jest zaporowo drogie, a szacunki sięgają 78 mln USD dla GPT-4 i 191 mln USD dla Gemini Ultra. To prowadzi do powstania „dwupoziomowej demokracji” w badaniach nad AI.

    Z jednej strony, każdy badacz z grantem może uzyskać dostęp do światowej klasy narzędzi AI. Jest to demokratyzacja zastosowania . Z drugiej strony, zdolność do trenowania nowego, wielkoskalowego modelu fundamentalnego od podstaw pozostaje wyłączną domeną garstki podmiotów: samych dostawców chmury i ich kluczowych partnerów.

    To jest centralizacja tworzenia. Chmura „demokratyzuje” AI w taki sam sposób, w jaki biblioteka publiczna demokratyzuje dostęp do książek. Każdy może je czytać, ale tylko nieliczni mają zasoby, by je pisać i wydawać.

    Przyszłość pisana w krzemie

    Zapierające dech w piersiach tempo odkryć naukowych w medycynie, klimatologii i materiałoznawstwie jest bezpośrednią konsekwencją ogromnej mobilizacji przemysłowej i geopolitycznej wokół jednej technologii: akceleratora AI.

    Postęp stał się kruchy i głęboko współzależny. Przełom naukowy nie jest już tylko funkcją genialnego umysłu. Zależy teraz również od kwartalnych raportów finansowych NVIDII i AMD, polityki handlowej uchwalanej w Waszyngtonie i Pekinie, stabilności łańcucha dostaw przechodzącego przez Tajwan  oraz modeli cenowych AWS, Google i Microsoft.

    Wkroczyliśmy w erę, w której przyszłość jest dosłownie pisana w krzemie. Wielkie wyzwania naszych czasów – leczenie chorób, walka ze zmianami klimatu, tworzenie zrównoważonej przyszłości – zostaną rozwiązane za pomocą tych nowych narzędzi.

    Ale kto będzie mógł nimi władać i w jakim celu, pozostaje najważniejszym i nierozstrzygniętym pytaniem XXI wieku. Kolejna wielka rewolucja naukowa będzie transmitowana na żywo, ale prawa do jej transmisji są obecnie negocjowane w salach konferencyjnych korporacji i w korytarzach globalnej władzy.