Tag: Lenovo

  • Lenovo: Zysk w dół, serwery AI w górę. Gigant przebija prognozy mimo kryzysu chipów

    Lenovo: Zysk w dół, serwery AI w górę. Gigant przebija prognozy mimo kryzysu chipów

    W świecie producentów sprzętu komputerowego zysk netto rzadko opowiada całą historię. Czwartkowy raport finansowy Lenovo za trzeci kwartał jest tego najlepszym dowodem. Choć zysk netto przypisany akcjonariuszom spadł o 21% do poziomu 546 milionów dolarów, inwestorzy otrzymali sygnał, na który czekali: chiński gigant skutecznie przesuwa środek ciężkości w stronę sztucznej inteligencji, zanim tradycyjny rynek PC uderzy w ścianę.

    Wyniki finansowe spółki obnażają klasyczny dylemat transformacji. Przychody wzrosły o 18% rok do roku, osiągając 22,2 miliarda dolarów i znacząco przebijając prognozy analityków. Sukces ten ma jednak swoją cenę. Lenovo mierzy się z narastającym niedoborem chipów pamięci, co zmusiło firmę do podniesienia cen urządzeń końcowych. Dyrektor generalny Yang Yuanqing przyznaje wprost, że wolumen sprzedaży komputerów PC znajdzie się pod presją, a ratunkiem dla rentowności ma być ucieczka w segment infrastruktury AI.

    Najciekawsza dynamika zachodzi wewnątrz dywizji serwerowej. Grupa infrastruktury cyfrowej odnotowała 31-procentowy wzrost przychodów, napędzany wdrożeniami rozwiązań opartych na architekturze Nvidia GB200. Mimo że segment ten wygenerował 11 milionów dolarów straty operacyjnej, jest to koszt, który Lenovo świadomie wpisuje w strategię budowania skali. Firma zakłada, że rynek infrastruktury AI potroi się do 2028 roku, a prawdziwe pieniądze leżą już nie w trenowaniu modeli, lecz w ich wdrażaniu, czyli tzw. wnioskowaniu (inference).

    Ruchy kadrowe i operacyjne potwierdzają ten zwrot. Lenovo przeznaczyło 285 milionów dolarów na restrukturyzację, która ma docelowo przynieść 200 milionów dolarów oszczędności rocznie. Środki te zostaną przekierowane na rozwój portfolio serwerów korporacyjnych, tworzonych m.in. we współpracy z AMD.

    Lekcja z raportu Lenovo jest klarowna. Nawet dominacja na rynku PC, który wciąż odpowiada za 70% przychodów grupy, nie gwarantuje bezpieczeństwa w obliczu niestabilnych łańcuchów dostaw. Przyszłość spółki zależy teraz od tego, czy uda jej się zmonopolizować szafy serwerowe w centrach danych tak skutecznie, jak wcześniej biurka pracowników korporacji. Jeśli marże na sprzęcie AI nie zrekompensują rosnących kosztów komponentów, obecny entuzjazm analityków może okazać się przedwczesny.

  • Dlaczego Lenovo nie chce tworzyć własnego LLM?

    Dlaczego Lenovo nie chce tworzyć własnego LLM?

    W wyścigu o dominację w sektorze sztucznej inteligencji, giganci technologiczni zazwyczaj wybierają jedną z dwóch ścieżek: budowę własnych, kosztownych modeli językowych (LLM) lub ścisłą, niemal ekskluzywną symbiozę z jednym dostawcą, jak ma to miejsce w przypadku Microsoftu czy Apple. Lenovo, największy na świecie producent komputerów, postanowiło jednak napisać własny scenariusz. Zamiast rywalizować z twórcami modeli, firma zamierza stać się ich globalnym dystrybutorem.

    Dyrektor finansowy Lenovo, Winston Cheng, nazywa tę strategię „podejściem orkiestrowym”. Podczas Światowego Forum Ekonomicznego w Davos, Cheng nakreślił wizję firmy, która nie buduje własnej inteligencji, lecz integruje najlepsze dostępne rozwiązania w ramach autorskiego systemu Qira. To pragmatyczny ruch, który pozwala Lenovo uniknąć gigantycznych nakładów na badania i rozwój modeli, jednocześnie adresując problem fragmentacji regulacyjnej na świecie.

    W przeciwieństwie do Apple, które stawia na wyselekcjonowane partnerstwa z OpenAI i Google, Lenovo otwiera drzwi dla szerokiego spektrum graczy. Na liście potencjalnych partnerów znajdują się europejski Mistral AI, saudyjski Humain oraz chińscy giganci tacy jak Alibaba i DeepSeek. Takie podejście pozwala Lenovo elastycznie reagować na lokalne przepisy dotyczące ochrony danych i suwerenności cyfrowej, co jest kluczowe dla firmy operującej na tak wielu rynkach jednocześnie.

    Pozycja Lenovo jest unikalna. Jako jedyny gracz obok Apple posiadający znaczące udziały zarówno w rynku PC, jak i smartfonów (poprzez Motorolę), firma kontroluje fizyczny punkt styku użytkownika z technologią. Cheng, były bankier inwestycyjny, doskonale rozumie, że w dobie „bańki AI” i rosnących wycen, prawdziwa wartość leży w efektywnym wdrożeniu, a nie tylko w czystej mocy obliczeniowej.

    Strategia ta nie jest jednak wolna od wyzwań. Rosnące ceny komponentów, zwłaszcza chipów pamięci, zmuszają Lenovo do przenoszenia kosztów na klientów. Jednocześnie firma zacieśnia współpracę z Nvidią w obszarze infrastruktury chłodzonej cieczą, celując w rynek hybrydowych centrów danych. Dla inwestorów przekaz jest jasny: Lenovo chce być niezbędnym pośrednikiem w świecie AI – platformą, bez której najlepsze modele językowe nigdy nie trafią do kieszeni i na biurka masowego odbiorcy.

  • Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Intel odzyskuje inicjatywę, a biznes mówi „sprawdzam” hype’owi na AI. Kluczowe wnioski z CES 2026

    Tegoroczne targi CES w Las Vegas przyniosły rzadki w ostatnich latach zwrot akcji w branży półprzewodników. Po okresie nadrabiania zaległości, Intel wydaje się odzyskiwać technologiczną palmę pierwszeństwa, co ma bezpośrednie przełożenie na strategie zakupowe w sektorze B2B. „Niebiescy” zdominowali narrację dzięki układom Panther Lake (Intel Core Ultra Series 3), wytwarzanym w procesie technologicznym Intel 18A. To odpowiednik technologii 2 nm, której główny konkurent, AMD, nie wprowadził jeszcze na rynek masowy, oferując w zamian odświeżoną architekturę w postaci Ryzen AI 400.

    Reakcja producentów OEM była natychmiastowa i jednoznaczna. Lenovo zacieśnił współpracę z Intelem, promując linię „Aura Edition” jako ekskluzywną dla tej architektury, szczególnie w segmentach premium ThinkPad i ThinkBook. Z kolei HP przyjęło postawę agnostyczną, oferując w modelu EliteBook X G2 wybór między Intelem, AMD a architekturą ARM od Qualcomma w ramach tego samego SKU. To pragmatyczne podejście, które przenosi ciężar wyboru architektury bezpośrednio na klienta korporacyjnego.

    Ciekawym zjawiskiem jest wyraźne ochłodzenie entuzjazmu wobec architektury ARM w ekosystemie Windows. Mimo premiery tańszych wariantów Snapdragon X2, Qualcomm nie zdołał w tym roku zdominować rozmów w kuluarach. Uwaga sektora biznesowego, po krótkim flircie z alternatywami, zdaje się wracać do sprawdzonej architektury x86. ARM odnosi za to spektakularne sukcesy w segmencie serwerowym i HPC, gdzie Nvidia zaprezentowała procesory Vera i Rubin, cementując swoją pozycję w infrastrukturze AI.

    Wydarzeniem, które może zdefiniować marketing B2B na najbliższe kwartały, jest jednak zmiana retoryki Della. Kevin Terwilliger, szef produktu w Dell, otwarcie przyznał, że klienci biznesowi nie podejmują decyzji zakupowych w oparciu o obecność „AI” w nazwie produktu. Firma drastycznie ograniczyła stosowanie tego akronimu w nowym portfolio, w tym w reaktywowanej linii XPS. To trzeźwy kontrapunkt dla konkurencji, takiej jak MSI, która wciąż eksperymentuje ze skomplikowanym nazewnictwem typu „Pro Max AI+”.

    Mimo technologicznego optymizmu, nad rynkiem wisi widmo kosztów. W Las Vegas zabrakło konkretnych cen w euro za podstawowe konfiguracje. Biorąc pod uwagę niedobory pamięci DDR5 i rosnące koszty wafli krzemowych w najniższych procesach litograficznych, działy zakupów IT powinny przygotować się na to, że powrót innowacji będzie miał swoją wysoką cenę.

  • Lenovo celuje w dług technologiczny. Nowa ofensywa w obszarze storage i HCI

    Lenovo celuje w dług technologiczny. Nowa ofensywa w obszarze storage i HCI

    W połowie grudnia 2025 roku rynek infrastruktury IT otrzymał wyraźny sygnał od Lenovo, że chiński gigant zamierza agresywnie zagospodarować lukę między rosnącymi ambicjami AI a przestarzałym zapleczem sprzętowym przedsiębiorstw. Firma ogłosiła gruntowne odświeżenie portfolio ThinkSystem oraz ThinkAgile, adresując dwa najbardziej palące problemy współczesnych CIO: niewystarczającą wydajność pamięci masowych dla obciążeń sztucznej inteligencji oraz niepewność strategiczną w obszarze wirtualizacji.

    Decyzja o wprowadzeniu nowych rozwiązań nie jest przypadkowa i wynika wprost z twardych danych rynkowych. Według analityków IDC, aż 80 procent pamięci masowych wdrożonych w ciągu ostatnich pięciu lat wciąż bazuje na tradycyjnych dyskach rotacyjnych (HDD). W erze generatywnej sztucznej inteligencji taka infrastruktura staje się wąskim gardłem, skutecznie dławiącym innowacje. Lenovo odpowiada na to nową serią macierzy dyskowych ThinkSystem DS. Są to systemy typu all-flash, zaprojektowane z myślą o środowiskach SAN, które mają za zadanie wyeliminować opóźnienia w dostępie do danych, oferując jednocześnie prostotę wdrożenia, której często brakuje w rozwiązaniach klasy korporacyjnej.

    Równie istotnym elementem nowej oferty jest odpowiedź na rynkowe zawirowania wokół platform wirtualizacyjnych. Stuart McRae, dyrektor wykonawczy w Lenovo, wprost wskazuje na „niejasną strategię wirtualizacji” w wielu organizacjach jako barierę modernizacyjną. Odpowiedzią ma być nowa odsłona infrastruktury hiperkonwergentnej (HCI) z rodziny ThinkAgile FX. Kluczowym wyróżnikiem tych systemów jest otwarta architektura, pozwalająca na płynną migrację między rozwiązaniami VMware a Nutanix bez konieczności wymiany warstwy sprzętowej. Dla kanału partnerskiego jest to silny argument sprzedażowy, oferujący klientom końcowym realne zabezpieczenie przed vendor lock-in i elastyczność w doborze dostawcy oprogramowania.

    Portfolio uzupełniają rozwiązania celowane w ekosystem Microsoftu oraz Nvidii. Seria ThinkAgile MX, zintegrowana z Microsoft Azure Local i wyposażona w układy GPU NVIDIA RTX Pro 6000, wyraźnie pozycjonuje Lenovo jako dostawcę infrastruktury pod brzegowe przetwarzanie AI (Edge AI). Z kolei dla klientów preferujących środowisko Nutanix, przygotowano serię ThinkAgile HX z pakietem Nutanix Enterprise AI, co ma skrócić czas wdrażania modeli uczenia maszynowego z tygodni do minut.

    Uzupełnieniem ofensywy sprzętowej jest rozbudowa warstwa usługowa. Lenovo, świadome statystyk Gartnera mówiących o tym, że 63% firm nie posiada odpowiednich procedur zarządzania danymi dla AI, kładzie nacisk na usługi doradcze i wdrożeniowe. Całość spięta jest modelem TruScale, co wpisuje się w rynkowy trend odchodzenia od jednorazowych nakładów CAPEX na rzecz elastycznego modelu konsumpcyjnego. Grudniowa premiera to dla Lenovo próba ucieczki do przodu – firma nie chce być tylko dostawcą „pudełek”, ale architektem transformacji, w której hardware przestaje być hamulcem dla biznesowych aspiracji.

  • Rośnie luka w data center. Stare systemy nie radzą sobie z AI, mocą i regulacjami

    Rośnie luka w data center. Stare systemy nie radzą sobie z AI, mocą i regulacjami

    Tradycyjne data center nie są w stanie sprostać wymaganiom nowej ery. Jak wynika z badania Lenovo „Data Center of the Future”, niemal połowa (46%) menedżerów IT w regionie EMEA przyznaje, że ich obecna infrastruktura nie wspiera celów związanych z zasilaniem i redukcją emisji CO2. Ta luka staje się krytyczna w obliczu rosnącego apetytu na zasoby ze strony sztucznej inteligencji i automatyzacji, zderzając się z twardymi realiami europejskich regulacji energetycznych.

    Presja na branżę IT rośnie z trzech stron jednocześnie. Po pierwsze, obciążenia związane z AI gwałtownie zwiększają zapotrzebowanie na moc. Po drugie, europejskie wymogi regulacyjne, dążące do neutralności klimatycznej do 2030 r., wymuszają bezprecedensową efektywność. Po trzecie, kwestie prawne definiują na nowo architekturę. Aż 99% decydentów IT wskazuje, że suwerenność danych – czyli pełna kontrola nad ich lokalizacją i przetwarzaniem – zdefiniuje projekt przyszłych centrów. Jednocześnie 94% respondentów uznaje niskie opóźnienia za kluczowy wymóg biznesowy, napędzany przez aplikacje czasu rzeczywistego i edge computing.

    Dotychczasowy model, oparty głównie na chłodzeniu powietrzem, przestaje być wystarczający. W odpowiedzi Lenovo, we współpracy z firmą inżynieryjną AKT II i architektami z Mamou-Mani, proponuje radykalną zmianę paradygmatu, stawiając na chłodzenie cieczą. Ta technologia, znacznie wydajniejsza energetycznie, jest fundamentem dla koncepcyjnych projektów na nadchodzące dekady.

    Wizje te obejmują zarówno centra danych zawieszone w stratosferze i zasilane energią słoneczną („Pływająca Chmura”), jak i modułowe obiekty miejskie („The People of Data”). Te ostatnie, lokowane w pobliżu cieków wodnych, mogłyby oddawać ciepło odpadowe do lokalnych sieci, ogrzewając szkoły lub domy. Innym pomysłem jest adaptacja nieużywanych przestrzeni, takich jak bunkry czy tunele, co minimalizuje wpływ na otoczenie i naturalnie zwiększa bezpieczeństwo.

    Koncepcje te łączy jeden mianownik: odejście od adaptowania starych rozwiązań. Lenovo podkreśla, że aby sprostać podwójnemu wyzwaniu rosnącego popytu na moc i rygorystycznych wymogów prawnych, firmy muszą zmienić mentalność. Zrównoważony rozwój musi być integralną częścią projektu od samego początku, a nie kosztownym dodatkiem.

  • Hype na AI PC przygasa? Prawdziwa rewolucja dopiero się zaczyna

    Hype na AI PC przygasa? Prawdziwa rewolucja dopiero się zaczyna

    Czyżby wielka rewolucja w świecie komputerów osobistych, napędzana przez sztuczną inteligencję, straciła impet, zanim na dobre się rozpoczęła? Ostatnie dane analityków z Gartnera, sugerujące korektę prognoz wzrostu, mogą studzić entuzjazm i prowokować pytania o realność zapowiadanego przełomu. Jednak nic bardziej mylnego. To, co obserwujemy, to nie hamulec awaryjny, ale naturalna korekta kursu w obliczu globalnych wyzwań ekonomicznych. W rzeczywistości technologiczna fala zbiera siłę tuż za horyzontem, a obecny spokój to tylko cisza przed nieuniknioną burzą.

    Zrozumieć zadyszkę – czyli dlaczego liczby na chwilę wyhamowały

    Nie da się ukryć, że pierwotne prognozy były niezwykle optymistyczne. Gartner skorygował swoje przewidywania dotyczące udziału komputerów PC z AI na ten rok z 43% do mniej niż jednej trzeciej rynku. Podobnie, zamiast 114 milionów sztuk, na rynek trafi ich bliżej 78 milionów. Skąd ta zmiana? Przyczyny nie leżą w samej technologii, lecz w otoczeniu makroekonomicznym. Globalna niepewność, wahania na rynkach i złożona sytuacja w polityce handlowej sprawiają, że przedsiębiorstwa na całym świecie ostrożniej podchodzą do dużych inwestycji i cykli wymiany sprzętu.

    To naturalne zjawisko – w czasach, gdy trudniej przewidzieć przyszłość, budżety stają się mniej elastyczne. Ważne jest jednak, aby zrozumieć, że to opóźnienie w decyzjach zakupowych, a nie odrzucenie samej idei AI PC. Problem nie leży w potencjale nowych maszyn, lecz w zewnętrznych czynnikach, które na chwilę wcisnęły pauzę.

    Pociąg już odjechał – Giganci postawili wszystko na jedną kartę

    Podczas gdy analitycy korygują krótkoterminowe prognozy, w laboratoriach i na liniach produkcyjnych rewolucja trwa w najlepsze. Prawda jest taka, że cały technologiczny ekosystem jest już w pełni zaangażowany w transformację. To nie jest już eksperyment – to strategiczna przebudowa rynku, od której nie ma odwrotu.

    Fundamenty sprzętowe są już dawno na miejscu. Intel ze swoimi procesorami Core Ultra zintegrował jednostki NPU (Neural Processing Unit) bezpośrednio z krzemem, czyniąc przetwarzanie AI na urządzeniu standardem. Z drugiej strony Nvidia, gigant w dziedzinie grafiki i obliczeń AI, zawarła strategiczne sojusze z absolutnie wszystkimi kluczowymi graczami na rynku – Acer, ASUS, Dell, HPLenovo – aby dostarczyć na rynek potężne maszyny gotowe na erę sztucznej inteligencji.

    Co więcej, spójrzmy na skalę wzrostu. Mimo że liczba 78 milionów dostarczonych jednostek w tym roku jest niższa od pierwotnych założeń, to wciąż oznacza niemal czterokrotny wzrost w stosunku do nieco ponad 20 milionów sztuk, które trafiły na rynek w 2023 roku. To tempo rozwoju, o którym większość branż może tylko pomarzyć. To nie jest hamowanie, to jest rozpędzanie się potężnej maszyny.

    Nadchodzi tsunami oprogramowania – prawdziwy powód, dla którego AI PC wygra

    Ostatecznie o sukcesie każdej platformy sprzętowej decyduje oprogramowanie, które potrafi wykorzystać jej moc. I to właśnie tutaj kryje się najmocniejszy argument za nieuchronnością rewolucji AI PC. Sam sprzęt to tylko obietnica – realną wartość przyniosą aplikacje.

    Według Gartnera, do końca przyszłego roku aż 40% dostawców oprogramowania będzie inwestować w funkcje AI działające lokalnie na komputerze. To sejsmiczna zmiana, biorąc pod uwagę, że jeszcze w zeszłym roku odsetek ten wynosił zaledwie 2%.

    Co to oznacza dla nas, użytkowników? To koniec ery, w której zaawansowane funkcje AI były dostępne tylko przez chmurę. Oznacza to:

    • Większą prywatność i bezpieczeństwo: Dane będą przetwarzane lokalnie na naszym urządzeniu, bez konieczności wysyłania ich na zewnętrzne serwery.
    • Błyskawiczną responsywność: Koniec z opóźnieniami związanymi z połączeniem internetowym. Edycja wideo, generowanie grafiki czy praca z inteligentnym asystentem będą natychmiastowe.
    • Nowe, potężne możliwości: Wyobraźmy sobie tłumaczenie rozmowy wideo w czasie rzeczywistym, działające offline. Albo pakiet biurowy, który inteligentnie podsumowuje dokumenty i przygotowuje odpowiedzi na maile bez dostępu do sieci. To właśnie te „killer-appy” ostatecznie przekonają rynek.

    Czas na przygotowania, nie na wahanie

    Chwilowe zawirowania na wykresach sprzedaży nie są w stanie zatrzymać rewolucji, której fundamenty są już zbudowane z krzemu, stali i kodu. Silnik zmiany pracuje pełną parą, a długoterminowe prognozy nie pozostawiają złudzeń: AI PC zdobędą ponad połowę rynku już w przyszłym roku, a do 2029 staną się absolutną normą.

    Dlatego obecny moment rynkowego spokoju warto potraktować nie jako powód do niepokoju, ale jako strategiczną szansę. To idealny czas dla firm i entuzjastów technologii, by na spokojnie zaplanować strategię, zaktualizować wiedzę i przygotować się na moment, gdy burza innowacji uderzy z pełną mocą. Bo to, że uderzy, jest już pewne.

  • Lenovo łączy niższe koszty IT z celami ESG w nowym modelu DaaS

    Lenovo łączy niższe koszty IT z celami ESG w nowym modelu DaaS

    Lenovo wprowadza na rynek nową, zorientowaną na zrównoważony rozwój wersję swojej usługi TruScale Device as a Service (DaaS). Model subskrypcyjny ma pozwolić firmom na jednoczesne obniżenie kosztów zarządzania flotą urządzeń i realizację celów środowiskowych.

    Rozwiązanie łączy dostawę sprzętu, finansowanie i usługi w ramach cyklicznego abonamentu.

    Nowa oferta, nazwana TruScale DaaS for Sustainability, wpisuje się w rynkowy trend, w którym inwestycje w zrównoważony rozwój są coraz częściej motywowane względami finansowymi.

    Zgodnie z danymi branżowymi, 62% organizacji wdraża zielone inicjatywy właśnie z powodu potencjalnych oszczędności.

    Lenovo deklaruje, że w niektórych przypadkach jego model DaaS może obniżyć koszty IT związane z urządzeniami nawet o 35%, eliminując jednocześnie potrzebę ponoszenia dużych inwestycji początkowych (CapEx).

    Modułowe podejście do cyklu życia sprzętu

    Usługa została zaprojektowana w sposób modułowy, aby wspierać firmy na każdym etapie cyklu życia urządzeń – od wdrożenia po utylizację. Kluczowe elementy oferty to:

    • Carbon Impact Portal: Narzędzie online do monitorowania śladu węglowego floty urządzeń w czasie rzeczywistym, co ma ułatwić raportowanie ESG.
    • Certyfikowane urządzenia odnowione: Opcja pozwalająca na modernizację sprzętu przy niższych kosztach i mniejszym wpływie na środowisko.
    • Usługi kompensacji emisji CO₂: Zintegrowany mechanizm offsetowy, który równoważy emisje dwutlenku węgla związane z cyklem życia zakupionych urządzeń.
    • Odzyskiwanie zasobów (Asset Recovery): Bezpieczne zarządzanie wycofywanym sprzętem, jego utylizacja i odzyskiwanie wartości rezydualnej.

    Podejście to jest zgodne z analizami rynkowymi, takimi jak te firmy McKinsey, które wskazują, że do 60% emisji generowanych przez urządzenia końcowe można zredukować poprzez wydłużenie ich cyklu życia i optymalizację liczby urządzeń na pracownika.

    Wyniki w praktyce

    Jednym z pierwszych wdrożeń pochwalił się Coventry University Group, który dzięki przejściu na model TruScale DaaS skompensował 223 tony CO₂. Uczelnia odnotowała również oszczędność 40 godzin pracyzespołu IT tygodniowo, co pozwoliło przenieść zasoby na zadania związane bezpośrednio ze wsparciem studentów.

    Nowa usługa Lenovo ma na celu przekształcenie zrównoważonego rozwoju z centrum kosztów w źródło wymiernych korzyści operacyjnych i finansowych, odpowiadając na rosnącą presję wywieraną na dyrektorów IT w zakresie realizacji celów biznesowych i środowiskowych.

  • Laptopy biznesowe w H1 2025: Liderzy, strategie i prognozy w czasach AI

    Laptopy biznesowe w H1 2025: Liderzy, strategie i prognozy w czasach AI

    Rok 2025 nie jest kolejnym rokiem ewolucji na rynku laptopów biznesowych; to rok rewolucyjnego wstrząsu. Zbieg trzech potężnych sił – masowego wdrożenia sztucznej inteligencji na poziomie urządzenia (on-device AI), nieuchronnego końca wsparcia technicznego dla systemu Windows 10 oraz trwałego ugruntowania się hybrydowych modeli pracy – tworzy idealną burzę, która na nowo definiuje, czym jest i co potrafi komputer dla profesjonalisty. To fundamentalna zmiana paradygmatu, przesuwająca środek ciężkości z surowej mocy obliczeniowej na inteligentne, zintegrowane i bezpieczne ekosystemy.

    Transformacja ta opiera się na trzech filarach. Pierwszym jest rewolucja AI, która przenosi ciężar obliczeń z chmury bezpośrednio na urządzenie. Dzięki dedykowanym jednostkom przetwarzania neuronowego (NPU), laptopy zyskują bezprecedensową zdolność do personalizacji, automatyzacji zadań i zapewniania produktywności w czasie rzeczywistym, a wszystko to przy zachowaniu najwyższych standardów prywatności danych. Drugim filarem jest potężny, nieunikniony katalizator rynkowy: termin 14 października 2025 roku, oznaczający koniec wsparcia dla systemu Windows 10. Zmusza on przedsiębiorstwa na całym świecie do masowej modernizacji flot komputerowych, idealnie zbiegając się w czasie z premierą nowej generacji sprzętu. Trzecim filarem jest nowy paradygmat pracy. Model hybrydowy stał się normą, wymuszając na producentach tworzenie urządzeń, które są nie tylko wydajne, ale także ultrabezpieczne, wysoce mobilne i zoptymalizowane pod kątem nieustannej współpracy wideo.

    W tym nowym krajobrazie przewaga konkurencyjna nie jest już definiowana wyłącznie przez pryzmat mocy procesora, mierzonej w gigahercach, czy liczby rdzeni. Zwycięzcami w 2025 roku zostaną ci producenci, którzy zaoferują najbardziej spójny, inteligentny i bezpieczny ekosystem, łączący sprzęt, oprogramowanie i usługi w sposób, który realnie odpowiada na wyzwania zdecentralizowanego, napędzanego przez AI środowiska pracy. Niniejsza analiza zagłębia się w dane rynkowe, strategie technologiczne i pozycjonowanie kluczowych graczy, aby zidentyfikować trendy, które zdefiniują przyszłość laptopów biznesowych.

    Krajobraz rynku w 2025 roku – odbicie w cieniu niepewności

    Pierwsza połowa 2025 roku przyniosła rynkowi PC długo oczekiwane ożywienie. Po okresie stagnacji, globalne dostawy komputerów osobistych odnotowały solidne wzrosty, rosnąc o 9% rok do roku w pierwszym kwartale i o 7% w drugim kwartale. Dane te, na pierwszy rzut oka, sygnalizują powrót zdrowego popytu i początek nowego cyklu zakupowego.

    Analiza czołowych producentów ukazuje zróżnicowaną dynamikę. Lenovo utrzymało pozycję niekwestionowanego lidera, notując imponujące wzrosty dostaw na poziomie 11% w Q1 i 15.2% w Q2 2025, co świadczy o skuteczności strategii produktowej i operacyjnej. HP Inc. stabilnie zajmuje drugie miejsce, utrzymując solidny udział w rynku. Prawdziwą gwiazdą pierwszej połowy roku okazało się jednak Apple, które zademonstrowało spektakularną dynamikę wzrostu, z dostawami rosnącymi o 22% w Q1 i 21.3% w Q2. Takie wyniki wskazują na rosnącą akceptację platformy Mac w środowiskach komercyjnych i profesjonalnych, które tradycyjnie były bastionem systemów Windows. Z kolei Dell, trzeci największy gracz, zanotował w drugim kwartale spadek dostaw o 3.0%, co może sygnalizować pewne wyzwania w dostosowaniu portfolio do bieżącego cyklu produktowego lub silniejszą konkurencję ze strony rywali.

    Chociaż liczby wskazują na ożywienie, głębsza analiza ujawnia bardziej złożony obraz. Pozornie silne dane o wzroście w pierwszej połowie 2025 roku nie odzwierciedlają w pełni organicznego popytu ze strony użytkowników końcowych. W dużej mierze są one efektem strategicznego gromadzenia zapasów przez producentów i kanały dystrybucyjne, co stanowi odpowiedź na rosnącą niepewność geopolityczną i groźbę wprowadzenia nowych ceł handlowych, zwłaszcza w Stanach Zjednoczonych.[4, 5] Producenci celowo przyspieszali zamówienia, aby wyprzedzić potencjalne podwyżki ceł na elektronikę, co oznacza, że wysokie liczby dostaw mogą znacząco wyprzedzać faktyczny popyt końcowy. Tworzy to ryzyko powstania nadmiernych zapasów w kanale dystrybucyjnym, co może prowadzić do presji cenowej i potencjalnej korekty rynkowej w drugiej połowie roku.

    Polski rynek IT odzwierciedla globalne trendy ożywienia, ale z własną, unikalną specyfiką. W pierwszym kwartale 2025 roku sprzedaż komputerów w polskiej dystrybucji wzrosła o imponujące 18.1% rok do roku, jednak siłą napędową tego wzrostu był przede wszystkim segment konsumencki. Sektor biznesowy wykazywał większą powściągliwość, co ujawnia istnienie „luki dowodu wartości”. Na polskim rynku obserwujemy wyraźną rozbieżność między globalnym szumem marketingowym wokół komputerów AI PC a faktycznymi decyzjami zakupowymi firm. Podczas gdy globalne prognozy przewidują, że laptopy AI będą stanowić blisko 60% rynku już w 2025 roku, dane z polskiego rynku za pierwszy kwartał pokazują, że sprzedaż najnowszych chipów zoptymalizowanych pod kątem AI była „niższa niż oczekiwano”. Klienci biznesowi chętniej wybierali sprawdzone i często tańsze procesory starszych generacji.

    Rewolucja AI PC – narodziny nowej kategorii urządzeń

    Rok 2025 to moment, w którym pojęcie „AI PC” przechodzi z fazy marketingowego hasła do realnej, zdefiniowanej kategorii produktów. De facto rynkowym benchmarkiem, który zdefiniował, czym jest nowoczesny komputer AI, stał się standard Microsoft Copilot+ PC. To nowa klasa urządzeń z systemem Windows, zaprojektowana od podstaw z myślą o lokalnym przetwarzaniu zadań związanych ze sztuczną inteligencją. Aby laptop mógł nosić to oznaczenie, musi spełniać rygorystyczne wymagania techniczne: wydajność jednostki przetwarzania neuronowego (NPU) na poziomie co najmniej 40 bilionów operacji na sekundę (TOPS), minimum 16 GB pamięci RAM oraz szybki dysk SSD o pojemności co najmniej 256 GB.

    Rola NPU jest fundamentalna. W przeciwieństwie do tradycyjnych architektur, gdzie zadania AI obciążały główny procesor (CPU) lub kartę graficzną (GPU), NPU jest zaprojektowane specjalnie do efektywnego wykonywania tych obliczeń przy znacznie niższym zużyciu energii. Przekłada się to na dłuższy czas pracy na baterii i cichszą pracę urządzenia – kluczowe atrybuty w mobilnym środowisku biznesowym.

    Praktyczne zastosowania w biznesie stają się coraz bardziej namacalne. Wideokonferencje stają się inteligentniejsze dzięki funkcjom takim jak tłumienie hałasu w czasie rzeczywistym czy automatyczne kadrowanie mówcy. Aplikacje biurowe, takie jak Microsoft Teams czy Outlook, oferują automatyczne transkrypcje i podsumowania spotkań oraz wątków e-mailowych, uwalniając czas pracowników. W programie Excel możliwe staje się generowanie skomplikowanych raportów na podstawie prostych poleceń w języku naturalnym.

    Nagły wzrost znaczenia AI PC jest napędzany przez dwa potężne, zbiegające się w czasie zjawiska. Po pierwsze, koniec wsparcia dla Windows 10 14 października 2025 roku działa jako potężny komercyjny katalizator, zmuszając firmy do modernizacji flot sprzętowych. W tym momencie komputery Copilot+ PC są pozycjonowane jako logiczny, standardowy wybór przy każdej wymianie sprzętu. Po drugie, obserwujemy fundamentalną zmianę architektoniczną: re-decentralizację obliczeń. Przeniesienie przetwarzania AI z chmury na urządzenie końcowe jest odpowiedzią na rosnące obawy biznesu dotyczące prywatności, szybkości, niezawodności i kontroli kosztów związanych z modelem chmurowym.

    Wojna o krzem – kto napędza inteligencję na pokładzie?

    U podstaw rewolucji AI PC leży nowa generacja procesorów, a rywalizacja między ich twórcami stała się kluczowym polem bitwy. W erze AI PC kluczowym wskaźnikiem wydajności stała się moc NPU, wyrażana w TOPS (Trillions of Operations Per Second).

    Każdy z czterech głównych graczy na rynku krzemu przyjął odmienną strategię. Intel, z nową generacją procesorów Core Ultra (’Lunar Lake’) dostarczających 47 TOPS, skupia się na obronie swojej dominującej pozycji w segmencie komercyjnym, wykorzystując dojrzały ekosystem x86. AMD, z serią Ryzen AI 300 (’Strix Point’) oferującą 50 TOPS, pozycjonuje się jako agresywny pretendent, celując w koronę lidera wydajności, także w zintegrowanej grafice. Qualcomm, ze swoim Snapdragonem X Elite (45 TOPS), dokonuje przełomu, przenosząc wysoce efektywną energetycznie architekturę ARM do świata Windows i obiecując rewolucyjny czas pracy na baterii. Wreszcie Apple, z układem M4 (38 TOPS), kontynuuje strategię pełnej pionowej integracji, koncentrując się na optymalizacji synergii między sprzętem a oprogramowaniem, a nie na samym wyścigu na najwyższą nominalną wartość TOPS.

    Za fasadą liczb kryją się głębsze wymiary rywalizacji. Prawdziwa bitwa toczy się o stworzenie najbardziej wydajnej platformy deweloperskiej, ponieważ to oprogramowanie, a nie sprzęt, ostatecznie dostarczy wartość użytkownikowi. Wejście Qualcomma na rynek Windows z architekturą ARM tworzy też fundamentalny dylemat dla decydentów IT: czy postawić na gwarantowaną kompatybilność platformy x86, czy zaryzykować potencjalne problemy z emulacją starszych aplikacji na rzecz znacznie dłuższego czasu pracy na baterii platformy ARM.

    Bitwa o ekosystem, nie tylko o sprzęt

    W obliczu tak fundamentalnych zmian, najwięksi producenci laptopów walczą o stworzenie spójnego ekosystemu.

    Lenovo prowadzi dwutorową strategię. „AI Engine+” w serii Legion jest skierowany do graczy i optymalizuje wydajność w czasie rzeczywistym. Z kolei „AI Now” w serii ThinkPad to osobisty asystent dla profesjonalistów, działający lokalnie na urządzeniu i kładący nacisk na prywatność. Ta strategia jest wspierana przez solidne wyniki finansowe działu Intelligent Devices Group (IDG), który odnotował silny, dwucyfrowy wzrost przychodów.

    HP koncentruje się na zintegrowanej platformie „HP AI Companion”, która ma tworzyć „inteligentne przepływy pracy” i personalizować doświadczenie użytkownika, z silnym naciskiem na bezpieczeństwo i przetwarzanie na urządzeniu. Firma przyjęła elastyczne podejście, oferując w swoich laptopach AI PC procesory od Intela, AMD i Qualcomma, a kluczowym elementem oferty jest pakiet zabezpieczeń HP Wolf Security. Sukces tej strategii potwierdza 9% wzrost przychodów w segmencie komercyjnym w drugim kwartale roku fiskalnego 2025.

    Dell podchodzi do rewolucji AI w sposób bardziej ewolucyjny, stopniowo integrując inteligentne funkcje w swoich sprawdzonych liniach biznesowych, takich jak Latitude i Precision. Firma koncentruje się na praktycznych korzyściach: optymalizacji wydajności, wzmocnieniu bezpieczeństwa i ulepszeniu interakcji z użytkownikiem. Ta konserwatywna strategia, odzwierciedlona w płaskich przychodach w segmencie komercyjnym w Q2 2025, wydaje się mieć na celu przede wszystkim utrzymanie zaufania obecnych, dużych klientów korporacyjnych.

    Apple opiera swoją strategię na głębokiej integracji ekosystemu i bezkompromisowej prywatności. Pakiet „Apple Intelligence” jest wpleciony w rdzeń systemów operacyjnych, a większość operacji odbywa się lokalnie na urządzeniu. Firma koncentruje się na płynności i realnej użyteczności funkcji AI, które czerpią siłę ze świadomości osobistego kontekstu użytkownika. Imponujące, dwucyfrowe wzrosty dostaw komputerów Mac w pierwszej połowie 2025 roku są dowodem na to, że ta strategia rezonuje z rynkiem.

    Rok 2025 stanowi punkt zwrotny, który wymaga od decydentów IT ponownego przemyślenia strategii zakupowych. AI staje się standardem, rynek platform ulega fragmentacji (x86 vs. ARM), a bezpieczeństwo staje się integralną częścią sprzętu.

    Wybór odpowiedniego laptopa biznesowego wymaga nowego, holistycznego podejścia. Tradycyjny model zakupu, oparty głównie na specyfikacji technicznej, jest już niewystarczający. Decydenci IT muszą myśleć jak stratedzy, opierając proces decyzyjny na trójwymiarowej macierzy, która uwzględnia specyficzne potrzeby organizacji: oś wydajności (w tym NPU i efektywność energetyczna), oś ekosystemu (kompromis między kompatybilnością x86 a wydajnością baterii ARM) oraz oś bezpieczeństwa (głębokość integracji rozwiązań sprzętowych).

    Tradycyjna metryka całkowitego kosztu posiadania (TCO) również musi zostać zredefiniowana. Nowe TCO musi uwzględniać zwrot z inwestycji (ROI) wynikający ze wzrostu produktywności pracowników dzięki funkcjom AI oraz wartość unikania ryzyka, jaką daje przetwarzanie danych na urządzeniu.

    Patrząc w przyszłość, można spodziewać się dalszego pogłębienia obecnych trendów. Sztuczna inteligencja stanie się jeszcze bardziej spersonalizowana, a w procesie decyzyjnym coraz większą rolę będzie odgrywał zrównoważony rozwój.

  • Lenovo tnie zatrudnienie w USA, stawia na AI i transformację

    Lenovo tnie zatrudnienie w USA, stawia na AI i transformację

    Lenovo ogłosiło redukcję ok. 3% swojego zatrudnienia w USA, co oznacza zwolnienie ponad 100 pracowników. Choć liczby nie wydają się duże, to sygnał wpisujący się w szerszy trend cięć w globalnej branży IT — zaledwie kilka tygodni wcześniej pracę straciło ok. 9000 osób w Microsoft.

    Chiński producent komputerów tłumaczy decyzję „strategiczną reorganizacją” i dostosowaniem struktury kosztowej do zmieniających się realiów rynkowych. Zwolnienia obejmą część zespołów w Ameryce Północnej, głównie w Karolinie Północnej, gdzie mieści się siedziba Lenovo na ten region.

    Redukcje wpisują się w znany już schemat działania firmy. Lenovo przeprowadzało podobne cięcia w 2015, 2017, 2019 i 2022 roku — zwykle w okresach restrukturyzacji lub spowolnienia wzrostu.

    Tym razem jednak tło wygląda inaczej. Firma podkreśla, że jest w fazie inwestowania w nowe obszary, przede wszystkim sztuczną inteligencję. W czerwcu Lenovo zaprezentowało nowe rozwiązania infrastrukturalne oparte na AI, a prezes Yuanqing Yang ogłosił, że „nadchodząca dekada będzie dekadą AI” dla koncernu. Zgodnie z tą wizją, spółka ma produkować więcej komputerów osobistych wyposażonych w funkcje AI i rozwijać segment infrastruktury inteligentnej.

    Lenovo raportowało 21% wzrost przychodów rok do roku w ostatnim kwartale, co sugeruje, że cięcia nie wynikają z kryzysu, a raczej z potrzeby redefinicji priorytetów. Firma szuka równowagi między optymalizacją kosztów a przygotowaniem gruntu pod rozwój w nowym, bardziej zautomatyzowanym świecie.

  • Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Efektywność energetyczna serwerowni: praktyki liderów – Atman, AMD, Lenovo

    Gdy ceny energii rosną, a AI rozpycha się w szafach serwerowych, efektywność energetyczna przestaje być technicznym detalem. Staje się językiem rozmów z klientami, miernikiem przewagi konkurencyjnej i fundamentem nowoczesnych centrów danych. W czasie śniadania technologicznego, które odbyło się 8 maja 2025 na kampusie Atman DC WAW-1, eksperci AMD, LenovoAtmana pokazali, że oszczędność prądu w data center zaczyna się dużo wcześniej niż przy liczniku – od projektowania procesorów, przez dobór komponentów, aż po architekturę całego obiektu. Spotkanie było nie tylko okazją do zobaczenia z bliska jednego z największych centrum danych w Polsce, ale przede wszystkim praktyczną lekcją z efektywności energetycznej.

    Energia pod kontrolą: dlaczego temat jest palący

    Gdy koszty energii elektrycznej zaczynają decydować o rentowności centrum danych, efektywność energetyczna przestaje być dodatkiem – staje się fundamentem strategii. Podczas śniadania technologicznego w warszawskim kampusie Atmana, przedstawiciele trzech firm: Atman, Lenovo i AMD, zgodnie podkreślali, że dziś każdy wat prądu musi być uzasadniony.

    „Efektywność energetyczna staje się przewagą konkurencyjną – już nie tylko na poziomie PUE, ale przede wszystkim z perspektywy biznesowej klientów, którzy analizują TCO całości infrastruktury. Dla nich to dziś twardy koszt, nie miękka deklaracja ESG” mówił Adam Dzielnicki, Product Manager Data Center, Atman.

    Presja rośnie z kilku stron. Po pierwsze – finansowa. Wzrost cen energii elektrycznej w Polsce i Europie sprawia, że firmy coraz częściej zaczynają kwestionować zasadność utrzymywania przestarzałego sprzętu, nawet jeśli ten technicznie nadal działa. Po drugie – regulacyjna. Komisja Europejska już zapowiedziała wprowadzenie obowiązkowego raportowania efektywności energetycznej dużych centrów danych, a państwa członkowskie szykują się do wdrożenia lokalnych przepisów.

    „Klienci pytają dziś nie tylko o moc, ale też o to, ile serwerów trzeba będzie zasilić i jaką infrastrukturę chłodzącą do tego dobrać. To zupełnie nowe podejście do planowania IT – bardziej przypomina projekt energetyczny niż zakup sprzętu” zauważył Łukasz Borkowski, Technical Channel Country Sales BI & Infrastructure.

    Do tego dochodzi trzeci czynnik – presja klientów końcowych. Coraz więcej organizacji mierzy własny ślad węglowy i oczekuje, że ich dostawcy usług IT zrobią to samo. „Nie chodzi już tylko o KPI w Excelu. Zdarza się, że klienci żądają deklaracji emisyjności infrastruktury, na której działa ich aplikacja”dodał Dzielnicki.

    W takim otoczeniu rozmowa o efektywności schodzi na poziom mikro – od technologii chłodzenia przez dobór dysków SSD po architekturę procesora. Każdy komponent jest potencjalnym źródłem zysków… lub strat. Jak zaznaczali eksperci, nawet różnica 10 watów na jednym module SSD – pomnożona przez setki maszyn – może w skali centrum danych przełożyć się na tysiące złotych rocznie.

    AMD: więcej rdzeni, mniej prądu

    Jeszcze dekadę temu AMD uchodziło za outsidera rynku serwerów – dziś ma 35% udziału globalnego w Data Center (wg Mercury Research), dostarcza procesory największym hiperskalerom i przekonuje, że wydajność i efektywność energetyczna nie muszą się wykluczać. „Dziś wycena firmy AMD jest zdecydowanie wyższa niż naszego największego konkurent w obszarze x86. W pierwszym kwartale bieżącego roku segment Data Centre w AMD urósł aż o 57% w ujęciu rok do roku.” – powiedział podczas spotkania Adam Tomczak, Territory Development Executive CEE w AMD.

    Architektura AMD EPYC, zaprojektowana od podstaw z myślą o serwerach, w każdej generacji zwiększała liczbę rdzeni, co, między innymi, przekłada się na gęstość upakowania mocy oraz zwiększa sprawność energetyczną. Efekt? „Od 2017 roku mamy sześciokrotny wzrost liczby rdzeni, niemal jedenastokrotny wzrost wydajności i czterokrotny wzrost wydajności na wat. To nie jest tylko marketing – to twarde dane z benchmarków” – dodał Tomczak.

    Innym wyróżnikiem AMD jest także oferta na platformach jednoprocesorowych, która pozwala budować tańsze i bardziej energooszczędne konfiguracje bez kompromisów wydajnościowych. „Stosując platformy jednoprocesorowe zamiast dwu, klienci mogą istotnie zmniejszyć TCO – zużywają mniej energii, chłodzą mniej szaf i mają mniej punktów awarii, bez kompromisu wydajności” – tłumaczył Tomczak.

    Krzysztof Łuka, ekspert techniczny AMD, poszedł jeszcze dalej: „W porównaniu do procesorów Intela mamy dziś nawet dwukrotnie lepszą metrykę SPECpower, czyli wydajność obliczeniową przy konkretnym zużyciu energii. A przy tym potrafimy na jednej maszynie osiągnąć do 384 rdzeni.”

    Co to oznacza dla firm? Mniej serwerów, mniej licencji, mniej energii – a więc także mniej emisji CO₂. AMD nie oferuje najtańszych chipów, ale w ujęciu całkowitych kosztów infrastruktury często okazuje się bezkonkurencyjne.

    Lenovo: mniej sprzętu, więcej wydajności

    W czasach, gdy jeden serwer potrafi pobierać nawet 10 kilowatów mocy, pytanie o wydajność nieodłącznie łączy się z pytaniem o zużycie energii. Dla Lenovo kluczem okazuje się optymalizacja całego ekosystemu sprzętowego – od projektowania płyty głównej po selekcję dysków NVMe. „To, co wyróżnia Lenovo, to fakt, że korzystamy teoretycznie z tych samych komponentów co inni – ale nasze własne systemy chłodzenia i autorskie projekty płyt głównych pozwalają wyciągnąć z nich znacznie więcej.”mówił Łukasz Borkowski, Technical Channel Sales w Lenovo.

    Podczas spotkania Borkowski nie szczędził konkretów. Jak wyliczał, dwa dyski NVMe o podobnych parametrach mogą różnić się poborem energii nawet o 10 watów – a przy dziesiątkach serwerów z kilkunastoma dyskami każdy, daje to setki watów możliwych oszczędności. „Na samych dyskach można zaoszczędzić ponad pół kilowata. A to dopiero początek.”

    Lenovo nie tylko koncentruje się na komponentach, ale również na systemach chłodzenia. Firma już od lat rozwija wodne systemy chłodzenia – dziś dostępne nawet w standardowych serwerach rackowych. „W szóstej generacji naszego systemu Liquid-to-Air jesteśmy w stanie zmniejszyć zużycie energii na chłodzenie nawet o 30%, eliminując wentylatory także w zasilaczach.” podkreślał Borkowski.

    Równolegle Lenovo promuje podejście oparte na konsolidacji – mniej serwerów, ale bardziej wydajnych. „Dzięki współczesnym procesorom możemy osiągnąć współczynnik 5 do 1 – czyli zastąpić pięć starszych serwerów jednym nowym. W praktyce, po około 16 miesiącach zaczynamy zarabiać na tej modernizacji.”mówił Borkowski, zachęcając do porzucania nieefektywnego sprzętu.

    Lenovo twierdzi, że benchmarki potwierdzają sześciokrotnie wyższą liczbę rekordów wydajnościowych niż u konkurencji. Przy rosnących kosztach licencji per rdzeń i energii, oznacza to konkretne oszczędności – nie tylko na sprzęcie, ale także na oprogramowaniu.

    Atman: jak wygląda PUE od środka

    Wzrost zapotrzebowania na moc obliczeniową oznacza nie tylko więcej serwerów, ale też więcej energii i ciepła. A to przekłada się bezpośrednio na koszty i parametry infrastruktury. „Efektywność energetyczna jest dziś nie tylko tematem technicznym – to kwestia strategiczna.”mówił podczas wydarzenia Adam Dzielnicki, Product manager w Atmanie.

    Jako operator największego kampusu data center w Polsce – Atman DC WAW-1 – firma znajduje się na styku presji klienta, regulatora i własnej optymalizacji. „Klienci coraz częściej pytają o PUE, a nawet o ślad węglowy. To nie jest już tylko CSR – to wymóg przetargowy.”przyznał Dzielnicki. I dodał:PUE poniżej 1,3 to już nie jest science fiction. Ale wymaga decyzji podejmowanych znacznie wcześniej – od etapu projektowania po dobór sprzętu.”

    Atman inwestuje w monitoring energetyczny na poziomie komponentów i usług, co pozwala klientom precyzyjnie rozliczać się z energii i kontrolować zużycie. W czasie prezentacji podkreślano również znaczenie współpracy z dostawcami infrastruktury – jak Lenovo i AMD – aby minimalizować pobór mocy na poziomie CPU, GPU, chłodzenia i całych szaf rackowych.

    „Nie ma jednej recepty na efektywność. W naszym przypadku kluczowe jest podejście warstwowe: od konstrukcji hali, przez systemy HVAC, po softwarowy nadzór nad obciążeniem. To wszystko wpływa na finalne PUE”tłumaczył Dzielnicki.

    Atman wyraźnie stawia na transparentność i praktykę – uczestnicy spotkania mieli okazję zobaczyć na własne oczy, jak wygląda infrastruktura DC WAW-1 od środka. Widać było, że optymalizacja energetyczna przestała być deklaracją – a stała się integralną częścią architektury usług.

    Energoefektywność jako nowy standard rynku

    W dyskusji o efektywności energetycznej coraz mniej miejsca zostaje na slogany – a coraz więcej na konkretne dane, wskaźniki i decyzje inwestycyjne. Jak pokazało wydarzenie zorganizowane przez Atmana, Lenovo i AMD, technologia i energooszczędność nie tylko się nie wykluczają, ale zaczynają iść w parze.

    „W 2025 roku serwer może pobierać 10 kW, a jego chłodzenie – kolejne kilowaty. Jeśli nie zoptymalizujemy tej infrastruktury, rachunek za energię zaczyna przygniatać biznes.”mówił Łukasz Borkowski z Lenovo, wskazując na coraz większy udział chłodzenia w całkowitym zużyciu energii.

    Z kolei Adam Tomczak z AMD przypomniał, że efektywność nie jest kwestią dopłat czy dodatkowych funkcji. „My nie oferujemy bezpieczeństwa jako płatnego dodatku. Nasz Infinity Guard jest dostępny od pierwszej generacji EPYC – bo tak rozumiemy odpowiedzialną technologię.”

    Dla operatorów takich jak Atman, temat nie jest już tylko kwestią wewnętrznej efektywności, ale mierzalnej przewagi rynkowej. „PUE to nie jest liczba do prezentacji – to metryka, która przesądza o konkurencyjności oferty w oczach klientów korporacyjnych.”tłumaczył Adam Dzielnicki.

    Wydarzenie jasno pokazało, że przyszłość rynku infrastruktury IT w Polsce nie będzie się opierać wyłącznie na mocy obliczeniowej. Równie ważna będzie zdolność do przeliczenia tej mocy na waty, złotówki – i zaufanie klientów. Bo efektywność to dziś nie tylko parametr – to język, w którym rozmawiają liderzy branży.

    Materiał powstał we współpracy z firmą Atman.

  • ThinkStation na nowo. Lenovo stawia na moc, elastyczność i zdalny dostęp

    ThinkStation na nowo. Lenovo stawia na moc, elastyczność i zdalny dostęp

    Na konferencji NXT BLD Lenovo zaprezentowało swoją nową wizję stacji roboczej — nie jako wyizolowanego urządzenia, ale jako kompleksowego środowiska pracy dopasowanego do wymagań hybrydowego biznesu i rosnących wyzwań AI. Nowe modele ThinkStation P2 i P3 oraz zestaw Lenovo Access to propozycje, które celują w inżynierów, analityków danych i zespoły projektowe pracujące zdalnie, oferując im elastyczny dostęp do lokalnej mocy obliczeniowej — z dowolnego miejsca.

    W centrum uwagi znalazło się rozwiązanie Lenovo Access, które można traktować jako odpowiedź producenta na ograniczenia chmury publicznej i klasycznych środowisk VDI. W praktyce to architektura złożona z kompaktowych stacji roboczych typu rack (P3 Ultra SFF), wspieranych przez zdalny protokół graficzny Mechdyne TGX. Każde urządzenie oferuje grafikę NVIDIA RTX 4000 Ada, do 128 GB RAM i nawet 16 TB przestrzeni dyskowej. Co istotne – dostęp odbywa się w modelu 1:1, co przekłada się na pełną kontrolę nad zasobami i niższe opóźnienia niż w klasycznych scenariuszach wirtualizacji.

    Lenovo konsekwentnie rozwija swoją linię rozwiązań referencyjnych, pokazując, że stacja robocza nie musi być fizycznie obecna przy biurku, by spełniać wymagania złożonych procesów inżynieryjnych czy projektowych. Można ją traktować jak usługę – zdalną, szybką, skalowalną. W dobie pracy hybrydowej i coraz bardziej złożonych procesów AI/ML taka zmiana podejścia wydaje się dobrze dopasowana do potrzeb rynku.

    Nowo zaprezentowane modele ThinkStation z serii P2 i P3 dopełniają tę koncepcję. Każdy z nich adresuje inne potrzeby – od mobilności (P3 Tiny o pojemności 1 litra), przez kompaktową elastyczność (P3 Ultra SFF), aż po pełnowymiarowe konfiguracje do zadań intensywnie obliczeniowych (P3 Tower i P2 Tower). Sprzęt oparty jest na najnowszych procesorach Intel Core Ultra oraz układach graficznych NVIDIA RTX PRO Blackwell, z certyfikatami od czołowych producentów oprogramowania.

    Lenovo celuje nie tylko w moc, ale także w integrację. ThinkStationy są kompatybilne z narzędziami do zdalnego zarządzania (m.in. Intel vPro AMT, Lenovo BMC), a cały ekosystem wspiera platforma ThinkShield – zestaw zabezpieczeń sprzętowo-programowych adresujących potrzeby firm dbających o bezpieczeństwo danych.

    Na poziomie strategicznym to wyraźny ruch w stronę „workstation-as-a-service” – modelu, który zakłada wykorzystanie lokalnych zasobów obliczeniowych z elastycznością znaną z chmury. Dla Lenovo to także naturalna kontynuacja wcześniejszych inwestycji w AI, cyfrowe środowiska pracy i rozproszoną infrastrukturę.

    Choć nowe modele mają trafić do sprzedaży globalnie jeszcze w tym miesiącu, informacje o dostępności w Polsce wciąż pozostają nieznane.

  • Rynek HaaS rośnie dynamicznie. Co napędza popyt, a co budzi obawy?

    Rynek HaaS rośnie dynamicznie. Co napędza popyt, a co budzi obawy?

    Rynek HaaS dynamicznie rośnie, napędzany potrzebą elastyczności finansowej, szybkiego dostępu do nowoczesnych technologii i uproszczonego zarządzania infrastrukturą IT. Wraz z jego rozwojem pojawiają się jednak pytania o realne korzyści, ukryte koszty oraz granicę między usługą a klasycznym leasingiem.

    Firmy nieustannie poszukują modeli, które zapewnią im większą elastyczność, niższe koszty i dostęp do nowoczesnych technologii. Jednym z takich rozwiązań, które w ostatnim czasie zyskało na popularności, a jednocześnie wywołuje sporo dyskusji, jest Hardware-as-a-Service (HaaS). Czy to rzeczywista zmiana paradygmatu, czy tylko nowe opakowanie dla znanych już koncepcji?

    Czym właściwie jest HaaS? To więcej niż leasing

    Hardware-as-a-Service to model oparty na subskrypcji, w którym firmy płacą stałą opłatę za korzystanie ze sprzętu – komputerów, serwerów czy urządzeń sieciowych – zamiast inwestować w ich zakup. Kluczowa różnica między HaaS a klasycznym leasingiem tkwi w elemencie usługowym. W ramach oferty dostawcy często zapewniają instalację, bieżące utrzymanie, aktualizacje oraz wsparcie techniczne. Całością cyklu życia sprzętu zarządza dostawca HaaS, najczęściej Managed Service Provider (MSP).

    Zakres tego modelu jest bardzo szeroki – od podstawowego wyposażenia biurowego, przez sprzęt medyczny, aż po drony. Warto jednak podkreślić, że definicja HaaS nie jest jednoznaczna. Niektóre oferty przypominają raczej klasyczny leasing (tzw. „HaaS-lite”), podczas gdy bardziej zaawansowane modele – takie jak Device-as-a-Service (DaaS) czy PC-as-a-Service (PCaaS) – obejmują kompleksowe zarządzanie całym środowiskiem sprzętowym. To właśnie ta różnorodność sprawia, że HaaS budzi tyle pytań o swoją realną wartość.

    HaaS w liczbach

    Rynek Hardware-as-a-Service rozwija się w imponującym tempie, choć dane z różnych źródeł bywają rozbieżne – często z powodu odmiennych definicji i metodologii badawczych.

    Business Research Insights szacuje wartość rynku HaaS na 153,7 mld USD w 2024 roku, prognozując wzrost do 214,4 mld USD do 2033 roku. Wskaźnik CAGR w tym przypadku to około 39,5%, choć inne dane tej samej firmy sugerują raczej 15%. Z kolei Introspective Market Research ocenia rynek na 90,02 mld USD w 2023 roku, z prognozą wzrostu do 890,49 mld USD do 2032 roku (CAGR 29,00%). Global Growth Insights podaje wartość 82,58 mld USD w 2024 roku i prognozuje 261,20 mld USD do 2033 roku (CAGR 13,65%). Według Verified Market Research, rynek wart jest 52 mld USD w 2024 roku i osiągnie 122 mld USD do 2032 roku, co przekłada się na CAGR rzędu 14,5%.

    Pomimo różnic w liczbach, wszystkie raporty są zgodne co do jednego: rynek HaaS rośnie dynamicznie.

    Najczęściej oferowane w tym modelu są komputery, serwery, urządzenia sieciowe i systemy przechowywania danych. Kluczowe branże to IT i telekomunikacja, sektor bankowo-finansowy (BFSI), opieka zdrowotna oraz edukacja. Choć obecnie dominuje Ameryka Północna, najszybszy wzrost notuje region Azji i Pacyfiku – sygnalizując coraz szerszy dostęp do technologii, szczególnie wśród małych i średnich przedsiębiorstw.

    Obietnice HaaS

    Model Hardware-as-a-Service przyciąga przedsiębiorstwa szeregiem konkretnych korzyści. Jedną z najważniejszych jest możliwość przekształcenia wydatków inwestycyjnych (CAPEX) w operacyjne (OPEX), co zwiększa elastyczność finansową. Zamiast ponosić wysokie koszty zakupu sprzętu, firmy płacą stałą opłatę subskrypcyjną, co znacząco poprawia ich płynność. Nie dziwi więc, że aż 66% organizacji preferuje modele finansowania oparte właśnie na OPEX.

    Kolejną zaletą jest skalowalność oraz dostęp do najnowszych technologii. Przedsiębiorstwa mogą elastycznie zwiększać lub zmniejszać liczbę urządzeń w zależności od aktualnych potrzeb, a dostawcy HaaS dbają o regularne odświeżanie sprzętu. Dzięki temu firmy minimalizują ryzyko pracy na przestarzałych rozwiązaniach.

    HaaS upraszcza także zarządzanie infrastrukturą IT. Obowiązki związane z instalacją, konserwacją, naprawami czy aktualizacjami przejmuje dostawca, co znacząco odciąża wewnętrzne zespoły techniczne.

    Nie bez znaczenia jest również wpływ tego modelu na bezpieczeństwo i zgodność z regulacjami. Regularnie aktualizowany, zarządzany sprzęt pozwala lepiej chronić dane i wspiera spełnianie wymogów prawnych.

    Na koniec warto wspomnieć o aspekcie zrównoważonego rozwoju. Dostawcy HaaS coraz częściej biorą odpowiedzialność za recykling lub ponowne wykorzystanie sprzętu, wspierając tym samym idee gospodarki cyrkularnej.

    Druga strona medalu: ryzyka i wyzwania

    Choć model HaaS oferuje wiele korzyści, wiąże się również z istotnymi ryzykami, które firmy powinny uwzględnić przed podjęciem decyzji o jego wdrożeniu.

    Jednym z kluczowych wyzwań jest całkowity koszt posiadania (TCO). Choć miesięczne opłaty subskrypcyjne mogą wydawać się korzystne, w dłuższej perspektywie korzystanie z HaaS może okazać się droższe niż tradycyjny zakup sprzętu, zwłaszcza jeśli urządzenia są wykorzystywane przez wiele lat. Dlatego niezbędna jest szczegółowa analiza TCO, uwzględniająca wszystkie opłaty i warunki finansowe.

    Kolejnym problemem mogą być pułapki kontraktowe. Długoterminowe umowy mogą prowadzić do silnego uzależnienia od dostawcy, czyli tzw. vendor lock-in. Koszty wcześniejszego zerwania kontraktu bywają wysokie, a w zapisach umowy mogą się kryć niekorzystne klauzule, które ujawniają się dopiero w praktyce.

    Istotne są również kwestie związane z bezpieczeństwem danych i prywatnością. Przekazanie infrastruktury oraz danych zewnętrznemu dostawcy zawsze rodzi pytania o poziom zabezpieczeń i zgodność z regulacjami, takimi jak RODO. Kluczowe jest zatem zrozumienie, jakie środki ochrony stosuje dostawca i w jaki sposób dba o zgodność z przepisami.

    Model HaaS może też oznaczać pewne ograniczenia w zakresie personalizacji i kontroli. Standardowe konfiguracje oferowane przez dostawców nie zawsze odpowiadają indywidualnym potrzebom firm, co może utrudniać dostosowanie sprzętu do specyfiki działania organizacji.

    Ostatecznie skuteczność wdrożenia HaaS zależy od dojrzałości samego dostawcy oraz jakości zawartej umowy. Wybór nieodpowiedniego partnera lub zbyt powierzchowna analiza kontraktu mogą prowadzić do kosztownych problemów i rozczarowań.

    HaaS w praktyce: więcej niż leasing?

    Wiodący producenci, tacy jak Dell (APEX PCaaS), HP (DaaS) czy Lenovo (TruScale DaaS), oferują dziś zaawansowane rozwiązania, które łączą sprzęt z pełnym zarządzaniem cyklem życia, wsparciem technicznym i komponentem analitycznym. Takie dojrzałe modele DaaS i PCaaS wykraczają daleko poza klasyczny leasing – ich istotą jest zintegrowane podejście, w którym usługa jest równie ważna jak sam sprzęt.

    Model HaaS znajduje zastosowanie w wielu branżach. W sektorze IT i telekomunikacji pomaga w optymalizacji infrastruktury, w ochronie zdrowia umożliwia dostęp do nowoczesnego sprzętu medycznego, a w edukacji wspiera cyfrowe narzędzia nauczania. W przemyśle wykorzystywany jest w inteligentnych fabrykach, natomiast w handlu detalicznym sprawdza się jako baza dla systemów POS.

    Doświadczenia firm korzystających z HaaS są jednak zróżnicowane. Wiele z nich wskazuje na wymierne korzyści – oszczędności, lepsze zarządzanie zasobami IT czy uproszczenie operacji. Zdarzają się jednak także negatywne opinie. Część klientów sygnalizuje poczucie „uwięzienia” w sztywnych kontraktach, niejasne warunki umów, rozczarowanie ograniczonym zakresem usług – szczególnie tam, gdzie HaaS okazuje się być jedynie klasycznym leasingiem w nowym opakowaniu – oraz problemy z wydajnością dostarczanego sprzętu.

    Wpływ nowych technologii

    Model Hardware-as-a-Service nieustannie ewoluuje pod wpływem dynamicznego rozwoju takich technologii jak Internet Rzeczy (IoT), Edge Computing czy sztuczna inteligencja (AI).

    Rozwiązania IoT generują rosnące zapotrzebowanie na różnorodne urządzenia, a HaaS pozwala firmom elastycznie wdrażać ten sprzęt bez konieczności dużych inwestycji początkowych. W przypadku Edge Computingu kluczowa staje się niezawodna infrastruktura brzegowa, którą HaaS może dostarczać w sposób skalowalny i szybki. Z kolei rozwój AI nie tylko zwiększa popyt na wysokowydajny sprzęt, ale też może zrewolucjonizować sam model HaaS – na przykład poprzez zastosowanie predykcyjnego utrzymania sprzętu czy personalizację ofert w oparciu o analizę danych.

    Dzięki temu HaaS staje się jednym z filarów cyfrowej transformacji. Ułatwia firmom pracę w modelach zdalnym i hybrydowym, umożliwia sprawną integrację z chmurą i zapewnia dostęp do nowoczesnych rozwiązań przy zachowaniu elastyczności finansowej.

    Globalny trend czy marketingowa etykieta?

    Za tym, że HaaS jest realnym trendem rynkowym, przemawia kilka istotnych argumentów: mocne dane o wzroście rynku, widoczne zaangażowanie globalnych producentów, ewolucja samego modelu oraz rosnąca popularność subskrypcyjnego podejścia do pozyskiwania technologii. Model ten odpowiada na rzeczywiste potrzeby biznesu – szczególnie w zakresie elastyczności, szybkości wdrożeń i odciążenia działów IT.

    Z drugiej strony nie brakuje wątpliwości. Wśród zastrzeżeń pojawiają się obawy o wyższy całkowity koszt posiadania (TCO) w dłuższym okresie, ryzyko pułapek kontraktowych i vendor lock-in, kwestie bezpieczeństwa danych czy ograniczenia w zakresie personalizacji. Często też okazuje się, że pod hasłem HaaS kryje się niewiele więcej niż klasyczny leasing w nowym opakowaniu.

    Rzeczywiście wartościowy HaaS – zazwyczaj funkcjonujący jako Device-as-a-Service (DaaS) lub PC-as-a-Service (PCaaS) – obejmuje znacznie więcej niż samo udostępnienie sprzętu. To m.in. zarządzanie pełnym cyklem życia urządzeń, proaktywne wsparcie techniczne, analityka użytkowania i automatyzacja procesów. To właśnie te elementy sprawiają, że HaaS staje się rozwiązaniem transformacyjnym, a nie tylko finansową alternatywą.

    Model HaaS może być świetnym wyborem dla firm, które chcą uniknąć wysokich kosztów początkowych, potrzebują skalowalności i szybkiego dostępu do nowoczesnych technologii, a także dążą do odciążenia wewnętrznych zasobów IT. Z kolei w przypadku stabilnych potrzeb sprzętowych, długiego cyklu życia urządzeń lub konieczności pełnej kontroli, bardziej opłacalny może okazać się zakup lub tradycyjny leasing.

    Podsumowując, Hardware-as-a-Service to realny trend, który – szczególnie w swoich dojrzałych formach – może skutecznie wspierać cyfrową transformację firm. Jednak sukces jego wdrożenia zależy przede wszystkim od świadomej analizy potrzeb, jakości oferty oraz doboru odpowiedniego partnera. Im bardziej kompleksowy zakres usług, tym większa szansa, że HaaS rzeczywiście stanie się narzędziem rozwoju, a nie źródłem problemów.

  • Lenovo z rekordowymi wynikami. Zysk netto w górę o 36% r/r

    Lenovo z rekordowymi wynikami. Zysk netto w górę o 36% r/r

    Wyniki Lenovo za rok obrotowy 2024/25 jasno pokazują, że spółka skutecznie przebudowuje swoją tożsamość — z producenta komputerów w globalnego gracza technologicznego o szerokim portfolio i ambicjach lidera ery sztucznej inteligencji. Przychody wzrosły o 21% do 69,1 mld USD, a zysk netto (non-HKFRS) aż o 36%, osiągając 1,4 mld USD. To najlepszy wynik od czasów pandemicznego boomu.

    Najbardziej rzuca się w oczy fakt, że prawie połowa przychodów (47%) pochodzi z działalności innej niż PC — co pokazuje, że transformacja Lenovo nabiera realnego tempa. Wszystkie trzy filary biznesu — urządzenia, infrastruktura i usługi — odnotowały dwucyfrowy wzrost, a segment infrastrukturalny (ISG) wyrósł na czarnego konia, notując aż 63% wzrost przychodów i przechodząc do rentowności.

    AI jako koło zamachowe

    Lenovo umiejętnie wpisuje się w trend AI, szczególnie mocno akcentując strategię „Hybrid AI”. Komputery PC ze sztuczną inteligencją, własne serwery AI, rozwój superagentów oraz ekosystem oparty na personalnej i korporacyjnej AI to nie tylko efektowne hasła, ale faktyczne produkty i linie przychodów. Lenovo twierdzi, że jest już liderem w globalnym rynku komputerów AI z systemem Windows, a także rozwija własne, autorskie rozwiązania, jak ThinkBook Rollable czy składane smartfony Moto z funkcją moto AI.

    Firma nie ogranicza się do warstwy sprzętowej — SSG (Solutions and Services Group) rozwija się jako silnik transformacji, odpowiadając za 8,5 mld USD przychodów i rekordową marżę 21,1%. Prawie 60% tych przychodów to oferta w modelu as-a-service, co pokazuje stopniowe przechodzenie w stronę modelu subskrypcyjnego, z wyższą przewidywalnością przychodów i skalowalnością.

    Odporność operacyjna i globalna elastyczność

    Jednym z cichych bohaterów wyników Lenovo pozostaje infrastruktura operacyjna. Model ODM+ oraz ponad 30 zakładów produkcyjnych na 11 rynkach zapewniają firmie elastyczność i odporność na zakłócenia w łańcuchach dostaw — coś, co szczególnie doceniono po kryzysach logistycznych ostatnich lat. To nie tylko przewaga kosztowa, ale też strategiczna.

    Wyzwania: ryzyko geopolityczne i walka o talent AI

    Mimo imponujących wyników, Lenovo wciąż działa w cieniu geopolitycznego napięcia wokół Chin i USA. Choć firma funkcjonuje globalnie, jej postrzeganie jako podmiotu z chińskimi korzeniami może wpływać na dostęp do niektórych rynków, partnerów czy technologii. Jednocześnie rynek AI to pole walki o talenty i kompetencje — Lenovo będzie musiało konkurować nie tylko z Microsoftem i Apple’em, ale też z firmami software’owymi jak NVIDIA, OpenAI czy Anthropic.

    Lenovo udowodniło, że nie jest już tylko producentem laptopów, ale firmą z jasną wizją rozwoju opartego na AI, usługach i odpornej infrastrukturze. Obecna ścieżka wzrostu wygląda solidnie, a decyzje inwestycyjne — jak wzrost wydatków na R&D o 13% do 2,3 mld USD — sugerują, że to dopiero początek ofensywy.

    Pytanie na przyszłość brzmi: czy Lenovo zdoła przełożyć swoją siłę operacyjną i innowacyjną na pozycję dominującego gracza na globalnym rynku usług i platform AI — i to w świecie, gdzie rywalizacja coraz częściej toczy się nie tylko o klientów, ale o zaufanie i kontrolę nad ekosystemami technologicznymi.

  • Lenovo stawia na AI w desktopach. Nowa seria ThinkCentre i ThinkVision to sygnał zmiany na rynku PC

    Lenovo stawia na AI w desktopach. Nowa seria ThinkCentre i ThinkVision to sygnał zmiany na rynku PC

    Lenovo zaprezentowało nową generację komputerów stacjonarnych ThinkCentre M Gen 6 oraz monitorów ThinkVision T Gen 40, wyraźnie wskazując, że era sztucznej inteligencji wkracza w segment desktopów z pełną mocą. Producent postawił na AI jako fundament nowej oferty, co może zwiastować przesunięcie rynku w stronę urządzeń klasy PC zdolnych do lokalnego przetwarzania modeli AI.

    Nowe ThinkCentre to konstrukcje typu tower, kompaktowe i all-in-one (AIO), wyposażone w procesory Intel Core Ultra 9 z obsługą AI oraz dedykowane układy NPU i GPU, osiągające nawet 260 TOPS wydajności w modelach AIO. Lenovo nie tylko rozbudowuje moc obliczeniową, ale integruje AI w warstwie systemowej dzięki narzędziom takim jak AI Now czy AI Turbo Engine – funkcjom do zarządzania zasobami i automatyzacji pracy użytkownika.

    Z kolei monitory ThinkVision T 40. generacji to odpowiedź na potrzeby pracy hybrydowej i rosnącej roli wideokonferencji. Wyposażone w matryce WQHD i UHD, szeroką paletę barw i zmienną częstotliwość odświeżania, oferują funkcje VoIP z obsługą AI oraz zintegrowaną stację dokującą z USB-C. Co istotne, Lenovo podkreśla aspekt zrównoważonego rozwoju – monitory powstają z recyklingowanych tworzyw, a zarządzanie flotą ułatwia nowe oprogramowanie LDFM.

    Lenovo wyczuwa, że rynek korporacyjny zaczyna oczekiwać więcej od komputerów stacjonarnych – nie tylko stabilności i wydajności, ale lokalnego wsparcia dla AI bez potrzeby korzystania z chmury. To szczególnie istotne w sektorach takich jak finanse, zdrowie czy edukacja, gdzie prywatność danych i opóźnienia mają kluczowe znaczenie.

    danych Lenovo i IDC wynika, że 90% firm już testuje lub planuje wdrażanie PC z obsługą AI. Jeśli ta dynamika się utrzyma, nowa generacja ThinkCentre może stać się punktem odniesienia w nowym modelu IT – zdecentralizowanym, hybrydowym i opartym na edge AI.

    Choć ceny urządzeń pozostają na poziomie premium (od ok. 689 EUR w przypadku najmniejszych modeli), dla wielu firm może to być uzasadniona inwestycja w wydajność i przyszłościowe rozwiązania. Szczególnie że integracja AI w warstwie sprzętowej przestaje być ciekawostką – staje się standardem.

  • Rynek PC na plusie: Lenovo i Apple liderami wzrostu w Q1 2025

    Rynek PC na plusie: Lenovo i Apple liderami wzrostu w Q1 2025

    Rynek PC w pierwszym kwartale 2025 roku odnotował wyraźne odbicie: według danych IDC globalne dostawy wzrosły o 4,9% r/r, osiągając 63,2 mln sztuk. To pierwszy znaczący sygnał ożywienia po spowolnieniu, które trwało od drugiej połowy 2022 r., kiedy popyt konsumencki osłabł, a firmy zaczęły wstrzymywać modernizacje sprzętu. Jednak za tym wzrostem kryją się nie tylko czynniki popytowe, ale także działania prewencyjne ze strony producentów i sprzedawców.

    Wzrost dostaw w Q1 to częściowo efekt „przyspieszonych zakupów” – producenci i odbiorcy końcowi przyspieszyli zamówienia, by uprzedzić nowe amerykańskie cła na elektronikę, których pierwsza runda zacznie obowiązywać w kolejnych kwartałach. W praktyce oznacza to, że część sprzedaży z późniejszych miesięcy została sztucznie przesunięta na początek roku. W ten sposób sektor IT przygotowuje się na potencjalne turbulencje związane z wojną handlową USA–Chiny i inflacyjnym wpływem wyższych kosztów importu.

    output 3 2

    Trzy siły kształtujące popyt

    Pomimo zewnętrznych zagrożeń, fundamenty popytu pozostają relatywnie silne. Po pierwsze, zbliża się koniec wsparcia dla systemu Windows 10 – co oznacza konieczność modernizacji firmowych flot PC. Po drugie, rośnie zainteresowanie tzw. komputerami z AI on-device, które wykorzystują lokalne modele sztucznej inteligencji (bez konieczności połączenia z chmurą), co może napędzać cykl wymiany sprzętu, szczególnie w sektorze premium. Po trzecie, nadal trwa odradzanie się segmentu biznesowego – wiele firm planuje inwestycje w sprzęt po okresie pandemicznej stagnacji.

    Ryzyko przesunięcia popytu i presji cenowej

    Choć obecne dane wyglądają optymistycznie, to druga połowa roku może przynieść ochłodzenie. Wprowadzenie nowych ceł importowych w USA, zapowiedzianych 2 kwietnia, wprowadza niepewność zarówno dla producentów, jak i dla klientów. IDC sygnalizuje, że firmy nie podejmują jeszcze drastycznych działań, ale już analizują możliwe scenariusze – od zmiany lokalizacji produkcji po renegocjacje kontraktów. Jednym z najbardziej prawdopodobnych skutków będzie jednak wzrost cen detalicznych, który może ograniczyć popyt – zwłaszcza w segmencie konsumenckim.

    Co to oznacza dla rynku?

    Krótkoterminowo sektor PC może jeszcze zyskać na fali modernizacji i zmian regulacyjnych. Ale strukturalnie rynek wchodzi w nową fazę – bardziej złożoną, nieprzewidywalną i zależną od geopolityki. Dotychczasowe cykle wymiany sprzętu były napędzane głównie przez potrzeby użytkowników i postęp technologiczny. Teraz istotną rolę zaczynają odgrywać czynniki zewnętrzne: inflacja, cła, relokacja łańcuchów dostaw.

    Firmy z branży IT muszą pogodzić się z większą zmiennością – planowanie produkcji i inwestycji w 2025 r. będzie wymagało większej elastyczności niż w latach poprzednich. W dłuższej perspektywie zwycięzcami będą ci, którzy potrafią szybko przystosować swoje modele operacyjne do nowego krajobrazu – zarówno technologicznie, jak i logistycznie.

    Wzrost w Q1 to dobry znak, ale niekoniecznie trwały trend. Kluczowe będzie to, jak rynek zareaguje na realny wpływ ceł i czy rzeczywiście pojawi się nowy cykl zakupowy oparty na potrzebie AI-ready hardware’u. Jeśli tak, to rok 2025 może zakończyć się wzrostem. Jeśli nie – Q1 może okazać się tylko chwilowym skokiem przed korektą.

  • Lenovo i Intel wzmacniają bezpieczeństwo łańcucha dostaw. Narzędzie zwiększy odporność infrastruktury IT

    Lenovo i Intel wzmacniają bezpieczeństwo łańcucha dostaw. Narzędzie zwiększy odporność infrastruktury IT

    Lenovo, we współpracy z Intelem, wprowadza nowe rozwiązanie z zakresu bezpieczeństwa łańcucha dostaw – ThinkShield Build Assure. To narzędzie klasy korporacyjnej, które umożliwia weryfikację integralności komercyjnych urządzeń Lenovo już na etapie ich produkcji, transportu i wdrażania.

    System bazuje na platformie Intel Tiber Transparent Supply Chain i oferuje klientom możliwość śledzenia kluczowych danych sprzętowych – takich jak skład komponentów, rekordy BIOS czy certyfikaty platformy – w czasie rzeczywistym. Dane są przechowywane w bezpiecznej chmurze, co pozwala zespołom IT na szybsze wykrywanie nieautoryzowanych zmian oraz sprawniejszą realizację audytów i kontroli zgodności.

    ThinkShield Build Assure jest rozwinięciem dotychczasowego podejścia Lenovo do bezpieczeństwa – opartego na zasadzie „secure by design” i prewencyjnej kontroli dostawców. Firma od lat plasuje się w rankingach Gartnera jako jeden z najbardziej efektywnych i odpornych graczy w obszarze globalnych łańcuchów dostaw technologii.

    Nowe rozwiązanie ma odpowiadać na rosnące wymagania firm działających w sektorach regulowanych, ale również na zmiany w modelach pracy i wdrażanie rozwiązań AI w urządzeniach końcowych. W praktyce Build Assure ma pomóc organizacjom ograniczyć ryzyko związane z fałszywymi komponentami i atakami ukierunkowanymi na warstwę sprzętową, bez wpływu na ciągłość operacyjną.

    Rozwiązanie będzie dostępne globalnie dla wybranych komputerów komercyjnych Lenovo x86 do końca pierwszej połowy 2025 roku. Inicjatywa wpisuje się w szerszy trend podnoszenia standardów transparentności i bezpieczeństwa w branży IT, w której łańcuch dostaw coraz częściej postrzegany jest jako kluczowy element strategii cyberodporności.

  • Lenovo już buduje, Dell i HP rozważają. Arabia Saudyjska kusi producentów komputerów

    Lenovo już buduje, Dell i HP rozważają. Arabia Saudyjska kusi producentów komputerów

    Arabia Saudyjska wyrasta na nowy punkt ciężkości dla globalnej produkcji komputerów PC. W obliczu niepewności geopolitycznej i niestabilnych taryf handlowych, producenci tacy jak Lenovo, DellHP przyglądają się możliwościom przeniesienia części swojej produkcji właśnie na Bliski Wschód. W tle — „cła Trumpa”, subsydia na poziomie miliardów dolarów i geostrategiczna rozgrywka o dominację technologiczną – podaje Digitimes.

    Cła i subsydia: Arabia Saudyjska w ofensywie

    Jeszcze kilka lat temu mało kto traktowałby Rijad jako poważnego gracza w globalnym łańcuchu dostaw IT. Dziś jednak Arabia Saudyjska nie tylko oferuje hojne zachęty inwestycyjne — jak 2 mld dolarów dotacji dla Lenovo — ale też korzysta z geopolitycznej asymetrii w taryfach handlowych. Nałożone przez administrację Trumpa cła na elektronikę z Azji Wschodniej omijają Saudów łukiem, co może okazać się kluczowe dla firm próbujących zminimalizować ryzyka handlowe przy jednoczesnym utrzymaniu marż.

    Lenovo już działa, Dell i HP się rozglądają

    Lenovo nie czekało na rozwój wydarzeń. Jeszcze przed styczniową inauguracją Trumpa firma ogłosiła budowę zakładu produkcyjnego w okolicach Rijadu. Choć początkowo projekt miał obsługiwać głównie rynki Bliskiego Wschodu i Afryki, dziś jego rola może stać się znacznie większa. Dell i HP również są na radarze – nie ogłosiły jeszcze konkretnych planów, ale z informacji branżowych wynika, że ich przedstawiciele odwiedzili już potencjalne lokalizacje w Arabii Saudyjskiej.

    Saudi Vision 2030 jako kontekst

    Inwestycyjna ofensywa nie jest przypadkowa. Rijad intensyfikuje działania w ramach programu Saudi Vision 2030, który zakłada dywersyfikację gospodarki i budowę własnego ekosystemu technologicznego. Państwowy fundusz inwestycyjny o wartości 620 miliardów dolarów ma być wehikułem tych ambicji, a przyciągnięcie gigantów z branży PC i półprzewodników to kolejny krok po spektakularnych inwestycjach w gaming i centra danych.

    Bliski Wschód jako plan B?

    Z perspektywy producentów komputerów, Arabia Saudyjska zaczyna pełnić funkcję „planu B” dla wysoce skoncentrowanej dotąd produkcji w Chinach, Wietnamie czy Malezji. Wojna handlowa na linii USA–Chiny, podsycana powrotem Trumpa na pierwsze strony gazet, znów przywraca temat suwerenności technologicznej i rozproszenia produkcji. Bliski Wschód, z przewidywalnymi taryfami i obfitymi zachętami inwestycyjnymi, może być kuszącą alternatywą — nawet jeśli niesie ze sobą inne ryzyka, jak stabilność regulacyjna czy reputacyjne kontrowersje.

    Co to oznacza dla rynku?

    Zwiększenie obecności Lenovo, Dell i HP na Bliskim Wschodzie może w dłuższym okresie zredefiniować mapę globalnej produkcji komputerów PC. Choć na razie nie mówimy o całkowitym odejściu od Azji, to sama dywersyfikacja dostawców i lokalizacji może stać się nowym standardem w strategiach łańcucha dostaw. Równie istotny jest sygnał, jaki to wysyła do innych firm technologicznych — Saudyjskie miliardy są realne, a gra toczy się o coś więcej niż tylko lokalne rynki zbytu.

    Arabia Saudyjska może nie być oczywistym wyborem dla firm technologicznych, ale w 2025 roku coraz mniej rzeczy w sektorze IT przebiega według starego schematu. W świecie, gdzie polityka handlowa dyktuje więcej niż logistyka, a surowce cyfrowe są równie cenne co ropa, decyzje takie jak ta Lenovo są czymś więcej niż tylko ruchami operacyjnymi — są częścią nowej układanki globalnej władzy technologicznej.

  • Nie tylko GPU. Lenovo stawia na pamięć masową jako fundament dla AI

    Nie tylko GPU. Lenovo stawia na pamięć masową jako fundament dla AI

    Lenovo właśnie ogłosiło największą w swojej historii aktualizację oferty rozwiązań do przechowywania danych. Ale nie chodzi tu wyłącznie o mocniejsze macierze czy efektywniejsze chłodzenie. To próba strategicznego przesunięcia pozycji firmy na rynku infrastruktury AI – i jednocześnie sygnał, że korporacyjne wdrożenia sztucznej inteligencji wchodzą w fazę operacyjnej dojrzałości.

    Pamięć masowa jako fundament dla AI

    Lenovo nie kryje ambicji: nowe portfolio Lenovo Data Storage ma być odpowiedzią na główną przeszkodę w skalowaniu sztucznej inteligencji – dane. W czasach, gdy organizacje chcą nie tylko eksperymentować z AI, ale oczekują realnego zwrotu z inwestycji, infrastruktura przestaje być tłem. Staje się warunkiem sukcesu.

    Z danych IDC EMEA wynika, że dyrektorzy IT za największe wyzwania w obszarze AI uznają skalowanie oraz jakość danych. Lenovo adresuje ten problem serią gotowych rozwiązań „AI-in-a-box”, które obejmują zarówno warstwę sprzętową (macierze ThinkSystem), jak i programową (np. ochrona przed ransomware oparta na AI). W praktyce oznacza to, że firmy mogą wdrażać systemy inferencyjne AI bez konieczności budowy środowisk od zera.

    Chmura hybrydowa, chłodzenie cieczą i ROI

    Szczególnie ciekawie prezentuje się debiut pierwszego na rynku hiperkonwergentnego systemu chłodzonego cieczą, w ramach linii ThinkAgile V4. Lenovo twierdzi, że nowa generacja rozwiązań oferuje do 25% oszczędności energii przy jednoczesnym wzroście wydajności dla modeli LLM. Tego typu deklaracje są istotne zwłaszcza w Europie, gdzie nacisk na efektywność energetyczną i zrównoważony rozwój w infrastrukturze IT rośnie szybciej niż same inwestycje w AI.

    Do tego dochodzą realne argumenty biznesowe: nowe rozwiązania pozwalają zredukować koszty licencji nawet o 40% czy ograniczyć zużycie energii o ponad 90% w porównaniu z tradycyjnymi systemami. Takie parametry czynią ofertę Lenovo szczególnie atrakcyjną dla organizacji, które mierzą się z rosnącymi kosztami operacyjnymi i presją, by z projektów AI wycisnąć jak najwięcej w jak najkrótszym czasie.

    Odpowiedź na realne potrzeby rynku

    Lenovo nie idzie drogą wielkich deklaracji o rewolucji AI. Zamiast tego pokazuje konkretne use-case’y: ujednolicenie przestrzeni pamięci masowej (plików, bloków i obiektów), łatwiejsze wdrożenie architektur RAG (retrieval-augmented generation), czy ochronę danych w środowiskach rozproszonych. To ważne, bo właśnie w takich zadaniach pojawiają się największe bariery – nie na poziomie mocy GPU, ale integracji danych i odporności infrastruktury.

    Pod względem strategicznym to również sygnał, że Lenovo pozycjonuje się bliżej modernizujących się firm z segmentu midmarket i enterprise niż startupów AI z Doliny Krzemowej. To raczej infrastruktura do operacjonalizacji AI niż do eksperymentowania z frontier models. I dobrze – bo dziś rynek potrzebuje przede wszystkim narzędzi, które pozwolą działom IT realnie dostarczać wartość biznesową z danych, a nie kolejnych proof-of-conceptów.

    Lenovo vs konkurencja

    Na rynku zdominowanym przez Dell Technologies, HPE i NetApp, Lenovo wciąż jest graczem wschodzącym. Ale z każdym kwartałem zbliża się do czołówki. Według IDC, w 2023 r. firma zajęła czwarte miejsce w globalnym rynku pamięci masowych, z 11% udziałem, ale w niektórych segmentach (np. software-defined storage) rośnie znacznie szybciej niż rywale.

    Ten wzrost nie bierze się znikąd – Lenovo konsekwentnie rozbudowuje ofertę pod kątem interoperacyjności, a nie zamkniętych ekosystemów. To podejście, które może się opłacić w czasach, gdy CIO coraz częściej szukają elastycznych, otwartych rozwiązań AI, zamiast wiązać się z jednym dostawcą.

    AI wchodzi w fazę infrastrukturalną

    Nowe portfolio Lenovo można podsumować jednym zdaniem: sztuczna inteligencja w przedsiębiorstwach przestaje być domeną działów innowacji, a staje się wyzwaniem infrastrukturalnym. I właśnie na tym froncie Lenovo chce zdobyć przewagę.

    Firma dobrze odczytuje potrzeby rynku: mniej marketingu AI, więcej realnych przepustowości, oszczędności i gotowości do wdrożeń. Czy to wystarczy, by rzucić wyzwanie hegemonom infrastruktury danych? Jeszcze nie teraz. Ale jeśli infrastruktura AI rzeczywiście stanie się tak krytyczna jak sieci czy ERP – Lenovo jest na dobrej drodze, by odegrać w tej historii kluczową rolę.

  • Lenovo i Ericsson kończą patentowy spór. Branża stawia na kompromisy

    Lenovo i Ericsson kończą patentowy spór. Branża stawia na kompromisy

    W ostatnich dniach świat technologii obiegły informacje o zakończeniu dwóch znaczących sporów patentowych: między Lenovo a Ericssonem oraz między Amazonem a Nokią. Te porozumienia nie tylko kończą długotrwałe batalie prawne, ale także rzucają światło na ewoluujące podejście branży IT do kwestii licencjonowania patentów i standardów technologicznych.​

    Lenovo i Ericsson: Globalne porozumienie patentowe

    Lenovo i Ericsson osiągnęły porozumienie dotyczące globalnej licencji krzyżowej, kończąc tym samym wszelkie toczące się postępowania sądowe między nimi. Spór, który rozpoczął się w 2023 roku, dotyczył warunków licencjonowania patentów związanych z technologiami 4G i 5G. Obie firmy pozywały się nawzajem w różnych jurysdykcjach, w tym w Wielkiej Brytanii, Brazylii, Kolumbii oraz Stanach Zjednoczonych. Kluczowym punktem konfliktu były warunki licencjonowania na zasadach FRAND (uczciwych, rozsądnych i niedyskryminujących). Zgodnie z nowym porozumieniem, strony zgodziły się na wiążący arbitraż w celu ustalenia ostatecznych warunków licencji. Ericsson poinformował, że wpływ finansowy tej ugody będzie widoczny od II kwartału 2025 roku. ​

    Amazon i Nokia: Zakończenie globalnego sporu patentowego

    Nokia i Amazon również doszły do porozumienia, kończąc globalny spór patentowy dotyczący technologii strumieniowania wideo. Nokia zarzucała Amazonowi nieautoryzowane wykorzystanie jej technologii w usługach Prime Video i Twitch. Spór obejmował postępowania sądowe w Stanach Zjednoczonych, Niemczech, Indiach, Wielkiej Brytanii oraz przed Europejskim Jednolitym Sądem Patentowym. Warunki finansowe porozumienia pozostają poufne, ale obie strony wyraziły zadowolenie z osiągniętego kompromisu. ​

    Te dwa porozumienia sygnalizują istotny trend w branży technologicznej: rosnącą skłonność do rozwiązywania sporów patentowych poprzez negocjacje i arbitraż, zamiast długotrwałych i kosztownych batalii sądowych. W kontekście dynamicznego rozwoju technologii 5G i rosnącej liczby urządzeń IoT, efektywne zarządzanie portfelami patentowymi staje się kluczowe dla utrzymania konkurencyjności na rynku.​

    Ponadto, te ugody podkreślają znaczenie standardów FRAND w licencjonowaniu patentów niezbędnych do implementacji globalnych standardów technologicznych. Zapewnienie uczciwych i niedyskryminujących warunków licencjonowania jest nie tylko kwestią prawną, ale także strategiczną, wpływającą na tempo innowacji i współpracę między firmami.​

  • AI w pracy – utopia vs chaos. 5 wniosków z raportu Lenovo

    AI w pracy – utopia vs chaos. 5 wniosków z raportu Lenovo

    Nowe badanie Lenovo, „Reinventing Workplace Productivity„, rzuca światło na złożoną i często sprzeczną dynamikę między obietnicami sztucznej inteligencji (AI) a rzeczywistością jej wdrażania w miejscu pracy. Analiza danych od 600 liderów IT ujawnia pięć kluczowych wniosków, które mają istotne implikacje dla firm dążących do wykorzystania potencjału AI.

    1.  Rozbieżność między nadziejami a rzeczywistością

    Badanie potwierdza rosnące przekonanie o transformacyjnym potencjale AI. Zdecydowana większość (79%) liderów IT wierzy, że AI uwolni pracowników od rutynowych zadań, pozwalając im skupić się na bardziej wartościowej pracy. Jednak mniej niż połowa uważa, że ich obecne rozwiązania cyfrowe skutecznie wspierają produktywność, zaangażowanie i innowacyjność. Ta rozbieżność sygnalizuje krytyczny problem: organizacje dostrzegają potencjał AI, ale brakuje im odpowiedniej infrastruktury i strategii, aby go zrealizować.

    2.  AI jako katalizator nowych form współpracy i kreatywności

    Raport Lenovo podkreśla, że generatywna AI jest postrzegana jako kluczowy czynnik umożliwiający nowe formy współpracy i kreatywności. Narzędzia oparte na AI, takie jak wirtualne współtworzenie treści i tłumaczenia w czasie rzeczywistym, mają potencjał do przełamywania barier geograficznych i językowych, umożliwiając bardziej efektywną i globalną współpracę. Ponadto, automatyzacja powtarzalnych zadań przez AI może uwolnić pracowników do skupienia się na bardziej strategicznych i innowacyjnych działaniach, stymulując kreatywność i innowacje.

    3.  Priorytet dla doświadczenia pracownika (EX)

    Badanie Lenovo potwierdza rosnące znaczenie doświadczenia pracownika (EX) jako kluczowego czynnika sukcesu organizacji. Prawie połowa (49%) ankietowanych liderów IT twierdzi, że tworzenie produktywnego i angażującego EX jest ich priorytetem na nadchodzący rok. To odzwierciedla szerszy trend, w którym firmy zdają sobie sprawę, że zadowoleni i zaangażowani pracownicy są bardziej produktywni i przyczyniają się do sukcesu organizacji. AI jest postrzegana jako narzędzie, które może pomóc w poprawie EX poprzez personalizację, automatyzację i usprawnienie procesów pracy.

    4.  Wyzwania w personalizacji i wdrożeniu AI

    Pomimo entuzjazmu dla AI, badanie Lenovo identyfikuje kluczowe wyzwania, które utrudniają jej powszechne wdrożenie. Dwa główne problemy to:

    • Luki w personalizacji: Firmy mają trudności z dostarczaniem spersonalizowanych cyfrowych miejsc pracy, które spełniają indywidualne potrzeby i preferencje pracowników.
    • Trudności z automatyzacją wsparcia IT: Wiele organizacji boryka się z efektywną integracją systemów AI do automatyzacji wsparcia IT.

    Te wyzwania wskazują na potrzebę bardziej strategicznego i skoncentrowanego na użytkowniku podejścia do wdrażania AI.

    5.  Konieczność transformacji miejsca pracy

    Badanie Lenovo podkreśla, że transformacja miejsca pracy jest niezbędna do skutecznego wykorzystania potencjału AI. Samo zautomatyzowanie istniejących procesów pracy nie wystarczy. Firmy muszą na nowo przemyśleć, w jaki sposób AI może wspierać tworzenie wartości i zwiększać konkurencyjność. Oznacza to kompleksowe podejście, które obejmuje nie tylko technologię, ale także kulturę organizacyjną, procesy pracy i umiejętności pracowników.

    Implikacje dla biznesu

    Badanie Lenovo dostarcza cennych wskazówek dla firm, które chcą wykorzystać potencjał AI. Kluczowe implikacje obejmują:

    • Inwestycje w infrastrukturę cyfrową: Firmy muszą inwestować w nowoczesną infrastrukturę cyfrową, która jest w stanie wspierać wdrażanie i wykorzystanie AI.
    • Strategiczne podejście do AI: Wdrożenie AI wymaga strategicznego podejścia, które obejmuje jasne cele, plan działania i zaangażowanie kierownictwa.
    • Koncentracja na doświadczeniu pracownika: Firmy muszą koncentrować się na tworzeniu spersonalizowanych i angażujących doświadczeń pracownika, wykorzystując AI do poprawy produktywności i satysfakcji.
    • Transformacja kultury organizacyjnej: Wdrożenie AI często wymaga transformacji kultury organizacyjnej, aby wspierać innowacje, współpracę i ciągłe uczenie się.

    Badanie Lenovo „Reinventing Workplace Productivity” stanowi ostrzeżenie i wezwanie do działania. Firmy, które nie podejmą proaktywnych kroków w celu transformacji swoich miejsc pracy i efektywnego wdrożenia AI, ryzykują pozostanie w tyle w wyścigu o przyszłość pracy.

  • Kluczowe ogłoszenia z Nvidia GTC 2025: Przyszłość AI, superchipów i strategicznych inwestycji

    Kluczowe ogłoszenia z Nvidia GTC 2025: Przyszłość AI, superchipów i strategicznych inwestycji

    Nvidia, Intel i AI – co naprawdę dzieje się na rynku chipów?

    Nvidia ponownie znajduje się w centrum uwagi technologicznego świata, odpierając spekulacje dotyczące potencjalnego zaangażowania w konsorcjum przejmujące udziały Intela. Jednocześnie firma intensyfikuje inwestycje w produkcję półprzewodników w USA i umacnia swoją pozycję na rynku AI, prezentując nowe układy Blackwell oraz rozszerzając strategiczne partnerstwa.

    Czytaj więcej – Nvidia rozwiewa plotki o Intelu i stawia na rozwój w USA

    GTC 2025: Lenovo wprowadza nowe rozwiązania AI dla biznesu

    Lenovo, we współpracy z NVIDIĄ, zaprezentowało podczas konferencji GTC 2025 nowe rozwiązania Hybrid AI Advantage, łączące agentową i hybrydową sztuczną inteligencję w celu przyspieszenia wdrożeń i zwiększenia efektywności biznesowej. Dzięki integracji z platformą NVIDIA Blackwell Ultra firma chce uczynić AI bardziej dostępną, skalowalną i opłacalną dla różnych branż.

    Czytaj więcej – Lenovo i NVIDIA łączą siły – hybrydowa AI przyspieszy wdrożenia

    Huang o optyce w GPU: 'To nie jest tego warte’. Nvidia stawia na stabilność

    Nvidia nie spieszy się z rewolucją w połączeniach chipowych. Choć optyka w pakiecie obiecuje wyższą wydajność i mniejsze zużycie energii, Jensen Huang jasno daje do zrozumienia – flagowe GPU firmy wciąż będą polegać na sprawdzonych, niezawodnych połączeniach miedzianych.

    Czytaj więcej – Optyka przyszłością AI, ale nie GPU. Nvidia gra ostrożnie

    Inwestorzy z nadzieją patrzą na konferencję NVIDIA GTC AI 2025, licząc, że nowe ogłoszenia przywrócą dynamikę sektorowi obliczeń kwantowych i sztucznej inteligencji. W oczekiwaniu na kluczowe prezentacje akcje firm technologicznych poszły w górę, co może zwiastować ożywienie na rynku.

    Czytaj więcej – NVIDIA rozbudza nadzieje inwestorów – skok akcji AI i obliczeń kwantowych