Tag: IBM

  • IBM rezygnuje z celów demograficznych. Lekcja z ugody, za którą gigant zapłacił 17 mln dolarów

    IBM rezygnuje z celów demograficznych. Lekcja z ugody, za którą gigant zapłacił 17 mln dolarów

    IBM, gigant technologiczny będący niegdyś symbolem progresywnego zarządzania kadrami, zgodził się zapłacić 17 milionów dolarów w ramach ugody z Departamentem Sprawiedliwości USA. To nie tylko zamknięcie sporu prawnego, ale sygnał dla zarządów, że czasy “modyfikatorów różnorodności” w ich dotychczasowej formie dobiega końca.

    Sprawa IBM jest pierwszym głośnym sukcesem nowo utworzonej jednostki – Inicjatywy na rzecz Oszustw Praw Obywatelskich. Formacja ta, powołana w ramach szerokiej ofensywy administracji Donalda Trumpa, przyjęła nieoczekiwaną taktykę. Zamiast skupiać się wyłącznie na debacie ideologicznej, urzędnicy użyli cywilnego prawa przeciwko oszustwom, by uderzyć w mechanizmy finansowe promujące DEI (Diversity, Equity, Inclusion).

    Głównym punktem zapalnym okazał się system premiowy IBM. Rząd twierdził, że firma stosowała algorytmy uzależniające wysokość bonusów dla kadry zarządzającej od osiągnięcia konkretnych wskaźników demograficznych. Z perspektywy Waszyngtonu takie rozwiązanie jest formą „anty-merytokracji”, która dyskryminuje grupy nieobjęte preferencjami. IBM, choć nie przyznało się do winy i podkreśla, że ugoda nie stanowi uznania odpowiedzialności prawnej, zdecydowało się na modyfikację swoich programów.

    Sprawa ta pokazuje, że polityka kadrowa przestała być wewnętrzną domeną działów HR, a stała się obszarem wysokiego ryzyka regulacyjnego. Firmy, które przez ostatnią dekadę budowały swoją kulturę wokół twardych celów różnorodności, muszą teraz dokonać rewizji tych strategii. Ryzyko nie ogranicza się już tylko do strat wizerunkowych, ale obejmuje realne sankcje finansowe i potencjalne wykluczenie z kontraktów federalnych.

    Obserwujemy obecnie masowy odwrót od radykalnych polityk inkluzywności. Wiele amerykańskich korporacji, obserwując kierunek zmian w Białym Domu, po cichu wycofuje się z publicznych deklaracji dotyczących parytetów.

  • Anthropic uderza w fundamenty IBM – 31 miliardów dolarów wyparowało przez jedno narzędzie AI

    Anthropic uderza w fundamenty IBM – 31 miliardów dolarów wyparowało przez jedno narzędzie AI

    Poniedziałkowy krach akcji IBM, który wyparował 31 miliardów dolarów z kapitalizacji spółki, to coś więcej niż giełda korekta. Spadek o 13,1% – najgłębszy od pęknięcia bańki dot-comów w 2000 roku – to weryfikacja optymizmu wokół „nowego oblicza” Big Blue. Fundamenty IBM, oparte na infrastrukturze COBOL, przestały być bezpieczną przystanią, a stały się celem ataku.

    Monopol pod ostrzałem AI

    Uderzenie przyszło ze strony Anthropic. Startup wspierany przez Google i Amazon zapowiedział narzędzie Claude Code, które ma zautomatyzować modernizację kodu COBOL. To bezpośredni atak w „dojną krowę” IBM. Przez dekady gigant z Armonk czerpał zyski z faktu, że globalne finanse są uwięzione w kodzie z lat 60., którego niemal nikt już nie potrafi serwisować. IBM budował swoją potęgę na tej technologicznej niewoli banków i agencji rządowych.

    Anthropic publicznie wytknął IBM to, o czym w branży mówiło się szeptem: liczba inżynierów znających COBOL drastycznie spada, a sztuczna inteligencja potrafi dziś przełamać ten impas szybciej, niż mainframe’y z17 zdążą się zamortyzować. Dla inwestorów to sygnał, że bariera wejścia, którą IBM chronił przez pół wieku, właśnie runęła.

    Początek końca mainframe?

    Choć IBM chwali się portfelem zamówień na AI (watsonx) przekraczającym 12,5 miliarda dolarów, poniedziałkowa panika pokazuje, że rynek nie do końca wierzy w tę transformację. Krytycy zauważają, że znaczna część wzrostów IBM w 2025 roku opierała się na modernizacji starych systemów, a nie na realnej innowacji.

    Warto skonfrontować ten optymizm z inną perspektywą – biznes często wybiera stabilność zamiast rewolucji, ale obecna sytuacja pokazuje drugą stronę medalu: to przywiązanie do stabilności mainframe’ów stało się dla IBM pułapką. Gdy tylko pojawiła się realna alternatywa w postaci migracji wspieranej przez AI, lojalność klientów, na której bazuje model biznesowy IBM, zaczęła być wyceniana jako ryzyko, a nie atut.

    Ucieczka w długi i obronność

    IBM próbuje ratować sytuację agresywnymi przejęciami, jak zakup Confluent za 11 miliardów dolarów, co budzi obawy o dalsze zadłużanie spółki. Strategia „ucieczki do przodu” w stronę kontraktów obronnych (projekt SHIELD za 151 mld USD) to klasyczny ruch korporacji, która traci grunt w sektorze prywatnym i szuka schronienia w powolnych, rządowych cyklach budżetowych.

    Czas, gdy „nikt nie został zwolniony za kupienie IBM”, bezpowrotnie minął. Jeśli narzędzia Anthropic faktycznie udrożnią migrację z COBOL-a, IBM może zostać z miliardami dolarów w niedziałającym sprzęcie i oprogramowaniu, którego nikt już nie będzie potrzebował.

  • Paradoks roku 2026. Dlaczego prezesi widzą zysk tam, gdzie rynek widzi kryzys?

    Paradoks roku 2026. Dlaczego prezesi widzą zysk tam, gdzie rynek widzi kryzys?

    W biznesie rysuje się fascynujący rozdźwięk poznawczy. Podczas gdy wskaźniki makroekonomiczne i napięcia geopolityczne sugerują ostrożność, w gabinetach prezesów panuje zaskakujący optymizm. Jak wynika z najnowszego raportu IBM Institute for Business Value, aż 84 proc. menedżerów wierzy w sukces własnych organizacji w 2026 roku, mimo że zaledwie co trzeci z nich pozytywnie ocenia perspektywy globalnej gospodarki. Ta dysproporcja sugeruje fundamentalną zmianę w myśleniu strategicznym: niepewność przestała być traktowana jako zagrożenie, a stała się katalizatorem innowacji.

    Kluczem do zrozumienia tej zmiany jest radykalne przyspieszenie procesów decyzyjnych. Liderzy biznesu przestają polegać na długoterminowej stabilizacji, inwestując w zdolność do działania w czasie rzeczywistym. W tym kontekście rosnąca rola autonomicznych agentów AI nie jest już tylko nowinką technologiczną, ale biznesową koniecznością, pozwalającą na błyskawiczne modelowanie scenariuszy i alokację zasobów. Co ciekawe, narracja o oporze pracowników wobec automatyzacji okazuje się mitem. Zatrudnieni coraz częściej widzą w sztucznej inteligencji narzędzie uwalniające od monotonii i pozwalające na bardziej strategiczną pracę, pod warunkiem że firmy zapewnią im odpowiednie wsparcie kompetencyjne.

    Jednak technologiczny wyścig ma swoje granice, które wyznaczają zaufanie i suwerenność. Klienci są skłonni wybaczyć sztucznej inteligencji niedoskonałość wynikającą z fazy rozwoju, ale nie zaakceptują braku transparentności. Ukrywanie udziału algorytmów w obsłudze klienta staje się ryzykowną grą, mogącą skutkować masowym odpływem konsumentów. Równolegle, w obliczu rosnących barier regulacyjnych, firmy muszą zadbać o „lokalne zabezpieczenie” swoich modeli. Suwerenność AI – rozumiana jako pełna kontrola nad danymi i infrastrukturą niezależnie od globalnych zawirowań – staje się nowym wyznacznikiem odporności operacyjnej.

    Horyzont roku 2026 to także moment, w którym przewaga kwantowa może wyjść poza sferę teorii. Tu jednak IBM stawia sprawę jasno: era samodzielnych innowatorów dobiega końca. Technologie kwantowe wymagają skali i zasobów, których pojedyncze organizacje nie są w stanie udźwignąć w izolacji. Przyszłość należy do tych, którzy potrafią budować szerokie ekosystemy partnerskie. Wnioski dla biznesu są jednoznaczne – w nadchodzących latach wygrają te organizacje, które zamiast budować mury obronne przed zmiennością, nauczą się ją wykorzystywać jako napęd do ciągłej transformacji.

  • DORA: IBM oficjalnie pod unijnym nadzorem jako kluczowy dostawca technologii

    DORA: IBM oficjalnie pod unijnym nadzorem jako kluczowy dostawca technologii

    Decyzja europejskich regulatorów o włączeniu IBM do grona kluczowych zewnętrznych dostawców usług ICT nie jest zaskoczeniem, ale stanowi istotny precedens w relacjach na linii Big Tech – sektor finansowy. Europejskie Urzędy Nadzoru, w skład których wchodzą EBA, EIOPA oraz ESMA, oficjalnie potwierdziły strategiczną rolę amerykańskiego koncernu, co w praktyce oznacza objęcie go bezpośrednim nadzorem na poziomie unijnym w ramach rozporządzenia DORA (Digital Operational Resilience Act).

    Dla rynku finansowego jest to sygnał, że cyfrowa odporność operacyjna przestaje być wyłącznie wewnętrznym problemem banków czy ubezpieczycieli, a staje się kwestią systemową, wymagającą ścisłej kontroli dostawców technologii. Jak zauważa Piotr Pietrzak, Technical Sales Leader w IBM na region Polski, krajów bałtyckich i Ukrainy, DORA wymusza właśnie takie systemowe podejście do odporności cyfrowej. Nowe przepisy obejmują szerokie spektrum podmiotów – od firm inwestycyjnych po instytucje płatnicze – traktując technologię jako integralny element stabilności rynku i bezpieczeństwa klientów.

    Status kluczowego dostawcy to dla IBM z jednej strony prestiżowe potwierdzenie pozycji zaufanego partnera, a z drugiej zobowiązanie do jeszcze ściślejszej współpracy z organami nadzoru (ESA). Firma od dłuższego czasu przygotowywała swoje struktury technologiczne i governance, aby sprostać nowym wymogom. W okresie poprzedzającym wdrożenie regulacji, zespoły IBM prowadziły szeroko zakrojone działania dostosowawcze, równolegle rozwijając globalne technologie cyberbezpieczeństwa.

    Z perspektywy CIO instytucji finansowych, objęcie IBM bezpośrednim nadzorem unijnym jest wiadomością uspokajającą. Oznacza to, że korzystanie z infrastruktury i usług tego dostawcy wiąże się z dodatkową gwarancją zgodności regulacyjnej. IBM zapowiada dalsze dostarczanie wytycznych i zasobów, które pomogą klientom w nawigowaniu po skomplikowanych wymogach DORA, nie tracąc przy tym z oczu innowacyjności.

    Cel nowych regulacji jest jednoznaczny: ograniczenie ryzyka systemowego w europejskim ekosystemie finansowym. Włączenie kluczowych graczy technologicznych w ramy bezpośredniego nadzoru to krok, który redefiniuje odpowiedzialność za bezpieczeństwo cyfrowe na Starym Kontynencie. IBM deklaruje pełną gotowość do konstruktywnej współpracy z regulatorami, wykorzystując swoje doświadczenie w zarządzaniu ryzykiem, by proces adaptacji przebiegł płynnie zarówno dla samej firmy, jak i jej partnerów biznesowych.

  • Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    We wtorek organy regulacyjne Unii Europejskiej wykonały bezprecedensowy ruch, wskazując 19 firm – w tym Amazon Web Services, Google Cloud oraz Microsoft – jako krytycznych dostawców usług dla europejskiej bankowości. Decyzja ta fundamentalnie zmienia układ sił na linii Big Tech – nadzór finansowy, przenosząc relacje z poziomu partnerskiego na ściśle regulowany.

    Ruch ten jest bezpośrednią konsekwencją wejścia w życie rozporządzenia DORA (Digital Operational Resilience Act). Nowe przepisy dają europejskim organom nadzoru (EBA, EIOPA, ESMA) uprawnienia do bezpośredniej kontroli firm technologicznych, które do tej pory odpowiadały jedynie przed swoimi klientami biznesowymi. Regulatorzy nie ukrywają, że ich głównym celem jest mitygacja ryzyka systemowego. W dobie powszechnej cyfryzacji awaria u jednego z wiodących dostawców chmury obliczeniowej mogłaby sparaliżować znaczną część europejskiego systemu bankowego, wywołując efekt domina o trudnych do oszacowania skutkach.

    Lista podmiotów objętych nowym reżimem nadzorczym jest zróżnicowana, co pokazuje, jak głęboko technologia przeniknęła do finansów. Oprócz „wielkiej trójki” chmurowej (AWS, Google, Microsoft), na celowniku znalazły się również IBM, dostawcy danych rynkowych tacy jak Bloomberg i London Stock Exchange Group (LSEG), a także operatorzy telekomunikacyjni, w tym Orange, oraz firmy doradcze jak Tata Consultancy Services. Każdy z tych podmiotów będzie teraz musiał udowodnić, że posiada odpowiednie ramy zarządzania ryzykiem, a ich infrastruktura jest odporna na cyberataki i awarie techniczne.

    Reakcja branży na to ogłoszenie była wyważona i dyplomatyczna, co sugeruje, że giganci technologiczni od dawna przygotowywali się na ten scenariusz. Przedstawiciele Microsoftu i Google Cloud natychmiast zadeklarowali pełną gotowość do współpracy, podkreślając swoje zaangażowanie w kwestie cyberbezpieczeństwa. Z kolei LSEG otwarcie przyjął nowe oznaczenie, traktując je jako potwierdzenie swojej kluczowej roli w ekosystemie. Milczenie zachowały póki co Bloomberg i Orange, co może wskazywać na trwające wewnętrzne analizy nowych obowiązków regulacyjnych.

    Decyzja Brukseli wpisuje się w szerszy, globalny trend zacieśniania kontroli nad infrastrukturą krytyczną. Europejski Bank Centralny wprost wymienia zakłócenia technologiczne obok napięć geopolitycznych jako główne zagrożenia dla sektora. Podobne kroki podejmuje Wielka Brytania, choć tamtejszy proces legislacyjny jest opóźniony względem unijnego – Londyn planuje wskazać swoje podmioty krytyczne dopiero w przyszłym roku. Europa po raz kolejny staje się więc poligonem doświadczalnym dla nowych standardów regulacyjnych w świecie technologii.

  • Wyścig o przewagę kwantową: IBM stawia na Nighthawk i przyspieszenie produkcji

    Wyścig o przewagę kwantową: IBM stawia na Nighthawk i przyspieszenie produkcji

    IBM zintensyfikował swoje działania w wyścigu o budowę użytecznego komputera kwantowego, prezentując nowy procesor Quantum Nighthawk. Cel jest jasno określony i strategicznie odróżnia się od konkurencji: firma chce osiągnąć „wymierną przewagę kwantową” (Quantum Advantage) do końca 2026 roku. W odróżnieniu od czysto teoretycznej „supremacji”, przewaga kwantowa oznacza punkt, w którym systemy kwantowe rozwiązują realne problemy naukowe lub biznesowe szybciej i wydajniej niż najpotężniejsze klasyczne superkomputery.

    Nighthawk, wyposażony w 120 kubitów i 218 łączników, jest ewolucją poprzedniej generacji Heron, która postawiła na jakość ponad ilość. IBM podkreśla, że ulepszona architektura pozwala na uruchamianie obwodów o 30% bardziej złożonych przy zachowaniu niezmiennie niskiego wskaźnika błędów. To właśnie ten wskaźnik, a nie sama liczba kubitów, pozostaje największym wyzwaniem inżynieryjnym. Kubity są skrajnie wrażliwe na zakłócenia (dekoherencję), a błędy sumujące się podczas obliczeń sprawiają, że wyniki stają się bezużyteczne. Nighthawk ma być dostępny dla użytkowników do końca 2025 roku.

    Kluczem do realizacji tej ambitnej mapy drogowej – zakładającej m.in. 15 000 bramek dwukubitowych do 2028 roku – jest skalowanie produkcji. IBM przeniósł wytwarzanie procesorów kwantowych do fabryki płytek 300 mm w Albany NanoTech Complex. Ten ruch, zaczerpnięty wprost z dojrzałej branży półprzewodników, według firmy już podwoił szybkość rozwoju i dziesięciokrotnie zwiększył fizyczną złożoność chipów.

    Równolegle firma pracuje nad fundamentami przyszłości. Eksperymentalny procesor Quantum Loon demonstruje komponenty niezbędne do obliczeń kwantowych odpornych na awarie, co jest celem na 2029 rok. Zgłoszono również przełom w korekcji błędów – nowa metoda dekodowania działa dziesięciokrotnie szybciej niż dotychczasowe, rok przed pierwotnym planem.

    Aby uwiarygodnić swoje postępy i ustalić rynkowy standard, IBM wraz z partnerami, takimi jak Algorithmiq, uruchamia otwarty, społecznościowy Quantum Advantage Tracker. Inicjatywa ma na celu transparentne monitorowanie i weryfikowanie nowych demonstracji realnych korzyści płynących z technologii kwantowej.

  • Zwolnienia w IBM. Gigant „równoważy” etaty, bo chmura zwalnia tempa

    Zwolnienia w IBM. Gigant „równoważy” etaty, bo chmura zwalnia tempa

    IBM rozpoczyna kolejny etap strategicznej transformacji, ogłaszając w tym kwartale redukcję zatrudnienia. Firma potwierdziła, że zwolnienia obejmą niski jednocyfrowy procent globalnej siły roboczej, co przy zatrudnieniu na poziomie około 270 000 osób na koniec 2024 roku może oznaczać tysiące zlikwidowanych stanowisk.

    Ruch ten jest bezpośrednio związany ze strategią CEO Arvinda Krishny, który dąży do przekształcenia IBM w firmę skoncentrowaną na oprogramowaniu o wysokiej marży oraz rozwiązaniach chmury hybrydowej i sztucznej inteligencji. Kluczową rolę odgrywa tu przejęty Red Hat.

    Jednak ta rutynowa weryfikacja siły roboczej, jak określa to firma, odbywa się w kłopotliwym momencie. Wall Street z uwagą obserwuje zdolność IBM do monetyzacji popytu na usługi chmurowe powiązane z AI, tymczasem gigant odnotował w zeszłym miesiącu niepokojące spowolnienie wzrostu w kluczowym segmencie oprogramowania chmurowego. Ten sygnał ostrzegawczy wywołał nerwowość wśród inwestorów.

    Pomimo że akcje firmy wzrosły w tym roku o ponad 35%, informacja o cięciach, ujawniona pierwotnie przez Bloomberg News, spowodowała blisko 2% spadek notowań.

    IBM podkreśla, że nie chodzi o cięcie kosztów, lecz o „równoważenie” zasobów. Firma zaznacza, że choć redukcje dotkną niektórych pracowników w USA, ogólny poziom zatrudnienia w tym kraju ma pozostać stabilny w ujęciu rocznym. Sugeruje to aktywne transferowanie funduszy ze zwalnianych działów na rzecz zatrudniania nowych specjalistów w obszarach wzrostowych, takich jak AI i rozwój oprogramowania. Mimo to, redukcje pokazują, pod jak wielką presją znajduje się IBM, by udowodnić, że jego zakład na chmurę i AI przynosi oczekiwane rezultaty.

  • Inwestycje w kwanty zwrócą się szybciej. IBM udowadnia, że technologia jest gotowa na skalowanie

    Inwestycje w kwanty zwrócą się szybciej. IBM udowadnia, że technologia jest gotowa na skalowanie

    Wyścig o budowę funkcjonalnego komputera kwantowego wszedł na nowy etap. IBM ogłosił znaczący przełom w korekcji błędów, który rozwiązuje jeden z fundamentalnych problemów tej technologii. Co kluczowe, rozwiązanie to opiera się na powszechnie dostępnych podzespołach, co może drastycznie przyspieszyć komercjalizację.

    Problem z obliczeniami kwantowymi jest powszechnie znany: kubity, podstawa ich mocy obliczeniowej, są niezwykle podatne na błędy, które szybko nawarstwiają się i uniemożliwiają uzyskanie użytecznych wyników. IBM już w czerwcu sygnalizował, że opracował algorytm zdolny do rozwiązywania tego problemu na bieżąco.

    Najnowsze doniesienia, które mają zostać opublikowane w poniedziałek, potwierdzają, że nie jest to już tylko teoria. IBM udowodnił, że jego algorytm korekcji błędów działa w czasie rzeczywistym. Prawdziwym przełomem jest jednak platforma sprzętowa. Zamiast polegać na egzotycznych, projektowanych na zamówienie procesorach, IBM uruchomił swój algorytm na standardowych, programowalnych układach FPGA (Field-Programmable Gate Array) produkowanych przez AMD.

    Jay Gambetta, dyrektor ds. badań w IBM, podkreślił, że implementacja nie tylko działa, ale jest też 10-krotnie szybsza niż obecne wymagania. Użycie gotowych układów AMD oznacza, że rozwiązanie nie jest „śmiesznie drogie”, co usuwa istotną barierę finansową na drodze do skalowania technologii.

    Ten krok wzmacnia pozycję IBM w rywalizacji z technologicznymi gigantami, takimi jak Google (Alphabet) i Microsoft, którzy również intensywnie inwestują w badania kwantowe. Dla IBM oznacza to również znaczące przyspieszenie własnego harmonogramu. Prace nad algorytmem, kluczowe dla planowanego na 2029 rok komputera kwantowego „Starling”, zostały zakończone rok przed terminem.

    Rynek finansowy zareagował natychmiastowym optymizmem. Piątkowe notowania akcji IBM zamknęły się wzrostem o 7,88%, podczas gdy akcje AMD zyskały 7,63%. To wyraźny sygnał, że inwestorzy postrzegają ten sojusz technologii kwantowej i klasycznej jako realny krok w kierunku praktycznych zastosowań superkomputerów nowej generacji.

  • Machine learning po 60 latach – od gry w warcaby do kluczowego narzędzia w biznesie IT

    Machine learning po 60 latach – od gry w warcaby do kluczowego narzędzia w biznesie IT

    Choć termin machine learning pojawił się ponad 60 lat temu, dopiero dziś staje się fundamentem cyfrowej transformacji. Historia tej technologii pokazuje, że rewolucje nie zawsze wybuchają w momencie narodzin pomysłu. Czasami potrzebują odpowiedniej kombinacji danych, mocy obliczeniowej i oczekiwań biznesu.

    Od IBM do wizji przyszłości

    Rok 1962 był momentem symbolicznym: komputer IBM 7094 pokonał samozwańczego mistrza warcabów Roberta Nealeya. Dla badacza IBM Arthura Samuela był to dowód, że maszyny mogą uczyć się na podstawie doświadczeń – nie tylko wykonywać zaprogramowane polecenia. Wtedy jednak trudno było mówić o przełomie. Sprzęt był drogi i powolny, a dostęp do danych ograniczony. Uczenie maszynowe pozostało domeną akademickich eksperymentów.

    Trzy katalizatory sukcesu

    Dopiero w ostatniej dekadzie ML zaczęło przenikać do codziennego życia i biznesu. Decydujące były trzy czynniki:

    • Eksplozja danych. Internet, smartfony, media społecznościowe i IoT dostarczyły miliardów punktów informacji. Modele wreszcie miały „paliwo” do nauki.
    • Nowa moc obliczeniowa. Rozwój procesorów graficznych i chmury obliczeniowej umożliwił trenowanie modeli na niespotykaną dotąd skalę.
    • Presja biznesu. Firmy szukały automatyzacji i personalizacji usług – dokładnie tego, co ML potrafi najlepiej.

    Bez tych katalizatorów uczenie maszynowe pozostałoby ciekawostką z laboratoriów.

    Gdzie ML już działa

    Dla użytkowników końcowych ML stało się niewidzialną częścią codzienności – od rekomendacji filmów na Netflixie po sugestie zakupowe w e-commerce. W biznesie najważniejsze zastosowania to:

    • Personalizacja usług. Algorytmy analizują zachowania klientów i dopasowują ofertę w czasie rzeczywistym.
    • Prognozowanie i automatyzacja. Banki oceniają ryzyko kredytowe, firmy transportowe przewidują opóźnienia, a linie produkcyjne planują serwis maszyn.
    • Cyberbezpieczeństwo. ML pomaga wykrywać anomalie i reagować na nowe typy zagrożeń szybciej niż klasyczne systemy regułowe.
    • Obsługa klienta. Chatboty i systemy IVR uczą się prowadzić konwersacje, zdejmując część obciążenia z call center.

    Chmura demokratyzuje uczenie maszynowe

    Jeszcze kilka lat temu budowa modeli ML wymagała wyspecjalizowanych zespołów i infrastruktury. Dziś dostęp do gotowych platform chmurowych – Google Cloud AI, AWS ML czy Azure Machine Learning – pozwala wdrażać projekty nawet firmom średniej wielkości.

    Nie chodzi już tylko o moc obliczeniową. Chmura dostarcza narzędzi do przygotowania danych, trenowania modeli i monitorowania ich w produkcji. Integratorzy i resellerzy IT mogą oferować ML jako element szerszych projektów transformacji cyfrowej – bez konieczności budowania algorytmów od podstaw.

    Cienie sukcesu

    Wraz z popularyzacją ML rosną także obawy. Kluczowe ryzyka to:

    • Czarna skrzynka. Modele potrafią być niezwykle skuteczne, ale często trudno wyjaśnić, dlaczego podjęły konkretną decyzję. W biznesie i regulacjach to poważne wyzwanie.
    • Stronniczość danych. Algorytmy uczą się na podstawie historycznych informacji, które same w sobie mogą być pełne uprzedzeń. W efekcie decyzje ML mogą prowadzić do niesprawiedliwych rezultatów.
    • Hype kontra rzeczywistość. Oczekiwania wobec ML bywają przesadne. Nie każdy proces można zautomatyzować, a bez dobrej jakości danych nawet najlepsze modele okazują się bezużyteczne.

    Firmy, które bezkrytycznie inwestują w ML, często napotykają rozczarowania – co staje się źródłem rosnącego sceptycyzmu wśród menedżerów.

    Co dalej?

    Uczenie maszynowe stoi dziś na styku trzech trendów. Po pierwsze, głębokie uczenie (deep learning) pozwala rozwiązywać coraz bardziej złożone problemy – od autonomicznej jazdy po generatywną AI. Po drugie, rośnie presja regulacyjna – w Europie wchodzi w życie AI Act, który nakłada wymogi dotyczące transparentności i audytowalności algorytmów. Po trzecie, pojawia się szansa dla kanału IT: integratorów i firm doradczych, które nie muszą tworzyć własnych algorytmów, lecz wdrażać gotowe platformy, dopasowywać je do potrzeb klientów i uczyć biznes, jak pracować z danymi.

    Od niszy do fundamentu cyfrowej gospodarki

    Uczenie maszynowe przeszło drogę od gry w warcaby do realnych zastosowań, które kształtują cyfrową gospodarkę. Dziś nie chodzi już o to, czy firma wdroży ML, ale jak to zrobi – i czy będzie w stanie zrozumieć konsekwencje decyzji podejmowanych przez algorytmy.

    W tym sensie historia ML jest opowieścią o dojrzewaniu technologii: od koncepcji, która czekała dekady na swój moment, do narzędzia, które redefiniuje sposób działania biznesu. A to dopiero początek – bo kolejne lata pokażą, czy uda się połączyć potencjał uczenia maszynowego z transparentnością i odpowiedzialnością, których oczekują klienci i regulatorzy.

  • Pamięć masowa dla data center – 5 liderów w 2025 roku

    Pamięć masowa dla data center – 5 liderów w 2025 roku

    Współczesne data center przestało być jedynie zapleczem IT; stało się silnikiem napędzającym innowacje. Eksplozja danych, napędzana w dużej mierze przez generatywną sztuczną inteligencję, wymusza fundamentalną reewaluację infrastruktury pamięci masowej.

    W 2025 roku wybór dostawcy to decyzja strategiczna, wykraczająca poza zakup sprzętu. Liderzy rynkowi nie konkurują już tylko na petabajty; dostarczają platformy oferujące model operacyjny chmury, gwarantowaną cyberodporność i architekturę zbudowaną z myślą o wymaganiach AI. 

    Nowe kryteria oceny: megatrendy kształtujące rynek

    Aby zrozumieć, którzy producenci będą dominować w 2025 roku, należy zidentyfikować kluczowe siły rynkowe. Cztery megatrendy definiują nowe kryteria oceny platform pamięci masowej:

    • Wszechobecna sztuczna inteligencja: Obciążenia związane z AI, zwłaszcza trenowanie dużych modeli językowych (LLM), wymagają potężnej infrastruktury opartej na procesorach graficznych (GPU) oraz wysokowydajnej pamięci masowej o niskim opóźnieniu. Zapotrzebowanie koncentruje się na architekturach all-flash NVMe i projektach typu scale-out, które mogą zasilać GPU bez tworzenia wąskich gardeł. Jednocześnie dostawcy integrują mechanizmy AIOps bezpośrednio w swoich platformach, automatyzując zarządzanie i umożliwiając administrację za pomocą języka naturalnego.
    • Mandat zrównoważonego rozwoju: Prognozy wskazują, że do 2026 roku centra danych będą zużywać ponad 1000 TWh energii, co prowadzi do ograniczeń w jej dostawach i wzrostu kosztów operacyjnych. Efektywność energetyczna staje się kluczowym czynnikiem całkowitego kosztu posiadania (TCO). Presja ta napędza innowacje, takie jak adaptacja pamięci flash QLC, modele biznesowe redukujące e-odpady oraz standardowe stosowanie chłodzenia cieczą.
    • Imperatyw cyberodporności: Wzrost liczby ataków ransomware sprawia, że warstwa pamięci masowej staje się ostatnią linią obrony. Nacisk przesuwa się z prostego tworzenia kopii zapasowych na kompleksową odporność, obejmującą wykrywanie zagrożeń w czasie rzeczywistym, niezmienne migawki (immutable snapshots) oraz gwarantowane, szybkie odzyskiwanie danych.
    • Model operacyjny chmury: Rynek coraz głośniej domaga się doświadczenia podobnego do chmury dla infrastruktury lokalnej, co widać we wzroście popularności ofert typu Storage-as-a-Service (STaaS). Zespoły IT chcą zarządzać infrastrukturą za pomocą jednej, scentralizowanej konsoli w chmurze, automatyzować alokację zasobów i konsumować je na żądanie, niezależnie od fizycznej lokalizacji.   

    Analiza 5 czołowych dostawców

    W oparciu o nowe kryteria, pięciu dostawców wyróżnia się jako liderzy gotowi sprostać wyzwaniom 2025 roku.

    Dell Technologies: lider rynku z kompleksowym portfolio

    Dell utrzymuje pozycję lidera pod względem udziału w rynku zewnętrznych pamięci masowych. Jego strategia polega na wykorzystaniu skali i kompleksowego portfolio do obsługi szerokiej gamy tradycyjnych i nowoczesnych obciążeń.

    Kluczowe produkty:

    • PowerStore: Flagowa platforma all-flash klasy średniej, która niedawno zyskała wsparcie dla Nutanix Cloud Platform, oferując klientom alternatywę dla VMware.  
    • PowerFlex: Platforma infrastruktury definiowanej programowo (SDS) zaprojektowana z myślą o wydajności i skalowalności, idealna do konsolidacji różnorodnych obciążeń korporacyjnych.  
    • PowerScale: Rozwiązanie NAS typu scale-out, stworzone do obsługi danych nieustrukturyzowanych, co czyni je kluczowym elementem w przepływach pracy związanych z AI/ML.   

    Wyróżnik na 2025 r.: Szerokość oferty i ugruntowana pozycja rynkowa. Dell jest wyborem dla dużych przedsiębiorstw, które potrzebują jednego dostawcy do obsługi zróżnicowanych obciążeń, od brzegu sieci po chmurę.

    Pure Storage: innowator w prostocie i zrównoważonym Rozwoju

    Strategia Pure Storage opiera się na prostocie operacyjnej, doświadczeniu klienta i modelu subskrypcyjnym, który eliminuje tradycyjny cykl życia pamięci masowej.

    Kluczowe elementy:

    • Model Evergreen®: Subskrypcja zapewniająca bezprzerwowe aktualizacje oprogramowania i sprzętu, co bezpośrednio wpływa na TCO i redukcję e-odpadów.
    • Efektywność energetyczna: Architektura Pure zapewnia do 85% mniejsze zużycie energii w porównaniu z konkurencyjnymi macierzami all-flash.
    • Pure1 AI Copilot: Asystent AI do zarządzania pamięcią masową, pozwalający administratorom używać języka naturalnego do rozwiązywania problemów i planowania.

    Wyróżnik na 2025 r.: Koncentracja na doświadczeniu klienta, realizowana poprzez model Evergreen i proste zarządzanie. Pure jest wyborem dla organizacji, które priorytetowo traktują TCO, prostotę operacyjną i zrównoważony rozwój.

    NetApp: mistrz hybrydowej chmury wielu dostawców

    Strategia NetApp polega na zdominowaniu hybrydowej, wielochmurowej struktury danych (data fabric) dzięki podejściu software-first.

    Kluczowe technologie:

    • Oprogramowanie ONTAP: Serce ekosystemu NetApp, dostarczające zunifikowane usługi danych, które działają spójnie lokalnie oraz natywnie w trzech największych chmurach publicznych (AWS, Azure, Google Cloud).
    • Cyberodporność: NetApp oferuje autonomiczną ochronę przed ransomware z gwarancją odzyskania danych z migawek, wykorzystując AI/ML do wykrywania anomalii w czasie rzeczywistym.
    • BlueXP: Zunifikowana konsola zarządzająca oparta na AIOps, która pozwala na zarządzanie całą infrastrukturą danych z jednego interfejsu.

    Wyróżnik na 2025 r.: Oprogramowanie. Żaden inny dostawca nie zapewnia bardziej płynnego i spójnego doświadczenia w zarządzaniu danymi w krajobrazie hybrydowej chmury wielodostawcowej. NetApp jest wyborem dla organizacji strategicznie zaangażowanych w architekturę hybrydową.

    Hewlett Packard Enterprise (HPE): Architekt chmury on-premises

    Strategia HPE polega na dostarczaniu całej infrastruktury IT jako usługi za pośrednictwem platformy HPE GreenLake, zapewniając doświadczenie operacyjne chmury w środowisku lokalnym.

    Kluczowe technologie:

    • HPE GreenLake: Platforma, która stanowi podstawę strategii HPE, zapewniając zunifikowaną, opartą na chmurze konsolę do zarządzania i konsumpcji zasobów IT w modelu pay-per-use.
    • HPE Alletra Storage MP: Platforma sprzętowa o zdezagregowanej architekturze scale-out, co oznacza, że zasoby obliczeniowe i pojemność mogą być skalowane niezależnie, zapewniając elastyczność i efektywność kosztową.
    • Gwarancja dostępności: HPE gwarantuje 100% dostępność danych dla swoich krytycznych systemów Alletra.

    Wyróżnik na 2025 r.: Wizja HPE to radykalne odejście od tradycyjnej sprzedaży infrastruktury. Jest to wybór dla przedsiębiorstw, które w pełni stawiają na strategię „chmury on-premise” i chcą zarządzać całą swoją infrastrukturą za pośrednictwem jednej platformy as-a-service.

    IBM: bastion korporacyjnej odporności i bezpieczeństwa

    Strategia IBM w dziedzinie pamięci masowej koncentruje się na niezrównanej cyberodporności, wydajności i integracji w złożonych, często silnie regulowanych środowiskach IT.

    Kluczowe technologie:

    • Moduły FlashCore (FCM): W przeciwieństwie do konkurentów używających standardowych dysków SSD, IBM projektuje własne moduły, które obsługują zadania takie jak kompresja, szyfrowanie i wykrywanie zagrożeń w czasie rzeczywistym na poziomie napędu, bez wpływu na wydajność.
    • Wykrywanie ransomware: FlashSystem wykorzystuje modele uczenia maszynowego działające na modułach FCM do wykrywania anomalii wskazujących na ransomware w czasie krótszym niż minuta.
    • Safeguarded Copy: Funkcja tworząca niezmienne, odizolowane migawki, których nie można zmodyfikować ani usunąć podczas ataku.

    Wyróżnik na 2025 r.: W erze eskalujących zagrożeń cybernetycznych, głębokie skupienie IBM na inżynierii bezpieczeństwa jest kluczowe. Jest to wybór dla dużych przedsiębiorstw w branżach regulowanych, gdzie integralność danych i możliwość ich odzyskania są niepodważalne.

    Wybór partnera, a nie tylko produktu

    Decyzja dotycząca pamięci masowej w 2025 roku nie polega na tym, które urządzenie ma najlepsze specyfikacje, ale która platforma najlepiej pasuje do strategicznych celów organizacji w zakresie AI, chmury i odporności.

    Rynek ewoluował od sprzedaży sprzętu do dostarczania kompleksowych, inteligentnych platform. Właściwy wybór to dostawca, który działa jako partner, oferując platformę zmniejszającą złożoność, ograniczającą ryzyko i zapewniającą podstawę dla przyszłych innowacji.

  • Kwantowa gra o tron: kto zbuduje maszynę, która zmieni świat?

    Kwantowa gra o tron: kto zbuduje maszynę, która zmieni świat?

    W historii technologii istnieją momenty, które na nowo definiują granice możliwości. Opanowanie ognia, wynalezienie druku, era cyfrowa – każda z tych epok była zapoczątkowana przez fundamentalne odkrycie.

    Dziś stoimy u progu kolejnej takiej transformacji, która nie jest po prostu ewolucją mocy obliczeniowej, ale narodzinami zupełnie nowego paradygmatu. Mowa o obliczeniach kwantowych.

    Wyścig o zbudowanie funkcjonalnego komputera kwantowego to najważniejszy technologiczny i geopolityczny pojedynek XXI wieku.

    Stawką jest zdolność do rozwiązywania problemów, które dziś pozostają poza zasięgiem najpotężniejszych superkomputerów – od projektowania leków na poziomie molekularnym, przez tworzenie rewolucyjnych materiałów, po złamanie niemal wszystkich współczesnych systemów szyfrowania.

    U podstaw tej rewolucji leży mechanika kwantowa, z jej zasadami superpozycji i splątania, która pozwala kubitowi – kwantowemu odpowiednikowi bitu – istnieć w wielu stanach jednocześnie. To właśnie ta fundamentalna różnica daje komputerom kwantowym ich niewyobrażalny potencjał.

    Rok 2025, ogłoszony przez ONZ Międzynarodowym Rokiem Nauki i Technologii Kwantowej, jest symbolicznym punktem zwrotnym . Nie jesteśmy już w sferze czysto teoretycznych rozważań. Wkroczyliśmy w erę NISQ (Noisy Intermediate-Scale Quantum) – czas, w którym dysponujemy niedoskonałymi, „zaszumionymi” komputerami kwantowymi, które jednak z każdym rokiem stają się potężniejsze.

    To rodzący się przemysł, którego wartość, szacowana na 866 mln USD w 2023 roku, ma według prognoz osiągnąć 4,4 mld USD do 2028 roku.

    Wielkie rody kwantowe: pretendenci do korony

    Na polu bitwy o kwantową przyszłość wyłoniło się trzech potężnych graczy: Google, IBM i Microsoft. Każdy z nich ma inną strategię, by zasiąść na technologicznym tronie.

    Google: alchemicy z Mountain View

    Strategia Google’a skupia się na spektakularnych, przełomowych demonstracjach mocy. Ich najnowszą bronią jest procesor „Willow”, ale prawdziwy przełom nie leży w liczbie kubitów, lecz w mistrzowskim opanowaniu korekcji błędów.

    Inżynierowie Google’a ogłosili, że są w stanie utrzymać stabilność kubitu logicznego – czyli zestawu fizycznych kubitów współpracujących w celu korygowania błędów – nawet przez godzinę.

    To monumentalny skok w porównaniu z mikrosekundami, które były standardem jeszcze niedawno. Ich roszczenie do tronu opiera się na byciu pierwszymi, którzy przesuwają granice nauki, tak jak w 2019 roku, gdy jako pierwsi ogłosili osiągnięcie „supremacji kwantowej”.   

    IBM: budowniczowie królestwa dla wszystkich

    IBM gra w zupełnie inną grę. Zamiast pojedynczych przełomów, stawiają na konsekwentny postęp i demokratyzację dostępu do technologii. Ich mapa drogowa jest publiczna i precyzyjna, a na rok 2025 planują udostępnienie procesora „Nighthawk”.

    Kluczowym elementem ich strategii jest integracja komputerów kwantowych z klasycznymi superkomputerami (HPC), tworząc hybrydową przyszłość. Otwarcie pierwszego w Europie kwantowego centrum danych w Niemczech to strategiczny ruch, przybliżający zasoby kwantowe bezpośrednio do europejskiego przemysłu i środowisk akademickich.

    IBM nie buduje jedynie laboratoryjnego eksperymentu; tworzy gotową do wdrożeń biznesowych platformę dostępną przez chmurę.   

    Microsoft: cierpliwi architekci z Redmond

    Microsoft obrał ścieżkę najwyższego ryzyka, ale i potencjalnie największej nagrody. Przez dekady inwestowali w badania nad mitycznym „kubitem topologicznym”, który z natury byłby odporny na błędy.

    Czekając na dojrzałość tej technologii, zbudowali potężny ekosystem Azure Quantum, zaprojektowany tak, by być niezależnym od konkretnej architektury sprzętowej . Ich najnowszy przełom to demonstracja 12 splątanych kubitów logicznych o wskaźniku błędu 800 razy niższym niż w przypadku pojedynczych kubitów fizycznych, osiągnięta we współpracy z Quantinuum.

    Partnerstwo z Atom Computing ma na celu zbudowanie „najpotężniejszej maszyny kwantowej na świecie”, łącząc ich oprogramowanie do korekcji błędów z obiecującą technologią opartą na neutralnych atomach .   

    Geopolityczna wielka gra: smok kontra orzeł

    Rywalizacja przenosi się na arenę globalną, gdzie staje się centralnym elementem konfrontacji między Stanami Zjednoczonymi a Chinami. To walka o technologiczną hegemonię, w którą zaangażowane są miliardy dolarów z funduszy publicznych i prywatnych.

    Stany Zjednoczone są liderem, jeśli chodzi o dynamikę ekosystemu startupowego – działa tam 77 firm zajmujących się technologiami kwantowymi . Ta innowacyjność jest napędzana przez gigantyczne inwestycje prywatne oraz potęgę badawczą wielkich rodów technologicznych.

    Rząd federalny również odgrywa kluczową rolę, zapewniając znaczące finansowanie dla badań podstawowych.   

    Chiny prowadzą jednak grę długoterminową, w pełni sterowaną przez państwo. Z szokującą prędkością nadrabiają zaległości. Według raportu Australijskiego Instytutu Polityki Strategicznej (ASPI), Chiny już teraz prowadzą w 57 z 64 kluczowych technologii, w tym w tak istotnych obszarach jak czujniki kwantowe.

    Państwo Środka realizuje strategię opartą na gigantycznych inwestycjach w infrastrukturę badawczą i dąży do osiągnięcia dominacji w produkcji dojrzałych chipów.   

    Europa, choć jest istotnym graczem, pozostaje w tyle za dwoma supermocarstwami pod względem skali inwestycji.

    Mimo to, inicjatywy takie jak EuroHPC oraz strategiczne umiejscowienie komputerów kwantowych w Polsce i Niemczech świadczą o skoordynowanym wysiłku na rzecz utrzymania konkurencyjności.   

    Zdobycze zwycięzców: branże na progu jutra

    Dlaczego rządy i korporacje inwestują miliardy w tę technologię? Odpowiedź leży w rewolucyjnych zastosowaniach, które czekają na zwycięzców.

    Służba zdrowia i farmacja: projektowanie lekarstw

    Jednym z najtrudniejszych problemów dla klasycznych komputerów jest precyzyjna symulacja złożonych molekuł. Komputery kwantowe są naturalnie predysponowane do symulowania takich systemów. Ich zastosowanie może skrócić czas potrzebny na odkrycie i opracowanie nowego leku nawet o 50-70%.

    Giganci farmaceutyczni, tacy jak Roche i Pfizer, aktywnie współpracują z firmami technologicznymi, aby przygotować się na nadejście ery kwantowej.

    Współpraca firmy Pfizer z firmą technologiczną XtalPi, wykorzystująca sztuczną inteligencję jako pomost do pełnych obliczeń kwantowych, już teraz skraca czas potrzebny na obliczenie struktury krystalicznej molekuł z miesięcy do zaledwie kilku dni.

    Finanse: kwantowy fundusz hedgingowy

    Rynki finansowe to świat złożonych problemów optymalizacyjnych i modelowania ryzyka. Algorytmy kwantowe są w stanie analizować znacznie większą liczbę zmiennych i scenariuszy jednocześnie, co prowadzi do optymalizacji portfeli i dokładniejszej oceny ryzyka.

    Instytucje finansowe, takie jak JPMorgan i BBVA, już teraz prowadzą projekty pilotażowe we współpracy z IBM i D-Wave . Jednak ta sama moc stanowi również egzystencjalne zagrożenie. Komputer kwantowy o odpowiedniej skali będzie w stanie złamać algorytmy szyfrowania, które stanowią fundament bezpieczeństwa całej gospodarki cyfrowej.

    To tworzy pilną potrzebę wdrożenia tzw. kryptografii postkwantowej.

    Materiałoznawstwo i chemia: inżynieria niemożliwego

    Tworzenie nowych materiałów opiera się dziś w dużej mierze na metodzie prób i błędów. Komputery kwantowe otwierają drogę do „projektowania materiałów na zamówienie”, umożliwiając precyzyjną symulację właściwości kwantowych substancji, zanim jeszcze zostaną one wytworzone w laboratorium . Może to doprowadzić do przełomów, takich jak nadprzewodniki działające w temperaturze pokojowej czy katalizatory, które sprawią, że procesy przemysłowe staną się radykalnie bardziej energooszczędne. Firmy takie jak BASF są głęboko zaangażowane w badania, tworząc partnerstwa ze startupami i instytucjami akademickimi.

    Od supremacji do przewagi: prawdziwa miara zwycięstwa

    Ogłoszenie przez Google „supremacji kwantowej” w 2019 roku było kamieniem milowym, ale nie komercyjnym punktem zwrotnym. Problem, który rozwiązał ich komputer, nie miał praktycznego zastosowania . Dlatego kluczowe jest rozróżnienie terminów:

    • Supremacja Kwantowa (Quantum Supremacy): Dowód, że komputer kwantowy może pokonać klasyczny w jakimkolwiek zadaniu, nawet bezużytecznym. To naukowy benchmark, ale bez bezpośredniego znaczenia komercyjnego .
    • Przewaga Kwantowa (Quantum Advantage): Prawdziwy cel. Oznacza zdolność do rozwiązania użytecznego, realnego problemu biznesowego szybciej, taniej lub dokładniej niż jakikolwiek komputer klasyczny .
    • Użyteczność Kwantowa (Quantum Utility): Pragmatyczny stan, w którym znajdujemy się obecnie. Oznacza wykorzystywanie dzisiejszych, niedoskonałych komputerów NISQ do osiągania namacalnych, choć jeszcze nie rewolucyjnych, rezultatów .

    Sama zmiana języka, odchodzenie od konfrontacyjnego terminu „supremacja” na rzecz bardziej praktycznych pojęć „przewaga” i „użyteczność”, jest symptomem dojrzałości całej branży. Oznacza to przejście od czystej nauki do komercyjnych zastosowań.

    Rewolucja kwantowa nie nadejdzie z hukiem. Będzie to cicha, pełzająca transformacja. Prawdziwą miarą zwycięstwa w tej grze o tron nie będzie supremacja, lecz użyteczność – liczba rozwiązanych problemów i wartość, jaką uda się stworzyć. Czas na przygotowania nie jest wtedy, gdy tron zostanie zdobyty, ale teraz, gdy wielkie rody wykonują swoje pierwsze, strategiczne ruchy. Gra się rozpoczęła.

  • IBM i AMD łączą siły. Cel: Superkomputery kwantowe

    IBM i AMD łączą siły. Cel: Superkomputery kwantowe

    Giganci technologiczni, IBMAMD, ogłosili strategiczne partnerstwo, które ma na celu zintegrowanie mocy obliczeń kwantowych z klasycznymi superkomputerami.

    Współpraca skupi się na stworzeniu hybrydowych architektur, które połączą wiodącą pozycję IBM w technologii kwantowej z doświadczeniem AMD w dziedzinie obliczeń o wysokiej wydajności (HPC) i akceleratorów AI.

    Partnerstwo ma doprowadzić do powstania otwartych, skalowalnych platform, które mogą zredefiniować przyszłość zaawansowanych obliczeń. Ideą stojącą za tym projektem jest stworzenie tzw. superkomputerów kwantowo-centrycznych.

    W takim modelu procesory kwantowe będą działały w tandemie z klasyczną infrastrukturą HPC, napędzaną przez procesory CPU, GPU i układy FPGA od AMD.

    Koncepcja hybrydowa zakłada, że złożone problemy obliczeniowe będą dzielone na części i rozwiązywane przez technologię, która najlepiej się do tego nadaje.

    Przykładowo, komputer kwantowy mógłby zająć się symulacją zachowania atomów i molekuł na poziomie kwantowym – zadaniem niewykonalnym dla maszyn klasycznych – podczas gdy superkomputery oparte na architekturze AMD analizowałyby ogromne zbiory danych wynikowych i wspierały procesy z wykorzystaniem sztucznej inteligencji.

    Taka synergia ma pozwolić na rozwiązywanie realnych problemów w dziedzinach takich jak odkrywanie nowych leków i materiałów, logistyka czy optymalizacja złożonych systemów w skali i z szybkością dotychczas nieosiągalną.

    Firmy badają, w jaki sposób zintegrować technologie AMD z systemami kwantowymi IBM, aby przyspieszyć działanie nowej klasy algorytmów.

    Jednym z kluczowych aspektów współpracy ma być wykorzystanie rozwiązań AMD do korekcji błędów w czasie rzeczywistym, co jest fundamentalnym wyzwaniem na drodze do budowy stabilnych i odpornych na zakłócenia komputerów kwantowych.

    Pierwsza demonstracja pokazująca, jak systemy kwantowe IBM współpracują z technologią AMD, planowana jest jeszcze w tym roku. Partnerzy zamierzają również rozwijać ekosystemy open-source, takie jak Qiskit, aby ułatwić tworzenie algorytmów dla nowych, hybrydowych superkomputerów.

    Działania te wpisują się w szerszą strategię IBM, która obejmuje już podobne integracje z superkomputerem Fugaku w Japonii oraz współpracę z takimi podmiotami jak Cleveland Clinic czy Lockheed Martin.

  • AI w cyberbezpieczeństwie, czyli jak zaoszczędzić 1,76 mln USD i skrócić reakcję na atak o 108 dni

    AI w cyberbezpieczeństwie, czyli jak zaoszczędzić 1,76 mln USD i skrócić reakcję na atak o 108 dni

    Każdy lider IT i dyrektor ds. bezpieczeństwa zna ten scenariusz aż za dobrze: niekończący się strumień alertów bezpieczeństwa, rosnące zmęczenie zespołu analityków (tzw. alert fatigue), dotkliwy niedobór specjalistów na rynku  i nieustająca presja na optymalizację budżetu. W tak wymagającym środowisku, poleganie wyłącznie na manualnej analizie zagrożeń staje się modelem niewydolnym i niebezpiecznym. Cyberprzestępcy już dziś na masową skalę wykorzystują sztuczną inteligencję i automatyzację do typowania celów, tworzenia wysoce spersonalizowanych ataków phishingowych i błyskawicznego omijania tradycyjnych zabezpieczeń . Próba obrony oparta wyłącznie na ludzkiej reakcji jest z góry skazana na porażkę – jest zbyt wolna, zbyt kosztowna i zbyt podatna na błędy.   

    Najnowsze dane pokazują jednak, że istnieje mierzalna i niezwykle skuteczna odpowiedź na to wyzwanie. Kluczowe odkrycie z raportu IBM „Cost of a Data Breach 20235” jest jednoznaczne: zastosowanie AI i automatyzacji jest czynnikiem #1, który najsilniej redukuje finansowe skutki naruszenia bezpieczeństwa. W tym artykule przeanalizujemy, skąd bierze się oszczędność rzędu 1,76 miliona dolarów  i jak skrócenie cyklu życia ataku o 108 dni  przekłada się na realne korzyści dla Twojej organizacji.   

    Inwestycja o najwyższym zwrocie z inwestycji (ROI)

    Analizując czynniki, które mają największy wpływ na minimalizację strat finansowych po incydencie, dane nie pozostawiają złudzeń. Inwestycja w inteligentną automatyzację jest po prostu najbardziej opłacalną strategią budowania cyberodporności. Raport IBM z 2023 roku, zestawiający czynniki łagodzące koszty naruszenia, stawia sprawę jasno. Wdrożenie AI i automatyzacji znajduje się na samym szczycie listy, oferując największą redukcję potencjalnych strat. Co istotne, czynnik ten przewyższa nawet tak fundamentalne elementy jak posiadanie dedykowanego zespołu reagowania na incydenty (Incident Response Team) czy stosowanie ugruntowanych praktyk DevSecOps.   

    Liczby mówią same za siebie. Średnia oszczędność na poziomie 1,76 mln USD to różnica w koszcie naruszenia między organizacjami z w pełni wdrożonymi systemami AI a tymi, które w ogóle ich nie stosują. W tej pierwszej grupie średni koszt wyniósł 3,93 mln USD, podczas gdy w drugiej aż 5,69 mln USD. Jest to największa pojedyncza oszczędność zidentyfikowana w całym badaniu, co czyni AI i automatyzację inwestycją o najwyższym, udokumentowanym zwrocie.   

    Choć kwoty te wydają się ogromne, zasada proporcji jest uniwersalna. Dla polskiej firmy e-commerce, software house’u czy zakładu produkcyjnego, redukcja potencjalnych strat o ponad 30% może oznaczać różnicę między przetrwaniem kryzysu a upadłością. To nie jest abstrakcyjna statystyka dla globalnych korporacji, ale twardy wskaźnik dojrzałości strategicznej. Jest to szczególnie istotne w kontekście polskiego rynku, który zmaga się z alarmującym deficytem specjalistów ds. cyberbezpieczeństwa, szacowanym na 10 000 do 17 500 osób, przy jednoczesnym, najwyższym w Europie, wzroście zapotrzebowania na te kompetencje (36% rok do roku). Co więcej, aż 39% polskich firm nie zatrudnia ani jednego pracownika odpowiedzialnego za cyberbezpieczeństwo, co tworzy idealne warunki dla atakujących.   

    Czas to pieniądz: jak AI skraca cykl życia ataku o ponad 3 miesiące

    Drugim, równie kluczowym wymiarem korzyści jest drastyczne skrócenie czasu ekspozycji na aktywne zagrożenie. Organizacje, które w pełni wykorzystują AI i automatyzację, identyfikują i powstrzymują ataki średnio o 108 dni szybciej niż firmy, które tego nie robią (214 dni vs 322 dni). To ponad trzy miesiące różnicy, które mają bezpośrednie przełożenie na koszty.   

    Skąd tak potężna różnica? Mechanizm jest prosty i opiera się na synergii dwóch kluczowych technologii:

    • Wykrywanie z prędkością maszyny (UEBA): AI robi to, czego człowiek nigdy nie będzie w stanie zrobić – analizuje w czasie rzeczywistym miliardy zdarzeń pochodzących z logów systemowych, ruchu sieciowego i punktów końcowych. Zaawansowane moduły analityki behawioralnej (UEBA – User and Entity Behavior Analytics) budują wzorce normalnego zachowania dla każdego użytkownika i urządzenia w sieci. Dzięki temu potrafią wykryć subtelne anomalie – takie jak logowanie z nietypowej lokalizacji o nietypowej porze, dostęp do rzadko używanych plików czy próba eskalacji uprawnień – które z łatwością umknęłyby przeciążonemu analitykowi . To właśnie te odchylenia od normy są często pierwszym sygnałem zaawansowanego ataku.  
    • Reakcja w czasie rzeczywistym (SOAR): Gdy anomalia zostanie wykryta, do gry wkracza automatyzacja, najczęściej w postaci platform SOAR (Security Orchestration, Automation, and Response) . Pozwala ona na natychmiastową, predefiniowaną reakcję – np. automatyczną izolację zainfekowanej stacji roboczej z sieci, zablokowanie podejrzanego konta użytkownika czy uruchomienie szczegółowego skanowania – bez czekania na interwencję człowieka . Eliminuje to najkosztowniejszy element w łańcuchu reakcji: opóźnienie.

    Trzeba pamiętać, że każdy kolejny dzień aktywnego naruszenia to rosnące koszty: więcej skradzionych lub zaszyfrowanych danych, dłuższy i bardziej dotkliwy przestój operacyjny, większe szkody wizerunkowe i rosnące koszty obsługi prawnej oraz komunikacji kryzysowej. Raport IBM potwierdza tę korelację, wskazując, że naruszenia trwające ponad 200 dni kosztują średnio o ponad 1 mln USD więcej niż te opanowane poniżej tego progu.

    Jakie technologie AI wdrażać w firmie?

    Pytanie, które naturalnie się nasuwa, brzmi: „Dobrze, w co konkretnie powinienem zainwestować?”. Wdrożenie AI i automatyzacji nie jest monolitycznym projektem, ale procesem, który można realizować, integrując konkretne klasy rozwiązań.

    Oto kluczowe technologie, które napędzają tę rewolucję:

    • SIEM / XDR z analityką behawioralną (UEBA): To mózg operacji. Nowoczesne systemy SIEM (Security Information and Event Management) i XDR (Extended Detection and Response) wzbogacone o moduły UEBA stają się centralnym punktem analizy, korelacji i wykrywania zaawansowanych, ukrytych zagrożeń.
    • SOAR (Security Orchestration, Automation, and Response): To system nerwowy, który przekuwa wykrycie w działanie. Platformy SOAR automatyzują powtarzalne zadania i całe procedury reagowania (tzw. playbooks), integrując ze sobą różne narzędzia bezpieczeństwa i orkiestrując ich wspólną reakcję.
    • Nowoczesne EDR (Endpoint Detection and Response): To automatyczni strażnicy na stacjach roboczych i serwerach. Systemy EDR wykorzystują AI do blokowania złośliwego oprogramowania, analizy technik ataku i automatycznego wycofywania szkodliwych zmian.
    • AI w ochronie danych (DLP): Tradycyjne systemy DLP (Data Loss Prevention) oparte na prostych regułach często zawodzą. Nowoczesne rozwiązania wykorzystują AI do rozumienia kontekstu i treści danych, co pozwala na znacznie precyzyjniejszą identyfikację i ochronę informacji wrażliwych, drastycznie redukując liczbę fałszywych alarmów.
    • Zarządzanie Tożsamością (IAM): Inteligentne systemy IAM wdrażają tzw. adaptacyjne uwierzytelnianie wieloskładnikowe (MFA). AI na bieżąco ocenia ryzyko danej sesji i dynamicznie dostosowuje wymogi uwierzytelniania, żądając dodatkowej weryfikacji tylko wtedy, gdy jest to konieczne.

    Warto podkreślić, że wiele z tych zaawansowanych rozwiązań jest dziś dostępnych w elastycznym modelu chmurowym (SaaS) . To znacząco obniża próg wejścia, eliminując potrzebę dużych, jednorazowych inwestycji kapitałowych (CAPEX) na rzecz przewidywalnych, miesięcznych kosztów operacyjnych (OPEX). Dla polskich firm, zwłaszcza z sektora MŚP, jest to historyczna szansa na dostęp do technologii, które jeszcze kilka lat temu były zarezerwowane dla największych globalnych graczy.

    Kontekst strategiczny: ewolucja zagrożeń i obrony

    Analiza danych z 2023 roku dostarcza potężnych argumentów, ale obraz staje się jeszcze wyraźniejszy, gdy spojrzymy na najnowsze trendy. Kolejne edycje raportu IBM pokazują, że rola AI staje się jeszcze bardziej krytyczna.Ewolucja od Reakcji do Prewencji: Raport z 2024 roku (analizujący dane z lat 2023-2024) ujawnia, że wartość AI przesuwa się w kierunku działań prewencyjnych. Organizacje, które szeroko stosowały AI w takich obszarach jak zarządzanie powierzchnią ataku (Attack Surface Management) czy proaktywne testy bezpieczeństwa, obniżyły średni koszt naruszenia o 2,2 mln USD w porównaniu do firm niestosujących tych technologii . To dowód na to, że technologia dojrzewa, pozwalając nie tylko szybciej gasić pożary, ale przede wszystkim zapobiegać ich powstawaniu.

    Nowe Ryzyko – „Shadow AI”: Najnowsze badania wprowadzają do leksykonu nowe, niepokojące pojęcie: „Shadow AI”. Odnosi się ono do niekontrolowanego wykorzystania narzędzi AI przez pracowników, bez wiedzy i nadzoru działów IT. Incydenty, w których „Shadow AI” odegrało rolę, kosztowały firmy średnio o 670 000 USD więcej . Aż 97% firm dotkniętych incydentem związanym z AI nie miało wdrożonych odpowiednich mechanizmów kontroli dostępu do tych technologii .

    Te dane prowadzą do fundamentalnego wniosku. Ryzykiem nie jest sama technologia AI, ale jej niekontrolowane, „dzikie” zastosowanie. To potężny argument za wdrożeniem scentralizowanego modelu zarządzania AI (AI Governance). Zespół ds. bezpieczeństwa musi ewoluować z roli „hamulcowego” do roli partnera, który umożliwia bezpieczne wdrażanie innowacji opartych na AI.

    Era, w której cyberbezpieczeństwo opierało się na manualnej analizie i reaktywnym gaszeniu pożarów, bezpowrotnie mija. Dane jednoznacznie pokazują, że przyszłość – a właściwie teraźniejszość – bezpiecznej i odpornej organizacji leży w inteligentnej automatyzacji.

    Wniosek 1 (Finansowy): Inwestycja w AI i automatyzację w cyberbezpieczeństwie przynosi największy, mierzalny zwrot, redukując średni koszt naruszenia o 1,76 mln USD.   

    Wniosek 2 (Operacyjny): Technologie te skracają czas ekspozycji na ryzyko aż o 108 dni, co bezpośrednio przekłada się na niższe straty operacyjne, finansowe i wizerunkowe.   

    Wniosek 3 (Strategiczny): AI nie jest już futurystycznym dodatkiem, lecz strategiczną koniecznością i najbardziej efektywnym sposobem na budowanie realnej odporności cyfrowej w obliczu zautomatyzowanych ataków i krytycznego braku specjalistów na rynku .

    Dlatego wezwanie do działania dla każdego lidera IT jest proste: przeprowadź audyt swojego obecnego stosu technologicznego. Oceń, w których obszarach – od detekcji, przez reakcję, po ochronę tożsamości – wdrożenie inteligentnej automatyzacji przyniesie najszybsze i największe korzyści. To nie jest już kwestia „czy”, ale „kiedy i jak” wykorzystać te technologie do obrony swojej organizacji. Czas na działanie jest teraz.

  • Stagnacja w sercu IBM. Gigant ukrywa poważny problem

    Stagnacja w sercu IBM. Gigant ukrywa poważny problem

    IBM od lat konsekwentnie repozycjonuje się jako firma „AI-first”, budując narrację wokół integracji sztucznej inteligencji z klasyczną infrastrukturą. Wyniki za drugi kwartał 2025 roku pokazują jednak, że nawet najlepiej zaprojektowana transformacja może nie rozwiązać głębszych problemów strukturalnych – szczególnie w obszarze oprogramowania.

    Choć IBM przekroczył oczekiwania analityków pod względem całkowitych przychodów (16,98 mld USD) i zysków operacyjnych (2,80 USD na akcję), firma nie była w stanie przekonać rynku co do stabilności wzrostu w najbardziej strategicznych liniach biznesowych. Segment infrastruktury – wsparty rosnącym popytem na nowe mainframe z funkcjami AI – przyniósł 4,14 mld USD przychodu, co stanowi jedno z lepszych osiągnięć kwartału. Ale to nie hardware miał być dziś motorem wzrostu IBM.

    Oprogramowanie, które od lat stanowiło najpewniejszy filar przychodów firmy, nie dostarczyło wyników na poziomie oczekiwań. 7,39 mld USD sprzedaży w tym segmencie to symboliczne niedobicie prognoz, ale istotne w kontekście narracji IBM jako dostawcy nowoczesnych rozwiązań biznesowych. Firma wskazuje, że klienci przesuwają środki z usług transakcyjnych – typowo obsługiwanych przez software – na zakup nowego sprzętu, co tymczasowo wypacza obraz popytu. Tyle że to tłumaczenie nie adresuje głębszego problemu: stagnacji innowacyjnej w ofercie oprogramowania.

    Z kolei dział konsultingu po raz pierwszy od sześciu kwartałów zanotował wzrost (3%), co pokazuje, że rynek szuka wiedzy w obszarze AI. Jednak sam IBM jest ostrożny w ocenie, na ile ten trend przełoży się na trwały wzrost.

    Warto odnotować, że firma nie przedstawiła prognoz na trzeci kwartał, kontynuując politykę ograniczonej transparentności zapoczątkowaną w kwietniu. To sygnał, że zarząd nie ma pełnej pewności co do kierunku rozwoju popytu w krótkim terminie.

  • IBM z nową ofertą AI – jak firma walczy o większy kawałek rynku

    IBM z nową ofertą AI – jak firma walczy o większy kawałek rynku

    IBM stawia na wzrost w konkurencyjnej przestrzeni sztucznej inteligencji, ogłaszając nowe narzędzia wspierające integrację agentów AI z aplikacjami biznesowymi klientów. Firma otwiera drzwi do tworzenia niestandardowych rozwiązań AI, umożliwiając organizacjom zbudowanie własnych agentów, którzy mogą działać na różnych modelach AI, takich jak te od Meta czy Mistral. Celem jest nie tylko zwiększenie efektywności procesów, ale także poszerzenie oferty IBM na rynku, który zdominowany jest przez gigantów chmurowych, takich jak Amazon Web Services czy Microsoft.

    Arvind Krishna, CEO IBM, podkreśla, że nowa oferta jest odpowiedzią na rosnące zapotrzebowanie firm na elastyczność w zarządzaniu danymi i AI. Narzędzia IBM pozwolą klientom szybko dostosować swoje systemy, a cały proces ma zająć mniej niż pięć minut. Co więcej, IBM chce wspierać firmy, które preferują hybrydowe środowiska chmurowe, dostosowane do ich specyficznych potrzeb.

    W kontekście konkurencji na rynku AI, IBM stawia na integrację, a nie na budowanie zamkniętych ekosystemów. Zasadniczo oznacza to, że firma liczy na wzrost popytu, oferując elastyczność i integrację różnych modeli AI w jednym narzędziu. Oznacza to również, że IBM jest gotowe konkurować z większymi graczami, którzy oferują w pełni zintegrowane rozwiązania.

    Dodatkowo, firma ogłosiła inwestycję na poziomie 150 miliardów dolarów w amerykańską produkcję komputerów kwantowych i mainframe’ów, co wskazuje na długofalową strategię rozwoju opartą na innowacjach technologicznych.

  • IBM stawia na komputery kwantowe i produkcję w USA. Inwestycja za 150 mld dolarów

    IBM stawia na komputery kwantowe i produkcję w USA. Inwestycja za 150 mld dolarów

    IBM ogłosił inwestycję o wartości 150 miliardów dolarów w rozbudowę działalności w Stanach Zjednoczonych w ciągu najbliższych pięciu lat. Firma planuje przeznaczyć ponad 30 miliardów na rozwój produkcji komputerów kwantowych i systemów mainframe — technologii krytycznych zarówno dla przemysłu, jak i administracji publicznej.

    To posunięcie wpisuje się w szerszy trend, w którym amerykańskie firmy technologiczne demonstrują swoją lojalność wobec polityki przemysłowej administracji Donalda Trumpa. Podobne deklaracje złożyły już Nvidia i Apple, zapowiadając inwestycje po około 500 miliardów dolarów każda. W tle pozostaje presja związana z taryfami celnymi i ryzykiem zakłóceń w globalnych łańcuchach dostaw, które mogłyby kosztować sektor miliardy dolarów.

    IBM, mający bogatą historię jako kluczowy wykonawca rządowy, od lat buduje kompetencje w obszarze obliczeń kwantowych. Jego kwantowe systemy obliczeniowe to jedna z największych flot tego typu na świecie, a potencjał technologii, choć nadal nie w pełni wykorzystany, pozostaje obiektem intensywnego zainteresowania branży. Jednak nawet w środowisku entuzjastów kwantów panuje ostrożność — niektórzy, jak CEO Nvidii Jensen Huang, sugerują, że na realne wdrożenia przemysłowe trzeba będzie czekać nawet 20 lat.

    Deklaracja IBM, choć efektowna, w rzeczywistości ma wymiar bardziej polityczny niż technologiczny. Obietnica masywnych inwestycji może być próbą zabezpieczenia się przed dalszymi ograniczeniami wynikającymi z polityki handlowej. To także sygnał do administracji, że firma aktywnie wspiera krajowy rozwój infrastruktury technologicznej, co może być kartą przetargową w przyszłych rozmowach o kontraktach rządowych.

    Warto zauważyć, że kondycja finansowa IBM, mimo ogłoszonych planów, pozostaje napięta. Na koniec grudnia spółka dysponowała 14,8 miliarda dolarów w gotówce, a jej ubiegłoroczne wydatki kapitałowe wyniosły jedynie 1,13 miliarda. To wskazuje, że realizacja ambitnych zapowiedzi będzie wymagała istotnego zwiększenia nakładów i zapewne nowej strategii zarządzania inwestycjami.

    Jednocześnie decyzja IBM podkreśla zmianę nastrojów w Dolinie Krzemowej — dziś firmy technologiczne są zmuszone grać nie tylko na polu innowacji, ale także geopolityki. W nadchodzących latach to umiejętność łączenia rozwoju technologicznego z polityczną zręcznością może zdecydować o pozycji największych graczy na globalnej scenie.

  • IBM bije na alarm: kradzież poświadczeń wypiera ransomware

    IBM bije na alarm: kradzież poświadczeń wypiera ransomware

    W 2024 roku ransomware zszedł na dalszy plan. Cyberprzestępcy coraz rzadziej stawiają na widowiskowe ataki z szyfrowaniem danych, a coraz częściej wybierają coś znacznie bardziej cennego i mniej ryzykownego: kradzież danych uwierzytelniających. Jak pokazuje opublikowany właśnie raport IBM X-Force Threat Intelligence Index 2025, niemal połowa wszystkich cyberataków w ubiegłym roku zakończyła się przejęciem poświadczeń lub danych – i ten trend nabiera rozpędu.

    Gospodarka nieautoryzowanego dostępu

    Tożsamość stała się punktem wejścia, walutą i towarem. Według danych IBM X-Force, liczba e-maili zawierających tzw. infostealery – złośliwe oprogramowanie kradnące dane logowania – wzrosła w 2024 roku o 84%, a wstępne dane za 2025 mówią nawet o 180-procentowym wzroście rok do roku.

    Za tą zmianą stoi nie tylko technologia, ale też kalkulacja ryzyka. Kradzież tożsamości jest cichsza, bardziej skalowalna i trudniejsza do wykrycia niż ransomware. Atakujący coraz rzadziej zostawiają po sobie ślady – często rezygnując z trwałej obecności w systemie na rzecz szybkiego przejęcia konta i monetyzacji dostępu na forach dark webu. To nowa normalność: zautomatyzowany phishing wspomagany przez AI, masowe przejęcia kont i gotowe zestawy do obchodzenia MFA.

    IBM alarmuje – ransomware się kurczy, ale nie znika

    Choć ransomware pozostaje najczęstszym rodzajem złośliwego oprogramowania, jego udział w krajobrazie zagrożeń maleje. IBM wskazuje na spadek liczby incydentów tego typu, co pokrywa się z globalną presją organów ścigania i likwidacją infrastruktury botnetowej. Część znanych grup, takich jak Wizard Spider czy QakBot Group, zniknęła z radarów lub przekształciła się w bardziej rozproszone operacje. Inne – jak Clop czy Lockbit – zaczęły rozwijać narzędzia dostosowane do systemów Linux, co sugeruje zmianę targetu i próbę utrzymania rentowności w nowych sektorach.

    Europa pod ostrzałem, przemysł na celowniku

    Europa – mimo mniejszego udziału w globalnych statystykach niż Azja czy Ameryka Północna – pozostaje jednym z najczęściej atakowanych regionów. Wysoka koncentracja infrastruktury krytycznej, złożone środowiska chmurowe i zależność od starszych technologii to połączenie, które przyciąga atakujących.

    Sektor przemysłowy, czwarty rok z rzędu, był najbardziej dotknięty ransomware. Przestoje w produkcji to wciąż jeden z najbardziej kosztownych scenariuszy, co czyni ten sektor łakomym kąskiem dla cyberprzestępców – zwłaszcza tych, którzy wciąż wierzą w opłacalność szyfrowania danych.

    Systemy niedoinwestowane, zabezpieczenia spóźnione

    Raport IBM X-Force zwraca też uwagę na chroniczne zapóźnienia w aktualizacjach bezpieczeństwa. Ponad połowa instancji Red Hat Enterprise Linux nie miała załatanej przynajmniej jednej krytycznej luki, a 18% – pięciu lub więcej. To nie jest tylko kwestia infrastruktury IT – to cicha akceptacja ryzyka w organizacjach, które często mają trudność z wdrożeniem nawet podstawowych praktyk bezpieczeństwa.

    Przestępczość się profesjonalizuje, firmy wciąż reagują z opóźnieniem

    Najbardziej niepokojące w raporcie IBM X-Force nie są same dane, ale kierunek, w jakim zmierza cyberprzestępczość. Z organizacji przestępczych stają się one coraz bardziej przypominać sprawnie działające przedsiębiorstwa: korzystające z narzędzi AI, oferujące „usługi w abonamencie” i działające globalnie.

    Tymczasem firmy – zwłaszcza w Europie – wciąż częściej gaszą pożary niż zapobiegają ich powstawaniu. Reaktywna strategia wobec zagrożeń przestaje być wystarczająca, a klasyczne zabezpieczenia – jak MFA – stają się podatne na nowe techniki obejścia.

  • Mainframe wraca do gry. IBM z17 celuje w transformację cyfrową z AI on-prem

    Mainframe wraca do gry. IBM z17 celuje w transformację cyfrową z AI on-prem

    IBM ogłosił premierę z17 – najnowszego mainframe’a zaprojektowanego z myślą o intensywnych obciążeniach AI i środowiskach hybrydowych. Z17 to nie tylko ewolucja linii Z Systems, ale także odpowiedź na rosnące potrzeby przetwarzania danych w czasie rzeczywistym, bezpieczeństwa i integracji z nowoczesnymi technologiami.​

    Architektura zoptymalizowana pod AI

    Sercem z17 jest procesor Telum II, który umożliwia przetwarzanie do 450 miliardów operacji inferencyjnych AI dziennie – o 50% więcej niż jego poprzednik, z16. Dodatkowo, opcjonalny akcelerator Spyre, dostępny jako karta PCIe, pozwala na skalowanie mocy obliczeniowej w zależności od potrzeb, wspierając zaawansowane modele generatywne i wielomodelowe. ​

    Z17 obsługuje ponad 250 przypadków użycia AI, w tym analizę obrazów medycznych, wykrywanie oszustw finansowych czy zarządzanie chatbotami.

    IBM z17
    źródło: IBM

    Bezpieczeństwo na poziomie kwantowym

    W odpowiedzi na rosnące zagrożenia cybernetyczne, IBM zintegrował w z17 algorytmy szyfrowania odporne na ataki kwantowe. To pierwszy mainframe oferujący takie zabezpieczenia, co czyni go atrakcyjnym rozwiązaniem dla sektorów wymagających najwyższego poziomu ochrony danych, takich jak finanse czy opieka zdrowotna. ​

    Integracja z chmurą i modernizacja aplikacji

    Z17 został zaprojektowany z myślą o środowiskach hybrydowych, umożliwiając płynną integrację z chmurą. Nowe narzędzia, takie jak IBM Z Operations Unite oraz z/OS 3.2, wspierają automatyzację operacji IT i modernizację aplikacji. Dodatkowo, watsonx Code Assistant for Z pomaga w transformacji kodu, przyspieszając adaptację do nowoczesnych środowisk. ​

    IBM z17
    źródło: IBM

    Wprowadzenie z17 to strategiczny krok IBM w kierunku umocnienia pozycji mainframe’ów w erze AI. Dzięki zaawansowanej architekturze, zintegrowanym funkcjom AI i naciskowi na bezpieczeństwo, z17 stanowi odpowiedź na współczesne wyzwania biznesowe. Dla organizacji poszukujących niezawodnych i skalowalnych rozwiązań, z17 może być kluczowym elementem transformacji cyfrowej.​

  • IBM triumfuje w sądzie: kluczowy wyrok w sprawie własności intelektualnej

    IBM triumfuje w sądzie: kluczowy wyrok w sprawie własności intelektualnej

    ​W poniedziałek IBM odniósł znaczące zwycięstwo prawne w Londynie, wygrywając proces przeciwko szwajcarskiej firmie technologicznej LzLabs, należącej do amerykańskiego przedsiębiorcy Johna Mooresa. Gigant IT oskarżył LzLabs o kradzież tajemnic handlowych poprzez nielegalne inżynierowanie wsteczne oprogramowania mainframe’owego IBM.​

    Sprawa rozpoczęła się, gdy brytyjska spółka zależna LzLabs, Winsopia, zakupiła w 2013 roku komputer mainframe IBM i uzyskała licencję na oprogramowanie. IBM twierdził, że dostęp ten został wykorzystany do inżynierii wstecznej ich oprogramowania mainframe’owego, co stanowiło naruszenie warunków licencji. LzLabs i Moores bronili się, argumentując, że ich oprogramowanie zostało opracowane niezależnie po niemal dekadzie pracy i nie doszło do bezprawnego wykorzystania licencjonowanego oprogramowania IBM.​

    Jednakże Wysoki Sąd w dużej mierze przyznał rację IBM. Sędzia Finola O’Farrell w pisemnym orzeczeniu stwierdziła, że Winsopia naruszyła warunki licencji na oprogramowanie IBM, a LzLabs i Moores bezprawnie doprowadzili do tych naruszeń. To orzeczenie zapadło po ubiegłorocznym procesie mającym na celu ustalenie odpowiedzialności pozwanych wobec IBM, z dalszymi przesłuchaniami w celu ustalenia ewentualnych odszkodowań.​

    Warto zauważyć, że sprawa IBM przeciwko innej brytyjskiej spółce zależnej, LzLabs Limited, oraz obecnemu i byłemu dyrektorowi generalnemu LzLabs została odrzucona. Ani IBM, ani LzLabs nie odpowiedziały na prośby o komentarz w tej sprawie. ​

  • 6,4 miliarda dolarów za HashiCorp – IBM idzie w automatyzację

    6,4 miliarda dolarów za HashiCorp – IBM idzie w automatyzację

    IBM oficjalnie sfinalizował przejęcie HashiCorp za 6,4 miliarda dolarów, umacniając swoją pozycję na rynku chmury hybrydowej i automatyzacji infrastruktury. Transakcja, ogłoszona w kwietniu ubiegłego roku, napotkała początkowe przeszkody, w tym dochodzenie brytyjskiego Urzędu ds. Konkurencji i Rynków (CMA), które ostatecznie zatwierdziło przejęcie pod koniec lutego 2025 roku.

    HashiCorp, z siedzibą w San Francisco, specjalizuje się w dostarczaniu narzędzi open source do zarządzania infrastrukturą chmurową. Ich flagowy produkt, Terraform, umożliwia automatyzację konfiguracji zasobów w chmurze, co jest kluczowe dla firm operujących w środowiskach wielochmurowych i hybrydowych. Dzięki integracji technologii HashiCorp, IBM planuje rozszerzyć swoją ofertę w zakresie automatyzacji zarządzania cyklem życia infrastruktury oraz bezpieczeństwa, co ma na celu uproszczenie wdrażania i zarządzania aplikacjami w złożonych środowiskach chmurowych.

    To przejęcie wpisuje się w szerszą strategię IBM, polegającą na inwestowaniu w technologie chmurowe i open source. W 2019 roku firma nabyła Red Hat za 34 miliardy dolarów, co było największym przejęciem w jej historii. Dzięki temu IBM stał się jednym z wiodących dostawców rozwiązań chmury hybrydowej, oferując platformy oparte na otwartym oprogramowaniu, takie jak Linux i Kubernetes.

    Integracja HashiCorp z IBM ma na celu stworzenie kompleksowej platformy chmury hybrydowej nowej generacji, która pozwoli klientom na efektywne zarządzanie infrastrukturą w różnych środowiskach chmurowych. Dzięki temu firmy będą mogły szybciej wdrażać innowacje, zwiększać elastyczność operacyjną oraz lepiej odpowiadać na dynamicznie zmieniające się potrzeby rynku.

    Przejęcie HashiCorp przez IBM to kolejny krok w kierunku umacniania pozycji na rynku chmurowym i dostarczania klientom nowoczesnych, zautomatyzowanych rozwiązań infrastrukturalnych, które sprostają wyzwaniom współczesnego biznesu.

  • AI na żądanie – IBM prezentuje inteligentniejsze modele Granite

    AI na żądanie – IBM prezentuje inteligentniejsze modele Granite

    IBM wprowadza na rynek nową rodzinę modeli sztucznej inteligencji Granite 3.2, które łączą zaawansowane możliwości rozumowania, analizy wizualnej i prognozowania. Te open-source’owe modele są dostępne na platformach takich jak Hugging Face oraz IBM watsonx.ai.

    Granite 3.2 Instruct: Rozumowanie na żądanie

    Flagowe modele tekstowe Granite 3.2 Instruct, dostępne w wersjach 8B i 2B, zostały zaprojektowane do zadań takich jak podsumowywanie, rozwiązywanie problemów i generowanie kodu. Unikalną cechą tych modeli jest możliwość włączania lub wyłączania procesu rozumowania w czasie rzeczywistym, co pozwala na oszczędność mocy obliczeniowej. Dzięki temu Granite 3.2 8B może konkurować z większymi modelami, takimi jak GPT-4o czy Claude 3.5 Sonnet, w testach takich jak AIME2024 i MATH500.

    Granite Vision 3.2 2B: Analiza dokumentów na nowym poziomie

    IBM rozszerza swoje portfolio o model multimodalny Granite Vision 3.2 2B, który został specjalnie przeszkolony do zrozumienia dokumentów. Model ten radzi sobie z analizą układów stron, czcionek, wykresów i infografik, dorównując wydajnością większym modelom open-source’owym w testach takich jak DocVQA i ChartQA.

    Granite Guardian 3.2: Bezpieczeństwo AI z większą precyzją

    W odpowiedzi na rosnące zapotrzebowanie na bezpieczne rozwiązania AI, IBM wprowadza Granite Guardian 3.2. Nowe modele, w tym warianty 5B i 3B-A800M, oferują zwiększoną efektywność przy minimalnej utracie wydajności. Dodatkowo, funkcja „verbalized confidence” dostarcza bardziej szczegółowej oceny ryzyka, wskazując poziom pewności zamiast prostego „tak” lub „nie”.

    Granite Timeseries-TTM-R2.1: Prognozowanie na wyższym poziomie

    Nowa wersja modelu Granite Timeseries-TTM-R2.1 rozszerza możliwości prognozowania o codzienne i tygodniowe przewidywania, poza dotychczasowymi minutowymi i godzinowymi. Model ten jest szczególnie przydatny w sektorach finansów, zarządzania łańcuchem dostaw i handlu detalicznego, oferując precyzyjne analizy trendów na przyszłość.

    Wszystkie modele z rodziny Granite 3.2 są dostępne na platformie Hugging Face na licencji Apache 2.0, a wybrane modele można znaleźć również na IBM watsonx.ai oraz innych platformach partnerskich.

    Dzięki wprowadzeniu Granite 3.2, IBM kontynuuje rozwój zaawansowanych, efektywnych i otwartych rozwiązań AI, dostosowanych do potrzeb współczesnych przedsiębiorstw.