Kategoria: Rynek

Rozwój biznesu, czyli jak praktycznie wykorzystać technologię w budowaniu przewagi konkurencyjnej. Pokazujemy, jak rozwiązania IT wspierają efektywność, innowacje i skalowanie biznesu w różnych branżach.

  • Czy AI zabije tradycyjne oprogramowanie? Giganci technologii walczą o rynek

    Czy AI zabije tradycyjne oprogramowanie? Giganci technologii walczą o rynek

    W Dolinie Krzemowej narasta debata, która w zeszłym miesiącu kosztowała sektor oprogramowania niemal bilion dolarów rynkowej wyceny. Pytanie jest fundamentalne: czy generatywna sztuczna inteligencja, zdolna do samodzielnego pisania kodu i automatyzacji procesów, uczyni tradycyjne platformy SaaS zbędnymi? Liderzy branży, od Oracle po Salesforce, ruszyli do kontrataku, argumentując, że ich największym atutem nie jest sam kod, lecz unikalne dane, na których operują.

    Mike Sicilia z Oracle oraz Marc Benioff z Salesforce jednym głosem odrzucają wizję „programistycznej apokalipsy”. Podczas ostatnich spotkań z analitykami obaj podkreślali, że AI nie jest zagrożeniem egzystencjalnym, lecz turbodoładowaniem dla istniejących systemów. Oracle, którego akcje wzrosły o 10% po optymistycznych prognozach, stawia na elastyczność i głębokie osadzenie w procesach finansowych oraz logistycznych. Według analityków to właśnie posiadanie „zastrzeżonych danych” (proprietary data) stanowi najskuteczniejszą fosę chroniącą przed nowymi graczami, takimi jak Anthropic.

    Mimo pewności siebie gigantów, rynek pozostaje sceptyczny wobec firm, których dane są łatwiejsze do zastąpienia. Przykładem jest Workday, którego kurs akcji mocno ucierpiał. Choć firma zarządza ogromnymi zasobami informacji kadrowych, krytycy zauważają, że dane HR często podlegają sztywnym, ustandaryzowanym formatom. To czyni je bardziej podatnymi na replikację przez zwinne modele AI.

    Aneel Bhusri, powracający na stanowisko CEO Workday, podnosi jednak istotny argument techniczny: dzisiejsza sztuczna inteligencja jest probabilistyczna – opiera się na prawdopodobieństwie i wzorcach. Tymczasem krytyczne systemy korporacyjne muszą być deterministyczne; muszą za każdym razem dostarczać ten sam, precyzyjny wynik, szczególnie w obszarze płac czy księgowości.

    Zamiast nekrologów, obserwatorzy rynku sugerują ewolucję. Salesforce promuje swoją platformę Agentforce, a Oracle integruje AI z całym stosem technologicznym, od bazy danych po aplikacje końcowe. Przewaga tradycyjnych graczy wynika z kosztów zmiany (switching costs) – firmy spędziły dekady, budując operacje wokół tych narzędzi. Choć AI obniża barierę tworzenia nowego oprogramowania, nie zastąpi tak łatwo dekad doświadczenia w zarządzaniu złożonymi procesami biznesowymi.

  • SentinelOne obniża prognozy zysku: Kurs akcji w dół po wynikach

    SentinelOne obniża prognozy zysku: Kurs akcji w dół po wynikach

    SentinelOne, niegdyś postrzegany jako jeden z najbardziej agresywnych graczy na rynku cyberbezpieczeństwa, wchodzi w fazę dojrzałej defensywy. Czwartkowy raport finansowy spółki z Mountain View przyniósł prognozę zysku na nadchodzący kwartał na poziomie zaledwie 1-2 centów na akcję, co znacząco odbiega od oczekiwanych przez Wall Street 5 centów. Choć przychody za czwarty kwartał wzrosły o solidne 20%, rynek zareagował nerwowo, spychając kurs akcji o ponad 2%. Ta korekta oczekiwań to coś więcej niż tylko liczby – to sygnał głębszych zmian strukturalnych w sektorze.

    Obecna sytuacja SentinelOne jest wynikiem splotu trzech kluczowych czynników: presji gigantów, ewolucji AI oraz zmiany wewnątrz struktur finansowych firmy. Spółka operuje w niezwykle trudnym otoczeniu, gdzie z jednej strony musi odpierać ataki wyspecjalizowanych liderów pokroju CrowdStrike i Palo Alto Networks, a z drugiej mierzyć się z coraz silniejszą obecnością Microsoftu, który integruje zaawansowane funkcje bezpieczeństwa bezpośrednio w swoim ekosystemie korporacyjnym.

    Inwestorzy z uwagą przyglądają się również procesowi „towaryzacji” bezpieczeństwa. Wzrost znaczenia narzędzi AI sprawia, że niektóre funkcje ochronne, niegdyś uznawane za unikalne, stają się standardem dostępnym u wielu dostawców. Odpowiedzią SentinelOne pozostaje platforma Singularity oraz Purple AI, mające na celu automatyzację polowania na zagrożenia. Niemniej jednak, w dobie restrykcyjnych budżetów IT, klienci korporacyjni coraz częściej wybierają konsolidację usług u jednego, większego dostawcy zamiast utrzymywania wielu niszowych rozwiązań.

    Ważnym tłem dla zachowawczych prognoz jest zmiana na stanowisku dyrektora finansowego. Przejęcie sterów przez Sonalee Parekh sugeruje zwrot ku bardziej konserwatywnemu raportowaniu i dyscyplinie fiskalnej. Dla zarządów i dyrektorów ds. bezpieczeństwa (CISO) płynie z tego jasny wniosek: rynek cyberbezpieczeństwa przestaje być polem nieograniczonego wzrostu, a staje się areną brutalnej walki o efektywność i integrację. SentinelOne wybiera drogę ostrożności, co w krótkim terminie może rozczarowywać inwestorów, ale w dłuższej perspektywie ma na celu zbudowanie stabilniejszej bazy pod konkurencję z największymi graczami w branży.

  • Adobe ogłasza zmianę prezesa: Koniec 18-letniej ery Shantanu Narayena

    Adobe ogłasza zmianę prezesa: Koniec 18-letniej ery Shantanu Narayena

    Nagłe ogłoszenie ustąpienia Shantanu Narayena ze stanowiska CEO Adobe kończy jeden z najbardziej imponujących rozdziałów w historii Doliny Krzemowej. Narayen, który przez 18 lat przekształcał Adobe z pudełkowego dostawcy oprogramowania w chmurowego giganta subskrypcyjnego, pozostawia firmę w punkcie zwrotnym. Choć pozostanie on przewodniczącym zarządu, by wspierać następcę, rynek zareagował na tę wiadomość nerwowo — akcje spadły o ponad 7%, co odzwierciedla głęboki niepokój inwestorów o kierunek, w jakim podąży gigant kreatywności w dobie generatywnej sztucznej inteligencji.

    Odejście architekta sukcesu Adobe zbiega się w czasie z fundamentalnym zagrożeniem dla modelu biznesowego firmy. Przez lata Photoshop, Illustrator i Premiere Pro stanowiły standard branżowy, chroniony wysoką barierą wejścia w postaci skomplikowanej obsługi. Dziś AI drastycznie obniża te progi, pozwalając nowym graczom na oferowanie narzędzi szybszych, tańszych i bardziej intuicyjnych. Inwestorzy, patrząc na 22-procentowy spadek wartości akcji w tym roku, zadają sobie pytanie: czy Adobe potrafi monetyzować AI wystarczająco szybko, by zrekompensować erozję swojego tradycyjnego ekosystemu?

    Wyniki finansowe za pierwszy kwartał pokazują paradoks obecnej sytuacji Adobe. Przychody na poziomie 6,4 miliarda dolarów oraz solidne zyski na akcję przebiły oczekiwania analityków, co dowodzi, że obecny silnik subskrypcyjny wciąż pracuje na wysokich obrotach. Jednak solidne fundamenty z przeszłości nie wystarczają, by uspokoić obawy o przyszłość. Branża obawia się, że zautomatyzowani agenci i narzędzia generatywne mogą z czasem uczynić tradycyjne licencje oprogramowania zbędnymi.

  • Google domyka przejęcie Wiz

    Google domyka przejęcie Wiz

    Po miesiącach spekulacji i negocjacji, Google sfinalizowało największą transakcję w swojej historii, przejmując platformę bezpieczeństwa Wiz za 32 miliardy dolarów. Ruch ten nie jest jedynie defensywnym wzmocnieniem infrastruktury, ale agresywną próbą przedefiniowania pozycji Google Cloud w starciu z Microsoft Azure i AWS. W świecie, gdzie budżety na AI rosną szybciej niż zabezpieczenia tych systemów, Google kupiło sobie najskuteczniejsze narzędzie do walki o zaufanie korporacyjnych klientów.

    Decyzja o pozostawieniu Wiz jako autonomicznej marki operującej wewnątrz Google Cloud sugeruje, że Mountain View wyciągnęło wnioski z poprzednich, mniej zwinnych integracji. Wiz zbudował swoją potęgę na „agnostycyzmie chmurowym”, oferując ochronę danych niezależnie od tego, czy spoczywają one na serwerach Amazonu, czy Microsoftu. Utrzymanie tego status quo jest kluczowe. Google staje się w ten sposób nie tylko dostawcą mocy obliczeniowej, ale globalnym arbitrem bezpieczeństwa w środowiskach wielochmurowych.

    Z perspektywy biznesowej, transakcja ta wypełnia krytyczną lukę w ofercie Google. Podczas gdy konkurenci skupiali się na tradycyjnym monitorowaniu sieci, Wiz od początku projektował swoje rozwiązania pod kątem specyfiki kodu chmurowego i – co teraz najważniejsze – modeli sztucznej inteligencji. Integracja ta pozwala firmom na zabezpieczenie całego cyklu życia AI, od etapu trenowania modeli na ogromnych zbiorach danych, po ich produkcyjne wdrożenia.

    Rynek bezpieczeństwa przechodzi obecnie konsolidację, a Google, kładąc na stole 32 miliardy dolarów, wysyła jasny sygnał: przyszłość chmury należy do tych, którzy potrafią zagwarantować jej integralność w czasach generatywnego AI.

  • Ambitny zakład CD Projekt: 5 miliardów złotych na szali

    Ambitny zakład CD Projekt: 5 miliardów złotych na szali

    CD Projekt, czołowy gracz na europejskim rynku gier wideo, wchodzi w decydującą fazę transformacji swojej strategii biznesowej. Podczas ostatniego walnego zgromadzenia akcjonariusze zatwierdzili nowy program motywacyjny, który stawia przed zarządem poprzeczkę niezwykle wysoko: wypracowanie 5 mld zł skumulowanego zysku netto w latach 2026–2029.

    Z perspektywy inwestorskiej to jasny sygnał, że spółka kończy etap restrukturyzacji procesów produkcyjnych i przechodzi do ofensywy finansowej. Cel ten nie jest przypadkowy. Opiera się na założeniu, że nadchodzący cykl wydawniczy, zdominowany przez kolejną odsłonę sagi o Wiedźminie, okaże się sukcesem komercyjnym na skalę globalną. Choć premiera „Wiedźmina 4” nie nastąpi przed 2027 rokiem, ramy finansowe programu sugerują, że to właśnie ten tytuł ma być głównym motorem napędowym wyników w drugiej połowie dekady.

    Strategia zarządu wykracza jednak poza samą produkcję gier typu RPG. Firma kładzie coraz większy nacisk na monetyzację marek poprzez współpracę z zewnętrznymi partnerami i rozwój produktów towarzyszących. To podejście „transmedialne”, sprawdzone już przy okazji sukcesu serialu anime w świecie Cyberpunka, ma stabilizować przychody w okresach między wielkimi premierami.

    Rynek z niecierpliwością wyczekuje 19 marca, kiedy to spółka zaprezentuje pełne wyniki za rok 2025. Będą one kluczowym punktem odniesienia dla realności nowych założeń. Dla branży technologicznej ruch CD Projekt jest lekcją zarządzania oczekiwaniami: firma buduje długoterminową wartość nie tylko na kodzie gry, ale na sile intelektualnej swoich marek, jednocześnie biorąc na siebie ogromną odpowiedzialność finansową wobec akcjonariuszy.

  • AI potrzebuje energii. Czy brak elektrowni jądrowej spowolni rozwój technologiczny Polski?

    AI potrzebuje energii. Czy brak elektrowni jądrowej spowolni rozwój technologiczny Polski?

    Współczesna gospodarka cyfrowa, napędzana przez bezprecedensowy rozwój sztucznej inteligencji, zdaje się funkcjonować w swoistym paradoksie. Z jednej strony świat zachwyca się niematerialnym charakterem algorytmów, lekkością chmury obliczeniowej i finezją modeli generatywnych, które redefiniują pojęcie produktywności. Z drugiej jednak strony, ta cyfrowa nadbudowa osadzona jest na wyjątkowo ciężkim, fizycznym fundamencie, jakim jest infrastruktura energetyczna. Sztuczna inteligencja, okrzyknięta nową elektrycznością naszych czasów, paradoksalnie wykazuje nienasycony głód tej tradycyjnej, płynącej z gniazdek energii. W debacie publicznej, zdominowanej przez rozważania o etyce kodów czy bezpieczeństwie danych, zbyt mało miejsca poświęca się kwestii fundamentalnej: skąd pochodzić będzie prąd niezbędny do zasilenia tej rewolucji, by proces ten był stabilny, czysty i strategicznie bezpieczny.

    Dane płynące z raportów Międzynarodowej Agencji Energetycznej nie pozostawiają złudzeń co do skali wyzwania. Szacuje się, że globalne zużycie energii przez centra danych może ulec podwojeniu już do 2030 roku, co jest bezpośrednią konsekwencją ekspansji przetwarzania w chmurze oraz trenowania coraz bardziej złożonych modeli językowych. To jednak zaledwie wierzchołek góry lodowej, pod którą kryje się masowa cyfryzacja całego przemysłu, transportu i sektora mieszkaniowego. Prognozy wskazują, że do 2035 roku same centra danych będą wymagać dodatkowych tysiąca terawatogodzin, ale potrzeby reszty gospodarki wzrosną o blisko sześciokrotność tej wartości. Globalne zapotrzebowanie na energię, według analiz Rystad Energy, ma wzrosnąć o niemal jedną trzecią w ciągu zaledwie dekady. W tym kontekście tradycyjne podejście do transformacji energetycznej, oparte wyłącznie na klasycznych odnawialnych źródłach energii, ukazuje swoje ograniczenia.

    Sektor biznesowy i technologiczny staje przed koniecznością przedefiniowania pojęcia stabilności operacyjnej. Bezpieczeństwo cyfrowe jest bowiem nierozerwalnie związane z bezpieczeństwem dostaw mocy, a to wymaga źródła nie tylko ekologicznego, ale przede wszystkim sterowalnego i niezależnego od kaprysów aury czy geopolitycznych zawirowań.

    W tym miejscu na scenę wkracza energia fuzji jądrowej, która w ostatnich latach przeszła fascynującą transformację z domeny literatury science fiction do obszaru twardej strategii biznesowej. Najwięksi gracze światowego rynku technologicznego, tacy jak Microsoft, Google czy Amazon, już dawno porzucili rolę biernych obserwatorów, stając się aktywnymi inwestorami w projekty fuzyjne. Skumulowane finansowanie w prywatne firmy zajmujące się syntezą termojądrową wzrosło w 2025 roku do poziomu trzynastu miliardów euro, co stanowi ośmiokrotny wzrost w stosunku do początku dekady. Zaangażowanie liderów branży IT nie wynika z pobudek filantropijnych, lecz z pragmatycznej oceny ryzyka. Posiadanie udziałów w technologii generującej niemal nieograniczoną i czystą moc jest polisą ubezpieczeniową dla dalszej innowacyjności.

    Obecny krajobraz inwestycyjny ujawnia jednak niepokojącą dla Europy asymetrię. Stany Zjednoczone odpowiadają za ponad połowę globalnych nakładów na fuzję, traktując tę technologię jako element bezpieczeństwa narodowego i przewagi konkurencyjnej. Zmiana stanowiska rządu USA pod koniec 2025 roku, która nadała syntezie jądrowej status priorytetu strategicznego, jasno definiuje zasady nowej gry. Tuż za Ameryką kroczą Chiny, pompując ogromne środki państwowe w budowę własnego ekosystemu energetycznego. Taka bipolarna panorama powinna być dla europejskich decydentów dzwonkiem alarmowym. Kontynent nie może pozwolić sobie na powtórzenie błędu popełnionego w sektorze półprzewodników czy samej sztucznej inteligencji, gdzie marginalizacja doprowadziła do głębokiej zależności od zewnętrznych dostawców i technologii.

    Co z Europą?

    Wobec wykładniczego wzrostu zapotrzebowania na moc obliczeniową, budowa suwerennego i niewyczerpalnego źródła zasilania staje się bezwzględnym warunkiem zachowania konkurencyjności nowoczesnej gospodarki. Ta zmiana paradygmatu, choć dostrzegana w krzemowych dolinach świata, nabrała szczególnego, politycznego ciężaru podczas niedawnego Szczytu Energii Jądrowej w Paryżu. To właśnie tam przewodnicząca Komisji Europejskiej, Ursula von der Leyen, wypowiedziała słowa, które dla wielu brzmią jak spóźnione, choć konieczne uderzenie w piersi: odwrócenie się Europy od atomu było strategicznym błędem, a liczby opisujące ten regres mówią same za siebie.

    Przyznanie, że systematyczne wygaszanie sektora jądrowego na Starym Kontynencie – spadek udziału tej energii z jednej trzeciej w 1990 roku do zaledwie piętnastu procent obecnie – stanowiło geopolityczną pomyłkę, kieruje uwagę na wyzwania stojące przed sektorem technologicznym. Współczesna gospodarka cyfrowa, zafascynowana lekkością algorytmów sztucznej inteligencji, brutalnie zderza się z fizyczną rzeczywistością sieci przesyłowych. Sztuczna inteligencja, często określana mianem niematerialnej rewolucji, wykazuje nienasycony głód stabilnej, czystej i taniej energii. W tym kontekście europejska zależność od niestabilnego importu paliw kopalnych staje się nie tylko balastem ekonomicznym, ale przede wszystkim barierą rozwojową, która może zepchnąć kontynent do roli technologicznego skansenu.

    Sytuacja Polski w tym nowym rozdaniu jawi się jako szczególnie dramatyczna i wymagająca natychmiastowej refleksji strategicznej. Podczas gdy liderzy Unii Europejskiej biją się w piersi i kreślą plany powrotu do nuklearnej potęgi, polski krajobraz energetyczny pozostaje dotknięty historycznym brakiem choćby jednej działającej elektrowni jądrowej. Ten strukturalny niedobór, w czasie ekspansji modeli generatywnych i centrów przetwarzania danych, przestaje być jedynie kwestią bezpieczeństwa energetycznego, a staje się niemałym problemem dla polskiego sektora IT. Ambicje budowania nad Wisłą hubu innowacji oraz rozwijania rodzimych systemów sztucznej inteligencji mogą zostać skutecznie zdławione przez brak fundamentu, jakim jest stabilne obciążenie podstawowe sieci.

    Inwestorzy planujący budowę wielkoskalowych centrów danych kierują się pragmatyzmem, w którym kluczową rolę odgrywa dostępność niskoemisyjnej i nieprzerwanej energii. Polska, opierająca swój miks energetyczny na schyłkowym węglu i dynamicznie rozwijających się, lecz pogodowo zależnych źródłach odnawialnych, bez „nuklearnego stabilizatora” staje się lokalizacją obarczoną wysokim ryzykiem operacyjnym. Brak atomu to nie tylko wyższe koszty emisji wpływające na marżę firm technologicznych, ale przede wszystkim brak gwarancji ciągłości zasilania, bez której zaawansowane trenowanie modeli AI jest po prostu niemożliwe. W efekcie najbardziej wartościowe projekty cyfrowe mogą omijać polskie ziemie, wybierając kraje, które potrafiły przekuć nuklearny pragmatyzm w przewagę konkurencyjną.

    Wyraźna zmiana kursu w Brukseli, akcentująca rolę małych reaktorów modułowych oraz fuzji jądrowej, powinna być dla polskiego biznesu sygnałem do mobilizacji. Skoro Unia Europejska zamierza przeznaczyć miliardy euro na badania nad syntezą jądrową w ramach projektu ITER oraz tworzyć gwarancje dla prywatnych inwestycji w nowej generacji technologie atomowe, Polska nie może pozwolić sobie na rolę biernego obserwatora. Konieczne jest stworzenie mechanizmów, które pozwolą polskim firmom technologicznym na aktywny udział w budowie łańcucha wartości dla sektora jądrowego. Fuzja, choć wciąż postrzegana jako horyzont przyszłości, jest dziś jedyną realną odpowiedzią na energetyczny szantaż, przed którym stoi cyfrowy świat.

    Geopolityczny wyścig o panowanie nad „sztucznym słońcem” na ziemi nabiera tempa. Stany Zjednoczone, uznając rozwój technologii fuzyjnej za kwestię bezpieczeństwa narodowego, oraz Chiny, intensywnie finansujące państwowe projekty jądrowe, stworzyły dwubiegunową strukturę siły. Europa, jeśli nie chce stać się jedynie klientem tych mocarstw, musi wypracować własny model współpracy – rodzaj „Eurofightera Energii”. To porównanie do europejskiego myśliwca nie jest przypadkowe; budowa nowoczesnego systemu energetycznego opartego na fuzji wymaga analogicznej skali koordynacji przemysłowej, naukowej i finansowej. Dla Polski udział w tym przedsięwzięciu to szansa na przeskoczenie kilku etapów zacofania technologicznego i wejście bezpośrednio do elity państw zarządzających energią jutra.

    Warto zauważyć, że fuzja jądrowa oferuje coś więcej niż tylko prąd – oferuje ona suwerenność. Gdy systemy obronne, infrastruktura krytyczna i codzienna komunikacja oparte są na sztucznej inteligencji, każda przerwa w dostawach energii staje się wektorem ataku. Stabilne, rodzime źródło mocy, zlokalizowane w pobliżu centrów decyzyjnych i technologicznych, jest najlepszą tarczą przed zewnętrznymi naciskami. Dla polskiego biznesu oznacza to konieczność wywierania większego nacisku na rzecz przyspieszenia projektów jądrowych nie tylko w tradycyjnym wydaniu, ale przede wszystkim w obszarze innowacyjnych technologii SMR i fuzji, które mogą być wdrażane bliżej odbiorcy przemysłowego.

    Diagnoza postawiona przez Ursulę von der Leyen jest bolesna, ale ożywcza dla europejskiej debaty. Europa, a w szczególności Polska, musi odrzucić uprzedzenia na rzecz inżynieryjnego realizmu. Sztuczna inteligencja nie będzie czekać, aż systemy energetyczne nadążą za jej potrzebami; ona po prostu przeniesie się tam, gdzie energia jest obfita, tania i czysta. Polska, stojąca przed historycznym wyzwaniem budowy swojego pierwszego reaktora, musi zrozumieć, że nie jest to projekt budowlany, lecz fundament przyszłej potęgi cyfrowej. Bez atomu, marzenia o polskiej sztucznej inteligencji pozostaną jedynie pięknym kodem zapisanym na serwerach, których nie będzie jak uruchomić. Nadszedł czas, by rzetelna analiza liczb i strategicznych braków stała się impulsem do budowy energetycznej suwerenności, która pozwoli na pełny rozkwit innowacji na naszych ziemiach.

  • Konflikt na Bliskim Wschodzie a ceny elektroniki: Co czeka branżę IT w 2026 roku?

    Konflikt na Bliskim Wschodzie a ceny elektroniki: Co czeka branżę IT w 2026 roku?

    Konflikt zbrojny angażujący Iran, Stany Zjednoczone oraz Izrael rzuca nowe światło na fundamentalny paradoks nowoczesności: najbardziej zaawansowane technologie świata są zakładnikami procesów wydobywczych surowców, których logistyka opiera się na stabilności regionów od dekad określanych mianem beczki prochu.

    Fundamentem obecnego niepokoju w branży wysokich technologii stała się kwestia dostępności helu, gazu szlachetnego, którego rola w procesie litografii półprzewodników jest niemożliwa do przecenienia. Choć hel kojarzy się opinii publicznej z zastosowaniami rozrywkowymi lub medyczną aparaturą MRI, dla producentów chipów stanowi on niezbędny czynnik chłodzący oraz medium do utrzymywania stabilności termicznej w najbardziej precyzyjnych urządzeniach produkcyjnych. Fakt, iż blisko trzydzieści osiem procent światowej produkcji tego surowca jest skoncentrowane w Katarze, tworzy niebezpieczny punkt krytyczny w globalnym łańcuchu dostaw. Decyzja QatarEnergy o ogłoszeniu stanu siły wyższej, podyktowana atakami na infrastrukturę rafineryjną, stanowi sygnał ostrzegawczy dla całego ekosystemu krzemowego. Wstrzymanie operacji w zakładach przetwarzających gaz ziemny oznacza nie tylko brak paliw, ale przede wszystkim przerwanie dostaw komponentów petrochemicznych, bez których współczesna elektronika nie jest w stanie funkcjonować.

    Problem wykracza jednak daleko poza sam hel. Analizy rynkowe wskazują na głęboką zależność przemysłu od czternastu innych materiałów krytycznych pochodzących z Bliskiego Wschodu, w tym bromu oraz specjalistycznych gazów procesowych. W sektorze półprzewodników, gdzie standardy czystości mierzone są w skali nano, zmiana dostawcy nie jest prostą operacją logistyczną. To proces wielomiesięcznej walidacji i rygorystycznych testów jakościowych, których naruszenie mogłoby doprowadzić do zniszczenia całych serii produkcyjnych o wartości setek milionów dolarów. W obliczu przedłużającego się konfliktu, elastyczność gigantów takich jak TSMC, Samsung czy GlobalFoundry zostaje poddana najcięższej próbie od czasu globalnej pandemii, przy czym obecny kryzys ma charakter znacznie bardziej strukturalny i nieprzewidywalny.

    Geopolitycznym węzłem gordyjskim pozostaje Cieśnina Ormuz. Ten wąski przesmyk morski, będący kluczową arterią dla światowego handlu energią, pełni również rolę bezpiecznika dla globalnej transformacji cyfrowej. Blokada lub znaczące utrudnienia w żegludze na tym akwenie uderzają rykoszetem w koszty energii niezbędnej do zasilania gigantycznych farm serwerowych oraz w ceny polimerów wykorzystywanych w produkcji podzespołów komputerowych. Obserwowany wzrost cen energii nie jest zatem jedynie problemem transportowym, lecz bezpośrednim kosztem operacyjnym każdej firmy operującej w modelu SaaS czy dostawcy infrastruktury chmurowej. Przerwanie ciągłości dostaw w tym regionie wymusza odejście od dotychczasowego dogmatu zarządzania logistyką typu „just-in-time” na rzecz kosztownych strategii budowania zapasów strategicznych, co nieuchronnie odbije się na marżach operacyjnych sektora technologicznego.

    Sytuacja ta jest szczególnie dotkliwa w kontekście bezprecedensowego popytu na moc obliczeniową generowaną przez rozwój sztucznej inteligencji. Przemysł znajduje się w kleszczach: z jednej strony zapotrzebowanie na zaawansowane jednostki obliczeniowe rośnie w tempie wykładniczym, z drugiej zaś moce produkcyjne napotykają na surowcowy szklany sufit. Ryzyko wystąpienia zjawiska inwolucji technologicznej staje się realne i może objawiać się nie tylko w opóźnieniach premier nowych generacji procesorów, ale przede wszystkim w przymusowej kanibalizacji zasobów. Sektory takie jak motoryzacja czy automatyka przemysłowa mogą zostać zmuszone do konkurowania o te same, ograniczone zasoby chipów z gigantami technologicznymi, co doprowadzi do drastycznych wzrostów cen urządzeń końcowych i zahamowania cyfryzacji w mniej dochodowych gałęziach gospodarki.

    Niezakłócona globalizacja, w której dostęp do technologii był gwarantowany przez sprawne mechanizmy rynkowe, to przeszłość. Teraz ustępuje miejsca epoce odporności strategicznej. Stabilność Bliskiego Wschodu stałą się kluczowym elementem bezpieczeństwa technologicznego każdego przedsiębiorstwa korzystającego z cyfrowych narzędzi pracy. Obecny kryzys pokazuje, że przyszłość sztucznej inteligencji i globalnej łączności zależy od drożności szlaków morskich i stabilności politycznej państw eksportujących surowce, o których często zapomina się w codziennej pogoni za innowacją.

    Zarządzanie organizacją w 2026 roku wymaga zatem nie tylko biegłości w przewidywaniu trendów rynkowych, ale również głębokiego zrozumienia mapy fizycznej świata. Koszt technologii przestaje być funkcją postępu miniaturyzacji, a staje się wypadkową ceny bezpieczeństwa fizycznych zasobów. W tej nowej rzeczywistości wygrywać będą te podmioty, które potrafią zintegrować analizę ryzyka geopolitycznego z planowaniem technologicznym, rozumiejąc, że błękitny gaz w katarskich zbiornikach ma bezpośredni wpływ na płynność aplikacji mobilnej w Europie czy sprawność systemu ERP w Ameryce Północnej. Bliski Wschód staje się obecnie katalizatorem wielkich zmian w sposobie, w jaki świat myśli o technologii: już nie jako o nieograniczonym zasobie, lecz jako o cennym dobru, którego fundamenty są niezwykle podatne na wstrząsy.

    Dalszy rozwój sytuacji na linii Teheran-Waszyngton będzie decydować o tym, czy obecne perturbacje okażą się jedynie krótkotrwałym wstrząsem, czy też początkiem głębokiej rekonfiguracji globalnego porządku technologicznego. Iuzja autonomii świata cyfrowego od problemów świata fizycznego została ostatecznie rozwiana. Warto zatem bacznie obserwować nie tylko giełdowe notowania spółek technologicznych, ale także ruchy statków w Zatoce Perskiej, gdyż to tam obecnie zapisywany jest kod źródłowy przyszłorocznych marż sektora IT.

  • EQT rozważa sprzedaż SUSE. Możliwa rekordowa wycena giganta Linux

    EQT rozważa sprzedaż SUSE. Możliwa rekordowa wycena giganta Linux

    Zaledwie dwa lata po ściągnięciu SUSE z frankfurckiej giełdy, szwedzki gigant private equity EQT przygotowuje grunt pod jedno z ciekawszych wyjść inwestycyjnych w europejskim sektorze enterprise software. Choć rozmowy z potencjalnymi nabywcami są na wczesnym etapie, rynkowe spekulacje sugerują wycenę, która mogłaby niemal podwoić kwotę 2,72 miliarda euro zapłaconą podczas delistingu w 2023 roku.

    Dla obserwatorów rynku ten ruch jest sygnałem szerszej zmiany w postrzeganiu spółek infrastrukturalnych. Podczas gdy aplikacje konsumenckie borykają się z dużą zmiennością wycen, fundamenty pod rozwój sztucznej inteligencji stają się nową bezpieczną przystanią dla kapitału. SUSE, pionier korporacyjnego Linuksa z 1992 roku, nie jest już postrzegane jedynie jako dostawca systemu operacyjnego, ale jako krytyczny element stosu technologicznego niezbędnego do skalowania AI.

    Logika stojąca za potencjalną transakcją opiera się na prostym założeniu biznesowym: nowoczesna sztuczna inteligencja nie istnieje w próżni. Wymaga ona potężnej, stabilnej i bezpiecznej infrastruktury, którą SUSE dostarcza ponad 60% firm z listy Fortune 500. W dobie transformacji w kierunku chmury hybrydowej i brzegu sieci (edge computing), otwarte oprogramowanie klasy enterprise staje się kręgosłupem operacyjnym dla modeli wielkojęzykowych i analizy danych w czasie rzeczywistym.

    Decyzja EQT o wynajęciu banku inwestycyjnego do zbadania zainteresowania wśród innych graczy private equity świadczy o dużej pewności co do kondycji spółki. Sprzedaż w momencie, gdy rynek M&A w sektorze tech wciąż liże rany po okresie wysokich stóp procentowych, sugeruje, że SUSE jest traktowane jako aktywo o unikalnej wartości strategicznej. Jeśli transakcja dojdzie do skutku, będzie to dowód na to, że w świecie zdominowanym przez dyskusje o algorytmach, to dostawcy „cyfrowych fundamentów” mogą liczyć na najwyższe premie.

  • Gigantyczna inwestycja w Amberg, Niemcy. Nowe data center AI za setki milionów euro

    Gigantyczna inwestycja w Amberg, Niemcy. Nowe data center AI za setki milionów euro

    W sercu Bawarii, w niespełna czterdziestotysięcznym Ambergu, zaczyna krystalizować się nowa wizja europejskiej niezależności technologicznej. Niemiecki start-up Polarise ogłosił plany budowy centrum danych dedykowanego sztucznej inteligencji, które w swojej pierwszej fazie ma dysponować mocą 30 megawatów. Choć liczba ta może wydawać się skromna w porównaniu z kampusami Google czy AWS, strategiczne znaczenie inwestycji wykracza daleko poza suche parametry techniczne.

    Projekt, którego uruchomienie zaplanowano na połowę 2027 roku, uderza w czuły punkt europejskiej gospodarki: dramatyczny deficyt suwerennej infrastruktury obliczeniowej. Według danych grupy Bitkom, pod koniec ubiegłego roku całkowita moc centrów danych AI w Niemczech wynosiła około 530 MW. Problem polega na tym, że lwia część tych zasobów znajduje się w rękach graczy spoza kontynentu. W dobie rosnących napięć geopolitycznych, niepewności co do ceł i rozbieżnych regulacji dotyczących moderacji treści, poleganie wyłącznie na amerykańskich chmurach staje się dla europejskiego biznesu ryzykiem strategicznym.

    Polarise, operujący obecnie trzynastoma obiektami, planuje docelową rozbudowę centrum w Ambergu aż do 120 MW. To skala, która pozwoliłaby mu wejść do ligi zajmowanej dotąd niemal wyłącznie przez globalnych hyperscalerów. Ambicje te wymagają jednak ogromnego kapitału. Firma sugeruje, że koszty pierwszego etapu zamkną się w „trójcyfrowym przedziale milionów euro”. Co istotne, Marc Gazivoda, dyrektor marketingu Polarise, podkreśla, że projekt rozwija się bez wsparcia państwowych dotacji, opierając się na komercyjnym zapotrzebowaniu klientów, którzy albo wynajmują moc, albo instalują w obiekcie własny sprzęt.

    Lokalni gracze zaczynają dostrzegać szansę w niszach, które dotąd wydawały się nie do zdobycia. Budowa własnego zaplecza dla AI to nie tylko kwestia prestiżu, ale przede wszystkim bezpieczeństwa danych i stabilności łańcucha dostaw cyfrowych usług. Jeśli Polarise dowiezie projekt w zakładanym terminie, Amberg może stać się kluczowym punktem na mapie europejskiego przemysłu 4.0, oferując alternatywę dla firm, dla których bliskość geograficzna i jurysdykcyjna serwerów ma krytyczne znaczenie. Sukces tej inwestycji pokaże, czy Europa jest w stanie realnie zawalczyć o kontrolę nad fundamentami własnej cyfrowej przyszłości, czy pozostanie jedynie ambitnym konsumentem cudzych technologii.

  • Bitwa o półprzewodniki. Gdzie w tym starciu jest miejsce dla UE?

    Bitwa o półprzewodniki. Gdzie w tym starciu jest miejsce dla UE?

    Wiosna 2026 roku przynosi rynkom technologicznym obraz pełen jaskrawych kontrastów. Z jednej strony światowa gospodarka cyfrowa zachłystuje się możliwościami generatywnej sztucznej inteligencji, która stała się fundamentem strategii operacyjnych największych przedsiębiorstw. Z drugiej strony, fundament ten – oparty na fizycznej infrastrukturze półprzewodników – wykazuje pęknięcia wynikające z napięć, których natura wykracza daleko poza ramy czystego biznesu. Ostatnie analizy sugerują, że stoimy u progu głębokiej redefinicji globalnego sektora ICT – relacje między mocarstwami stały się jego głównym regulatorem, tworząc zjawisko, które można określić mianem krzemowej żelaznej kurtyny.

    Obecna sytuacja rynkowa jest pozornie paradoksalna. Według dostępnych danych, globalna sprzedaż półprzewodników wykazuje imponującą dynamikę, osiągając w bieżącym roku wzrost na poziomie 18,8%, co stanowi kontynuację ubiegłorocznego trendu, gdy wskaźnik ten wynosił niemal 23%. Siłą napędową tego zjawiska pozostaje niesłabnące zapotrzebowanie na najbardziej zaawansowane chipy dedykowane centrom danych i modelom sztucznej inteligencji. Jednakże za tymi optymistycznymi cyframi kryje się architektura niepewności. Produkcja w sektorze elektronicznym i ICT, choć utrzyma w tym roku wysoką dynamikę oscylującą wokół 10,3%, wedle prognoz ulegnie wyraźnemu schłodzeniu w roku 2027, spadając do poziomu 6,5%. To wyhamowanie nie wynika z nasycenia rynku, lecz z narastających barier strukturalnych i politycznych, które zaczynają krępować swobodny przepływ innowacji.

    Największym cieniem kładącym się na przyszłości sektora jest pogłębiająca się polaryzacja między Stanami Zjednoczonymi a Chinami. Zaostrzenie retoryki i narzędzi polityki handlowej sprawia, że globalne łańcuchy dostaw stają się polem bitwy o dominację technologiczną. Scenariusz, w którym na produkty elektroniczne nakładane są cła bez żadnych wyjątków to realny wariant planistyczny dla zarządów firm technologicznych. Taka sytuacja wymusza na organizacjach odejście od dotychczasowego paradygmatu maksymalnej optymalizacji kosztowej na rzecz budowania odporności geopolitycznej. Dostęp do najnowszych procesorów może zostać ograniczony jedną decyzją administracyjną, dlatego stabilność staje się cenniejszą walutą niż doraźna marża.

    W tym skomplikowanym układzie sił Europa zdaje się znajdować w położeniu szczególnie wymagającym. Dane są tu nieubłagane – podczas gdy światowa średnia wzrostu sektora oscyluje wokół 10%, prognozy dla Starego Kontynentu na rok 2026 przewidują skromne 1,3%. Ta dysproporcja jest wynikiem specyficznej struktury europejskiego przemysłu elektronicznego. Region ten tradycyjnie wyspecjalizował się w produkcji komponentów dla sektorów motoryzacyjnego i przemysłowego. Choć jest to strategia spójna z historycznym profilem gospodarczym Europy, okazuje się ona niewystarczająca. Brak silnej bazy produkcyjnej dla chipów typu high-end sprawia, że europejska gospodarka traci dystans w najbardziej rentownych i strategicznych obszarach nowoczesnych technologii.

    Inicjatywy podejmowane przez władze unijne, takie jak Europejska Ustawa o Chipach (EU Chips Act), stanowią próbę odwrócenia tego niekorzystnego trendu. Plan zainwestowania 43 miliardów euro w lokalną produkcję i badania ma na celu nie tylko zmniejszenie zależności od azjatyckich dostawców, ale także zdobycie 20% udziału w globalnej produkcji do 2030 roku. Niemniej rzetelna analiza sugeruje, że osiągnięcie tego celu będzie zadaniem niezwykle trudnym. Budowa zaawansowanej fabryki półprzewodników to proces wieloletni, wymagający nie tylko ogromnego kapitału, ale przede wszystkim unikalnego know-how oraz dostępu do rzadkich surowców i technologii litograficznych, które obecnie są skoncentrowane poza Europą.

    Interesującym i nieco niespodziewanym czynnikiem, który może wpłynąć na ożywienie europejskiego sektora ICT, staje się zmiana priorytetów w polityce obronnej. Wzrost wydatków wojskowych, widoczny szczególnie wyraźnie w Niemczech, tworzy nową przestrzeń dla inwestycji technologicznych. Modernizacja armii w XXI wieku to w dużej mierze cyfryzacja pola walki, co wymusza rozwój lokalnych kompetencji w zakresie zaawansowanej elektroniki i bezpiecznych systemów łączności. Dla biznesu oznacza to pojawienie się nowego, stabilnego źródła popytu, który może stymulować innowacje możliwe do późniejszego zaadaptowania w sektorze cywilnym. Jednakże, aby ten efekt skali wystąpił, konieczna jest ścisła współpraca między sektorem publicznym a prywatnym oraz elastyczność w adaptacji technologii militarnych do celów komercyjnych.

    Z perspektywy strategicznego zarządzania przedsiębiorstwem, nadchodzące lata będą wymagały przedefiniowania pojęcia bezpieczeństwa technologicznego. Poleganie na pojedynczym źródle dostaw, szczególnie z regionów objętych wysokim ryzykiem politycznym, staje się anachronizmem. Przedsiębiorstwa stoją przed koniecznością dywersyfikacji nie tylko geograficznej, ale i technologicznej. Warto zwrócić uwagę na rosnące znaczenie alternatywnych architektur oraz poszukiwanie dostawców w krajach trzecich, które mogą pełnić rolę buforów w konflikcie gigantów. Kluczowym elementem staje się również audyt własnej infrastruktury pod kątem podatności na nagłe odcięcie od wsparcia technicznego lub aktualizacji hardware’owych płynących zza oceanu czy z Dalekiego Wschodu.

  • Nowy realizm w automatyce: ABB i Nvidia chcą wyeliminować „szok halowy” robotów

    Nowy realizm w automatyce: ABB i Nvidia chcą wyeliminować „szok halowy” robotów

    Przemysł od lat zmaga się z tzw. luką „sim-to-real” – zjawiskiem, w którym drobne zmienne fizyczne, takie jak oświetlenie czy wibracje maszyn, paraliżują systemy przeszkolone wyłącznie wirtualnie. Partnerstwo szwajcarskiego giganta ABB z Nvidią, ogłoszone jako kluczowy element strategii cyfryzacji, ma ostatecznie ten problem rozwiązać.

    Współpraca opiera się na integracji platformy Nvidia Omniverse z oprogramowaniem sterującym ABB. Zamiast operować na uproszczonych modelach matematycznych, inżynierowie otrzymają dostęp do symulacji o wysokiej wierności fizycznej. Marc Segura, prezes ABB Robotics, słusznie zauważa, że dzisiejsze roboty są często „ślepe” na kontekst. Przykładem są choćby wibracje potężnych pras hydraulicznych, które w tradycyjnym modelu programowania wymagają tygodni kalibracji na miejscu. Dzięki technologii Nvidii robot ma „wiedzieć”, jak radzić sobie z tymi zakłóceniami, zanim jeszcze zostanie przykręcony do posadzki.

    Możliwość rezygnacji z kosztownych fizycznych prototypów i linii testowych na rzecz wirtualnej weryfikacji to oszczędności idące w miliony dolarów. Dobrym przykładem jest pilotaż realizowany przez Foxconn. Montaż drobnych komponentów, takich jak przyciski w smartfonach, był dotychczas zmorą automatyzacji ze względu na cienie, które myliły systemy wizyjne. Fotorealistyczne symulacje pozwalają przeszkolić algorytmy AI na tysiącach wariantów oświetlenia w ułamku sekundy.

    Ruch ten potwierdza szerszy trend: Nvidia przestaje być postrzegana jedynie jako dostawca krzemu, a staje się fundamentem „systemu operacyjnego” dla fizycznego świata. Choć komercyjne wdrożenie rozwiązania planowane jest na drugą połowę 2026 roku, sygnał dla rynku jest jasny. Fabryka przyszłości nie będzie już miejscem, gdzie uczy się maszyny pracy – będzie miejscem, do którego trafiają maszyny, które już wszystko potrafią. W erze presji na efektywność i personalizację produkcji, ta zmiana paradygmatu może okazać się kluczowa dla utrzymania konkurencyjności zachodniego przemysłu.

  • Ceny pamięci NAND wzrosną o 200 proc. Samsung i AI zmieniają rynek

    Ceny pamięci NAND wzrosną o 200 proc. Samsung i AI zmieniają rynek

    Samsung wysyła jasny sygnał: era taniej przestrzeni na dane dobiega końca. Według ostatnich doniesień gigant planuje podwoić ceny kości NAND w drugim kwartale 2026 roku. To już kolejna tak drastyczna podwyżka w tym roku, co oznacza, że w skali zaledwie dwunastu miesięcy komponenty te podrożeją o 200 procent. Dla sektora technologicznego to wstrząs, który zmieni matematykę produkcji wszystkiego – od smartfonów po serwery.

    Przyczyna tego zjawiska leży w architekturze współczesnej sztucznej inteligencji. Do tej pory uwaga inwestorów skupiona była na pamięciach HBM, czyli ultraszybkim RAM-ie niezbędnym do pracy procesorów graficznych. Jednak potężne systemy AI, takie jak modele Llama od Meta, potrzebują nie tylko „myśleć” szybko, ale i błyskawicznie pobierać dane. Klasyczne dyski twarde okazały się zbyt wolne, by nadążyć za tempem pracy nowoczesnych klastrów obliczeniowych. W efekcie giganci technologiczni zaczęli masowo wykupować zasoby NAND, aby budować macierze SSD zdolne zasilić infrastrukturę AI.

    Rynek pamięci jest de facto oligopolem, gdzie ton nadają Samsung oraz SK Hynix. Gdy jeden gracz podnosi ceny, reszta zazwyczaj podąża tym samym śladem, konsumując marże mniejszych podmiotów. Producenci laptopów i telefonów staną przed trudnym wyborem: albo przerzucą koszty na klientów końcowych, albo zastosują cyfrowe „zaciskanie pasa”, oferując urządzenia o mniejszych pojemnościach dyskowych w standardzie.

    Największą ofiarą tej zmiany nie będą jednak korporacje z Doliny Krzemowej, które stać na każdą cenę w wyścigu zbrojeń AI. Najmocniej ucierpi sektor małych i średnich przedsiębiorstw. Podczas gdy Meta czy Google zabezpieczają dostawy dla swoich centrów danych, lokalne firmy budujące własne stacje robocze lub serwerownie zapłacą za ten sam sprzęt dwukrotnie więcej niż rok temu. W 2026 roku pamięć NAND przestała być tanim towarem masowym, a stała się strategicznym zasobem, którego cena odzwierciedla teraz ambicje najbogatszych graczy na świecie.

  • Oracle planuje masowe zwolnienia. Firma stawia wszystko na infrastrukturę AI

    Oracle planuje masowe zwolnienia. Firma stawia wszystko na infrastrukturę AI

    Larry Ellison przez lata dążył do tego, by Oracle przestało być kojarzone wyłącznie z dziedzictwem baz danych, a stało się fundamentem nowoczesnej sztucznej inteligencji. Cel ten udało się osiągnąć – kontrakty z OpenAI, xAI oraz Metą uczyniły z firmy kluczowego dostawcę mocy obliczeniowej. Jednak najnowsze doniesienia o planowanych masowych zwolnieniach i zamrożeniu rekrutacji pokazują, że cena za wejście do pierwszej ligi dostawców chmurowych staje się trudna do udźwignięcia nawet dla giganta.

    Sytuacja Oracle to klasyczny przypadek kryzysu płynności wywołanego przez gwałtowny wzrost. Ambicje budowy infrastruktury zdolnej obsłużyć najbardziej wymagające modele językowe świata zderzyły się z twardą rzeczywistością bilansową. Spółka, która jeszcze niedawno szacowała nakłady inwestycyjne na poziomie 35 miliardów dolarów, musiała zrewidować te plany o dodatkowe 15 miliardów dolarów na rok fiskalny 2026. Przy spalaniu gotówki rzędu 10 miliardów dolarów w pierwszej połowie bieżącego roku, firma została zmuszona do szukania oszczędności tam, gdzie bolą one najbardziej: w kapitale ludzkim.

    Planowane redukcje tysięcy etatów nie są jedynie rutynową optymalizacją. To sygnał głębszej zmiany strukturalnej. Oracle zamierza eliminować stanowiska, które w nowej rzeczywistości operacyjnej mogą zostać zastąpione przez algorytmy, co nadaje tym zwolnieniom ironicznego posmaku – technologia, której budowę finansuje firma, wypiera jej własnych pracowników. Co więcej, objęcie restrykcjami działu chmurowego, dotychczasowego motoru wzrostu, sugeruje, że presja na wynik finansowy stała się priorytetem wyprzedzającym ekspansję.

    Dla inwestorów kluczowym pytaniem pozostaje koszt obsługi długu. Próba pozyskania blisko 50 miliardów dolarów na rozbudowę centrów danych przy spadającym kursie akcji stawia Oracle w trudnym położeniu negocjacyjnym. Choć Ellison postawił wszystko na jedną kartę, wierząc, że dominacja w sektorze AI zrekompensuje dzisiejsze wyrzeczenia, rynki finansowe zaczynają tracić cierpliwość do modelu „wzrostu za wszelką cenę”. Nadchodzący raport kwartalny będzie dla zarządu testem wiarygodności: czy Oracle potrafi przekuć miliardowe inwestycje w stabilne zyski, zanim zapasy gotówki ostatecznie stopnieją pod ciężarem krzemowej infrastruktury.

  • SoftBank pożycza 40 miliardów dolarów na inwestycję w OpenAI

    SoftBank pożycza 40 miliardów dolarów na inwestycję w OpenAI

    Masayoshi Son wraca do gry, którą zna najlepiej: gry o najwyższą stawkę. Po okresie względnego wyciszenia i lizania ran po turbulencjach Vision Fund, lider SoftBanku ponownie sięga po agresywne finansowanie dłużne, aby sfinansować swój najbardziej ambitny projekt – dominację w ekosystemie OpenAI.

    Jak wynika z doniesień Bloomberga, japoński konglomerat prowadzi zaawansowane rozmowy w sprawie pozyskania pożyczki pomostowej w wysokości do 40 miliardów dolarów. W proces zaangażowane są największe instytucje finansowe, z JPMorgan na czele. Instrument ten, o planowanym 12-miesięcznym terminie zapadalności, ma posłużyć jako kapitałowe paliwo dla dalszej ekspansji w sektorze sztucznej inteligencji. Choć warunki finansowania mogą jeszcze ulec zmianie, sam ruch sygnalizuje powrót Sona do strategii „all in”, która przed laty zdefiniowała krajobraz inwestycyjny Doliny Krzemowej.

    Centrum grawitacji dla SoftBanku stało się OpenAI. Japońska firma, która pod koniec ubiegłego roku kontrolowała około 11% udziałów w twórcy ChatGPT, zamierza odegrać kluczową rolę w nadchodzącej, gigantycznej rundzie finansowania. Przy ogólnej kwocie 110 miliardów dolarów, SoftBank ma wyłożyć na stół 30 miliardów, stając w jednym rzędzie z takimi gigantami jak Nvidia czy Amazon. Taka koncentracja kapitału przy wycenie OpenAI sięgającej 840 miliardów dolarów sugeruje, że Son widzi w firmie Sama Altmana podmiot o skali porównywalnej z największymi korporacjami technologicznymi świata.

    Kuczowe jest jednak pytanie o horyzont czasowy. Krótkoterminowy charakter pożyczki pomostowej wskazuje na przygotowania do konkretnego wydarzenia płynnościowego. OpenAI kładzie już podwaliny pod debiut giełdowy, a optymiści wskazują, że IPO mogłoby wycenić spółkę nawet na bilion dolarów. Finansowanie dłużne pozwala SoftBankowi zmaksymalizować swój udział w tym potencjalnym wzroście bez natychmiastowego angażowania własnych rezerw gotówkowych.

    W tej strategicznej układance SoftBank przestaje być tylko funduszem venture capital, a staje się kluczowym architektem infrastruktury AI. Jeśli zakład Sona się powiedzie, SoftBank zabezpieczy swoją pozycję jako najważniejszy zewnętrzny udziałowiec w firmie, która definiuje nową erę technologiczną. Jeśli jednak wycena OpenAI nie sprosta oczekiwaniom rynku, ciężar 40-miliardowego długu może stać się dla japońskiego giganta poważnym wyzwaniem operacyjnym. Na ten moment Masayoshi Son wydaj e się jednak przekonany, że w wyścigu o sztuczną inteligencję drugie miejsce nie istnieje.

  • cyber_Folks po przejęciu PrestaShop stawia  na spłatę długu i organiczny wzrost

    cyber_Folks po przejęciu PrestaShop stawia  na spłatę długu i organiczny wzrost

    Po serii agresywnych przejęć, cyber_Folks sygnalizuje rynkowi zmianę priorytetów. Przejęcie 100% udziałów w PrestaShop — globalnym gigancie e-commerce — to moment graniczny, po którym następuje faza operacyjnego „układania klocków”. Strategia na rok 2026 jest klarowna: organiczna monetyzacja i dbanie o portfele akcjonariuszy, przy jednoczesnym trzymaniu długu w ryzach.

    Wyniki za 2025 rok pokazują spółkę w fazie silnej ekspansji. Skorygowana EBITDA wzrosła o imponujące 66,1% rok do roku, osiągając poziom 292,3 mln zł. Co istotne, wzrost ten znacznie wyprzedził dynamikę przychodów (30,2% r/r), co świadczy o rosnącej efektywności operacyjnej modelu abonamentowego. Najbardziej spektakularnie wygląda jednak skala operacji po wchłonięciu PrestaShop. Grupa obsługuje obecnie handel o łącznej wartości GMV na poziomie 35 mld euro rocznie, co stawia ją w pierwszej lidze europejskich dostawców rozwiązań dla handlu online.

    Inwestorzy z uwagą śledzą jednak wskaźnik zadłużenia. Zarząd przyznaje, że po sfinalizowaniu ostatnich transakcji wskaźnik dług netto/EBITDA przejściowo wzrośnie do poziomu 1,8x. Jest to jednak wzrost kontrolowany i — jak zapewnia wiceprezes Robert Stasik — tymczasowy. Cel na koniec 2026 roku jest ambitny: powrót do poziomów znacznie poniżej 2,0x, a docelowo nawet poniżej 1,33x odnotowanego na koniec 2025 roku.

    cyber_Folks próbuje połączyć ogień z wodą. Mimo przejściowego wzrostu zadłużenia, spółka zapowiada dalsze dzielenie się zyskiem z akcjonariuszami. Zapowiedź wyższej dywidendy rok do roku to jasny sygnał dla rynku: cash-flow grupy jest wystarczająco silny, by jednocześnie spłacać dług i wynagradzać kapitał.

    Prezes Jakub Dwernicki (na zdjęciu) stawia sprawę jasno: czas na pauzę w M&A. Skupienie na rynkach Europy Zachodniej — Francji, Hiszpanii i Włoch — za pośrednictwem 230 tysięcy sklepów PrestaShop, daje grupie wystarczające pole do popisu w obszarze cross-sellingu i up-sellingu. Jeśli w 2026 roku każdy kwartał przyniesie zapowiadaną pozytywną dynamikę zysku netto jednostki dominującej, cyber_Folks może udowodnić, że potrafi nie tylko kupować, ale przede wszystkim efektywnie integrować.

  • OpenAI traci kluczową liderkę. Kalinowski ostrzega przed brakiem barier w AI

    OpenAI traci kluczową liderkę. Kalinowski ostrzega przed brakiem barier w AI

    Rezygnacja szefowej działu robotyki i sprzętu konsumenckiego – Caitlin Kalinowski z OpenAI, ogłoszona w minioną sobotę, rzuca światło na pęknięcia wewnątrz firmy w kwestii jej rosnącego zaangażowania w sektor obronny. Dla organizacji, która pod wodzą Sama Altmana agresywnie poszukuje nowych strumieni przychodów, publiczny sprzeciw tak wysokiej rangi menedżerki jest sygnałem ostrzegawczym dotyczącym ładu korporacyjnego i stabilności zespołu.

    Bezpośrednim powodem odejścia Kalinowski była umowa OpenAI z Departamentem Obrony USA. Według jej relacji, firma zdecydowała się na wdrożenie swoich modeli w tajnych sieciach chmurowych Pentagonu bez należytego namysłu i ustanowienia jasnych mechanizmów kontrolnych. Była liderka, która wcześniej przez lata kierowała rozwojem okularów AR w Meta Platforms, argumentuje, że pośpiech w zawieraniu tak strategicznych kontraktów jest błędem zarządczym. W jej ocenie linie demarkacyjne między wspieraniem bezpieczeństwa narodowego a niekontrolowaną inwigilacją czy autonomicznymi systemami bojowymi zostały w tym procesie zatarte.

    Dla OpenAI to wizerunkowy i operacyjny cios. Kalinowski dołączyła do firmy zaledwie w 2024 roku, mając za zadanie nadać impet ambicjom sprzętowym startupu. Jej odejście sugeruje, że wewnątrz organizacji narasta opór wobec tempa, w jakim misja „AI dla dobra ludzkości” jest redefiniowana na potrzeby pragmatyzmu geopolitycznego.

    Choć OpenAI niemal natychmiast odpowiedziało oświadczeniem o „czerwonych liniach” wykluczających udział w inwigilacji krajowej czy tworzeniu broni, narracja o braku barierek ochronnych, którą upubliczniła Kalinowski, może utrudnić firmie przyciąganie kolejnych talentów o profilu inżynieryjnym i etycznym. Z perspektywy biznesowej sytuacja ta obnaża wyzwanie, przed którym stają giganci AI: jak skalować współpracę z rządem, nie tracąc przy tym zaufania kluczowych liderów.

  • Foxconn ostrzega przed skutkami konfliktu na Bliskim Wschodzie dla branży IT

    Foxconn ostrzega przed skutkami konfliktu na Bliskim Wschodzie dla branży IT

    Young Liu, prezes Foxconnu wysłał w piątek jasny sygnał: trwający konflikt na Bliskim Wschodzie przestał być jedynie kwestią nagłówków w serwisach informacyjnych, a stał się realnym czynnikiem ryzyka dla marż sektora AI.

    Dla Liu, który zarządza największym na świecie producentem elektroniki, kluczowym pytaniem nie jest to, czy popyt na serwery AI utrzyma się na rekordowym poziomie, ale jak długo globalna gospodarka wytrzyma presję na ceny surowców. Jeśli konfrontacja USA i Izraela z Iranem będzie się przeciągać, rynki muszą przygotować się na powrót ropy do poziomu 100 dolarów za baryłkę. Dla branży technologicznej, która zainwestowała miliardy w infrastrukturę obliczeniową, oznacza to drastyczny wzrost kosztów logistyki oraz energii niezbędnej do zasilania centrów danych.

    Sytuacja jest o tyle paradoksalna, że region Zatoki Perskiej stał się w ostatnim czasie nową ziemią obiecaną dla gigantów pokroju Nvidii i Microsoftu. Zjednoczone Emiraty Arabskie są intensywnie pozycjonowane jako regionalne centrum AI, mające napędzać przyszłe iteracje modeli takich jak ChatGPT. Eskalacja działań wojennych i ostatnie ataki rakietowe Iranu rzucają jednak cień na te ambicje, stawiając pod znakiem zapytania bezpieczeństwo fizycznej infrastruktury w regionie, który miał gwarantować stabilność i kapitał.

    Mimo tych turbulencji, Foxconn stara się zachować spokój. Choć obecne wahania rynkowe są odczuwalne, Liu patrzy dalej, wskazując rok 2026 jako moment, w którym firma ma osiągnąć pełnię swoich możliwości operacyjnych. Na razie wpływ konfliktu na wyniki finansowe spółki pozostaje ograniczony, a rekordowe przychody napędzane gorączką sztucznej inteligencji stanowią solidną poduszkę bezpieczeństwa.

    Prawdziwym testem dla nastrojów inwestorów będzie 16 marca, kiedy Foxconn przedstawi raport za czwarty kwartał i zaktualizuje swoje prognozy. Wtedy dowiemy się, czy optymizm prezesa Liu jest oparty na solidnych fundamentach, czy też branża zaczyna przeceniać swoją odporność na wstrząsy makroekonomiczne.

  • Wojna bez prochu, biznes bez gwarancji: Ubezpieczenia cybernetyczne w cieniu niewidzialnych frontów

    Wojna bez prochu, biznes bez gwarancji: Ubezpieczenia cybernetyczne w cieniu niewidzialnych frontów

    Definicja pola bitwy uległa nieodwracalnej transformacji. Obrazy tradycyjnych konfliktów, kojarzone z blokadami morskimi, ruchem wojsk czy fizycznym zabezpieczaniem szlaków handlowych, ustępują miejsca nowej, niewidocznej gołym okiem dynamice. Choć uwaga opinii publicznej wciąż koncentruje się na strategicznych punktach zapalnych, takich jak Cieśnina Ormuz, dla współczesnego biznesu prawdziwa linia frontu przebiega dziś przez centra danych i infrastrukturę chmurową. Stabilność operacyjna przedsiębiorstw zależy w równej mierze od dyplomacji, co od odporności cyfrowej. Zjawisko to, nazywane coraz częściej cyfrową kinetyką, sprawia, że geopolityka stała się integralnym elementem strategii zarządzania ryzykiem w sektorze technologicznym.

    Najnowsze dane rynkowe z trzeciego kwartału 2025 roku dostarczają wymiernych dowodów na tę zmianę paradygmatu. Z analiz przeprowadzonych przez GlobalData wynika, że ponad jedna czwarta profesjonalistów z sektora ubezpieczeniowego uznaje ubezpieczenia cybernetyczne za kluczową linię biznesową, która odnotuje najsilniejszy wzrost popytu w obliczu eskalacji międzynarodowych. Co szczególnie istotne w kontekście strategicznym, cyberasekuracja wyprzedziła w badaniach tradycyjne produkty, takie jak ubezpieczenia od ryzyka politycznego, ochrony łańcucha dostaw czy przerw w działalności. Fakt, że 27,4% respondentów stawia ryzyko cyfrowe na pierwszym miejscu, świadczy o głębokim zrozumieniu asymetrii współczesnych zagrożeń. W zglobalizowanym świecie łatwiej, taniej i bezpieczniej z punktu widzenia agresora jest sparaliżować infrastrukturę krytyczną za pomocą kodu, niż ryzykować otwartą konfrontację militarną. Co istotne z perspektywy europejskiej, cyberasekuracja wyprzedziła tradycyjne polisy od ryzyka politycznego czy przerw w działalności. Dla firm działających wewnątrz UE, gdzie wzajemne powiązania gospodarcze są niezwykle gęste, ryzyko cyfrowe stało się zagrożeniem systemowym, zdolnym do paraliżowania całych sektorów niezależnie od granic państwowych.

    Wdrażanie dyrektyw takich jak NIS2 czy rozporządzenia DORA (Digital Operational Resilience Act) nakłada na podmioty gospodarcze obowiązek zachowania najwyższych standardów odporności operacyjnej. W tej rzeczywistości ubezpieczyciele w Europie przejmują rolę nieformalnych regulatorów. Zarządzanie akumulacją ryzyka w ekosystemie, w którym awaria jednego dostawcy usług chmurowych może dotknąć tysiące podmiotów od Madrytu po Warszawę, wymaga od asekuratorów precyzyjnego filtrowania klientów. Polisa staje się tym samym rynkowym potwierdzeniem zgodności z europejskimi normami bezpieczeństwa, a jej posiadanie jest często warunkiem koniecznym do udziału w międzynarodowych łańcuchach dostaw.

    Mechanizm przenikania się konfliktów fizycznych z przestrzenią wirtualną jest dziś bardziej widoczny niż kiedykolwiek. Przykład napięć na Bliskim Wschodzie, obejmujących USA, Izrael i Iran, pokazuje, że tradycyjne środki nacisku, jak zawieszanie ubezpieczeń wojennych dla żeglugi w Zatoce Perskiej czy drastyczny wzrost składek dla tankowców, są zaledwie preludium do szerszej eskalacji. Branża ubezpieczeniowa dostrzega, że wstrząsy geopolityczne błyskawicznie ewoluują w incydenty bezpieczeństwa cyfrowego, które nie znają granic geograficznych. Przedsiębiorstwa operujące na rynkach zachodnich muszą liczyć się z faktem, że odwet za działania polityczne w jednym regionie świata może zmaterializować się pod postacią ataku typu ransomware lub ukierunkowanej kampanii dezinformacyjnej uderzającej w ich własne systemy. To przekonanie o nieuchronności „rozprzestrzeniania się” konfliktów na domeny cyfrowe wymusza na organizacjach rewizję dotychczasowych modeli ochrony.

    W tej nowej rzeczywistości ubezpieczyciele przestają pełnić jedynie rolę pasywnego gwaranta wypłaty odszkodowań, stają się najbardziej rygorystycznymi audytorami technologicznymi, wymuszającymi na biznesie stosowanie najwyższych standardów bezpieczeństwa. Zarządzanie akumulacją ryzyka w świecie, w którym jeden błąd w oprogramowaniu może dotknąć tysiące podmiotów jednocześnie, wymaga od asekuratorów precyzyjnego kalibrowania apetytu na ryzyko. Dla podmiotów gospodarczych oznacza to, że polisa cybernetyczna nie jest już produktem, który można po prostu kupić. Jest ona wynikiem skomplikowanego procesu weryfikacji dojrzałości cyfrowej. Ubezpieczyciele coraz częściej wymagają wdrożenia zaawansowanych architektur, takich jak Zero Trust, wieloskładnikowe uwierzytelnianie czy restrykcyjne protokoły zarządzania uprawnieniami, uznając je za fundament zdolności do bycia ubezpieczonym.

    Synergia między sektorem publicznym a prywatnym staje się koniecznością w celu utrzymania płynności globalnego handlu. Przedsiębiorstwa muszą zrozumieć, że w 2026 roku odporność geopolityczna jest nierozerwalnie związana z higieną cyfrową. Brak odpowiedniego zabezpieczenia wektorów zagrożeń w sieci może prowadzić do sytuacji, w której firma staje się nieubezpieczalna, co w konsekwencji odcina ją od kontraktów z kluczowymi partnerami wymagającymi wysokich gwarancji bezpieczeństwa.

    Choć nikt nie posiada bezpośredniego wpływu na decyzje zapadające w gabinetach dyplomatycznych czy ruchy wojsk w strategicznych korytarzach energetycznych, każdy podmiot gospodarczy ma wpływ na szczelność własnych korytarzy danych. To właśnie inwestycja w cyfrową tarczę oraz strategiczne partnerstwo z nowoczesnym sektorem ubezpieczeniowym stają się gwarantem przetrwania. Najskuteczniejszą formą budowania cyfrowego pokoju wewnątrz organizacji jest dziś świadoma i precyzyjna wycena ryzyka, która transformuje niepewność geopolityczną w mierzalny i zarządzalny parametr biznesowy.

    W kontekście nadchodzących lat, kluczowym wyzwaniem dla biznesu będzie adaptacja do coraz bardziej restrykcyjnych wymogów ubezpieczycieli. Fakt, że polisa staje się „certyfikatem dojrzałości”, wymusza na firmach odejście od reaktywnego naprawiania luk na rzecz proaktywnego budowania odporności. Warto traktować ten proces nie jako dodatkowe obciążenie kosztowe, lecz jako niezbędną inwestycję w wiarygodność na globalnym rynku, gdzie zaufanie jest najtrudniejszą do odbudowania walutą.

  • Fuzja w Grupie OEX. Powstaje LVL UP Commerce do obsługi marketplace’ów

    Fuzja w Grupie OEX. Powstaje LVL UP Commerce do obsługi marketplace’ów

    W handlu elektronicznym, gdzie dominacja gigantów pokładowych wymusza na markach obecność na dziesiątkach platform jednocześnie, kluczowym wyzwaniem staje się nie sama sprzedaż, lecz operacyjna biegłość. Grupa OEX wykonuje właśnie ruch mający uprościć tę złożoność, łącząc spółki LVL UP Media i SellerSwitch pod nowym szyldem: LVL UP Commerce.

    Fuzja ta nie jest jedynie kosmetyczną zmianą brandingu, lecz strategiczną odpowiedzią na rosnące zapotrzebowanie segmentu enterprise na pełny outsourcing modelu Direct-to-Consumer (D2C). Nowy podmiot oferuje obsługę na ponad 20 marketplace’ach w modelu „plug-and-play”. To sygnał, że rynek doradztwa e-commerce przesuwa się od prostego wsparcia technicznego w stronę pełnej odpowiedzialności za wynik i zarządzania całym łańcuchem wartości – od strategii po logistykę i obsługę klienta.

    Adam Wysocki, CEO LVL UP Commerce, podkreśla, że duże marki poszukują dziś przewidywalności kosztowej i wysokiej jakości raportowania. W modelu proponowanym przez spółkę, klient nie musi koordynować pracy kilku rozproszonych agencji. Zamiast tego otrzymuje zintegrowany zespół i narzędzia oparte na autorskich metodykach analitycznych. To właśnie podejście data-driven ma być głównym wyróżnikiem nowej struktury. Wykorzystanie AI oraz zaawansowanych dashboardów do identyfikacji nisz produktowych czy badania wrażliwości cenowej pozwala na podejmowanie decyzji w oparciu o twarde dane, co w dobie rosnącej konkurencji o uwagę konsumenta jest niezbędne.

    Z biznesowego punktu widzenia, kluczowe znaczenie ma przynależność do Grupy OEX. Zapewnia to LVL UP Commerce stabilność finansową oraz zaplecze kompetencyjne, które trudno zbudować samodzielnym butikom e-commerce. W erze, w której marketplace’y i retail media stają się głównymi kanałami budowania świadomości marki, skonsolidowane podejście do obecności online może okazać się jedyną drogą do zachowania rentowności.

  • Klarna i eBay łączą siły w Polsce: Nowa funkcja odsprzedaży w aplikacji

    Klarna i eBay łączą siły w Polsce: Nowa funkcja odsprzedaży w aplikacji

    W świecie fintechu wygrywa dziś ten, kto najskuteczniej usunie tarcie z codziennych czynności. Klarna, która zdominowała segment płatności odroczonych, wykonuje właśnie kolejny krok w stronę stania się kompleksowym systemem operacyjnym dla handlu. Poprzez rozszerzenie partnerstwa z eBay na sześć nowych rynków – w tym Polskę, Kanadę i Australię – szwedzki fintech zamienia historię transakcji swoich użytkowników w aktywny ekosystem odsprzedaży.

    Integracja pozwala konsumentom wystawiać przedmioty na eBay bezpośrednio z poziomu aplikacji Klarna za pomocą kilku kliknięć. Kluczem do sukcesu nie jest tu sama obecność na platformie aukcyjnej, ale automatyzacja: dane o produkcie, zdjęcia i opisy są zaciągane z historii zakupowej. To klasyczny przykład „recommerce” wbudowanego w interfejs finansowy, który eliminuje największą barierę handlu z drugiej ręki – uciążliwy proces tworzenia ogłoszenia.

    Z perspektywy biznesowej ruch ten jest majstersztykiem budowania retencji. Od grudnia 2024 roku użytkownicy w USA i Wielkiej Brytanii wygenerowali w ten sposób ponad milion ofert. Dla Klarny to sposób na przedłużenie cyklu życia relacji z klientem poza moment autoryzacji płatności. Zamiast być tylko „rurą” przesyłającą pieniądze, fintech staje się platformą zarządzania majątkiem osobistym, gdzie każdy zakup jest postrzegany jako przyszły kapitał. David Sykes, CCO Klarny, słusznie zauważa, że odsprzedaż przestaje być niszowym hobby, a staje się elementem higieny finansowej.

    Dla eBay to z kolei strategiczny dopływ wysokiej jakości towarów od zweryfikowanych użytkowników. Gigant e-commerce potrzebuje narzędzi, które zintegrują go z naturalnym rytmem zakupowym konsumentów. Dane z eBay Recommerce Report są jednoznaczne: dziewięciu na dziesięciu badanych zamierza utrzymać lub zwiększyć wydatki na rzeczy używane.

    Partnerstwo to sygnalizuje szerszy trend w gospodarce cyrkularnej. Jeśli sprzedaż używanej kurtki czy telefonu jest tak samo prosta jak ich zakup na raty, recommerce przestaje być wyborem etycznym, a staje się najbardziej logicznym wyborem ekonomicznym.

  • Red Square Games pozyskuje 1 mln zł od Gravier Investment ASI

    Red Square Games pozyskuje 1 mln zł od Gravier Investment ASI

    Krakowskie studio Red Square Games, notowane na rynku NewConnect, sfinalizowało właśnie prywatną emisję akcji, pozyskując 1 mln zł od Gravier Investment ASI. Choć w skali globalnego gamingu kwota ta może wydawać się skromna, transakcja ta rzuca światło na szerszy trend: zwrot mniejszych deweloperów w stronę stabilnego, instytucjonalnego finansowania w obliczu coraz trudniejszego rynku wydawniczego.

    Przy cenie 10,24 zł za akcję serii I, spółka zdecydowała się na emisję 97 657 nowych walorów z całkowitym wyłączeniem prawa poboru dla dotychczasowych akcjonariuszy. Strategia ta, choć rozwadniająca, pozwala na błyskawiczne zasilenie kapitału obrotowego bez konieczności przechodzenia przez żmudne procesy publiczne. Dla Gravier Investment to ruch oportunistyczny – wejście w podmiot, który z dywersyfikacji przychodów uczynił swój główny atut.

    Red Square Games odchodzi od ryzykownego modelu „one-hit wonder”, charakterystycznego dla małych studiów, na rzecz hybrydowego modelu biznesowego. Spółka agresywnie buduje nogę wydawniczą w segmencie gier planszowych i karcianych (tzw. gier bez prądu), co widać po ostatnich umowach licencyjnych na takie tytuły jak Cereal Killer czy Blooming Sea. Taka dywersyfikacja portfela pozwala na stabilizację przepływów pieniężnych w okresach między premierami dużych tytułów wideo, co dla inwestorów typu ASI jest sygnałem dojrzałości zarządczej.

    Prezes Krzysztof Wolicki podkreśla, że zastrzyk gotówki zostanie przeznaczony na skalowanie działalności operacyjnej i przyspieszenie prac produkcyjnych. W praktyce oznacza to, że Red Square Games próbuje uciec do przodu – w stronę średniej wielkości produkcji (AA), które mają większą szansę na przebicie się w zatłoczonych sklepach cyfrowych.

    Pytaniem otwartym pozostaje, czy 1 mln zł wystarczy na realizację ambitnych planów wydawniczych w 2026 roku. Biorąc jednak pod uwagę tempo, w jakim spółka zabezpiecza prawa do dystrybucji nowych tytułów, dzisiejsza emisja wygląda na fundament pod większą rundę finansowania lub strategiczne przejęcie w nadchodzących kwartałach.