Tag: Oprogramowanie

  • Ekonomia open source: kto płaci za kod, na którym działa świat?

    Ekonomia open source: kto płaci za kod, na którym działa świat?

    Każdego dnia, sięgając po smartfon, uruchamiając ulubiony serial czy wysyłając służbowego maila, uczestniczymy w cichym cudzie współczesnej technologii. Pod lśniącą powierzchnią aplikacji i usług leży niewidzialny fundament – oprogramowanie open source.

    To miliony linijek kodu, napisane, udoskonalone i udostępnione światu za darmo przez globalną społeczność. Ten kod jest krwiobiegiem internetu i szkieletem rewolucji AI.

    Jednak ten cyfrowy świat, wzniesiony na idei wolności i współpracy, skrywa głęboki paradoks. Globalna gospodarka opiera się na infrastrukturze tworzonej w dużej mierze przez wolontariuszy, często balansujących na granicy wypalenia zawodowego.

    To tak, jakby globalne szlaki handlowe opierały się na mostach budowanych hobbystycznie po godzinach. Jak długo taka struktura może wytrzymać? Kto tak naprawdę płaci za kod, na którym wszyscy polegamy?

    Niewidzialny fundament: nasza globalna zależność

    Oprogramowanie open source nie jest już alternatywą. Stało się domyślnym budulcem cyfrowego świata. Twarde dane malują obraz niemal całkowitej zależności. Analiza przeprowadzona przez Synopsys w 2024 roku wykazała, że aż 96% zbadanych komercyjnych baz kodu zawierało komponenty open source.

    Co więcej, średnio 77% całego kodu w tych aplikacjach pochodziło właśnie z otwartych źródeł. To nie jest już kwestia wykorzystywania pojedynczych bibliotek – to budowanie całych systemów na fundamencie stworzonym przez społeczność.

    Skala tej zależności staje się jeszcze bardziej uderzająca, gdy spojrzymy na dynamikę konsumpcji. W 2024 roku prognozowano, że całkowita liczba pobrań pakietów open source sięgnie niewyobrażalnej liczby 6,6 biliona.

    Sam ekosystem npm (JavaScript) odpowiadał za 4,5 biliona żądań, notując 70% wzrost rok do roku, podczas gdy napędzany przez AI ekosystem Pythona (PyPI) wzrósł o 87%, osiągając 530 miliardów pobrań.

    Przeciętna aplikacja komercyjna jest dziś skomplikowaną mozaiką złożoną średnio z 526 różnych komponentów open source. Każdy z nich ma własny cykl życia, własnych opiekunów i własne potencjalne problemy.   

    Pęknięcia w fundamencie: kod zombie i pobudka zwana Log4j

    Wszechobecność open source jest mieczem obosiecznym. Ta sama łatwość, z jaką deweloperzy mogą włączać do swoich projektów gotowe komponenty, prowadzi do systemowych zaniedbań. Dane są alarmujące: aż 91% zbadanych komercyjnych baz kodu zawiera komponenty, które są o dziesięć lub więcej wersji przestarzałe.

    Problem ten prowadzi do powstania tzw. „kodu zombie” – komponentów, które nie miały żadnej aktywności deweloperskiej od ponad dwóch lat. Zjawisko to dotyczy niemal połowy (49%) aplikacji na rynku.

    Oznacza to, że firmy budują swoje krytyczne systemy na porzuconych projektach, bez aktywnego wsparcia i, co najważniejsze, bez poprawek bezpieczeństwa. Konsekwencją jest tykająca bomba zegarowa: w ciągu zaledwie jednego roku odsetek baz kodu zawierających luki bezpieczeństwa o wysokim ryzyku wzrósł z 48% do 74%.

    Nic nie ilustruje tego ryzyka lepiej niż incydent z grudnia 2021 roku, kiedy świat dowiedział się o luce w Log4j. Ta niewielka, darmowa biblioteka Javy, służąca do zapisywania logów, okazała się być wbudowana w miliony aplikacji na całym świecie.

    Luka, nazwana Log4Shell, otrzymała maksymalną ocenę krytyczności 10/10. Atakujący mógł przejąć pełną kontrolę nad serwerem, wysyłając prosty ciąg znaków. Dyrektorka amerykańskiej agencji CISA, Jen Easterly, nazwała ją „jedną z najpoważniejszych luk, jakie widziała w całej swojej karierze”.

    Incydent Log4j stał się globalną pobudką, brutalnie uświadamiając firmom, jak bardzo ich bezpieczeństwo zależy od pracy anonimowych wolontariuszy.

    Co gorsza, nawet trzy lata po odkryciu Log4Shell, aż 13% wszystkich pobrań biblioteki Log4j to wciąż wersje podatne na atak. To dowód na głęboką bezwładność organizacji, które nie aktualizują swoich zależności nawet w obliczu powszechnie znanego, krytycznego zagrożenia.   

    Ludzki koszt „darmowego” oprogramowania: brzemię opiekuna

    Za każdym wierszem kodu stoją ludzie. Model, który traktuje ich pracę jako darmowy zasób, generuje ogromne koszty ludzkie. Salvatore Sanfilippo, twórca bazy danych Redis, opisał to zjawisko jako „efekt zalewu”.

    Z czasem strumień maili, zgłoszeń na GitHubie i pytań zamienia się w niekończącą się powódź, która prowadzi do poczucia winy z powodu niemożności udzielenia pomocy wszystkim.   

    Skalę tej presji ilustruje przykład Jeffa Geerlinga, który opiekuje się ponad 200 projektami. Każdego dnia otrzymuje od 50 do 100 powiadomień, z czego jest w stanie zająć się jedynie ułamkiem.

    Nolan Lawson, inny znany maintainer, trafnie ujął emocjonalny ciężar tej pracy. Powiadomienia na GitHubie to „ciągły strumień negatywności”. Nikt nie otwiera zgłoszenia, by pochwalić działający kod. Ludzie piszą tylko wtedy, gdy coś jest nie tak.   

    Ta chroniczna presja prowadzi do wypalenia, które w kontekście open source ma jasno zdefiniowane przyczyny: roszczeniowość użytkowników, niska jakość kontrybucji, brak czasu i, co najbardziej dotkliwe, brak wynagrodzenia.

    Świadomość, że praca, która pochłania ogromne ilości energii, jest fundamentem dla komercyjnych produktów przynoszących innym realne zyski, jest niezwykle demotywująca. Jak ujął to jeden z maintainerów:    

    „Moje oprogramowanie jest gratis, ale mój czas i uwaga nie są”. Wypalenie opiekuna to nie jest jedynie osobista tragedia. To krytyczne ryzyko dla globalnej infrastruktury.

    „Kod zombie” jest bezpośrednim, mierzalnym symptomem tego kryzysu na poziomie ludzkim.   

    Nowa ekonomia kodu: W Stronę Zrównoważonej Przyszłości

    W obliczu tych ryzyk, ekosystem open source powoli dojrzewa, przechodząc od modelu opartego na wolontariacie do bardziej zrównoważonych form finansowania.

    1. Korporacyjni mecenasi: strategia, a nie altruizm

    Na czele tej transformacji stoją giganci technologiczni. Firmy takie jak Google, Microsoft i Red Hat od lat są największymi kontrybutorami do świata open source. Ich motywacje nie są jednak altruistyczne – to chłodna, strategiczna kalkulacja.

    Wspólne rozwijanie fundamentalnych komponentów (jak systemy operacyjne czy konteneryzacja) jest po prostu bardziej efektywne. Pozwala to konkurować na wyższym poziomie, w obszarach, które bezpośrednio wyróżniają ich produkty.

    Angażując się w kluczowe projekty, korporacje mogą też wpływać na ich kierunek rozwoju, zapewniając zgodność z własną strategią.   

    2. Siła instytucji: rola fundacji

    Drugim filarem są fundacje non-profit, takie jak Linux Foundation i Apache Software Foundation. Działają one jako neutralni powiernicy dla najważniejszych projektów, zapewniając im stabilność i niezależność od pojedynczej korporacji.

    Gromadzą składki od sponsorów, tworząc budżet, który pozwala na finansowanie kluczowych deweloperów i audyty bezpieczeństwa.   

    3. Rewolucja twórców: model GitHub Sponsors

    Obok wielkich graczy narodziła się nowa, oddolna fala finansowania. Platformy takie jak GitHub Sponsors umożliwiają bezpośrednie, cykliczne wpłaty od użytkowników i firm, tworząc strumień przychodów dla maintainerów.   

    Historia Caleba Porzio, twórcy narzędzi Livewire i AlpineJS, jest najlepszym przykładem potencjału tego modelu. Stojąc na granicy wypalenia, postanowił spróbować sił w programie GitHub Sponsors.

    Prawdziwy przełom nastąpił, gdy zmienił paradygmat: zamiast prosić o wsparcie, postanowił zaoferować swoim sponsorom dodatkową, ekskluzywną wartość. Jego sekretem okazały się płatne screencasty – serie tutoriali wideo.

    Dostęp do pełnej biblioteki zarezerwował wyłącznie dla osób wspierających go na GitHubie. Efekt był spektakularny. Jego roczne przychody wzrosły o 80 000 USD w ciągu 90 dni, a w kolejnych latach przekroczyły próg miliona dolarów.

    To kluczowa lekcja: zrównoważony model nie musi opierać się na dobroczynności, ale na budowaniu realnego modelu biznesowego wokół darmowego, otwartego rdzenia.   

    Od pasażera na gapę do interesariusza

    „Darmowe” oprogramowanie nigdy nie było darmowe. Jego cenę, do tej pory ukrytą, płacono czasem, energią i zdrowiem psychicznym globalnej armii wolontariuszy. Model, w którym traktowaliśmy ich pracę jak niewyczerpywalny zasób, dobiega końca.

    Nadszedł czas, aby każdy uczestnik tego ekosystemu przeszedł transformację – od biernego „pasażera na gapę” do aktywnego interesariusza.

    Wymaga to konkretnych działań. Deweloperzy muszą praktykować „higienę oprogramowania” – regularnie aktualizować zależności i świadomie zarządzać długiem technicznym.

    Firmy muszą traktować open source jako krytyczny element łańcucha dostaw, tworząc „spisy komponentów oprogramowania” (SBOM) i inwestując w kluczowe dla biznesu projekty. Inwestowanie w open source to nie koszt, to ubezpieczenie ciągłości działania.   

    Stoimy u progu nowej ery dla open source – ery profesjonalizacji i zrównoważonego rozwoju. Przyszłość, w której twórcy są sprawiedliwie wynagradzani, a globalna infrastruktura cyfrowa jest bezpieczna, jest w naszym zasięgu. Jej zbudowanie wymaga jednak świadomego wysiłku od każdego z nas.

  • Czy AI zabije tradycyjne oprogramowanie? Giganci technologii walczą o rynek

    Czy AI zabije tradycyjne oprogramowanie? Giganci technologii walczą o rynek

    W Dolinie Krzemowej narasta debata, która w zeszłym miesiącu kosztowała sektor oprogramowania niemal bilion dolarów rynkowej wyceny. Pytanie jest fundamentalne: czy generatywna sztuczna inteligencja, zdolna do samodzielnego pisania kodu i automatyzacji procesów, uczyni tradycyjne platformy SaaS zbędnymi? Liderzy branży, od Oracle po Salesforce, ruszyli do kontrataku, argumentując, że ich największym atutem nie jest sam kod, lecz unikalne dane, na których operują.

    Mike Sicilia z Oracle oraz Marc Benioff z Salesforce jednym głosem odrzucają wizję „programistycznej apokalipsy”. Podczas ostatnich spotkań z analitykami obaj podkreślali, że AI nie jest zagrożeniem egzystencjalnym, lecz turbodoładowaniem dla istniejących systemów. Oracle, którego akcje wzrosły o 10% po optymistycznych prognozach, stawia na elastyczność i głębokie osadzenie w procesach finansowych oraz logistycznych. Według analityków to właśnie posiadanie „zastrzeżonych danych” (proprietary data) stanowi najskuteczniejszą fosę chroniącą przed nowymi graczami, takimi jak Anthropic.

    Mimo pewności siebie gigantów, rynek pozostaje sceptyczny wobec firm, których dane są łatwiejsze do zastąpienia. Przykładem jest Workday, którego kurs akcji mocno ucierpiał. Choć firma zarządza ogromnymi zasobami informacji kadrowych, krytycy zauważają, że dane HR często podlegają sztywnym, ustandaryzowanym formatom. To czyni je bardziej podatnymi na replikację przez zwinne modele AI.

    Aneel Bhusri, powracający na stanowisko CEO Workday, podnosi jednak istotny argument techniczny: dzisiejsza sztuczna inteligencja jest probabilistyczna – opiera się na prawdopodobieństwie i wzorcach. Tymczasem krytyczne systemy korporacyjne muszą być deterministyczne; muszą za każdym razem dostarczać ten sam, precyzyjny wynik, szczególnie w obszarze płac czy księgowości.

    Zamiast nekrologów, obserwatorzy rynku sugerują ewolucję. Salesforce promuje swoją platformę Agentforce, a Oracle integruje AI z całym stosem technologicznym, od bazy danych po aplikacje końcowe. Przewaga tradycyjnych graczy wynika z kosztów zmiany (switching costs) – firmy spędziły dekady, budując operacje wokół tych narzędzi. Choć AI obniża barierę tworzenia nowego oprogramowania, nie zastąpi tak łatwo dekad doświadczenia w zarządzaniu złożonymi procesami biznesowymi.

  • Czy AI to koniec SaaS? Mit darmowego kodu w biznesie

    Czy AI to koniec SaaS? Mit darmowego kodu w biznesie

    W debacie publicznej dotyczącej przyszłości technologii coraz częściej pojawia się teza, która budzi u jednych euforię, a u innych egzystencjalny lęk. Jej treść jest zwodniczo prosta: skoro sztuczna inteligencja potrafi wygenerować kompletny kod aplikacji w kilka sekund, to marginalny koszt wytworzenia oprogramowania spada do zera. Wobec faktu, że każdy użytkownik wyposażony w zaawansowany model językowy może w jedno popołudnie odtworzyć architekturę potężnego systemu, tradycyjne firmy oparte na modelu Software as a Service miałyby rzekomo stracić rację bytu. Wizja ta opiera się na fundamentalnym błędzie poznawczym. Mylenie składni kodu z usługą biznesową to pułapka, która ignoruje istotę współczesnej gospodarki cyfrowej.

    Prawdziwa wartość oprogramowania nigdy nie tkwiła w samym zapisie instrukcji binarnych, lecz w obietnicy, jaką ten zapis realizuje. Obecna fascynacja darmowym kodem przypomina zachwyt nad faktem, że papier i atrament są tanie, co rzekomo miałoby pozbawić wartości umowy notarialne czy analizy finansowe. Tymczasem rola tradycyjnego modelu SaaS ulega drastycznemu wzmocnieniu. Staje się on tarczą oddzielającą klienta od chaosu i nieprzewidywalności generatywnych algorytmów.

    Rozważając ekonomiczny fundament tej tezy, warto przyjrzeć się strukturze finansowej dojrzałych przedsiębiorstw technologicznych. Przekonanie o rychłej śmierci branży zakłada, że proces programowania stanowi lwią część wydatków firmy. Rzeczywistość operacyjna rysuje jednak zupełnie inny obraz. W dojrzałych modelach biznesowych budżet na badania i rozwój oscyluje zazwyczaj w granicach jednej czwartej całkowitych przychodów, a sam proces fizycznego pisania kodu to zaledwie ułamek pracy inżynierskiej. Większość zasobów pochłaniają decyzje architektoniczne, modelowanie domenowe oraz interpretacja zawiłych wymagań użytkownika. Matematyka jest tu nieubłagana: wpływ sztucznej inteligencji na strukturę kosztów całkowitych wynosi realnie kilka do kilkunastu procent. To optymalizacja, a nie rewolucja budżetowa.

    Co więcej, oszczędności wygenerowane na etapie tworzenia kodu są błyskawicznie konsumowane przez rosnące koszty operacyjne. Oprogramowanie oparte na inteligencji nie funkcjonuje w próżni; wymaga ono ogromnej mocy obliczeniowej. Każde zapytanie skierowane do inteligentnego systemu generuje koszt wyższy niż tradycyjne odwołanie do bazy danych. W efekcie bariera wejścia dla nowych graczy, którzy chcieliby konkurować wyłącznie ceną „darmowego kodu”, pozostaje niezwykle wysoka. Nie można trwale podciąć rynku, gdy koszty procesowe rosną wraz z ambicjami algorytmów.

    W relacjach B2B zaufanie jest walutą rzadszą niż moc obliczeniowa. Korporacje nie płacą za zbiór funkcji, lecz za dostępność systemu na poziomie przekraczającym dziewięćdziesiąt dziewięć procent czasu, za zgodność z rygorystycznymi normami bezpieczeństwa oraz za pewność, że dane są przetwarzane zgodnie z literą prawa. Klon systemu klasy ERP czy CRM wygenerowany przez sztuczną inteligencję pozostaje jedynie cyfrową makietą. Brakuje mu zaplecza prawnego, certyfikacji i gwarancji ciągłości biznesowej, które stanowią o bezpieczeństwie operacyjnym klienta.

    Pojawia się jednak problem „prawdopodobnej słuszności”. W sektorach krytycznych, takich jak bankowość, medycyna czy globalna logistyka, wynik, który jest „prawie dobry”, jest w rzeczywistości całkowicie błędny. Systemy te wymagają deterministycznego kręgosłupa – struktury, która za każdym razem, bez względu na okoliczności, dostarczy ten sam, przewidywalny rezultat. Prawdziwie pożądanym oprogramowaniem nie jest to, które zostało w całości napisane przez sztuczną inteligencję, lecz to, które zostało zaprojektowane tak, aby mogło być przez nią bezpiecznie i przewidywalnie zarządzane.

    Warto zatem podkreślić, że unikalność rozwiązania nie płynie z faktu posiadania kodu, lecz z umiejętności zamiany technologii w trwałą wartość użytkową. Strach przed dewaluacją branży IT jest pochodną błędnego założenia, że oprogramowanie jest produktem końcowym. Tymczasem oprogramowanie jest jedynie nośnikiem usługi. W miarę jak technologia staje się coraz bardziej skomplikowana i nieprzewidywalna, klienci będą skłonni płacić coraz więcej za kogoś, kto tę złożoność oswoi i weźmie za nią pełną odpowiedzialność. SaaS przechodzi proces dojrzałej transformacji. Przestaje być narzędziem do edycji danych, a staje się gwarantem stabilności w niepewnym środowisku cyfrowym.

  • Efekt Claude’a: Czy nowe wtyczki Anthropic zatopią tradycyjny software?

    Efekt Claude’a: Czy nowe wtyczki Anthropic zatopią tradycyjny software?

    W Dolinie Krzemowej i światowych centrach finansowych zaczyna dominować narracja, której jeszcze rok temu nikt by się nie spodziewał: wyniki finansowe przestały wystarczać. Mimo że giganci tacy jak Alphabet czy Amazon raportują solidne wzrosty w segmencie cloud computingu, rynki reagują nerwowo. Inwestorzy, zamiast świętować zyski, z niepokojem patrzą na rachunki wystawiane przez rewolucję AI.

    Skala wydatków jest bezprecedensowa. Czterej najwięksi hiperskalerzy zasygnalizowali plany inwestycyjne przekraczające 600 miliardów dolarów w samym tylko bieżącym roku. Neil Wilson, strateg inwestycyjny w Saxo UK, wprost sugeruje, że nad rynkiem unosi się widmo bańki. To już nie jest faza eksperymentów – to brutalna wojna na wyniszczenie kapitałowe, w której wejście do gry kosztuje setki miliardów dolarów, a zwrot z inwestycji (ROI) pozostaje mglistą obietnicą przyszłości.

    Architektura strachu

    Niepokój nie ogranicza się jednak tylko do wydatków. Prawdziwe trzęsienie ziemi wywołały nowe narzędzia od Anthropic, które uderzyły w fundamenty tradycyjnych dostawców oprogramowania i analityki danych. Spadki takich graczy jak RELX, Sage czy Experian o 2–5% w ciągu jednego dnia pokazują, że rynek obawia się „kanibalizacji” dotychczasowych modeli biznesowych przez zwinne, nowe wtyczki Claude’a.

    Szczególnie dotkliwie odczuwają to Indie, gdzie sektor outsourcingu IT stracił w tydzień 22,5 miliarda dolarów wartości rynkowej. Jeśli algorytmy mogą pisać kod i analizować dane szybciej oraz taniej niż armie programistów, tradycyjny model usług technologicznych wymaga natychmiastowej redefinicji.

    Ryzyko kapitałowe vs. operacyjne

    Zjawisko to tworzy specyficzny imas w biznesie technologicznym. Z jednej strony, firmy muszą inwestować, by nie zostać w tyle. Z drugiej – każda zapowiedź zwiększenia CAPEX-u (nakładów inwestycyjnych) skutkuje natychmiastową karą od akcjonariuszy. Amazon, mimo świetnej kondycji operacyjnej, stracił 8% w handlu przedrynkowym właśnie przez „szaleństwo wydatków”.

    Dla liderów biznesu płynie stąd jasny komunikat: era bezwarunkowego optymizmu wobec AI dobiegła końca. Teraz liczy się nie to, ile firma wyda na GPU, ale jak szybko te inwestycje przełożą się na realną przewagę konkurencyjną, która obroni się przed nową falą automatyzacji. Wyceny rynkowe zaczynają premiować nie wizjonerów, lecz pragmatyków potrafiących zarządzać kosztem innowacji.

  • Wydatki na IT dwóch prędkości. AI zjada tradycyjne IT

    Wydatki na IT dwóch prędkości. AI zjada tradycyjne IT

    Jesteśmy świadkami głębokiej polaryzacji rynku technologicznego

    Z jednej strony obserwujemy segmenty o gwałtownym wzroście. Ogromne inwestycje płyną w kierunku budowy wyspecjalizowanych centrów obliczeniowych dla sztucznej inteligencji. Są one napędzane strategiczną presją i obawą przed utratą konkurencyjności.

    Z drugiej strony, w strefie wyraźnej ostrożności, znajdują się fundamentalne systemy biznesowe i aplikacje branżowe. Ich rozwój jest hamowany przez okres biznesowej niepewności oraz wyczerpanie organizacji ciągłymi zmianami.

    Problem polega na tym, że branża intensywnie inwestuje w budowę potężnych silników obliczeniowych, ale zaniedbuje modernizację systemów operacyjnych, które miałyby z tej mocy efektywnie korzystać.

    Masowa moc obliczeniowa

    Nie ma wątpliwości, co jest katalizatorem szybkiego wzrostu. Gartner wprost mówi o rywalizacji w budowie infrastruktury AIy i rosnącym popycie na serwery zoptymalizowane pod kątem sztucznej inteligencji. To działanie reaktywne, a nie wyłącznie spokojne, strategiczne planowanie.

    Tę dynamikę napędza potężna narracja o nowej rewolucji przemysłowej, wymagającej dedykowanych mocy obliczeniowych. To redefiniuje postrzeganie wydatków na IT – przestają być one kosztem operacyjnym, a stają się strategiczną inwestycją na miarę budowy kluczowej infrastruktury przemysłowej.

    Co więcej, Gartner słusznie zauważa, że wzrost popytu na serwery pozostaje ograniczony przez niedostateczną podaż. Taka sytuacja rynkowa nieuchronnie prowadzi do zachowań dyktowanych obawą o dostępność zasobów. Organizacje kupują moc obliczeniową nie tylko dlatego, że mają natychmiastowy plan jej wykorzystania, ale również dlatego, że boją się utraty dostępu do niej w przyszłości.

    Potwierdzają to analitycy. Z ich komentarzy wynika, że obecne wydatki na generatywną AI pochodzą głównie od firm technologicznych budujących samą infrastrukturę. Powstają fundamenty, ale co z budynkiem, który ma na nich stanąć?

    2025 Wydatki2025 Wzrost (%)2026 Wydatki2026 Wzrost (%)
    Systemy centrów danych489 45146,8582 44619
    Urządzenia783 1578,4836 2756,8
    Oprogramowanie1 244 30811,91 433 03715,2
    Usługi IT1 719 3406,51 869 2698,7
    Communication services1 304 1653,81 363 0584,5
    Ogólne IT5 540 421106 084 0859,8

    Stagnacja

    Tu właśnie docieramy do drugiej, wolniejszej sfery rynku, gdzie panuje zupełnie inny klimat biznesowy.

    Raport Gartnera, będący punktem wyjścia naszej analizy, jest w tej kwestii jednoznaczny: wzrost wydatków na oprogramowanie i usługi nie odradza się w tym samym tempie. W szczególności oprogramowanie specyficzne dla danej branży – czyli kluczowe systemy zarządzające finansami, logistyką czy produkcją – jest najbardziej wrażliwe na wahania koniunktury i niepewność polityczną.

    Stajemy przed fundamentalnym paradoksem: zarząd jest gotów zatwierdzić wielomilionową inwestycję w klastry GPU, ale jednocześnie odkłada decyzję o modernizacji starzejącego się systemu ERP lub CRM.

    Jak to możliwe? Odpowiedzi należy szukać w redystrybucji zasobów i czynnikach ludzkich.

    Po pierwsze, budżety IT nie są nieograniczone. Inne analizy rynkowe wskazują, że prognozowany wzrost całkowitych budżetów IT na 2025 rok jest skromny, często plasując się poniżej historycznej średniej. Jeśli więc wydatki na AI rosną w tempie wykładniczym, a cały budżet rośnie liniowo, musi to oznaczać, że inwestycje w AI pochłaniają zasoby kosztem innych projektów.

    Po drugie, w organizacjach panuje marazm decyzyjny. Po latach intensywnej transformacji cyfrowej, wymuszonej przez pandemię, menedżerowie wykazują mniejszą gotowość do rozpoczynania kolejnych złożonych, wieloletnich projektów modernizacyjnych.

    Syndrom zawiedzionych oczekiwań

    Ten rosnący rozdźwięk między tempem inwestycji w infrastrukturę a gotowością aplikacji biznesowych prowadzi nas prosto w pułapkę. To scenariusz, w którym początkowy entuzjazm zderza się z twardą rzeczywistością implementacyjną, prowadząc do głębokiego rozczarowania.

    Wkrótce wiele organizacji może stanąć przed faktem posiadania najnowocześniejszych centrów AI, które będą pracować na jałowym biegu. Powód jest prosty: algorytmy sztucznej inteligencji wymagają paliwa w postaci wysokiej jakości, uporządkowanych danych. Te dane natomiast bardzo często tkwią uwięzione w przestarzałych, monolitycznych systemach dziedziczonych – właśnie tych z obszaru dotkniętego stagnacją.

    AI ma optymalizować łańcuch dostaw? Doskonały pomysł, pod warunkiem, że systemy logistyczne dostarczą danych w czasie rzeczywistym. AI ma personalizować interakcje z klientem? Niezbędny jest do tego nowoczesny, zintegrowany system CRM.

    Analitycy, komentując rynek PC, zauważają, że nowe komputery gotowe na AI nie mają jeszcze kluczowych aplikacji, które uzasadniałyby wymianę sprzętu. Ta sama zasada, choć w znacznie większej skali, dotyczy centrów danych. Budujemy infrastrukturę pod aplikacje, które jeszcze nie powstały, jednocześnie zaniedbując modernizację systemów, które są niezbędne do ich funkcjonowania.

    Strategia = integracja

    Ten dwoisty model rynku IT jest w dłuższej perspektywie nieefektywny i obarczony wysokim ryzykiem strategicznym. W 2026 roku przewagi konkurencyjnej nie zbudują te organizacje, które jedynie zgromadziły największą moc obliczeniową. Zwycięzcami będą ci, którzy potrafili ją głęboko i strategicznie zintegrować ze swoimi kluczowymi procesami biznesowymi.

    Oznacza to, że największym wyzwaniem dla dyrektorów IT nie jest dziś sam zakup technologii. Jest nim zapewnienie spójności inwestycyjnej.

    Rola CIO ewoluuje. Z zarządcy technologii staje się on kluczowym strategiem, odpowiedzialnym za synchronizację szybkiego rozwoju infrastruktury z niezbędną modernizacją fundamentów biznesowych.

    Jeśli ta synchronizacja nie nastąpi, prognozowane 6 bilionów dolarów, zamiast świadectwem rewolucji, stanie się pomnikiem globalnej inwestycji w potencjał, który nigdy nie został w pełni zrealizowany.

  • Przewaga konkurencyjna dzięki technologii: Kiedy warto inwestować w oprogramowanie na zamówienie?

    Przewaga konkurencyjna dzięki technologii: Kiedy warto inwestować w oprogramowanie na zamówienie?

    Wybór oprogramowania wspierającego biznes to jedna z kluczowych decyzji strategicznych, przed jakimi stają managerowie. Dylemat „budować czy kupować?” wykracza daleko poza finanse i technologię, definiując ścieżkę rozwoju firmy na lata. Błędny wybór może prowadzić do nieefektywności, utraty przewagi konkurencyjnej, a nawet utknięcia w kosztownej pułapce technologicznej. Choć gotowe rozwiązania kuszą szybkością wdrożenia, w strategicznie zdefiniowanych okolicznościach oprogramowanie na zamówienie generuje znacznie wyższy długoterminowy zwrot z inwestycji (ROI).

    Analiza kosztów: mit taniego startu

    Jednym z najczęstszych błędów jest kierowanie się wyłącznie ceną zakupu. Pełny obraz finansowy daje dopiero analiza Całkowitego Kosztu Posiadania (TCO), uwzględniająca wszystkie wydatki w perspektywie 3-5 lat. Oprogramowanie gotowe, zwłaszcza w modelu SaaS, charakteryzuje się niskim progiem wejścia, ale stałymi, cyklicznymi opłatami subskrypcyjnymi. Z kolei oprogramowanie na zamówienie wymaga wyższej inwestycji początkowej, po której następują jedynie przewidywalne koszty utrzymania, stanowiące zwykle 15-25% pierwotnej kwoty.

    W praktyce prowadzi to do zjawiska „punktu przecięcia kosztów”. Zazwyczaj po 2-3 latach skumulowane opłaty za rozwiązanie gotowe zrównują się z kosztem stworzenia oprogramowania na zamówienie, a w kolejnych latach zaczynają go znacząco przewyższać. Dochodzą do tego koszty ukryte, takie jak opłaty za dodatkowych użytkowników, integracje czy manualne obejścia dla brakujących funkcji, które mogą podnieść całkowite wydatki nawet o 40% ponad pierwotne założenia.

    Strategiczna wartość: od narzędzia do przewagi konkurencyjnej

    Najważniejszą zaletą oprogramowania na zamówienie jest jego idealne dopasowanie do unikalnych procesów biznesowych firmy. Zamiast zmuszać organizację do adaptacji i kompromisów, oprogramowanie to adaptuje się do niej. Gotowe systemy, projektowane dla „przeciętnego” użytkownika, często wymuszają modyfikację sprawdzonych, unikalnych operacji. Prowadzi to do ukrytego „podatku od procesu”, czyli ciągłej utraty efektywności wynikającej z naginania działań do sztywnych ram narzuconych przez narzędzie.

    Wybór oprogramowania na zamówienie przekształca technologię z ogólnodostępnego narzędzia w zastrzeżony zasób intelektualny, którego konkurencja nie może skopiować. Pozwala to zbudować trwałą przewagę i uciec od „morza takiej samej technologii”, gdzie wszystkie firmy w branży, korzystając z tych samych platform, zaczynają działać w identyczny sposób. Dane rynkowe potwierdzają te korzyści. Firmy inwestujące w dedykowane rozwiązania notują średnio wzrost efektywności operacyjnej o 20-30%, a te, które skutecznie wdrażają personalizację, generują o 40% więcej przychodów. Aż 75% decydentów IT jest przekonanych, że takie podejście prowadzi do lepszych wyników biznesowych.

    Ocena ryzyka: pułapka zależności vs. kontrola nad projektem

    Każda decyzja technologiczna wiąże się z ryzykiem, ale jego charakter jest fundamentalnie różny. W przypadku rozwiązań gotowych największym zagrożeniem jest pułapka uzależnienia od dostawcy (vendor lock-in). Firma staje się zakładnikiem planu rozwoju produktu, zmian w cenniku, a nawet decyzji o wycofaniu usługi. Migracja do innego systemu po latach staje się technicznie złożona i finansowo nieopłacalna. Jest to ryzyko chroniczne, które narasta w czasie i wymyka się spod kontroli.

    Z kolei ryzyko związane z oprogramowaniem na zamówienie koncentruje się na początku, w fazie realizacji projektu. Wybór niedoświadczonego partnera może prowadzić do przekroczenia budżetu lub opóźnień. Jest to jednak ryzyko ostre, ale ograniczone w czasie i w pełni zarządzalne przez organizację. Po udanym wdrożeniu firma zyskuje pełną kontrolę nad technologią, jej bezpieczeństwem i danymi.

    Jak podjąć decyzję?

    Aby podjąć właściwą decyzję, manager powinien zacząć od strategicznej klasyfikacji potrzeby biznesowej. Wszystkie procesy w firmie można podzielić na dwie kategorie: towary (commodity) i wyróżniki (differentiator). Towary to standardowe funkcje, niezbędne do działania, ale niedające przewagi, jak np. systemy płacowe. W ich przypadku zakup gotowego rozwiązania jest najczęściej słusznym wyborem. Wyróżniki to unikalne procesy, autorskie algorytmy czy innowacyjne doświadczenia klienta, które stanowią o sile firmy. Dla tych obszarów należy poważnie rozważyć budowę własnego oprogramowania, aby chronić i rozwijać ten unikalny zasób.

    Inwestycja w unikalność

    Wybór między oprogramowaniem na zamówienie a gotowym rozwiązaniem to decyzja strategiczna, a nie technologiczna. Analiza TCO demaskuje mit taniego startu, a budowa własnego systemu pozwala przekuć unikalne procesy w trwałą przewagę konkurencyjną. Ostatecznie, decyzja sprowadza się do wyboru ścieżki rozwoju: opartej na adaptacji do rynkowych standardów lub na budowaniu własnej, unikalnej drogi do sukcesu.

  • Jak odpowiednie oprogramowanie CRM może zwiększyć sprzedaż w B2B

    Jak odpowiednie oprogramowanie CRM może zwiększyć sprzedaż w B2B

    W realiach wielu firm B2B proces sprzedaży przypomina chaos. Handlowcy toną w mailach, kluczowe informacje o klientach giną w notatnikach lub rozproszonych arkuszach kalkulacyjnych, a komunikacja w zespole jest niespójna. Ten operacyjny bałagan to cichy zabójca wyników. Badania pokazują, że aż 60% leadów w B2B przepada wyłącznie z powodu braku terminowego kontaktu. Sytuacja pogarsza się, gdy kluczowy handlowiec odchodzi z firmy – cała jego wiedza znika razem z nim, zrywając ciągłość biznesową. Poleganie na Excelu i poczcie e-mail to strategiczne ryzyko, które hamuje wzrost.

    CRM jako strategiczne centrum dowodzenia

    Wdrożenie systemu CRM (Customer Relationship Management) to fundamentalna zmiana filozofii biznesowej, która umieszcza klienta w centrum wszystkich działań firmy. System staje się strategicznym centrum dowodzenia, które pozwala przejść od reaktywnego gaszenia pożarów do proaktywnego zarządzania wzrostem.

    Fundamentem tej transformacji jest centralizacja danych, która tworzy tzw. widok klienta 360 stopni. Wszystkie informacje – historia kontaktów, transakcje, oferty, zgłoszenia serwisowe – są gromadzone w jednym, łatwo dostępnym miejscu. Dzięki temu każdy pracownik, niezależnie od działu, dysponuje pełnym kontekstem relacji z firmą. Eliminuje to chaos i pozwala budować spójny, profesjonalny wizerunek. Ta centralizacja tworzy w organizacji jedno źródło prawdy (Single Source of Truth), które jest kręgosłupem efektywnej współpracy i warunkiem koniecznym do wdrożenia zaawansowanych strategii, takich jak personalizacja czy automatyzacja.

    Anatomia wzrostu: jak funkcje CRM przekładają się na wyniki?

    Obietnica wzrostu sprzedaży nie jest pustym hasłem. Wynika ona z synergii kilku kluczowych mechanizmów, które system CRM uruchamia w organizacji.

    Zwiększenie produktywności zespołu

    Jednym z najlepiej udokumentowanych rezultatów wdrożenia CRM jest wzrost efektywności. Dane z badań Nucleus Research wskazują, że firmy implementujące CRM notują średni wzrost produktywności pracowników o 34%, jednocześnie obniżając koszty pracy o 27%. Dzieje się tak, ponieważ CRM automatyzuje rutynowe zadania, takie jak wysyłanie przypomnień, generowanie raportów czy przygotowywanie standardowych ofert. Uwalnia to cenny czas handlowców, którzy mogą skupić się na budowaniu relacji i finalizowaniu transakcji. Mobilny dostęp do CRM dodatkowo zwiększa produktywność pracowników w terenie średnio o 14,6%.

    Skrócenie cyklu sprzedaży

    W sprzedaży B2B czas to pieniądz. CRM bezpośrednio skraca cykl sprzedaży, co potwierdzają analizy wskazujące na redukcję tego czasu nawet o 20-30%. Jest to możliwe dzięki inteligentnej kwalifikacji leadów, która pozwala zespołowi skupić się na najbardziej obiecujących szansach. Zamiast marnować zasoby na kontakty, które nie rokują, system pozwala na ich priorytetyzację, kierując energię tam, gdzie prawdopodobieństwo sukcesu jest największe.

    Wzrost konwersji i wartości transakcji

    Dostęp do pełnej historii interakcji pozwala na tworzenie spersonalizowanych ofert, które precyzyjnie odpowiadają na potrzeby klienta, co znacząco zwiększa prawdopodobieństwo konwersji. System CRM, analizując zgromadzone dane, staje się również narzędziem do identyfikacji szans na cross-selling i upselling. Badanie Aberdeen Group wykazało, że firmy aktywnie wykorzystujące CRM w tym celu zwiększyły swoje przychody z tych działań o 32%. Dodatkowo, analiza danych z lejka sprzedażowego pozwala na tworzenie znacznie dokładniejszych prognoz. Według badań Salesforce, firmy korzystające z CRM mają o 29% większą dokładność prognoz sprzedaży.   

    CRM to maraton, a nie sprint: potęga retencji klienta

    Pozyskanie nowego klienta jest średnio 5 do 7 razy droższe niż utrzymanie obecnego. Badania opublikowane w Harvard Business Review dowodzą, że zwiększenie wskaźnika retencji klientów o zaledwie 5% może przełożyć się na wzrost zysków firmy od 25% aż do 95%.

    System CRM odgrywa kluczową rolę w budowaniu lojalności. Zapewnia doskonałą obsługę posprzedażową, śledząc wszystkie interakcje i zgłoszenia, co pozwala na szybką i spersonalizowaną reakcję. Klient, który czuje się zaopiekowany, z większym prawdopodobieństwem pozostanie z firmą na dłużej. Mierzalnym efektem takiego podejścia jest fakt, że firmy korzystające z CRM notują średnio o 9.5% wyższy wskaźnik utrzymania klientów.

    Klucz do sukcesu: jak mądrze wdrożyć CRM?

    Wdrożenie CRM to strategiczna inicjatywa, która wykracza daleko poza ramy projektu IT. Aby zmaksymalizować zwrot z inwestycji i uniknąć typowych pułapek, kluczowe jest przemyślane i wieloetapowe podejście.

    Sukces zaczyna się na długo przed wyborem konkretnego oprogramowania. Fundamentem jest dogłębna analiza obecnych procesów i precyzyjne zdefiniowanie celów, które system ma realizować. Wiele wdrożeń kończy się niepowodzeniem właśnie z powodu braku jasnej wizji. Zamiast ogólnych założeń, skuteczne firmy stosują metodologię SMART, stawiając sobie mierzalne cele, takie jak „skrócenie średniego cyklu sprzedaży o 15% w ciągu 9 miesięcy”. Taka precyzja nadaje całemu projektowi kierunek i pozwala realnie ocenić jego powodzenie.

    Kolejnym filarem jest zaangażowanie zespołu i dbałość o jakość danych. Opór pracowników to jedna z najpoważniejszych barier na drodze do sukcesu, dlatego kluczowe jest włączenie przyszłych użytkowników w proces wyboru i konfiguracji systemu. Kiedy zespół czuje się współautorem rozwiązania, jego motywacja do korzystania z nowego narzędzia naturalnie wzrasta. Równie istotna jest jakość informacji, które zasilą system. Zasada „śmieci na wejściu, śmieci na wyjściu” jest tu nieubłagana. Dlatego gruntowny audyt i czyszczenie baz danych przed migracją to absolutna konieczność, aby CRM stał się wiarygodnym źródłem wiedzy, a nie cyfrowym bałaganem.

    Wdrożenie to nie koniec, a początek ciągłego procesu optymalizacji. Aby mieć pewność, że inwestycja przynosi oczekiwane rezultaty, niezbędne jest zdefiniowanie i regularne monitorowanie kluczowych wskaźników efektywności (KPI). Metryki takie jak wskaźnik wygranych szans (Win Rate) czy wartość życiowa klienta (CLV) dostarczają twardych danych o skuteczności działań. Ten cykl mierzenia wyników, zbierania opinii od użytkowników i dostosowywania procesów pozwala w pełni wykorzystać potencjał systemu i zmaksymalizować zwrot z inwestycji.

    Inwestycja w przewidywalny wzrost

    System CRM przekształca sprzedaż z nieprzewidywalnej „sztuki” w mierzalną „naukę” opartą na danych. Argument finansowy jest nie do podważenia. Inwestycja w CRM nie jest kosztem, ale jedną z najbardziej rentownych decyzji. Badania Nucleus Research pokazują, że zwrot z tej inwestycji (ROI) sięga średnio nawet $8.71 zysku za każdego zainwestowanego dolara. Wdrożenie CRM to strategiczny priorytet dla każdej firmy B2B, która aspiruje do osiągnięcia trwałej przewagi konkurencyjnej i zapewnienia sobie dynamicznego, skalowalnego wzrostu.   

  • Zegar dla Windows 10 tyka. Firmy stoją przed nieuniknioną decyzją

    Zegar dla Windows 10 tyka. Firmy stoją przed nieuniknioną decyzją

    14 października 2025 roku Microsoft zakończy bezpłatne wsparcie dla systemu Windows 10. To data, która powinna być zaznaczona na czerwono w kalendarzu każdego menedżera IT.

    Po tym terminie komputery z tym systemem przestaną otrzymywać kluczowe aktualizacje zabezpieczeń, stając się łatwym celem dla cyberataków.

    Mimo że do końca wsparcia pozostał nieco ponad rok, ogromna część rynku wciąż ignoruje nadchodzące zmiany. To błąd, który może kosztować firmy znacznie więcej niż cena nowych licencji i sprzętu.

    Opór materii i iluzja bezpieczeństwa

    Dane rynkowe są jednoznaczne. Mimo rosnącej popularności Windows 11, jego poprzednik wciąż dominuje na ogromnej liczbie maszyn. Według danych Statcounter z sierpnia 2025, Windows 10 nadal działa na ponad 55% komputerów z systemem Microsoftu na świecie. Skąd ten opór przed zmianą?

    Powody są zrozumiałe. Użytkownicy cenią Windows 10 za znajomy interfejs i stabilność działania. Z perspektywy biznesowej migracja to złożony projekt – wiąże się z kosztami zakupu nowego sprzętu, weryfikacją kompatybilności oprogramowania i koniecznością przeszkolenia pracowników.

    Wiele firm odkłada tę decyzję, kierując się myśleniem: „skoro komputer wciąż działa, po co go zmieniać?”.

    To jednak niebezpieczna iluzja. W kontekście cyberbezpieczeństwa argument „nadal działa” nie ma żadnej wartości. System bez aktualizacji jest jak dom z otwartymi na oścież drzwiami. Każda nowo odkryta luka w zabezpieczeniach pozostanie w nim na zawsze, dając atakującym stały i łatwy dostęp do firmowych danych. Koszt pojedynczego, udanego ataku ransomware lub wycieku danych może wielokrotnie przewyższyć wydatki związane z modernizacją infrastruktury.

    Technologiczny imperatyw, nie kaprys producenta

    Wokół wymagań sprzętowych Windows 11 narosło wiele kontrowersji, jednak nie wynikają one ze złej woli Microsoftu. Nowoczesne systemy operacyjne opierają swoją architekturę bezpieczeństwa na funkcjach zintegrowanych bezpośrednio ze sprzętem.

    Mowa tu o takich mechanizmach jak TPM 2.0 (Trusted Platform Module), który umożliwia szyfrowanie na poziomie chipsetu, oraz Secure Boot, chroniący proces uruchamiania systemu przed złośliwym oprogramowaniem.

    Starsze komputery po prostu nie posiadają tych komponentów, co uniemożliwia wdrożenie pełnego, wielowarstwowego modelu ochrony. Kontynuacja wsparcia dla niekompatybilnego sprzętu oznaczałaby kompromis w kwestii bezpieczeństwa, na który w dzisiejszym krajobrazie zagrożeń nie można sobie pozwolić.

    Co zyskujemy? Nowe możliwości i przewaga konkurencyjna

    Migracja do Windows 11 to nie tylko konieczność podyktowana bezpieczeństwem, ale również szansa na wdrożenie narzędzi, które realnie wpływają na produktywność.

    • Integracja z AI: Funkcje takie jak Copilot są głęboko zintegrowane z systemem, asystując pracownikom w pisaniu tekstów, analizie danych czy tworzeniu prezentacji. To narzędzia, które przyspieszają pracę i automatyzują powtarzalne zadania.
    • Głębsza integracja z chmurą: Synchronizacja danych, tworzenie kopii zapasowych i współpraca w zespołach rozproszonych działają w Windows 11 znacznie płynniej, co jest kluczowe w dobie pracy hybrydowej.
    • Wydajność i efektywność: Nowe urządzenia z preinstalowanym Windows 11 są często lżejsze, bardziej energooszczędne i wydajniejsze, również dzięki wsparciu dla architektury ARM. Oznacza to dłuższą pracę na baterii i większy komfort użytkowania.

    Chaotyczna migracja w ostatniej chwili to przepis na katastrofę. Firmy, które jeszcze nie rozpoczęły tego procesu, powinny działać według przemyślanego planu:

    1. Audyt infrastruktury: Pierwszym krokiem jest inwentaryzacja sprzętu i oprogramowania. Należy zidentyfikować, które urządzenia są kompatybilne z Windows 11, a które wymagają wymiany. Kluczowe jest też sprawdzenie, czy krytyczne dla firmy aplikacje działają poprawnie na nowym systemie.
    2. Stworzenie harmonogramu: Na podstawie audytu należy przygotować szczegółową mapę drogową migracji, określając, które działy lub grupy użytkowników zostaną przełączone w pierwszej kolejności. Warto rozpocząć od projektów pilotażowych.
    3. Zarządzanie danymi i backup: Przed migracją kluczowe jest stworzenie pełnych kopii zapasowych danych. Nowoczesne narzędzia chmurowe znacznie ułatwiają ten proces, ale wymaga on zaplanowania.
    4. Komunikacja i szkolenia: Pracownicy muszą rozumieć, dlaczego zmiana jest konieczna i jak wpłynie na ich codzienną pracę. Transparentna komunikacja i krótkie sesje szkoleniowe pozwolą zminimalizować opór i obawy, zapewniając płynne przejście.

    Koniec wsparcia dla Windows 10 to fakt. Dalsze korzystanie z tego systemu będzie aktem świadomej akceptacji ryzyka. Dla firm pytanie nie brzmi już „czy” przejść na Windows 11, ale „jak” i „kiedy” zorganizować ten proces. Im szybciej podejmą działania, tym większą kontrolę zachowają nad bezpieczeństwem i przyszłością swojej cyfrowej infrastruktury.

  • Sztuka negocjacji w IT – jak optymalizacja kosztów IT zmienia relacje z dostawcami oprogramowania

    Sztuka negocjacji w IT – jak optymalizacja kosztów IT zmienia relacje z dostawcami oprogramowania

    Rynek oprogramowania dla przedsiębiorstw rośnie w dwucyfrowym tempie, a prognozy przewidują utrzymanie tej dynamiki przez lata. Jednak za fasadą tych optymistycznych danych kryje się cicha wojna. W obliczu niepewności gospodarczej i rosnącej presji na wyniki, dyrektorzy finansowi domagają się twardych dowodów na zwrot z każdej inwestycji technologicznej.

    To zmusza działy IT do fundamentalnej zmiany w podejściu do zakupów i odnawiania licencji. Czasy, w których umowy przedłużano niemal automatycznie, bezpowrotnie minęły. Nadszedł czas strategicznych negocjacji, w których stawką są realne oszczędności i efektywność operacyjna.

    Nowe pole bitwy: napięcie między marżą dostawcy a budżetem klienta

    Obecna sytuacja rynkowa tworzy unikalne napięcie. Z jednej strony, dostawcy oprogramowania, sami odczuwający presję makroekonomiczną, dążą do ochrony swoich marż.

    W tym celu coraz częściej sięgają po zautomatyzowane mechanizmy, takie jak coroczne, kilkuprocentowe podwyżki cen wpisane w umowy czy usuwanie rabatów, które obowiązywały przy pierwszym zakupie. Ich celem jest maksymalizacja przychodów przy minimalnym wysiłku negocjacyjnym, licząc na inercję po stronie klienta.

    Z drugiej strony, działy IT w firmach stają przed coraz trudniejszym zadaniem. Muszą nie tylko wdrażać innowacje, ale również precyzyjnie uzasadniać każdy wydatek w języku biznesu.

    Koncepcja ROI (zwrotu z inwestycji) przestała być marketingowym sloganem, a stała się kluczowym wskaźnikiem oceny pracy menedżerów IT.

    Budżety straciły na elastyczności, a każda licencja musi mieć swoje odzwierciedlenie w konkretnych korzyściach: wzroście produktywności, redukcji kosztów lub otwarciu nowych możliwości biznesowych.

    Arsenał kupującego: audyt, konsolidacja i alternatywy

    Aby skutecznie wejść w tę nową rzeczywistość, działy IT muszą wyposażyć się w odpowiednie narzędzia. Zanim jeszcze dojdzie do rozmów z dostawcą, kluczowe jest wykonanie pracy wewnętrznej.

    1. Po pierwsze: audyt. Podstawą każdej strategii negocjacyjnej jest dogłębna znajomość własnych zasobów. Przeprowadzenie szczegółowego audytu wykorzystania licencji pozwala zidentyfikować tzw. „shelfware” – oprogramowanie, za które firma płaci, ale którego nikt nie używa. To najprostszy i najszybszy sposób na znalezienie natychmiastowych oszczędności i potężny argument w rozmowach.
    2. Po drugie: konsolidacja. Wiele firm przez lata nagromadziło portfolio narzędzi, których funkcjonalności w znacznym stopniu się pokrywają. Świadoma analiza i konsolidacja, polegająca na wyborze jednego, bardziej wszechstronnego rozwiązania zamiast kilku wyspecjalizowanych, nie tylko redukuje koszty licencyjne, ale także upraszcza architekturę IT i obniża koszty utrzymania.
    3. Po trzecie: alternatywy. Rozwiązania open-source dojrzały i w wielu obszarach stanowią dziś realną, bezpieczną i skalowalną alternatywę dla drogich, zamkniętych systemów. Rozważenie migracji na otwarte technologie, nawet w ograniczonym zakresie, daje działom IT silną kartę przetargową i zmniejsza zależność od jednego dostawcy.

    Zegar jest twoim sprzymierzeńcem: dlaczego czas to pieniądz w negocjacjach

    W negocjacjach z dostawcami oprogramowania czas jest absolutnie kluczowym zasobem. Dane rynkowe są jednoznaczne: firmy, które rozpoczynają proces renegocjacji umów na sześć miesięcy przed ich wygaśnięciem, mogą liczyć na oszczędności sięgające nawet 39%. Nawet rozpoczęcie rozmów z 60-dniowym wyprzedzeniem może przynieść do 22% korzyści.

    Psychologia tego mechanizmu jest prosta. Zwlekanie do ostatniej chwili stawia kupującego pod ścianą.

    Dostawca doskonale wie, że firma nie ma czasu na wdrożenie alternatywnego rozwiązania i jest zdana na jego warunki. Wczesne rozpoczęcie rozmów odwraca tę dynamikę – sygnalizuje gotowość do rozważenia innych opcji i daje czas na ich faktyczną analizę, co zmusza dostawcę do przedstawienia znacznie bardziej konkurencyjnej oferty.

    To także czas, by uniknąć typowej pułapki, jaką jest skupianie się wyłącznie na wymaganiach technicznych przy jednoczesnym marginalizowaniu twardych negocjacji cenowych.

    Od transakcji do partnerstwa: nowy model współpracy

    Obecne warunki rynkowe wymuszają ewolucję relacji na linii klient-dostawca. Konfrontacyjny model, w którym jedna strona próbuje za wszelką cenę zmaksymalizować swój zysk kosztem drugiej, powoli odchodzi do lamusa.

    Długoterminową przewagę konkurencyjną zyskują ci dostawcy, którzy potrafią aktywnie wspierać swoich klientów w osiąganiu ich celów biznesowych i pomagają im łączyć wydatki na technologię z realnymi wynikami.

    Firmy coraz częściej poszukują nie tylko sprzedawców, ale partnerów technologicznych – takich, którzy rozumieją ich wyzwania i są w stanie elastycznie dopasować swoją ofertę.

    Transparentność, elastyczne modele licencjonowania i wspólne dążenie do sukcesu stają się nową walutą w świecie IT.

    Wnioski są jasne. W dzisiejszych realiach sztuka negocjacji to znacznie więcej niż umiejętność targowania się o cenę.

    To strategiczny, oparty na danych proces zarządzania całym cyklem życia oprogramowania w firmie. Organizacje, które opanują tę sztukę, nie tylko znacząco zredukują koszty, ale także zbudują zdrowsze, bardziej efektywne i innowacyjne środowisko technologiczne.

  • Windows 2030: Microsoft stawia wszystko na AI

    Windows 2030: Microsoft stawia wszystko na AI

    Microsoft uchylił rąbka tajemnicy na temat swojej długoterminowej wizji dla najpopularniejszego systemu operacyjnego na świecie. W nowej serii wideo „Windows 2030 Vision” firma zarysowała przyszłość, w której sztuczna inteligencja nie jest już dodatkiem, ale fundamentem całego doświadczenia użytkownika.

    Kierunek jest jasny: za sześć lat interakcja z komputerem ma przypominać rozmowę z asystentem, a klawiatura i mysz mogą stać się reliktami przeszłości.

    Strategia Microsoftu jest konsekwencją wielomiliardowych inwestycji w technologie AI, w tym w OpenAI. Koncern dąży do pełnej integracji sztucznej inteligencji ze swoimi kluczowymi produktami, a Windows, jako brama do cyfrowego świata dla setek milionów użytkowników, jest w centrum tego planu.

    Nie chodzi już tylko o dodawanie funkcji takich jak Copilot. Celem jest przebudowa samego jądra systemu operacyjnego tak, aby był on z natury inteligentny.

    W wizji przedstawionej przez wiceprezesa ds. bezpieczeństwa, Davida Westona, tradycyjny interfejs graficzny ustępuje miejsca multimodalnej komunikacji.

    System operacyjny przyszłości ma rozumieć kontekst, widząc to, co użytkownik na ekranie i słysząc jego polecenia głosowe. Zamiast manualnie przeklikiwać się przez menu i okna w celu wykonania złożonego zadania, użytkownik ma je po prostu zlecić inteligentnemu agentowi AI.

    Taki agent miałby koordynować pracę między różnymi aplikacjami i plikami, w podobny sposób, w jaki przeglądarki zintegrowane z AI zaczynają zarządzać wieloma kartami.

    To fundamentalna zmiana, która według zapowiedzi Satyi Nadelli, CEO Microsoftu, odmieni istotę systemów operacyjnych. Według nieoficjalnych informacji, w Redmond trwają już prace nad prototypami badającymi ten nowy model interakcji.

    Mimo śmiałych zapowiedzi, wizja Microsoftu spotyka się z chłodnym przyjęciem i rodzi liczne pytania. Dotychczasowe próby integracji AI z Windows 11, w tym funkcja Copilot, nie przyniosły obiecywanej rewolucji w produktywności i często są postrzegane jako narzucone i niedopracowane.

    Otwarte pozostają kluczowe kwestie, takie jak znaczący wzrost zapotrzebowania na zasoby systemowe, ochrona prywatności w świecie, gdzie komputer „widzi i słyszy” naszą pracę, a także model biznesowy takich rozwiązań.

    Użytkownicy obawiają się również zabetonowania w ekosystemie Microsoftu, bez możliwości wyboru konkurencyjnych narzędzi AI. Trudno też ignorować szerszy kontekst społeczny – wizja automatyzacji pracy biurowej kłóci się z falą zwolnień, która przetacza się przez sektor technologiczny.

    Dominująca pozycja na rynku komputerów stacjonarnych daje Microsoftowi unikalną możliwość wdrożenia swojej wizji na masową skalę. O ile konkurencyjne chatboty pozostaną ograniczone do ram aplikacji, agent AI wbudowany w system operacyjny mógłby stać się wszechobecnym koordynatorem cyfrowego życia.

    Choć zapowiedź, że do 2030 roku klawiatury i myszy staną się dla Pokolenia Z tak obce, jak dziś MS-DOS, wydaje się przesadzona, kierunek zmian jest bezdyskusyjny. Microsoft stawia na AI jako siłę napędową kolejnej generacji Windows.

    Dla użytkowników i firm oznacza to konieczność adaptacji lub – jak sugerują krytycy – poszukiwania alternatyw, póki jest na to czas. Rewolucja AI w systemie Windows już się rozpoczęła.

  • Stagnacja w sercu IBM. Gigant ukrywa poważny problem

    Stagnacja w sercu IBM. Gigant ukrywa poważny problem

    IBM od lat konsekwentnie repozycjonuje się jako firma „AI-first”, budując narrację wokół integracji sztucznej inteligencji z klasyczną infrastrukturą. Wyniki za drugi kwartał 2025 roku pokazują jednak, że nawet najlepiej zaprojektowana transformacja może nie rozwiązać głębszych problemów strukturalnych – szczególnie w obszarze oprogramowania.

    Choć IBM przekroczył oczekiwania analityków pod względem całkowitych przychodów (16,98 mld USD) i zysków operacyjnych (2,80 USD na akcję), firma nie była w stanie przekonać rynku co do stabilności wzrostu w najbardziej strategicznych liniach biznesowych. Segment infrastruktury – wsparty rosnącym popytem na nowe mainframe z funkcjami AI – przyniósł 4,14 mld USD przychodu, co stanowi jedno z lepszych osiągnięć kwartału. Ale to nie hardware miał być dziś motorem wzrostu IBM.

    Oprogramowanie, które od lat stanowiło najpewniejszy filar przychodów firmy, nie dostarczyło wyników na poziomie oczekiwań. 7,39 mld USD sprzedaży w tym segmencie to symboliczne niedobicie prognoz, ale istotne w kontekście narracji IBM jako dostawcy nowoczesnych rozwiązań biznesowych. Firma wskazuje, że klienci przesuwają środki z usług transakcyjnych – typowo obsługiwanych przez software – na zakup nowego sprzętu, co tymczasowo wypacza obraz popytu. Tyle że to tłumaczenie nie adresuje głębszego problemu: stagnacji innowacyjnej w ofercie oprogramowania.

    Z kolei dział konsultingu po raz pierwszy od sześciu kwartałów zanotował wzrost (3%), co pokazuje, że rynek szuka wiedzy w obszarze AI. Jednak sam IBM jest ostrożny w ocenie, na ile ten trend przełoży się na trwały wzrost.

    Warto odnotować, że firma nie przedstawiła prognoz na trzeci kwartał, kontynuując politykę ograniczonej transparentności zapoczątkowaną w kwietniu. To sygnał, że zarząd nie ma pełnej pewności co do kierunku rozwoju popytu w krótkim terminie.

  • Paradoks Open Source – jak innowacja stała się największym zagrożeniem dla biznesu

    Paradoks Open Source – jak innowacja stała się największym zagrożeniem dla biznesu

    Oprogramowanie open source (OSS) jest cichym, niewidzialnym silnikiem napędzającym współczesną gospodarkę cyfrową. Od systemów bankowych, przez aplikacje medyczne, aż po deskę rozdzielczą w twoim samochodzie – jego kod jest wszędzie. Skala tej zależności jest trudna do przecenienia. Raport Synopsys „Open Source Security and Risk Analysis” (OSSRA) na rok 2024 wykazał, że 96% komercyjnych aplikacji zawiera komponenty open source, a średnio 77% całego kodu w tych aplikacjach pochodzi właśnie z otwartych źródeł. W Polsce, według danych z końca 2023 roku, oprogramowanie open source zidentyfikowano na ponad 670 tysiącach stron internetowych, co plasuje nasz kraj na 13. miejscu na świecie pod względem jego wykorzystania.   

    Ta wszechobecność zrodziła fundamentalny paradoks. Z jednej strony, OSS jest niezrównanym akceleratorem innowacji, pozwalającym firmom budować i wdrażać zaawansowane technologie szybciej niż kiedykolwiek. Z drugiej strony, stało się największą, często ignorowaną, powierzchnią ataku dla współczesnych przedsiębiorstw. Tę dychotomię brutalnie obnażają dane: w 2023 roku aż 74% zbadanych baz kodu zawierało luki bezpieczeństwa o wysokim ryzyku. Jest to dramatyczny wzrost o 54% w stosunku do poprzedniego roku, kiedy odsetek ten wynosił 48%.   

    Problem nie tylko istnieje, ale dynamicznie się pogarsza, wymykając się spod kontroli. Organizacje konsumują otwarte oprogramowanie w tempie znacznie przewyższającym ich zdolność do zarządzania związanymi z nim zagrożeniami, co prowadzi do cichego akceptowania ogromnego i rosnącego poziomu ryzyka. 

    Ukryte zagrożenia w Twoim kodzie

    Zrozumienie współczesnych zagrożeń związanych z OSS wymaga dekonstrukcji problemu na kilka kluczowych, często powiązanych ze sobą kategorii.

    1. „Kod Zombie” i dług bezpieczeństwa

    Jednym z najbardziej fundamentalnych ryzyk jest poleganie na starych, nieaktualizowanych i często porzuconych przez autorów komponentach. Raport Synopsys z 2024 roku dosadnie określa ten stan jako „apokalipsę kodu zombie”. Skala problemu jest zatrważająca:   

    • 91% analizowanych baz kodu zawierało komponenty, które były przestarzałe o 10 lub więcej wersji.
    • 49% baz kodu zawierało komponenty, w których nie odnotowano żadnej aktywności deweloperskiej od ponad dwóch lat.   

    Te zaniedbania tworzą tzw. „dług bezpieczeństwa” – koncepcję spopularyzowaną w raporcie Veracode „State of Software Security 2024”. Każda niezałatana luka jest jak zaciągnięty kredyt, który z czasem narasta, generując „odsetki” w postaci rosnącego ryzyka. Co gorsza, naprawa luk w kodzie firm trzecich (głównie OSS) zajmuje o 50% więcej czasu niż w kodzie własnym, co pokazuje, jak trudno jest zarządzać tym rodzajem długu.   

    2. Pułapka zależności tranzytywnych

    Problem przestarzałego kodu jest potęgowany przez istnienie zależności tranzytywnych (pośrednich). Są to biblioteki, których projekt nie wykorzystuje bezpośrednio, ale które są wymagane przez bezpośrednie zależności. Stanowią one „ukryty” kod, który trafia do aplikacji, często bez wiedzy i weryfikacji ze strony zespołów deweloperskich.   

    To właśnie w tej ukrytej warstwie czai się największe niebezpieczeństwo. Zależności tranzytywne mogą stanowić nawet 80-90% całego kodu aplikacji , a szacuje się, że aż 95% wszystkich podatności w oprogramowaniu open source pochodzi właśnie z tych pośrednich zależności. Podręcznikowym przykładem jest luka Log4Shell w bibliotece Log4j. Wiele organizacji nie miało pojęcia, że w ogóle z niej korzysta, dopóki nie wybuchł globalny kryzys bezpieczeństwa. Nawet trzy lata po jego odkryciu, 13% wszystkich pobrań biblioteki Log4j to wciąż wersje podatne na atak.   

    3. Aktywny sabotaż: ataki na łańcuch dostaw

    W ostatnich latach krajobraz zagrożeń przeszedł fundamentalną transformację – od pasywnych podatności do aktywnie wrogich działań. Atakujący zdali sobie sprawę, że kompromitacja jednego popularnego komponentu pozwala na jednoczesne uderzenie w tysiące organizacji. Dane z raportu Sonatype na rok 2024 są alarmujące: odnotowano 156% wzrost liczby złośliwych pakietów rok do roku. Ataki te przybierają różne formy:

    • Typosquatting: Publikacja złośliwego pakietu o nazwie łudząco podobnej do popularnego (np. crossenv zamiast cross-env), z nadzieją, że deweloper przez pomyłkę go zainstaluje.
    • Dependency Confusion: Publikacja w publicznym repozytorium złośliwego pakietu o nazwie identycznej z wewnętrznym, prywatnym pakietem firmy, ale z wyższym numerem wersji. System budowania może „pomylić” źródła i pobrać wersję publiczną, co miało miejsce m.in. w ataku na framework PyTorch.
    • Przejęcie konta i wstrzyknięcie kodu: Najbardziej wyrafinowana metoda, której przerażającym przykładem był incydent z pakietem event-stream. Atakujący najpierw zdobył zaufanie autora, a po przejęciu uprawnień dodał do projektu nową, złośliwą zależność tranzytywną (flatmap-stream), której celem była kradzież kluczy prywatnych z portfeli bitcoinowych.   

    Dlaczego przegrywamy? Systemowe błędy w organizacjach

    Skala i uporczywość tych zagrożeń są w dużej mierze wynikiem głęboko zakorzenionych problemów kulturowych i procesowych wewnątrz organizacji.

    Po pierwsze, panuje kultura zadowolenia i braku strategii. Raport Sonatype mówi o „zbytniej pewności siebie deweloperów”. Aż 80% zależności w aplikacjach pozostaje nieaktualizowanych przez ponad rok, mimo że dla 95% z nich istnieje już dostępna, bezpieczna wersja. Oznacza to, że niemal całe ryzyko jest możliwe do uniknięcia. Ten stan rzeczy wynika z braku formalnych ram – zaledwie 47% firm z branży IT posiada zdefiniowaną strategię korzystania z otwartych rozwiązań.

    Po drugie, obserwujemy niedojrzałość procesów i narzędzi bezpieczeństwa. Raport Snyk z 2024 roku ujawnia niepokojący trend: mimo rosnących zagrożeń, inwestycje w mechanizmy obronne maleją. Odnotowano 11,3% spadek w adopcji narzędzi bezpieczeństwa. Kluczowe technologie, takie jak Analiza Składu Oprogramowania (SCA) czy Statyczne Testowanie Bezpieczeństwa Aplikacji (SAST), są stosowane przez niewiele ponad 60% organizacji, a skanowanie kontenerów przez zaledwie 35%.

    Wreszcie, idea „shift left”, czyli przesuwania bezpieczeństwa na wczesne etapy cyklu rozwoju, pozostaje w dużej mierze iluzją. Narzędzia bezpieczeństwa są najczęściej integrowane w systemach budowania (ok. 65%), ale tylko 40% organizacji wdrożyło je tam, gdzie są najskuteczniejsze – bezpośrednio w zintegrowanym środowisku programistycznym (IDE) dewelopera. Oznacza to, że przesuwane są bramki kontrolne, a nie faktyczna odpowiedzialność za bezpieczeństwo. Skutek? Przeciążone zespoły bezpieczeństwa, z których połowa przyznaje, że nie jest w stanie realizować swoich celów, a 52% firm regularnie nie dotrzymuje własnych terminów (SLA) na naprawę krytycznych luk.   

    Droga do cyberodporności: 3-etapowy model obrony

    Mitygacja tak złożonych ryzyk wymaga odejścia od reaktywnych działań na rzecz wdrożenia kompleksowego, strategicznego modelu zarządzania.

    Krok 1: Osiągnij pełną widoczność dzięki SBOM

    Podstawową zasadą bezpieczeństwa jest to, że „nie można chronić czegoś, o czego istnieniu się nie wie”. W kontekście oprogramowania, narzędziem zapewniającym tę widoczność jest Software Bill of Materials (SBOM). Jest to sformalizowany, maszynowo czytelny spis wszystkich komponentów – włączając w to zależności tranzytywne – które składają się na aplikację. Posiadanie dokładnego SBOM staje się globalnym standardem, napędzanym przez regulacje takie jak    

    amerykańskie Rozporządzenie Wykonawcze 14028 oraz unijny Cyber Resilience Act (CRA), które czynią transparentność łańcucha dostaw warunkiem dostępu do rynku.   

    Krok 2: Zautomatyzuj ochronę za pomocą SCA

    Sama widoczność to za mało. Lista tysięcy komponentów to tylko surowe dane. Aby przekształcić je w użyteczną wiedzę, potrzebna jest Analiza Składu Oprogramowania (Software Composition Analysis, SCA). SCA to zautomatyzowany proces, który analizuje SBOM pod kątem ryzyka: skanuje komponenty w poszukiwaniu znanych podatności (CVE), weryfikuje zgodność licencyjną i ocenia ogólną jakość zależności. Nowoczesne narzędzia SCA nie tylko znajdują problemy, ale także pomagają w ich priorytetyzacji i często oferują zautomatyzowane sugestie napraw.   

    Krok 3: Zbuduj kulturę DevSecOps

    Technologia jest niezbędna, ale nie wystarczy bez zmiany kulturowej. DevSecOps to ewolucja filozofii DevOps, która integruje bezpieczeństwo jako wspólną odpowiedzialność na każdym etapie cyklu życia oprogramowania. Zamiast postrzegać bezpieczeństwo jako odizolowany zespół na końcu procesu, jest ono „wbudowywane” od samego początku. W praktyce oznacza to integrację narzędzi SCA bezpośrednio w IDE dewelopera, automatyczne skanowanie w potoku CI/CD oraz ciągły monitoring aplikacji w środowisku produkcyjnym. To prawdziwe „przesunięcie odpowiedzialności w lewo”, które daje deweloperom narzędzia i wiedzę do podejmowania bezpiecznych decyzji.   

    Od ryzyka do przewagi

    Krajobraz open source jest pełen sprzeczności. Jesteśmy świadkami eksplozji ryzyka, napędzanej przez wszechobecność OSS i systemowe błędy w zarządzaniu. Jednak ten alarmujący obraz nie musi prowadzić do paraliżu. Droga do cyberodporności jest dobrze zdefiniowana i wiedzie przez wdrożenie zintegrowanego modelu obrony opartego na widoczności (SBOM), zautomatyzowanej inteligencji (SCA) i kulturze wspólnej odpowiedzialności (DevSecOps). W nowej rzeczywistości, zdefiniowanej przez zaawansowane zagrożenia i rosnące wymogi regulacyjne, proaktywne zarządzanie ryzykiem w łańcuchu dostaw oprogramowania przestaje być jedynie technicznym obowiązkiem. Staje się kluczowym elementem strategii biznesowej. Organizacje, które opanują tę dziedzinę, nie tylko unikną katastrofy, ale zyskają zdolność do szybszego i bezpieczniejszego wprowadzania innowacji, przekształcając największe źródło ryzyka w trwałą przewagę konkurencyjną.

  • Paweł Mączka nowym CEO Storware

    Paweł Mączka nowym CEO Storware

    W lipcu 2025 roku funkcję CEO Storware objął Paweł Mączka – współzałożyciel firmy i dotychczasowy CTO. 

    Storware to jeden z nielicznych polskich producentów rozwiązań do backupu i ochrony danych, który z powodzeniem konkuruje globalnie. Firma oferuje niezależne, uniwersalne oprogramowanie do backupu maszyn wirtualnych, kontenerów, aplikacji Microsoft 365 czy środowisk Linuxowych. Klientami Storware są organizacje z ponad 100 krajów, a produkty integrują się z rozwiązaniami takimi jak Red Hat Virtualization, Proxmox, Nutanix, OpenShift czy Kubernetes.

    Od CTO do CEO: technologia w centrum strategii

    Paweł Mączka to współzałożyciel i dotychczasowy CTO oraz VP w Storware, który zbudował firmę od strony technologicznej, kładąc nacisk na wizjonerskie podejście do ochrony danych i wirtualizacji. Posiada wieloletnie doświadczenie w obszarze wirtualizacji (m.in. KVM, OpenStack, Nutanix AHV). Oprócz działalności w Storware jest też zaangażowany jako CEO i doradca w SocialCube oraz innych inicjatywach technologicznych. Teraz, obejmując funkcję CEO, łączy dogłębną wiedzę inżynierską z biznesową wizją.

  • Awaria systemu PAŻP sparaliżowała starty samolotów w całej Polsce

    Awaria systemu PAŻP sparaliżowała starty samolotów w całej Polsce

    W sobotni poranek 19 lipca Polska przestrzeń powietrzna doświadczyła nietypowego kryzysu technologicznego. Awaria systemu zarządzania ruchem lotniczym Polskiej Agencji Żeglugi Powietrznej (PAŻP) sparaliżowała możliwość startów samolotów z większości lotnisk w kraju. Lądowania odbywały się zgodnie z procedurami, jednak brak możliwości wystartowania nawet przez godzinę przypomniał, jak silnie infrastruktura transportowa zależy dziś od stabilnych systemów IT.

    System, który musi działać zawsze

    PAŻP odpowiada za bezpieczeństwo i płynność lotów w polskiej przestrzeni powietrznej. Codziennie zarządza tysiącami operacji lotniczych – zarówno w ramach krajowych połączeń, jak i przelotów międzynarodowych. Kluczowym elementem jest tutaj centralny system zarządzania ruchem lotniczym, który zapewnia synchronizację komunikacji między wieżami kontroli, radarami i pilotami.

    W sobotę ten system przestał działać, zmuszając PAŻP do przełączenia się na tryb awaryjny. Choć ruch został częściowo przywrócony w ciągu kilku godzin, zakłócenia objęły niemal wszystkie większe porty lotnicze – od Warszawy i Krakowa po Katowice i Rzeszów.

    Technologia krytyczna, ale czy odporna?

    Choć PAŻP zapewniła, że bezpieczeństwo lotów nie było zagrożone, a zapasowy system zadziałał zgodnie z procedurą, sytuacja pokazała ograniczoną odporność infrastruktury lotniczej na awarie informatyczne. W Katowicach loty były opóźnione o kilkadziesiąt minut, w Rzeszowie nawet do dwóch godzin. W Gdańsku ruch odbywał się w trybie limitowanym – starty co 10 minut w określonych kierunkach. Wyjątkami były porty w Lublinie, Poznaniu i Szczecinie, gdzie nie odnotowano zakłóceń.

    Z punktu widzenia pasażera problem trwał krótko, ale z perspektywy systemowej to poważne ostrzeżenie. W krajach, gdzie cyfryzacja usług publicznych postępuje szybko, odporność na awarie systemów IT staje się równie ważna jak infrastruktura fizyczna.

    Weryfikacja bezpieczeństwa i pytania o źródło

    Ministerstwo Spraw Wewnętrznych i Administracji poinformowało, że odpowiednie służby – w tym Agencja Bezpieczeństwa Wewnętrznego – analizują awarię również pod kątem sabotażu lub działań zewnętrznych. Choć na tym etapie nie ma potwierdzonych informacji o cyberataku, sama skala incydentu uruchomiła standardowe procedury bezpieczeństwa.

    W praktyce każda poważna awaria systemów sterujących ruchem lotniczym rodzi pytania o jakość infrastruktury IT, kompetencje zespołów reagowania kryzysowego oraz procedury testowania systemów zapasowych. Polska nie jest tu wyjątkiem – podobne zdarzenia miały miejsce w ostatnich latach m.in. w Niemczech i Wielkiej Brytanii. 

    Oficjalnie, Polska Agencja Żeglugi Powietrznej przyznała, że przyczyną awarii była usterka, jednak agencja nie podała szczegółów.

    „Po zastosowaniu wszystkich niezbędnych procedur podstawowy system zarządzania ruchem lotniczym został przywrócony. Powodem przejściowych problemów była usterka, która została niezwłocznie usunięta.
    Podkreślamy, że w czasie działania systemu zapasowego bezpieczeństwo operacji lotniczych w polskiej przestrzeni było zachowane przez cały czas na maksymalnym poziomie.” – podano w komunikacie.

    Wnioski dla branży i administracji

    Sobotni incydent to sygnał alarmowy nie tylko dla PAŻP, ale dla całej administracji publicznej odpowiedzialnej za systemy krytyczne. Wymaga on dokładnej analizy: czy infrastruktura PAŻP jest odpowiednio modernizowana, jak często testowane są scenariusze awaryjne i czy system zapasowy faktycznie może przejąć pełną funkcjonalność bez ręcznego wsparcia.

  • Polak awansuje w Iron Mountain. Marcin Skrzypczak zarządza operacjami w 10 krajach Europy

    Polak awansuje w Iron Mountain. Marcin Skrzypczak zarządza operacjami w 10 krajach Europy

    Iron Mountain powierzył Marcinowi Skrzypczakowi nadzór operacyjny nad kluczowym regionem Northern Europe Cluster. Awans Polaka na stanowisko Head of RM Operations – Senior Director to nie tylko dowód zaufania ze strony centrali, ale i potwierdzenie rosnącej roli polskich liderów w globalnych strukturach międzynarodowych firm technologicznych.

    Skrzypczak, związany z firmą od dekady, będzie odpowiadał za operacje w dziesięciu krajach – od Skandynawii po Europę Środkową – w tym m.in. w Niemczech, Holandii i Polsce. Region ten, będący jednym z najważniejszych w europejskim portfolio Iron Mountain, obejmuje ok. 50 centrów logistyczno-magazynowych i flotę 180 pojazdów.

    „To dla mnie ogromna satysfakcja być częścią organizacji, która nie tylko stawia na rozwój procesów związanych z operacjami, ale również konsekwentnie realizuje cele zrównoważonego rozwoju. Obecnie zarządzamy siecią około 50 magazynów, z czego już 25% zasilanych jest energią pochodzącą ze źródeł odnawialnych. Nasza flota liczy 180 pojazdów, przy czym aż 100 to samochody elektryczne – a do 2030 roku planujemy osiągnąć poziom 100% floty zeroemisyjnej. Skala naszych działań to jednak nie tylko liczby – to realny wpływ na środowisko. Rocznie nasze pojazdy pokonują łącznie około 5,5 miliona kilometrów. Dzięki stopniowej elektryfikacji floty jesteśmy w stanie ograniczyć emisję dwutlenku węgla o ponad 520 ton rocznie. To redukcja odpowiadająca zasadzeniu aż 80 tysięcy drzew, co można porównać do stworzenia lasu o powierzchni 26 hektarów. Docelowo, do 2030 roku, chcemy zwiększyć ten efekt do poziomu 1000 ton mniej emisji rocznie – to odpowiednik 150 tysięcy drzew i 50 hektarów zieleni. Są to konkretne działania, które mają znaczenie – zarówno dla naszych Klientów, jak i dla przyszłych pokoleń. Jestem dumny, że razem z zespołem możemy realnie wspierać zrównoważony rozwój poprzez technologie i odpowiedzialne podejście do logistyki” – mówi Marcin Skrzypczak, Head of RM Operations – Senior Director – Northern Europe Cluster w Iron Mountain Polska.

    Przypadek Skrzypczaka to również kolejny przykład globalizacji kompetencji menedżerskich – i rosnącej widoczności polskich liderów w strukturach dużych korporacji. To już jego piąty awans w Iron Mountain, drugi w ramach struktur międzynarodowych – i prawdopodobnie nie ostatni.

  • Synopsys z zielonym światłem w Chinach. Przejęcie Ansys coraz bliżej finału

    Synopsys z zielonym światłem w Chinach. Przejęcie Ansys coraz bliżej finału

    Po miesiącach oczekiwań chiński regulator rynku zatwierdził warunkowo przejęcie Ansys przez Synopsys, dając zielone światło jednej z największych transakcji w historii rynku oprogramowania inżynierskiego. Decyzja Państwowej Administracji Regulacji Rynku (SAMR) to sygnał, że Chiny nie zamykają drzwi przed amerykańską technologią – pod warunkiem, że ta nie będzie dyskryminować lokalnych klientów.

    Zgoda zapadła tuż po zniesieniu części ograniczeń eksportowych ze strony USA wobec firm produkujących oprogramowanie do projektowania układów scalonych. Choć nie oznacza to pełnego odwrotu od strategii „technologicznego rozdziału” (decoupling), to otwiera przestrzeń do ostrożnej normalizacji współpracy na newralgicznym rynku Electronic Design Automation (EDA).

    Warunki narzucone przez chińskiego regulatora są jednoznaczne: Synopsys musi kontynuować dostarczanie rozwiązań EDA na zasadach uczciwych i niedyskryminacyjnych, respektować obowiązujące umowy cenowe i serwisowe oraz gwarantować interoperacyjność z lokalnymi systemami. Innymi słowy – fuzja nie może zostać wykorzystana do wypychania konkurencji ani ograniczania dostępu chińskich firm do narzędzi krytycznych w rozwoju nowoczesnych układów scalonych.

    Dla Synopsys to przełomowy moment. Firma już w styczniu ogłosiła wartą 35 miliardów dolarów transakcję przejęcia Ansys – lidera w segmencie symulacji fizycznych. Połączenie ma stworzyć giganta na styku EDA i CAE (Computer-Aided Engineering), integrując projektowanie chipów z kompleksową symulacją ich zachowania w rzeczywistym świecie. Taki zestaw narzędzi będzie szczególnie atrakcyjny dla sektora automotive, AI i przemysłu kosmicznego.

    O ile wcześniej przejęcie zostało zatwierdzone m.in. przez Wielką Brytanię i Koreę Południową, to właśnie decyzja Pekinu była jedną z ostatnich przeszkód. Warunkowa zgoda Chin nie tylko przybliża finalizację transakcji, ale też sygnalizuje bardziej pragmatyczne podejście do współpracy technologicznej – przynajmniej w obszarach, gdzie lokalny przemysł nie ma jeszcze pełnowartościowych alternatyw.

    Fuzja Synopsys–Ansys to nie tylko efekt konsolidacji w branży, ale także strategiczny ruch wobec zmieniającego się układu sił w globalnym łańcuchu wartości technologii. Zamiast rozdziału – coraz częściej mamy do czynienia z selektywnym „odszczepianiem” obszarów krytycznych od tych nadal współdzielonych.

  • Fabrity kończy transformację. Co dalej po odejściu Artura Piątka z zarządu?

    Fabrity kończy transformację. Co dalej po odejściu Artura Piątka z zarządu?

    Z końcem lipca z zarządu Fabrity odchodzi Artur Piątek – jeden z głównych architektów zakończonej właśnie transformacji dawnej Grupy K2. To symboliczny moment domykający kilkuletni proces przeobrażania wielobranżowego holdingu w wyspecjalizowaną firmę technologiczną, skupioną na usługach inżynierii oprogramowania.

    Transformacja, która rozpoczęła się w 2020 roku, miała charakter wielowymiarowy: strategiczny, kapitałowy i organizacyjny. Grupa pozbyła się działalności spoza core businessu – sprzedała m.in. Oktawave (kupioną przez Netię) oraz spółki marketingowe (przejęte przez Altavię). Łączna wartość dezinwestycji przekroczyła 55 mln zł. Równolegle przeprowadzono integrację strukturalną – połączono spółkę holdingową z operacyjną, co uprościło zarządzanie i zwiększyło efektywność.

    Ostatnim formalnym krokiem było wykorzystanie tzw. ulgi holdingowej przy zbyciu spółek zależnych i odzyskanie blisko 5 mln zł nadpłaty podatku CIT. Pieniądze te – w części już przekazane, a w części oczekiwane – mogą dodatkowo zasilić wypłaty dla akcjonariuszy. Spółka zadeklarowała bowiem wypłatę 3,30 zł dywidendy na akcję z zysku za 2024 rok, a dodatkowy 1 zł może trafić do inwestorów warunkowo – jeśli urząd skarbowy sfinalizuje zwrot podatku do końca listopada.

    Z perspektywy rynku kapitałowego transformacja okazała się sukcesem. Od stycznia 2020 roku akcje Fabrity (wtedy jeszcze K2) przyniosły inwestorom łączny zwrot na poziomie ok. 450%, przy wzroście szerokiego indeksu WIG o ok. 80%. To efekt nie tylko skutecznych dezinwestycji i restrukturyzacji, ale także wypłat rekordowych dywidend i skupu akcji.

    Odejście Piątka to zamknięcie ważnego etapu, ale nie koniec zmian. Obecny zarząd, kierowany przez Tomasza Burczyńskiego, koncentruje się na ekspansji usług IT i dalszym wzmacnianiu pozycji rynkowej. Pytanie, które stawiają inwestorzy, brzmi: czy Fabrity zdoła utrzymać tempo wzrostu, kiedy na stole nie ma już spektakularnych transakcji, a wycena spółki oparta będzie głównie na potencjale operacyjnym?

    Dla rynku to sprawdzian: czy zreorganizowana Grupa faktycznie stała się nowoczesną firmą technologiczną gotową do skalowania działalności – czy jedynie dobrze zoptymalizowanym aktywem po serii udanych transakcji.

  • Windows 11 wreszcie popularniejszy od swojego poprzednika. Pomogła presja Microsoftu

    Windows 11 wreszcie popularniejszy od swojego poprzednika. Pomogła presja Microsoftu

    Po czterech latach od premiery Windows 11 wreszcie wyprzedził swojego poprzednika pod względem udziału w rynku – wynika z danych Statcountera. W lipcu 2025 roku z „jedenastki” korzysta już 52% użytkowników Windowsa, podczas gdy udział „dziesiątki” spadł do 44,5%. Ten symboliczny moment trudno jednak uznać za dowód pełnego sukcesu – raczej świadczy o tym, jak bardzo Microsoft musiał popchnąć użytkowników do przesiadki.

    Wzrost popularności Windows 11 nie był naturalnym efektem przewagi technologicznej. Jeszcze w styczniu tego roku Windows 10 miał niemal 60% udziału w rynku. Co więc się zmieniło? Decydującym czynnikiem jest zapowiedziane na 14 października 2025 roku zakończenie wsparcia technicznego dla Windows 10. Microsoft już wcześniej stosował znane z poprzednich migracji taktyki: wyskakujące komunikaty, naciski, a nawet zapowiedzi dodatkowych opłat za aktualizacje bezpieczeństwa po zakończeniu wsparcia.

    Choć system Windows 11 teoretycznie jest bezpieczniejszy i nowocześniejszy, jego przyjęcie od początku było chłodne. Wysokie wymagania sprzętowe (TPM 2.0, nowsze procesory) skutecznie zniechęciły miliony użytkowników, zwłaszcza w sektorze SMB i w krajach o niższej sile nabywczej. Z kolei ci, którzy mogli dokonać aktualizacji, nie zawsze widzieli uzasadnione powody, by to robić.

    Microsoft może dziś świętować, ale obraz rynku jest bardziej złożony. Firma nie podaje dokładnych danych, ilu z ponad miliarda użytkowników Windowsa przeszło na Windows 11. A wiele wskazuje na to, że znaczna ich część została niejako zmuszona do zmiany.

    Czy Windows 11 zbuduje silną pozycję i stanie się równie powszechny jak jego poprzednicy? Na razie to nie jest oczywiste. Cień kończącego się Windows 10 wciąż ciąży nad „jedenastką” – nie jako konkurencja, ale jako przypomnienie, że sukces nowej wersji nie zawsze przychodzi z entuzjazmem rynku.

  • Twoje oprogramowanie zacznie mówić, widzieć i rozumieć. Gartner przewiduje rewolucję AI

    Twoje oprogramowanie zacznie mówić, widzieć i rozumieć. Gartner przewiduje rewolucję AI

    Rosnąca popularność generatywnej sztucznej inteligencji (GenAI) zmienia sposób, w jaki firmy projektują i rozwijają swoje aplikacje. Według najnowszych prognoz Gartnera, do 2030 roku aż 80% nowo tworzonych aplikacji biznesowych będzie wykorzystywać multimodalną GenAI — w porównaniu do zaledwie 10% w roku 2024. To radykalny wzrost, który zwiastuje głęboką transformację oprogramowania korporacyjnego.

    Co to znaczy „multimodalna” GenAI?

    Multimodalność to zdolność modeli sztucznej inteligencji do przetwarzania i generowania różnych typów danych — tekstu, obrazu, dźwięku, wideo czy informacji liczbowych — w ramach jednej spójnej architektury. Przykład? System, który rozumie zapytanie głosowe, analizuje dane liczbowe z tabeli i na tej podstawie generuje wykres oraz podsumowanie w formie tekstu lub wideo.

    Tego rodzaju rozwiązania już dziś istnieją – na rynku działają modele umożliwiające m.in. konwersję tekstu na obraz (np. DALL·E), mowy na tekst (np. Whisper) czy opisów tekstowych na wideo. Jednak ich integracja w ramach jednego, holistycznego systemu AI pozostaje wyzwaniem — technologicznym, kosztowym i organizacyjnym. Tymczasem Gartner przewiduje, że do końca dekady stanie się to nowym standardem.

    AI coraz głębiej w oprogramowaniu biznesowym

    Według analityków Gartnera, już w perspektywie 1–3 lat firmy zaczną intensywnie włączać multimodalną AI do codziennego oprogramowania — nie tylko jako dodatkowy moduł, ale jako rdzeń nowej generacji aplikacji. Oznacza to koniec etapu eksperymentów i początek dojrzałych wdrożeń, także w obszarach takich jak CRM, ERP, systemy HR czy narzędzia do zarządzania wiedzą.

    Ta zmiana wpłynie na kilka kluczowych aspektów rozwoju oprogramowania:

    • Projektowanie interfejsów: zamiast formularzy i klików — interakcje głosowe, wideo lub obrazowe. Użytkownik zapyta system głosem o dane, a AI odpowie tekstem, filmem lub infografiką.
    • Zarządzanie danymi: większe znaczenie zyskają dane nienumeryczne, dotąd często niewykorzystywane. AI nauczy się analizować i łączyć różne źródła danych kontekstowych, co zwiększy jakość decyzji.
    • Automatyzacja zadań: systemy będą w stanie rozpoznawać intencje użytkownika i podejmować działania bez potrzeby szczegółowej instrukcji. To oznacza nowy poziom autonomii w oprogramowaniu.

    Nowe kompetencje dla firm i menedżerów IT

    Transformacja w kierunku multimodalności będzie wymagać nowych decyzji inwestycyjnych. Gartner podkreśla, że to właśnie menedżerowie produktu i CTO będą musieli zdefiniować, które komponenty oprogramowania mogą być rozszerzone o funkcje AI, a które należy budować od nowa.

    Inwestycje nie ograniczą się jedynie do licencji na modele AI. Równie ważne będzie przygotowanie danych w odpowiednich formatach, szkolenie modeli na danych specyficznych dla branży (tzw. fine-tuning) oraz integracja z istniejącymi środowiskami IT. Kluczowe stanie się zrozumienie, w jakim stopniu multimodalna GenAI może realnie zwiększyć produktywność i jakość obsługi klienta.

    Zmiana kultury cyfrowej w firmach

    Choć AI jako technologia istnieje od lat, dopiero multimodalność otwiera przed nią potencjał stania się „językiem operacyjnym” nowoczesnej firmy. Nie chodzi już tylko o to, że AI analizuje dane szybciej — lecz o to, że potrafi lepiej zrozumieć kontekst, łączyć różne źródła informacji i prezentować je w użyteczny sposób.

    W praktyce może to oznaczać, że systemy wspierające zarządzanie projektami nie tylko podpowiedzą, gdzie są ryzyka, ale też same stworzą podsumowanie spotkania, wygenerują rekomendacje wideo lub zaktualizują harmonogram w oparciu o rozmowy zespołu.

    Dla wielu firm taka zmiana może być równie trudna co przejście do chmury dekadę temu — ale jednocześnie równie nieunikniona.

    Multimodalna przyszłość już się zaczęła

    Już teraz najwięksi dostawcy usług chmurowych i technologii AI – tacy jak Google, Microsoft, Meta czy OpenAI – rozwijają multimodalne modele kolejnych generacji. Meta w czerwcu zaprezentowała model I-JEPA, Google testuje w Gemini możliwości pracy na tekście, obrazie i kodzie jednocześnie, a OpenAI rozwija GPT-4o z natywną multimodalnością. Wszystko wskazuje na to, że rywalizacja nie dotyczy już „czy”, ale „jak szybko i z jakim zakresem” multimodalność stanie się standardem.

    Do 2030 roku multimodalna AI stanie się integralnym elementem nie tylko systemów korporacyjnych, ale też aplikacji dla pracowników liniowych, systemów szkoleniowych czy automatyzacji back-office. Nie chodzi już o testowanie możliwości, ale o przeprojektowanie oprogramowania z uwzględnieniem nowego, bardziej naturalnego sposobu interakcji z maszyną.

    Dla dostawców technologii to sygnał, że rozwój AI nie kończy się na chatbotach. Dla firm – że najwyższy czas na ocenę dojrzałości własnych danych i aplikacji pod kątem gotowości na multimodalność.

    Jeśli trend wskazany przez Gartnera się utrzyma, multimodalna GenAI stanie się nie tyle dodatkiem, co fundamentem nowoczesnego oprogramowania. A to oznacza, że przyszłość firmowych aplikacji może wyglądać zupełnie inaczej niż dziś – bardziej „ludzka”, kontekstowa i zaskakująco elastyczna.

  • Capgemini inwestuje w GenAI. Kupuje WNS za 3,3 mld dolarów

    Capgemini inwestuje w GenAI. Kupuje WNS za 3,3 mld dolarów

    Francuski gigant IT, Capgemini, ogłosił przejęcie indyjskiej firmy WNS za 3,3 miliarda dolarów w gotówce. To jedna z największych akwizycji europejskiego gracza technologicznego w ostatnich latach – i wyraźny sygnał, że Capgemini zamierza mocno postawić na sztuczną inteligencję generatywną oraz automatyzację procesów biznesowych.

    WNS, notowana na Nasdaq firma specjalizująca się w outsourcingu procesów biznesowych (BPO) i analizie danych, obsługuje takich klientów jak Coca-Cola, T-Mobile czy United Airlines. Dzięki akwizycji Capgemini rozszerzy swoją obecność przede wszystkim na rynku amerykańskim, a także zwiększy swoje możliwości w zakresie doradztwa AI i tzw. agentycznej sztucznej inteligencji – obszaru, który w 2025 roku staje się coraz istotniejszy dla klientów korporacyjnych szukających nie tylko oszczędności, ale i elastyczności operacyjnej.

    Mimo strategicznego potencjału transakcji, inwestorzy zareagowali sceptycznie – akcje Capgemini spadły o 5% po ogłoszeniu informacji. Analitycy wskazują, że choć przejęcie ma być natychmiast akrecyjne dla przychodów i marż, jednocześnie ogranicza zdolność Capgemini do dalszych inwestycji bez naruszania bilansu.

    Zastrzeżenia budzi również sama branża BPO – segment, który może być szczególnie narażony na zakłócenia wynikające z dynamicznego rozwoju GenAI. W modelach opartych na pracy ludzkiej automatyzacja może z jednej strony ograniczyć koszty, z drugiej jednak zredukować popyt na tradycyjne usługi outsourcingowe. To ryzyko, które Capgemini najprawdopodobniej próbuje obrócić w atut: łącząc skalę WNS z własnymi kompetencjami technologicznymi, zamierza przekształcić klasyczne BPO w inteligentne, hybrydowe usługi procesowe.

    Transakcja, którą Capgemini planuje sfinalizować do końca 2025 roku, wpisuje się w szerszy trend konsolidacji i modernizacji usług IT poprzez AI. Dla europejskiej firmy może to być kluczowy krok w walce o dominację na rynku usług wspieranych sztuczną inteligencją, ale sukces tej strategii będzie zależeć od zdolności do szybkiej integracji, dostarczenia mierzalnych efektów klientom i przekonania inwestorów, że WNS to właściwe ogniwo w tej układance.

  • Apple pozywa Komisję Europejską. Chodzi o 500 mln euro i przepisy DMA

    Apple pozywa Komisję Europejską. Chodzi o 500 mln euro i przepisy DMA

    Apple zdecydowało się zaskarżyć do unijnego sądu decyzję Komisji Europejskiej, która w marcu nałożyła na firmę 500 mln euro kary za łamanie przepisów Aktu o rynkach cyfrowych (DMA). W oczach Brukseli, ograniczanie przez Apple dostępu do zewnętrznych ofert poza App Store to nie tylko nieuczciwa praktyka, ale też naruszenie nowych unijnych regulacji mających ograniczyć dominację Big Techów.

    Choć sam akt prawny – DMA – wszedł w życie zaledwie w marcu 2024 roku, jego skutki już przestawiają rynkową geografię. Apple, Google, Meta i Amazon – wszystkie firmy zostały objęte obowiązkiem otwarcia swoich platform i ograniczenia barier dla konkurencji. W przypadku Apple chodzi o tzw. „anti-steering”, czyli zakaz przekierowywania użytkowników z aplikacji na zewnętrzne strony, gdzie ceny bywają niższe niż w App Store.

    W reakcji na decyzję Komisji, Apple w czerwcu ogłosiło rewizję zasad App Store, dopuszczając m.in. alternatywne metody płatności i informowanie użytkowników o zewnętrznych ofertach. To jednak nie zamknęło sprawy. Komisja Europejska wciąż konsultuje zmiany z deweloperami, a Apple – zgodnie z wcześniejszą zapowiedzią – zdecydowało się na drogę sądową.

    Dlaczego to ważne? Po pierwsze, to pierwsza tego typu grzywna w ramach DMA – unijnego narzędzia, które ma realnie wpłynąć na układ sił w gospodarce cyfrowej. Po drugie, sprawa Apple stanie się precedensem – nie tylko dla interpretacji samego prawa, ale i dla praktycznego modelu jego egzekwowania. Dla Komisji Europejskiej to test wiarygodności, a dla Apple – walka o utrzymanie kontroli nad ekosystemem, który generuje miliardy dolarów rocznie.

    Dla branży technologicznej to sygnał: era samoregulacji Big Tech się kończy. Przez lata Apple broniło swojego zamkniętego modelu jako bezpieczniejszego i bardziej spójnego. Teraz musi udowodnić, że ten model da się pogodzić z nowym porządkiem regulacyjnym.

    Wyrok unijnego Trybunału Sprawiedliwości może pojawić się dopiero za kilkanaście miesięcy. Do tego czasu Apple pozostaje w stanie zawieszenia – formalnie wdraża przepisy, nieformalnie jednak rzuca Komisji rękawicę.