Autor: Natalia Zębacka

  • OpenAI prezentuje GPT-5.4-Cyber. Odpowiedź na projekt Anthropic

    OpenAI prezentuje GPT-5.4-Cyber. Odpowiedź na projekt Anthropic

    Rywalizacja o dominację w sektorze security AI nabiera tempa, gdy OpenAI wprowadza model GPT-5.4-Cyber w bezpośredniej odpowiedzi na sukcesy konkurencyjnego projektu Anthropic. Nowy wariant flagowego modelu stawia na większą swobodę operacyjną badaczy, co ma kluczowe znaczenie w wyścigu o łatanie luk w infrastrukturze krytycznej.

    Wtorkowa premiera GPT-5.4-Cyber to coś więcej niż tylko kolejna iteracja flagowego modelu. To strategiczne przesunięcie granicy tego, na co twórcy AI pozwalają swoim użytkownikom. Podczas gdy Anthropic stawia na rygorystycznie kontrolowaną inicjatywę dla wybranych, OpenAI decyduje się na model „bardziej permisywny”. W praktyce oznacza to poluzowanie gorsetu zabezpieczeń, który dotychczas często uniemożliwiał badaczom pełną analizę złośliwego kodu czy symulację ataków z obawy przed naruszeniem polityk bezpieczeństwa samej platformy.

    Kluczem do strategii OpenAI nie jest jednak wyłącznie technologia, ale ekosystem. Firma drastycznie skaluje program Trusted Access for Cyber (TAC), otwierając go na tysiące indywidualnych ekspertów i setki zespołów dbających o infrastrukturę krytyczną. Wprowadzenie wielopoziomowej weryfikacji to pragmatyczne rozwiązanie problemu „podwójnego zastosowania” sztucznej inteligencji. Wyższe poziomy zaufania odblokowują potężniejsze funkcje GPT-5.4-Cyber, dając obrońcom narzędzie o skuteczności zbliżonej do tej, jaką dysponują napastnicy, ale w ramach prawnych i etycznych ram.

    W tym starciu OpenAI stawia na masowość i mniejszą liczbę restrykcji dla sprawdzonych partnerów, licząc, że to właśnie szeroka społeczność „białych kapeluszy” stanie się ich najsilniejszym atutem. Decyzja ta niesie ze sobą ryzyko, ale w obliczu coraz bardziej wyrafinowanych zagrożeń, strategia „kontrolowanej otwartości” może okazać się jedyną skuteczną drogą do zabezpieczenia cyfrowej przyszłości.

  • NVIDIA wprowadza Ising – AI jako system operacyjny dla procesorów kwantowych

    NVIDIA wprowadza Ising – AI jako system operacyjny dla procesorów kwantowych

    W wyścigu o supremację kwantową NVIDIA wykonuje ruch, który może zmienić układ sił nie tylko w laboratoriach, ale i w centrach danych. Zaprezentowana właśnie rodzina modeli NVIDIA Ising to pierwsza na świecie otwarta próba zaprzęgnięcia sztucznej inteligencji do rozwiązania „pięty achillesowej” komputerów kwantowych: ich ekstremalnej niestabilności.

    Dzisiejsze procesory kwantowe (QPU) są technologicznie imponujące, lecz biznesowo nieużyteczne. Generują błąd średnio raz na tysiąc operacji. Aby technologia ta mogła realnie konkurować z tradycyjnym krzemem w farmacji czy logistyce, wskaźnik ten musi spaść do poziomu jednego błędu na miliard. Jensen Huang, szef Nvidii, stawia sprawę jasno: AI nie jest tu tylko dodatkiem, ale niezbędnym „systemem operacyjnym”, który ma zarządzać tą kruchą architekturą.

    Architektura zamiast obietnic

    Zamiast budować własny komputer kwantowy, NVIDIA pozycjonuje się jako dostawca warstwy krytycznej. Rodzina Ising składa się z dwóch wyspecjalizowanych narzędzi, które uderzają w najwęższe gardła branży. Model Ising Calibration wykorzystuje technologię widzenia komputerowego do automatyzacji ustawień procesora. To, co dotychczas zajmowało fizykom całe dni żmudnej pracy, AI potrafi skrócić do kilku godzin.

    Z kolei Ising Decoding to sieć neuronowa 3D zaprojektowana do korekcji błędów w czasie rzeczywistym. Wyniki są obiecujące. W porównaniu do obecnego standardu rynkowego, pyMatching, rozwiązanie Nvidii wykazuje trzykrotnie wyższą dokładność i 2,5-krotnie większą prędkość. W świecie, gdzie milisekundy opóźnienia decydują o rozpadzie stanu kwantowego, taka przewaga ma znaczenie fundamentalne.

    Strategia otwartych drzwi

    Decyzja o udostępnieniu modeli w formacie open source to przemyślany ruch biznesowy. Integrując Ising z istniejącą platformą CUDA-Q oraz łączem sprzętowym NVQLink, „zielony gigant” tworzy ekosystem, od którego trudno będzie się odciąć. Firmy i uniwersytety mogą trenować te modele na własnych danych, zachowując pełną kontrolę nad infrastrukturą, co jest kluczowe dla sektorów takich jak cyberbezpieczeństwo czy finanse.

  • Amazon kupuje Globalstar za 11,6 mld USD. Chce dogonić Starlink Elona Muska

    Amazon kupuje Globalstar za 11,6 mld USD. Chce dogonić Starlink Elona Muska

    Przejęcie Globalstar przez Amazon za kwotę 11,6 miliarda dolarów to trategiczne uderzenie w rynek usług Direct-to-Device (D2D). Transakcja ta ma szansę zmienić układ sił na niskiej orbicie okołoziemskiej (LEO), choć przed gigantem z Seattle wciąż stoi fundamentalne wyzwanie logistyczne.

    Strategiczna luka i widmo D2D

    Głównym motywem zakupu Globalstar jest chęć szybkiego wdrożenia usług umożliwiających bezpośrednie połączenie smartfonów z satelitami, z pominięciem tradycyjnych wież komórkowych. Podczas gdy Starlink koncentruje się na szerokopasmowym internecie dla terminali domowych i biznesowych, Globalstar dysponuje kluczowymi zasobami widma radiowego idealnego do transmisji danych o niskiej przepustowości, niezbędnych w usługach ratunkowych czy komunikacji w martwych strefach.

    Dla Amazona, którego projekt Kuiper jest wciąż w powijakach, to skok technologiczny. Integracja dwudziestu czterech satelitów Globalstar z budowaną siecią pozwoli firmie zaoferować funkcje D2D już w 2028 roku. Jest to o tyle istotne, że Starlink operuje już siecią liczącą 10 tysięcy jednostek, obsługując miliony użytkowników i budując sojusze z operatorami naziemnymi.

    Sojusz z rywalem pod okiem Apple

    Transakcja ma intrygujący podtekst w relacjach z Apple. Globalstar jest od lat filarem funkcji ratunkowych w iPhone’ach, a samo Apple zainwestowało w tę spółkę miliardy dolarów, posiadając w niej mniejszościowe udziały. Amazon, przejmując kontrolę nad Globalstar, staje się de facto partnerem infrastrukturalnym swojego wielkiego konkurenta z Cupertino. Deklaracja o utrzymaniu współpracy z Apple sugeruje, że Amazon zamierza czerpać zyski z obsługi ekosystemu iPhone’a, jednocześnie budując własną alternatywę dla Starlink.

    Bariera startowa pozostaje nienaruszona

    Mimo potężnej inwestycji finansowej, Amazon nie rozwiązał swojego największego problemu: braku wydajnych rakiet nośnych. Podczas gdy SpaceX korzysta z własnej floty Falconów, Amazon jest uzależniony od zewnętrznych dostawców i wciąż czeka na pełną operacyjność New Glenn od Blue Origin.

    Liczby są nieubłagane – Amazon rozmieścił dotąd ułamek z planowanej konstelacji 3200 satelitów. Jeśli tempo startów nie wzrośnie drastycznie, przewaga SpaceX może stać się niemożliwa do zniwelowania. Zakup Globalstar daje Amazonowi cenne pasma radiowe i technologię, ale nie rozwiązuje problemu fizycznego umieszczenia sprzętu na orbicie. To właśnie ta „strukturalna luka” w logistyce kosmicznej pozostaje najsłabszym punktem w strategii Bezosa.

  • Novo Nordisk nawiązuje współpracę z OpenAI w celu rozwoju leków

    Novo Nordisk nawiązuje współpracę z OpenAI w celu rozwoju leków

    Novo Nordisk, duński lider sektora farmaceutycznego, ogłosił nawiązanie szerokiej współpracy z OpenAI. Partnerstwo ma na celu wdrożenie sztucznej inteligencji w całym łańcuchu wartości przedsiębiorstwa – od wczesnych faz badawczo-rozwojowych (R&D), przez procesy produkcyjne, aż po operacje komercyjne i logistykę. Decyzja ta zapada w momencie, gdy firma intensyfikuje wysiłki, aby odzyskać przewagę nad amerykańskim konkurentem Eli Lilly na szybko rosnącym rynku leków odchudzających.

    Zgodnie z założeniami współpracy, technologie OpenAI zostaną wykorzystane do analizy złożonych zbiorów danych medycznych i identyfikacji obiecujących cząsteczek. W obszarze operacyjnym AI ma usprawnić zarządzanie łańcuchem dostaw oraz dystrybucję preparatów Wegovy i Ozempic, na które popyt globalny stale przewyższa moce produkcyjne. Choć branża farmaceutyczna z powodzeniem stosuje już algorytmy do automatyzacji dokumentacji regulacyjnej czy selekcji uczestników badań klinicznych, pełne wykorzystanie AI do projektowania nowych leków pozostaje wyzwaniem, którego technologia jeszcze w pełni nie zrealizowała.

    Strategia Novo Nordisk zakłada, że sztuczna inteligencja stanie się narzędziem zwiększającym wydajność obecnej kadry, a nie czynnikiem redukcji zatrudnienia. Dyrektor generalny Mike Doustdar podkreślił, że celem jest „doładowanie” kompetencji naukowców, co w dłuższej perspektywie ma pozwolić na ograniczenie tempa nowych rekrutacji przy jednoczesnym wzroście skali operacji. To istotna deklaracja w kontekście ubiegłorocznej restrukturyzacji, która objęła 9 000 stanowisk.

    Analitycy rynkowi szacują, że wartość sektora leków na otyłość przekroczy 100 miliardów dolarów w ciągu najbliższej dekady. Novo Nordisk, które w styczniu wprowadziło doustną wersję Wegovy, mierzy się z silną presją ze strony Eli Lilly, której pigułka Foundayo niedawno otrzymała amerykańskie zatwierdzenie. 

    Finansowe szczegóły porozumienia z OpenAI nie zostały ujawnione. Harmonogram wdrożenia przewiduje rozpoczęcie programów pilotażowych w kluczowych działach jeszcze w tym roku, natomiast pełna integracja systemów w strukturach globalnych ma nastąpić do końca 2026 roku. Sam Altman, dyrektor generalny OpenAI, wskazał, że kooperacja ta ma na celu nie tylko optymalizację biznesową, ale również przyspieszenie odkryć naukowych mogących realnie wydłużyć ludzkie życie. Wszystkie procesy mają być realizowane z zachowaniem ścisłych protokołów ochrony danych i nadzoru ludzkiego.

  • Globalny spadek dostaw smartfonów. Dlaczego Apple jako jedyne rośnie?

    Globalny spadek dostaw smartfonów. Dlaczego Apple jako jedyne rośnie?

    W pierwszym kwartale 2026 roku rynek urządzeń mobilnych przeszedł fundamentalną zmianę. Podczas gdy globalny rynek smartfonów skurczył się o 6% rok do roku, Apple zdołało nie tylko oprzeć się trendowi spadkowemu, ale i przejąć fotel lidera. Z danymi wskazującymi na 21-procentowy udział w rynku, gigant z Cupertino udowodnił, że segment premium jest obecnie najbezpieczniejszą przystanią w niepewnych czasach.

    Sukces Apple, objawiający się 5-procentowym wzrostem dostaw, kontrastuje z problemami konkurencji. Samsung, tradycyjny rywal, odnotował 6-procentowy spadek, oddając pierwszeństwo z udziałem na poziomie 20%. Na taki wynik wpłynęła przede wszystkim opóźniona premiera flagowego modelu Galaxy S26 oraz słabość w segmencie budżetowym. Tymczasem Apple zanotowało spektakularny, 23-procentowy wzrost sprzedaży w Chinach w pierwszych tygodniach roku, co potwierdza skuteczność strategii zakorzenionej w ekosystemie usług i silnym łańcuchu dostaw.

    Najbardziej fascynującym aspektem obecnej sytuacji rynkowej jest jednak przyczyna ogólnego spowolnienia. Jak zauważa Counterpoint Research, za spadki odpowiada nie tyle brak popytu, co przesunięcie priorytetów w sektorze półprzewodników. Producenci pamięci, kluczowego komponentu każdego urządzenia, coraz częściej przekierowują swoje zasoby do centrów danych obsługujących sztuczną inteligencję, kosztem elektroniki użytkowej.

  • IBM rezygnuje z celów demograficznych. Lekcja z ugody, za którą gigant zapłacił 17 mln dolarów

    IBM rezygnuje z celów demograficznych. Lekcja z ugody, za którą gigant zapłacił 17 mln dolarów

    IBM, gigant technologiczny będący niegdyś symbolem progresywnego zarządzania kadrami, zgodził się zapłacić 17 milionów dolarów w ramach ugody z Departamentem Sprawiedliwości USA. To nie tylko zamknięcie sporu prawnego, ale sygnał dla zarządów, że czasy “modyfikatorów różnorodności” w ich dotychczasowej formie dobiega końca.

    Sprawa IBM jest pierwszym głośnym sukcesem nowo utworzonej jednostki – Inicjatywy na rzecz Oszustw Praw Obywatelskich. Formacja ta, powołana w ramach szerokiej ofensywy administracji Donalda Trumpa, przyjęła nieoczekiwaną taktykę. Zamiast skupiać się wyłącznie na debacie ideologicznej, urzędnicy użyli cywilnego prawa przeciwko oszustwom, by uderzyć w mechanizmy finansowe promujące DEI (Diversity, Equity, Inclusion).

    Głównym punktem zapalnym okazał się system premiowy IBM. Rząd twierdził, że firma stosowała algorytmy uzależniające wysokość bonusów dla kadry zarządzającej od osiągnięcia konkretnych wskaźników demograficznych. Z perspektywy Waszyngtonu takie rozwiązanie jest formą „anty-merytokracji”, która dyskryminuje grupy nieobjęte preferencjami. IBM, choć nie przyznało się do winy i podkreśla, że ugoda nie stanowi uznania odpowiedzialności prawnej, zdecydowało się na modyfikację swoich programów.

    Sprawa ta pokazuje, że polityka kadrowa przestała być wewnętrzną domeną działów HR, a stała się obszarem wysokiego ryzyka regulacyjnego. Firmy, które przez ostatnią dekadę budowały swoją kulturę wokół twardych celów różnorodności, muszą teraz dokonać rewizji tych strategii. Ryzyko nie ogranicza się już tylko do strat wizerunkowych, ale obejmuje realne sankcje finansowe i potencjalne wykluczenie z kontraktów federalnych.

    Obserwujemy obecnie masowy odwrót od radykalnych polityk inkluzywności. Wiele amerykańskich korporacji, obserwując kierunek zmian w Białym Domu, po cichu wycofuje się z publicznych deklaracji dotyczących parytetów.

  • Orange Polska dominuje rynek 5G. Ponad 5600 stacji do końca 2026 roku

    Orange Polska dominuje rynek 5G. Ponad 5600 stacji do końca 2026 roku

    W wyścigu o dominację na polskim rynku telekomunikacyjnym Orange Polska stawia na dwutorową strategię, która łączy agresywną rozbudowę infrastruktury 5G z precyzyjnym targetowaniem segmentów budżetowych. Z najnowszych danych operacyjnych przekazanych przez rzecznika spółki, Wojciecha Jabczyńskiego, wyłania się obraz operatora, który próbuje zdyskontować technologiczny przełom szybciej niż konkurencja.

    Kluczowym argumentem w walce o portfele klientów jest pasmo C, czyli tzw. „prawdziwe 5G”. Obecna baza około 4500 stacji ma wzrosnąć do co najmniej 5600 przed końcem 2026 roku. Równolegle Orange podwaja swoje zasoby w paśmie 700 MHz, planując zwiększenie liczby stacji z 1300 do 2600. Ten infrastrukturalny dualizm ma sens biznesowy: pasmo C gwarantuje rekordowe przepływności w gęstej zabudowie miejskiej, podczas gdy częstotliwość 700 MHz zapewnia niezbędny zasięg obszarowy, stanowiąc fundament pod przyszłe rozwiązania z zakresu IoT i Przemysłu 4.0.

    Inwestycje w hardware znajdują bezpośrednie odzwierciedlenie w statystykach przenoszenia numerów (MNP). Orange zamknął pierwszy kwartał 2026 roku dodatnim bilansem na poziomie 17 tysięcy numerów. To tempo sugeruje znaczną akcelerację względem całego 2025 roku, w którym operator zyskał netto 27 tysięcy użytkowników. Sukces ten nie jest jednak wyłącznie zasługą samej technologii, lecz umiejętnym wykorzystaniem marek subbrandowych.

    Zarząd Orange Polska zdiagnozował, że rynek staje się coraz bardziej spolaryzowany. Podczas gdy główna marka przyciąga klientów korporacyjnych i użytkowników premium potrzebujących stabilności pasma C, marki takie jak nju mobile oraz Orange Flex skutecznie zagospodarowują młodszy, bardziej wrażliwy na cenę elektorat cyfrowy. Dla inwestorów i partnerów biznesowych kluczowe będzie pytanie, czy tak dynamiczny przyrost bazy klientów w segmentach niskomarżowych nie obciąży zbytnio rentowności przy jednoczesnych, wysokich nakładach na modernizację sieci.

    W kontekście obecności spółki w indeksie WIG20, determinacja w rozbudowie pasma 700 MHz wskazuje na długofalowe przygotowanie do dominacji w segmencie usług konwergentnych. Jeśli Orange utrzyma obecne tempo budowy stacji, może wejść w 2027 rok z przewagą technologiczną, którą trudno będzie zniwelować tradycyjnymi kampaniami marketingowymi.

  • Rynek nieruchomości w Europie Środkowej odbija. Polska i Czechy liderami

    Rynek nieruchomości w Europie Środkowej odbija. Polska i Czechy liderami

    Region Europy Środkowo-Wschodniej (CEE) zakończył 2025 rok z wynikiem, który dla wielu obserwatorów rynku nieruchomości komercyjnych jest sygnałem definitywnego końca stagnacji. Całkowita wartość transakcji na poziomie 11,8 mld euro to nie tylko 34-procentowy wzrost rok do roku, ale przede wszystkim najlepszy rezultat od przedpandemicznego roku 2019. Dane opublikowane przez Cushman & Wakefield kreślą obraz rynku, który odnalazł nową równowagę, opartą na dwóch filarach: dojrzałości lokalnych graczy oraz selektywnej pogoni za jakością.

    Najważniejszą zmianą strukturalną jest bezprecedensowa dominacja kapitału krajowego, który odpowiadał za 65% całkowitego wolumenu w regionie. To fundamentalne przesunięcie środka ciężkości. W Polsce rodzimi inwestorzy wygenerowali około 20% obrotów, wykazując się szczególną aktywnością w segmencie biurowym. Ta profesjonalizacja lokalnych podmiotów zapewnia rynkowi niezbędną płynność w okresach, gdy globalne fundusze wykazują większą powściągliwość.

    Geograficznie rynek pozostaje dwubiegunowy. Polska, z wynikiem 4,5 mld euro (38% udziału), utrzymała status regionalnego lidera, napędzana głównie przez sektor magazynowy i ożywienie w warszawskich biurowcach. Tuż za nią uplasowały się Czechy, które dzięki imponującemu wzrostowi o 155% rok do roku osiągnęły wolumen 4,2 mld euro.

    Pod względem sektorowym palmę pierwszeństwa odzyskały biura (35,9% udziału), wyprzedzając logistykę. Mechanizm ten napędza paradoksalnie niska podaż nowej powierzchni w stolicach CEE, co przy stabilnym popycie prowadzi do kompresji pustostanów i wzrostu cen najbardziej atrakcyjnych obiektów. Interesującym zjawiskiem jest również rekordowy, 9-procentowy udział sektora hotelowego, wspierany blisko 9-procentowym wzrostem wskaźnika RevPAR.

    Wchodząc w 2026 rok, rynek wykazuje oznaki dużej dojrzałości. Inwestorzy odeszli od strategii przeczekiwania na rzecz selektywnych zakupów aktywów typu prime, szczególnie tych spełniających rygorystyczne normy ESG. Choć tempo normalizacji stóp procentowych pozostaje czynnikiem ryzyka, powrót transakcji portfelowych oraz umów przekraczających 100 mln euro sugeruje, że kapitał ufa już fundamentom regionu.

    Perspektywy na nadchodzące miesiące zakładają stabilizację stóp kapitalizacji, z lekką tendencją spadkową w najbardziej pożądanych lokalizacjach logistycznych i biurowych, co czyni CEE jednym z bardziej przewidywalnych punktów na inwestycyjnej mapie Europy.

  • Ekspansja XTB: Handel opcjami debiutuje w Hiszpanii i Niemczech

    Ekspansja XTB: Handel opcjami debiutuje w Hiszpanii i Niemczech

    Gdy uwaga branży fintech często skupia się na walce o portfele młodszych inwestorów poprzez proste plany oszczędnościowe, XTB wykonuje strategiczny zwrot w stronę bardziej wyrafinowanej klienteli. Polski broker ogłosił właśnie udostępnienie handlu opcjami w Hiszpanii i Niemczech, co stanowi kamień milowy w jego europejskiej ekspansji zaplanowanej na 2026 rok.

    Ruch ten nie jest przypadkowy. Wybór Hiszpanii i Niemiec jako rynków pilotażowych sugeruje chęć bezpośredniego konkurowania z lokalnymi graczami i amerykańskimi gigantami typu „low-cost”, którzy od dawna korzystają z boomu na instrumenty pochodne. XTB wprowadza do swojej aplikacji dostęp do opcji typu amerykańskiego na 110 popularnych akcji i funduszy ETF, celując w segment aktywnych traderów, którzy oczekują od platformy czegoś więcej niż tylko pasywnego trzymania akcji.

    Kluczowym elementem oferty, który może zmienić układ sił na rynku, jest wprowadzenie kontraktów 0DTE (Zero Days to Expiration). Te wygasające tego samego dnia instrumenty stały się w ostatnich latach fenomenem na Wall Street, generując ogromne wolumeny obrotu, ale i budząc kontrowersje ze względu na swoją zmienność. W europejskim wydaniu XTB stawia jednak na dostępność – możliwość handlu ułamkowymi wolumenami ma obniżyć barierę wejścia dla inwestorów z mniejszym kapitałem, co wpisuje się w trend demokratyzacji narzędzi profesjonalnych.

    Prezes Omar Arnaout słusznie zauważa, że technologia zatarła granicę między profesjonalnym tradingiem a inwestowaniem indywidualnym. Jednak dla XTB to coś więcej niż tylko rozszerzenie menu. To próba zwiększenia retencji użytkowników i średniego przychodu na klienta w otoczeniu, gdzie marże na klasycznym handlu akcjami są pod stałą presją.

  • Dlaczego sama łączność to za mało? Nowa rola telekomów w B2B

    Dlaczego sama łączność to za mało? Nowa rola telekomów w B2B

    Firmy coraz wyraźniej sygnalizują zmianę oczekiwań wobec operatorów telekomunikacyjnych – sama łączność przestaje wystarczać. Zamiast dostawców infrastruktury biznes szuka partnerów, którzy realnie wspierają wzrost, transformację i wdrażanie nowych technologii. Jak pokazuje raport „The B2B Pulse for Telcos: Six Strategic Imperatives to Win in Connectivity and Beyond (2026 edition)” Capgemini Research Institute, rośnie luka między tym, czego organizacje oczekują, a tym, co faktycznie otrzymują – aż 74% firm oczekuje od operatorów odpowiedzialności za wyniki biznesowe, podczas gdy tylko 39% dostrzega ich realny wpływ na wzrost przychodów.

    Klienci chcą więcej niż operatorzy dziś oferują

    Zmiana oczekiwań wobec operatorów telekomunikacyjnych nie jest chwilowa – to efekt przyspieszającej transformacji cyfrowej firm, które coraz silniej opierają swoją działalność na danych, automatyzacji i rozwiązaniach opartych na sztucznej inteligencji. W tym kontekście sama łączność przestaje być wyróżnikiem, a staje się jedynie punktem wyjścia do budowania wartości.

    Firmy coraz częściej oczekują od operatorów roli partnera, który nie tylko rozumie ich branżę, ale także potrafi współtworzyć rozwiązania odpowiadające na konkretne wyzwania biznesowe. Tymczasem tylko 41% organizacji uważa, że ich operator wnosi wartość wykraczającą poza podstawowe usługi, a jedynie 37% deklaruje, że otrzymuje rozwiązania dopasowane do swoich potrzeb. Jednocześnie aż 65% firm jest gotowych zapłacić więcej za oferty lepiej odpowiadające ich specyfice.

    – Coraz wyraźniej widać, że łączność przestaje być dla firm celem samym w sobie – staje się elementem większej całości. Kluczowe jest to, w jaki sposób przekłada się ona na konkretne procesy, efektywność i rozwój biznesu. To właśnie w tym obszarze operatorzy mają dziś największą przestrzeń do redefinicji swojej roli – komentuje Rafał Kurman, Lead Connectivity & Network Engineer, ERD w Capgemini Polska.

    Ekosystemy stają się nowym standardem współpracy

    Rosnąca złożoność środowisk technologicznych sprawia, że pojedynczy dostawca coraz rzadziej jest w stanie odpowiedzieć na wszystkie potrzeby organizacji. W efekcie firmy oczekują od operatorów nie tylko usług, ale także zdolności do integrowania rozwiązań różnych partnerów w spójne, działające całościowo środowiska.

    Już 65% organizacji wskazuje, że operatorzy powinni pełnić rolę integratora ekosystemu – łącząc kompetencje dostawców IT, oprogramowania, integratorów systemów czy hyperscalerów. Jednocześnie tylko 35% firm widzi, że operatorzy faktycznie realizują tę rolę. Brak takiej koordynacji oznacza dla biznesu większą złożoność, dłuższy czas wdrożeń i trudności w skalowaniu rozwiązań.

    To przesunięcie w kierunku modeli opartych na współpracy pokazuje, że przewaga konkurencyjna nie będzie już wynikać wyłącznie z posiadanej infrastruktury, ale z umiejętności łączenia technologii, partnerstw i kompetencji w sposób, który realnie wspiera rozwój klientów.

    AI i inteligentne sieci zmieniają punkt ciężkości

    Równolegle rośnie znaczenie zaawansowanych technologii, które przestają być elementem eksperymentów, a stają się fundamentem decyzji inwestycyjnych firm. W ciągu najbliższych dwóch lat aż 84% organizacji planuje inwestycje w rozwiązania AI i machine learning, a 76% w platformy AI i GenAI.

    Wraz z tym trendem rosną oczekiwania wobec operatorów jako dostawców infrastruktury zdolnej wspierać nowe modele działania. Firmy coraz częściej poszukują inteligentnych, elastycznych sieci, które umożliwiają przetwarzanie danych w czasie rzeczywistym i integrację z rozwiązaniami chmurowymi oraz edge computingiem. Już ponad połowa organizacji korzysta lub planuje wdrożyć zaawansowane usługi sieciowe, takie jak SD-WAN, prywatne 5G czy network as a service.

    Jednocześnie aż 72% firm uważa, że operatorzy pozostają w tyle za hyperscalerami i firmami technologicznymi w obszarze AI i chmury. To pokazuje, że mimo rosnącego znaczenia tych technologii, operatorzy wciąż nie są postrzegani jako ich naturalni liderzy.

    Zaufanie i doświadczenie klienta decydują o wyborze

    W świecie rosnącej niepewności geopolitycznej i regulacyjnej coraz większe znaczenie zyskują kwestie związane z zaufaniem, bezpieczeństwem i suwerennością danych. Aż 86% organizacji wskazuje, że kraj pochodzenia dostawcy ma znaczenie przy wyborze operatora, a 67% traktuje kwestie suwerenności jako kluczowy argument przemawiający za współpracą z operatorami zamiast hyperscalerów.

    Jednocześnie rosną oczekiwania wobec doświadczenia klienta. Choć 64% firm uznaje je za kluczowe, a ponad połowa jest gotowa zapłacić więcej za lepszą obsługę, aż 65% organizacji uważa proces zakupowy za zbyt skomplikowany – szczególnie w obszarze rozliczeń i przejrzystości oferty.

    – Operatorzy mają dziś wyjątkową szansę, by stać się partnerami pierwszego wyboru w obszarze transformacji cyfrowej. Warunkiem jest połączenie kompetencji technologicznych i zdolności wykorzystania AI oraz danych z takim sposobem obsługi klienta, który jest maksymalnie prosty, transparentny i łatwy we współpracy, a przy tym buduje zaufanie i zapewnia suwerenność cyfrową – podsumowuje Rafał Kurman, Lead Connectivity & Network Engineer, ERD w Capgemini Polska.


    źródło: Capgemini

  • SIGNIUS automatyzuje e-pieczętowanie dokumentów w Niemczech

    SIGNIUS automatyzuje e-pieczętowanie dokumentów w Niemczech

    Polski SIGNIUS S.A. wykonuje ruch, który redefiniuje układ sił w sektorze healthcare. Poprzez wdrożenie zaawansowanej infrastruktury w AS Abrechnungsstelle Bremen – kluczowej organizacji rozliczeniowej w niemieckim systemie ochrony zdrowia – udowadnia, że polski know-how w zakresie kryptografii staje się towarem eksportowym pierwszej potrzeby.

    Niemiecki sektor ochrony zdrowia przechodzi obecnie transformację napędzaną rygorystycznymi standardami, takimi jak TR-RESISCAN. Dla instytucji przetwarzających masowe ilości danych wrażliwych, cyfryzacja nie jest już kwestią wyboru, lecz warunkiem stabilności operacyjnej. Wyzwanie polega na tym, by zautomatyzować proces bez naruszania integralności dokumentów.

    Rozwiązanie SIGNIUS Sealing Server, wdrożone w modelu On-Premises, pozwala na masowe, kwalifikowane pieczętowanie dokumentów bezpośrednio w infrastrukturze klienta. To podejście eliminuje zależność od zewnętrznych dostawców chmurowych, co w konserwatywnym pod względem ochrony danych środowisku niemieckim jest argumentem ostatecznym.

    Strategiczna przewaga polskiej spółki opiera się na dostarczaniu pełnego ekosystemu „z jednej ręki”. Integracja serwera pieczętującego, modułów HSM oraz kwalifikowanych certyfikatów eIDAS w jeden spójny system pozwala na obróbkę gigantycznych wolumenów dokumentacji bez ingerencji człowieka, przy jednoczesnym zachowaniu pełnej mocy dowodowej. Nie jest to odosobniony sukces; spółka współpracuje już z ubezpieczycielem AOK, co sygnalizuje szerszy trend: zachodnioeuropejskie podmioty regulowane szukają zwinnych, kompleksowych rozwiązań z Europy Środkowej.

    Potencjał do dalszej ekspansji jest wymierny. Według raportu Bitkom Digital Office 2025, blisko połowa niemieckich firm wciąż widzi u siebie opóźnienia w cyfryzacji procesów, mimo że ponad 90% uznaje ją za klucz do efektywności kosztowej. W obliczu rosnącej presji na redukcję papieru i budowanie odporności organizacji na kryzysy, technologie umożliwiające bezpieczną archiwizację online stają się fundamentem nowoczesnego biznesu.

    Dla SIGNIUS sukces w Bremie to nie tylko zamknięty projekt, ale przede wszystkim silny przyczółek w najbardziej wymagającym sektorze największej gospodarki Europy. W branży, gdzie zaufanie jest walutą, polski dostawca właśnie znacząco podbił swoją wycenę wiarygodności.

  • Badanie SaldeoSMART: Małe firmy coraz mniej wierzą w KSeF

    Badanie SaldeoSMART: Małe firmy coraz mniej wierzą w KSeF

    Od 1 kwietnia obowiązek korzystania z Krajowego Systemu e-Faktur obejmuje podmioty sektora MŚP. Tymczasem z badania SaldeoSMART wynika, że odsetek małych i średnich przedsiębiorstw przekonanych o potrzebie istnienia KSeF spadł w ciągu ostatnich pięciu miesięcy z 61% do 52%. Największą zmianę widać wśród małych firm – w tej grupie udział pozytywnych ocen dla centralnego systemu zmniejszył się aż o 13 punktów procentowych.

    Zdaniem ekspertów branży księgowej wzrost nieufności wobec KSeF nie jest przypadkowy. – Pierwsze tygodnie funkcjonowania systemu pokazały, że nawet dla największych firm zderzenie z praktyką jest trudniejsze, niż zakładano; zarówno na poziomie organizacji pracy, jak i codziennego obiegu dokumentów. W wielu przypadkach problemem nie jest sam obowiązek, ale brak przygotowania procesów wokół niego. Krajowy System e-Faktur tylko uwidacznia mechanizmy, które wcześniej działały „na skróty” – mówi Agnieszka Ligocka, ekspertka SaldeoSMART i FRAM Finanse.

    Przez ostatnie dwa miesiące podmioty MŚP obserwowały, jak z wdrożeniem KSeF radzą sobie największe przedsiębiorstwa, które zostały objęte zmianami już 1 lutego 2026 roku. Na bazie tych doświadczeń można wskazać obszary, na które mniejsze biznesy powinny zwrócić szczególną uwagę podczas dostosowywania się do nowego obowiązku.

    Błąd 1: brak uporządkowania uprawnień

    Na etapie przygotowań do pracy z KSeF wiele przedsiębiorstw generuje certyfikaty, ale nie nadaje użytkownikom odpowiednich uprawnień do ich wykorzystania. W efekcie pojawiają się sytuacje, w których dostęp jest poprawnie skonfigurowany technicznie, a mimo to system nie pozwala na wykonanie podstawowych operacji. Trzeba pamiętać, że sam certyfikat nie daje możliwości działania – dopiero przypisanie odpowiednich ról pozwala na wystawianie i pobieranie faktur. 

    Dodatkowym wyzwaniem jest wybór rodzaju certyfikatu. W przypadku pracy zespołowej bezpieczniejszym rozwiązaniem jest model bazujący na NIP, który pozwala zarządzać dostępem na poziomie firmy. Certyfikaty powiązane z PESEL mają charakter indywidualny i nie powinny być współdzielone.

    Błąd nr 2: brak ustaleń z biurem rachunkowym

    W trakcie przygotowań wiele firm nie doprecyzowało ze swoim biurem rachunkowym, jak w praktyce ma wyglądać współpraca przy KSeF. W efekcie część przedsiębiorców założyła, że wszystkie działania związane z systemem leżą po stronie księgowych. Brak takich ustaleń przekłada się na sytuacje, w których nie wiadomo, kto odpowiada za pobieranie faktur, nadawanie uprawnień czy bieżącą obsługę platformy. W praktyce oznacza to opóźnienia i błędy, dezorganizację pracy i brak kontroli nad procesem księgowania. W skrajnych przypadkach prowadzi to nawet do rozstania z dotychczasowym biurem rachunkowym, gdy okazuje się, że nie jest ono przygotowane do pracy w nowych realiach.

    – Zmiana partnera księgowego w trakcie roku zawsze jest wyzwaniem, ale w obecnych realiach może oznaczać poważne zaburzenie ciągłości pracy. KSeF zbiegł się z dodatkowymi obowiązkami sprawozdawczymi i sztywnymi terminami, których nie da się przesunąć. Biura rachunkowe pracują według określonej kolejności obsługi klientów i dokumentów, a wprowadzenie zmian w tym czasie często powoduje dezorganizację i presję czasu. W takich warunkach ryzyko błędów znacząco rośnie – tłumaczy ekspertka SaldeoSMART.

    Błąd 3: niedoszacowanie skali zmian 

    Wiele firm podchodzi do KSeF jak do zmiany technologicznej, podczas gdy w praktyce oznacza ona konieczność przebudowania sposobu pracy z dokumentami. Nowy system wpływa nie tylko na wystawianie faktur, ale także na ich obieg, akceptację i dostęp do danych w organizacji. Co czwarta firma w badaniu SaldeoSMART wskazała zmianę procesów wewnętrznych jako jedną z głównych barier związanych z wdrożeniem KSeF, a 26% zwraca uwagę na problemy z dopasowaniem systemów i oprogramowania do nowych wymagań.

    Jednocześnie wraz z udostępnieniem przez Ministerstwo Finansów darmowych narzędzi do obsługi Krajowego Systemu e-Faktur wiele przedsiębiorstw założyło, że będą one wystarczające do pracy z centralnym systemem. To podejście wciąż jest silne – 36% badanych przez SaldeoSMART podmiotów planuje z nich korzystać. W praktyce jednak coraz częściej dochodzi do zderzenia tych założeń z rzeczywistością. Księgowi wskazują, że o ile podstawowe rozwiązania mogą sprawdzić się przy bardzo prostej działalności, to przy większej liczbie dokumentów szybko pojawiają się ograniczenia – zwłaszcza wtedy, gdy rozwiązanie nie jest dopasowane do skali działalności i procesów w firmie.

    Jednocześnie firmy, które korzystają z rozwiązań dobrze zintegrowanych z KSeF i mają uporządkowane procesy, przechodzą przez wdrożenie znacznie sprawniej. – Narzędzia oferowane przez resort finansów mają sens w przypadku naprawdę małych firm, które wystawiają kilka faktur w miesiącu i nie mają rozbudowanych procesów. W momencie, gdy firma ma większą liczbę dokumentów, kilku pracowników zaangażowanych w ich obsługę albo bardziej złożony obieg faktur zaczynają się ograniczenia – zauważa Agnieszka Ligocka. 

    Podstawowe narzędzia mogą więc dobrze sprawdzić się przy prostej działalności, natomiast wraz ze wzrostem skali firmy rośnie potrzeba bardziej zaawansowanych i zintegrowanych rozwiązań. Przedsiębiorstwa powinny upewnić się, że ich zaplecze technologiczne, w tym wykorzystywane systemy i rozwiązania IT, są zintegrowane z KSeF i dostosowane do wymagań pracy z rządową platformą.

    Dla firm z sektora MŚP to ostatni moment, aby uporządkować te obszary jeszcze przed pełnym wejściem w nowe obowiązki. Jak pokazuje praktyka największych przedsiębiorstw, odpowiednie przygotowanie nie tylko ogranicza ryzyko błędów, ale przede wszystkim pozwala uniknąć chaosu organizacyjnego, który w pierwszych tygodniach działania KSeF okazał się jednym z największych wyzwań. W praktyce oznacza to, że sukces wdrożenia KSeF zależy także od tego, na ile praca z rządowym systemem jest dla użytkowników intuicyjna i uporządkowana.


    O badaniu:

    Badanie zostało przeprowadzone w marcu 2026 roku przez agencję badawczą Choreograph na zlecenie SaldeoSMART. Wzięli w nim udział przedstawiciele małych i średnich przedsiębiorstw, a także biur rachunkowych w Polsce. Celem badania było poznanie stopnia przygotowania firm do obowiązkowego wdrożenia Krajowego Systemu e-Faktur, identyfikacja najważniejszych barier technologicznych i organizacyjnych oraz zbadanie nastawienia przedsiębiorstw do zmian wynikających z cyfryzacji obiegu dokumentów.

    źródło: SaldeoSMART

  • 4 nowe organizacje w PIIT

    4 nowe organizacje w PIIT

    Do Polskiej Izby Informatyki i Telekomunikacji (PIIT) dołączają cztery nowe firmy reprezentujące różne, komplementarne obszary rynku. Do grona członków Izby dołączają: Autopay S.A., Aether Mariusz Busiło, InPay S.A. oraz Grupa Agora.

    Dołączenie nowych firm to nie tylko poszerzenie grona członków, lecz także potwierdzenie rosnącej roli PIIT jako platformy współpracy dla całego ekosystemu technologicznego.

    – Dołączenie tak różnorodnych i zaawansowanych technologicznie organizacji jest najlepszym dowodem na dynamiczny rozwój zarówno Izby, jak i całego sektora ICT w Polsce. Nowi członkowie wzmacniają nas kompetencyjnie i pokazują, jak szerokie oraz coraz bardziej zintegrowane są dziś obszary IT, telekomunikacji, finansów i mediów – zauważa Andrzej Dulka, prezes Polskiej Izby Informatyki i Telekomunikacji.

    Nowi członkowie reprezentują szerokie spektrum kompetencji i doświadczeń, odzwierciedlających kierunki rozwoju współczesnej gospodarki cyfrowej. Ich działalność obejmuje m.in. infrastrukturę płatniczą, cyberbezpieczeństwo i regulacje, technologie blockchain oraz sektor mediów. To kolejny istotny krok w umacnianiu pozycji Izby jako platformy współpracy dla firm technologicznych i telekomunikacyjnych.

    Infrastruktura płatności dla gospodarki cyfrowej

    Autopay S.A. to polski fintech założony w 1999 roku w Sopocie, który od ponad 25 lat rozwija technologię płatniczą dla biznesu i użytkowników końcowych. Firma buduje nowoczesną infrastrukturę dla płatności powtarzalnych, automatycznych i osadzonych w codziennych procesach zakupowych oraz usługowych, wspierając rozwój cyfrowej gospodarki w modelu, który łączy wygodę użytkownika z wymaganiami skali, bezpieczeństwa i integracji systemowej.

    Charakter działalności spółki oraz jej rolę w rozwoju rynku płatności cyfrowych podkreśla Wojciech Murawski, CCO Autopay S.A.: – Autopay jest interesującym przykładem polskiej spółki technologicznej, która łączy kompetencje software’owe, fintechowe i integracyjne z realną skalą biznesową oraz zdolnością do wdrażania innowacji na styku płatności, danych, identyfikacji, AI i doświadczenia użytkownika. To właśnie w takich punktach przecięcia – między infrastrukturą, regulacją, bezpieczeństwem, telekomunikacją, AI i komercjalizacją technologii – będą dziś powstawać najbardziej wartościowe przewagi konkurencyjne całego sektora ICT. 

    Dziś Autopay przetwarza ponad miliard transakcji rocznie, obsługuje ponad 50 tys. merchantów i działa na ośmiu rynkach Europy. Portfolio spółki obejmuje płatności online, rozwiązania account-to-account, usługi dla rynku mobility, technologie weryfikacyjne oraz innowacje biometryczne, w tym HandGo – system zakupów oparty na skanie dłoni. Rozwiązania Autopay wspierają m.in. e-commerce, media, usługi finansowe, ubezpieczenia, mobilność oraz szeroko rozumiane usługi cyfrowe. Istotnym obszarem zastosowań technologii Autopay jest również sektor telekomunikacyjny i szerzej rozumiane usługi cyfrowe oparte na modelach abonamentowych, doładowaniach, bill payments oraz płatnościach cyklicznych. Kompetencje firmy w zakresie recurring payments, embedded payments i obsługi digital goods sprawiają, że Autopay naturalnie wpisuje się także w rozwój nowoczesnych modeli telco.

    Z perspektywy rynku ICT Autopay rozwija się jako firma infrastrukturalna, projektując technologie, które działają niezawodnie w tle procesów biznesowych i ułatwiają skalowanie usług cyfrowych.

    Oprogramowanie blockchain i infrastruktura aktywów cyfrowych

    InPay S.A. jest wyspecjalizowanym dostawcą oprogramowania dla sektora finansowego, koncentrującym się na rozwiązaniach opartych na technologii blockchain, infrastrukturze płatniczej oraz systemach dla rynku aktywów cyfrowych. Spółka realizuje projekty dla podmiotów rozwijających nowoczesne usługi finansowe, wspierając je w projektowaniu i budowie bezpiecznych, skalowalnych oraz zgodnych z regulacjami rozwiązań technologicznych. InPay łączy zaawansowane kompetencje programistyczne z praktycznym rozumieniem wymogów regulacyjnych właściwych dla rynku finansowego i sektora kryptoaktywów. Firma posiada doświadczenie w tworzeniu systemów wymagających wysokiego poziomu bezpieczeństwa, niezawodności oraz integracji z istniejącą infrastrukturą finansową.

    W procesie wytwarzania i rozwoju oprogramowania InPay wykorzystuje również narzędzia oparte na sztucznej inteligencji, zarówno w obszarze optymalizacji procesu developmentu, jak i analizy procesów biznesowych.

    Do znaczenia członkostwa i kierunku rozwoju spółki odnosi się Lech Wilczyński, CEO InPay S.A.: – Dołączenie do Polskiej Izby Informatyki i Telekomunikacji traktujemy jako ważny krok w rozwoju InPay oraz naturalne rozszerzenie naszej aktywności w obszarze technologii finansowych. Jako dostawca oprogramowania specjalizujący się w rozwiązaniach blockchain i infrastrukturze dla rynku aktywów cyfrowych chcemy aktywnie uczestniczyć w dialogu branżowym oraz dzielić się doświadczeniem w zakresie budowy bezpiecznych i nowoczesnych systemów dla sektora finansowego.

    Media, technologie i cyfrowa transformacja treści

    Grupa Agora to grupa mediowa o największym zasięgu w Polsce, działająca na rynku od 1989 r., notowana na giełdzie w Warszawie od 1999 r. Jej najważniejszymi przedsięwzięciami są m.in. Helios S.A., NEXT FILM, działalność radiowa pod szyldem Grupa Eurozet (w tym Radio ZET i Radio TOK FM), AMS, „Gazeta Wyborcza” oraz Gazeta.pl wraz z serwisami tematycznymi. Grupa prowadzi także działalność wydawniczą poprzez Wydawnictwo Agora, a jej działalność obejmuje szeroki zakres mediów – od prasy i internetu, przez radio, aż po kino i reklamę zewnętrzną.

    – Dołączenie do Polskiej Izby Informatyki i Telekomunikacji to dla nas ważny krok w budowaniu współpracy między sektorem mediów i nowych technologii. Jako firma medialno–technologiczna chcemy aktywnie uczestniczyć w debacie o przyszłości rynku cyfrowego oraz o warunkach sprzyjających rozwojowi innowacji. Szczególnie istotne jest dla nas wzmacnianie roli niezależnych mediów, które są jednym z fundamentów demokratycznego społeczeństwa. Wierzymy, że współpraca w ramach PIIT pozwoli nam wspólnie działać na rzecz rozwiązań sprzyjających jakościowej informacji, odpowiedzialnemu rozwojowi technologii oraz tworzeniu wartości dla społeczeństwa i gospodarki – zaznacza Paweł Czajkowski, dyrektor ds. prawnych i public policy.

    Doradztwo prawne dla technologii i cyberbezpieczeństwa

    Aether Mariusz Busiło to doradca prawny specjalizujący się w obszarze telekomunikacji, usług cyfrowych, nowych technologii, cyberbezpieczeństwa i zgodności. Firma oferuje ponad 25 lat doświadczenia na styku prawa, technologii i regulacji, zdobywanego zarówno po stronie organów regulacyjnych, jak i biznesu. Zakres usług obejmuje wsparcie przy wprowadzaniu nowych usług, negocjacjach umów, zapewnianiu zgodności regulacyjnej oraz realizacji szkoleń. Specjalizacja obejmuje telekomunikację, usługi cyfrowe oraz nowe technologie,
    w tym Business Intelligence i sztuczną inteligencję.

    Firma świadczy również doradztwo w zakresie cyberbezpieczeństwa – od przygotowania organizacji na incydenty, przez komunikację z regulatorami, po wsparcie prawne w obszarze RODO i KSC. Oferuje praktyczne wsparcie we wdrażaniu regulacji takich jak DORA, NIS2/KSC, Data Act oraz AI Act.

    Z perspektywy praktyki doradczej znaczenie tych kompetencji akcentuje Mariusz Busiło: – Firma oferuje ponad 25 lat doświadczenia na styku prawa, technologii i regulacji, zdobywanego zarówno po stronie organów regulacyjnych, jak i biznesu. Wspiera organizacje w bezpiecznym wdrażaniu nowoczesnych technologii, zarządzaniu ryzykiem regulacyjnym oraz skutecznym reagowaniu na incydenty cyberbezpieczeństwa.

  • Rynek pracy w Polsce: Najbardziej pożądane cechy kandydatów

    Rynek pracy w Polsce: Najbardziej pożądane cechy kandydatów

    W kręgach technologicznych i biznesowych przez lata obowiązywało przekonanie, że twarde kompetencje są jedyną bezpieczną walutą na rynku pracy. Najnowsze dane ManpowerGroup sugerują jednak istotną korektę tej tezy. Polski rynek pracy, tradycyjnie kojarzony z silnym naciskiem na specjalizację, przechodzi transformację w stronę modelu, w którym elastyczność i potencjał rozwojowy stają się ważniejsze niż suma aktualnych umiejętności technicznych.

    Z analizy wynika, że dla 39% polskich pracodawców kluczowym kryterium wyboru jest obecnie gotowość do nauki. To sygnał, że firmy przestały szukać pracowników „gotowych na teraz”, a zaczęły inwestować w osoby zdolne do adaptacji w warunkach permanentnej zmiany. Profesjonalizm i etyka pracy, wskazane przez 36% badanych, pozostają fundamentem, jednak to zestaw kompetencji miękkich – komunikacja i praca zespołowa – realnie domyka procesy rekrutacyjne.

    IT: Krytyczne myślenie zamiast znajomości kodu

    Szczególnie interesująco prezentuje się sektor IT, który wyłamuje się z ogólnego schematu. Podczas gdy w ujęciu ogólnokrajowym dominuje elastyczność, w technologiach prym wiedzie myślenie krytyczne i rozwiązywanie problemów (42%). To pragmatyczne podejście wynika ze specyfiki branży, gdzie technologia jest jedynie narzędziem, a prawdziwą wartością jest zdolność do rozkładania złożonych procesów na czynniki pierwsze.

    Warto zauważyć, że polscy pracodawcy przypisują większą wagę kompetencjom cyfrowym (25%) niż ich globalni odpowiednicy (16%). Ta dysproporcja może wskazywać na trwający w Polsce intensywny nadrabianie zaległości w cyfryzacji procesów biznesowych, podczas gdy rynki zachodnie przesunęły już punkt ciężkości na zarządzanie relacjami i inkluzywność.

    Koniec “najlepszego specjalisty”

    Marta Szymańska z Manpower zwraca uwagę na zjawisko, które redefiniuje strategię budowania zespołów. Przy dwóch zbliżonych profilach technicznych, o zatrudnieniu niemal zawsze decyduje dopasowanie kulturowe i umiejętność współpracy. Firmy coraz częściej akceptują braki w wiedzy merytorycznej kandydata, o ile wykazuje on wysoką sprawność w nabywaniu nowych kompetencji.


    O badaniu: Badanie ManpowerGroup zostało przeprowadzone w okresie od 1 do 31 października 2025 roku na grupie 502 firm w Polsce i 39 063 globalnie.

  • Jak ON LEMON zwiększył produkcję o 35% dzięki systemowi ERP

    Jak ON LEMON zwiększył produkcję o 35% dzięki systemowi ERP

    Katowicki ON LEMON, producent naturalnych lemoniad, stanął przed klasycznym dylematem dynamicznie rosnącego biznesu: jak utrzymać tempo ekspansji, gdy rozproszone dane stają się głównym hamulcem operacyjnym?

    Odpowiedź przyszła wraz z głęboką cyfryzacją procesów. Wdrożenie systemu Comarch ERP XL, przeprowadzone przez partnera technologicznego Kotrak, pokazało, że w sektorze FMCG technologia jest równie istotna co receptura produktu. Efekt? Wzrost tempa realizacji zleceń produkcyjnych o 35% w zaledwie trzy miesiące od implementacji.

    Koniec „ręcznego” zarządzania

    Przed transformacją ON LEMON mierzył się z barierami typowymi dla firm w fazie gwałtownego wzrostu. Brak scentralizowanej bazy kontrahentów wymuszał ręczne wprowadzanie danych, co przy obsłudze ponad 2 tysięcy klientów rocznie generowało ryzyko kosztownych błędów. Największym wyzwaniem była jednak „ślepa plama” w terenie. Brand managerowie działający w Europie – od Wielkiej Brytanii po Bułgarię – nie mieli wglądu w stany magazynowe i historię płatności w czasie rzeczywistym.

    Nowy system zintegrował kluczowe obszary: od linii produkcyjnej, przez księgowość, aż po analitykę Business Intelligence. Kluczowym elementem stała się automatyzacja obiegu dokumentów między rozlewnią a systemem centralnym oraz dedykowana aplikacja dla klientów, która przeniosła proces składania zamówień do samoobsługowego kanału cyfrowego.

    Dane jako fundament decyzji

    Dla zarządu ON LEMON zmiana to przede wszystkim przejście na zarządzanie oparte na dowodach (data-driven). Zamiast czekać na ręcznie przygotowywane raporty sprzedaży, decydenci zyskali natychmiastowy wgląd w płynność finansową i rotację towarów. 

    „Oprogramowanie dorównuje kroku rozwojowi naszej firmy” – zaznacza Robert Orszulak, założyciel ON LEMON. 

    Skalowalność nie zależy już tylko od popytu na produkt, ale od wydajności cyfrowego kręgosłupa firmy. Wdrożenie zakończone tuż przed szczytem sezonu sprzedażowego pozwoliło spółce uniknąć „wąskich gardeł” w logistyce, co w branży napojów chłodzących często decyduje o wyniku całego roku finansowego. ON LEMON udowodnił, że inwestycja w ERP to nie koszt administracyjny, lecz strategiczny katalizator eksportu.

  • Jak skutecznie chronić dane firmowe? Porady na Światowy Dzień Backupu

    Jak skutecznie chronić dane firmowe? Porady na Światowy Dzień Backupu

    Według opublikowanego w 2025 przez IBM Security badania „Cost of a Data Breach Report”, jeszcze 20 lat temu aż 45% wycieków danych wynikało z utraty urządzeń takich jak laptopy czy pendrive’y. Obecnie skala tego zjawiska jest mniejsza, ale incydenty tego typu nadal występują i są odnotowywane w raportach bezpieczeństwa. Jak zatem zabezpieczyć swoje dane przed ich wyciekiem? Z okazji przypadającego 31 marca Światowego Dnia Backupu ekspert Kingston radzi jak skutecznie chronić informacje przed trafieniem w niepowołane ręce, a firmę przed utratą reputacji i konsekwencjami prawnymi.

    We współczesnych czasach dane niewątpliwie są jednym z najważniejszych aktywów, jakie posiadają przedsiębiorstwa. Jednocześnie, wraz ze wzrostem ilości przechowywanych informacji, rośnie skala konsekwencji, gdy dojdzie do ich utraty w wyniku awarii sprzętu, cyberataku czy ludzkiego błędu. Dlatego tworzenie kopii zapasowych nie jest już kwestią wyboru ani opcjonalnym działaniem, ale koniecznością. 

    – Wykonywanie backupu to bardzo newralgiczny proces, ponieważ w kopiach zazwyczaj znajdują się wszystkie najważniejsze i najbardziej wrażliwe dane przedsiębiorstwa. Dlatego w strategii ich ochronny powinien znaleźć się zapis dotyczący sposobu zabezpieczania nośników z kopiami. Takie podejście zapewni spokojny sen zarządowi firmy i informatykom, ponieważ eliminuje ryzyko naruszenia prawa, a szczególnie Rozporządzenia o Ochronie Danych Osobowych – mówi Robert Sepeta, Business Development Manager w firmie Kingston.

    Najważniejsze dane, największa ochrona

    Pierwszym krokiem w stronę zapewnienia bezpieczeństwa danych powinno być zidentyfikowanie tych, które wymagają największej ochrony. Zazwyczaj są to informacje finansowe i operacyjne, dane osobowe lub chronione prawnie, bądź inne informacje mające największy wpływ na działalność przedsiębiorstwa. Ponieważ wyniki tej analizy mogą mieć bezpośredni wpływ na ciągłość biznesową, powinien jej dokonywać zarząd wraz z informatykami, którzy wiedzą w jaki sposób dane są obecnie przechowywane oraz na jakie zagrożenia są narażone. Warto również sprawdzić czy – oprócz przetwarzanych przez firmę informacji – wykonywane są backupy obrazów systemów operacyjnych oraz aplikacji. 

    Jedną z podstawowych strategii przechowywania danych jest zasada 3-2-1. Zgodnie z nią należy wykonywać trzy kopie tych samych danych, na dwóch różnych nośnikach pamięci, przy czym jeden z nich powinien być przechowywany w odrębnej lokalizacji, poza środowiskiem produkcyjnym. Stosowanie tej metody znacząco zwiększy bezpieczeństwo danych i zminimalizuje ryzyko utraty dostępu do nich w wyniku czynników fizycznych, jaki i cyberataku.

    Po wyborze nośnika na kopie zapasowe należy zaplanować harmonogram ich wykonywania. Także on zależy od decyzji o charakterze biznesowym, a nie technicznym. Dla każdego rodzaju danych zarząd firmy powinien określić przedział czasu, w którym nie będzie dokonywana ich kopia, a więc informacje wytworzone lub pozyskane w tym okresie będą mogły ulec utracie. Od tego będzie uzależniona częstotliwość wykonywania kopii, a więc także związane z tym koszty. Dane z niektórych rodzajów systemów (mniej krytycznych lub rzadziej aktualizowanych) wystarczy zabezpieczyć raz w tygodniu, ale z innych – nawet kilka razy dziennie. Równocześnie należy określić czas, w którym zagwarantowana będzie możliwość odzyskania danych lub przywrócenia systemów IT do pracy. Zawsze trzeba też pamiętać, aby zweryfikować poprawność wykonania kopii i możliwość odtworzenia danych.

    Przechowywanie kopii zapasowych – w chmurze czy na dysku?

    Istotnym zaleceniem zasady 3-2-1 jest przechowywanie jednej z kopii danych poza siedzibą przedsiębiorstwa, aby uchronić przed kradzieżą lub skutkiem katastrof, jak pożar, powódź czy zawalenie się budynku. Jedną z możliwych metod jest przechowywanie kopii danych w chmurze. Jest to jedno z najprostszych i najwygodniejszych rozwiązań – umożliwia automatyzację procesu kopiowania oraz dostęp do danych z dowolnego miejsca. Sposób ten ma jednak trzy wady: czas dostępu do danych jest długi, gdy zajdzie konieczność przywrócenia ich dużej ilości do środowiska produkcyjnego, zabezpieczenia tych danych przed cyberatakiem bywają niewystarczające, i – co najważniejsze – wiele podmiotów przetwarzających wrażliwe dane (medyczne, finansowe) nie może skorzystać z tej metody ze względu na ograniczenia prawne. 

    W takiej sytuacji dobrym rozwiązaniem jest korzystanie z podłączanego przez USB nośnika zewnętrznego, który zgodnie z zasadą 3-2-1 będzie drugim rodzajem nośnika kopii zapasowych. W zależności od budżetu lub preferencji można zdecydować się na mechaniczne dyski, które zazwyczaj oferują większą pojemność w niższej cenie, lub półprzewodnikowe (SSD), które są droższe, ale zapewniają większą trwałość danych, odporność na uszkodzenia mechaniczne, szybkość transferu danych, a niektóre modele mają także wbudowany sprzętowy moduł szyfrujący.

    – W obecnych czasach szyfrowanie danych na dyskach przenośnych, szczególnie jeśli są to kopie najważniejszych wrażliwych firmowych informacji, jest wręcz obowiązkowe. Jest to najskuteczniejsza metoda, aby w przypadku utracenia nośnika nie doszło do wycieku danych. Profesjonalne szyfrowane nośniki wyposażone są w wiele mechanizmów ochronnych, wśród których jest funkcja zniszczenia znajdujących się na nich danych, gdy dojdzie do kilkukrotnego wpisania błędnego hasła – mówi Robert Sepeta.

    Obecnie, w obliczu rosnących zagrożeń będących głównie konsekwencjami prawnymi wskutek wycieku danych, warto poświęcić szczególną uwagę na sposób przechowywania informacji. Ujawnienie wrażliwych informacji może mieć znaczący wpływ na funkcjonowanie firmy poprzez wysokie koszty związane z procesami sądowymi czy pogorszenie wizerunku. Wprowadzenie kilku prostych zasad, których koszt jest o kilka rzędów wielkości niższy, niż potencjalne straty, pozwoli na ochronę danych, a co za tym idzie utrzymanie stabilnej i bezpiecznej pozycji na rynku.


    źródło: Kingston

  • Huawei 950PR – Nowy rywal Nvidia podbija chiński rynek AI

    Huawei 950PR – Nowy rywal Nvidia podbija chiński rynek AI

    Przez lata dominacja Nvidii na chińskim rynku sztucznej inteligencji wydawała się nienaruszalna, chroniona nie tylko przez wydajność sprzętu, ale przede wszystkim przez ekosystem oprogramowania CUDA. Jednak najnowsze doniesienia z Shenzhen sugerują, że Huawei w końcu znalazło klucz do zamkniętych drzwi największych prywatnych gigantów technologicznych. Nowy chip Ascend 950PR przeszedł pomyślnie testy u takich graczy jak ByteDance i Alibaba, co zwiastuje nowy rozdział w rywalizacji o serce chińskiego sektora AI.

    Sukces 950PR nie wynika wyłącznie z surowej mocy obliczeniowej, która względem poprzednika (modelu 910C) wzrosła jedynie nieznacznie. Przełom nastąpił w sferze użyteczności. Huawei, dotychczas rygorystycznie forsujące własne oprogramowanie CANN, postawiło na większą kompatybilność z ekosystemem Nvidii. Dla inżynierów w Pekinie czy Hangzhou oznacza to drastyczne obniżenie kosztów migracji modeli i łatwiejsze przejście na krajową architekturę bez konieczności pisania kodu od zera.

    Strategiczne pozycjonowanie chipu trafia w punkt zwrotny chińskiego rynku. Podczas gdy świat wciąż fascynuje się trenowaniem coraz większych modeli, chiński sektor technologiczny przesuwa ciężar uwagi w stronę inferencji – czyli praktycznego wdrażania i uruchamiania gotowych algorytmów. To właśnie w tym obszarze 950PR ma oferować najwyższą kulturę pracy i szybkość reakcji. Wzrost popularności rozwiązań typu open-source, jak OpenClaw, dodatkowo napędza popyt na jednostki zoptymalizowane pod konkretne zadania biznesowe, a nie tylko teoretyczne rekordy wydajności.

    Aspekt ekonomiczny również przemawia na korzyść Huawei. Przy cenie startowej oscylującej wokół 6 900 dolarów za kartę, 950PR staje się atrakcyjną alternatywą dla amerykańskich produktów, których dostępność jest regularnie ograniczana przez sankcje Waszyngtonu. Nawet jeśli Nvidia otrzyma zielone światło na dostawy układów takich jak H200, niepewność regulacyjna skłania chińskie firmy do dywersyfikacji dostawców.

    Planowana na przyszły miesiąc masowa produkcja i ambitny cel wysyłki 750 tysięcy jednostek jeszcze w tym roku pokazują, że Huawei wychodzi z fazy defensywnej. Jeśli 950PR utrzyma pozytywne opinie z testów, chiński gigant może przestać być jedynie beneficjentem patriotycznych apeli rządu, a stać się realnym, komercyjnym wyborem dla firm, które w technologii szukają przede wszystkim efektywności kosztowej i stabilności operacyjnej.

  • Nowe zasady handlu cyfrowego: 66 państw omija blokadę WTO

    Nowe zasady handlu cyfrowego: 66 państw omija blokadę WTO

    Przez lata Światowa Organizacja Handlu (WTO) przypominała giganta z wiązanymi nogami, gdzie jeden głos sprzeciwu potrafił zamrozić globalne cyfrowe ambicje. Sobotnie porozumienie 66 krajów w Kamerunie to krok ku dużej zmianie. Zamiast czekać na pełny, niemożliwy do osiągnięcia konsensus, grupa reprezentująca 70% światowego handlu postanowiła wdrożyć pierwszą w historii linię bazową dla cyfrowych zasad handlu na własną rękę.

    Decyzja o aktywacji umowy w modelu plurilateralnym to czytelny sygnał dla państw blokujących, takich jak Indie: mechanizm weta przestaje być skutecznym narzędziem hamowania gospodarki. Dla sektora technologicznego i korporacji operujących w chmurze to obietnica końca cyfrowego „Dzikiego Zachodu”.

    Nowa umowa ma na celu ujednolicenie przepisów, które do tej pory stanowiły barierę wejścia na nowe rynki. Mowa o cyfrowym uwierzytelnianiu, podpisach elektronicznych oraz ochronie konsumenta w sieci. Brytyjski sekretarz ds. biznesu i handlu, Peter Kyle, słusznie zauważa, że standaryzacja tych procesów realnie obniży koszty operacyjne firm. Gdy procedury celne i dokumentacja handlowa stają się w pełni cyfrowe i wzajemnie uznawane, czas dostawy produktów i usług skraca się drastycznie.

    Jednak sukces tej inicjatywy ma swój słaby punkt – brak podpisu Stanów Zjednoczonych. Choć administracja w Waszyngtonie analizuje treść porozumienia, jej dystans rzuca cień na transatlantycki spokój w kwestii zarządzania danymi. USA balansują obecnie między wspieraniem otwartego handlu a ochroną własnych gigantów technologicznych przed zagraniczną regulacją.

    Postawa Indii, które konsekwentnie blokują wielostronne umowy w obawie o utratę siły negocjacyjnej, doprowadziła do paradoksu. Starając się chronić swój rynek wewnętrzny, Delhi ryzykuje znalezienie się poza nawiasem cyfrowego ekosystemu, który właśnie się formuje. Wysocy rangą dyplomaci unijni nie kryją, że „bypass” zastosowany w Kamerunie jest formą politycznej presji.

    Globalny handel cyfrowy przestaje czekać na maruderów. Firmy operujące w krajach sygnatariuszach zyskają przewagę dzięki bezpieczniejszym i tańszym ramom prawnym, podczas gdy rynki pozostające przy tradycyjnym modelu konsensusu mogą stać się operacyjnie zbyt drogie.

  • Bezpieczeństwo dzieci w sieci. Sądy uderzają w gigantów social media

    Bezpieczeństwo dzieci w sieci. Sądy uderzają w gigantów social media

    Przez blisko trzy dekady Sekcja 230 amerykańskiej ustawy Communications Decency Act stanowiła najskuteczniejszą linię obrony dla gigantów technologicznych. Przepis ten, chroniący platformy przed odpowiedzialnością za treści publikowane przez użytkowników, był fundamentem, na którym wyrosły potęgi Meta czy Google. Jednak ostatnie werdykty ławy przysięgłych w Kalifornii i Nowym Meksyku sugerują, że era bezkarności opartej na tym zapisie dobiega końca, a punkt ciężkości sporów prawnych przesuwa się z samej treści na architekturę systemów.

    W Los Angeles ławnicy uznali MetaGoogle za odpowiedzialne za problemy ze zdrowiem psychicznym młodej kobiety, nakazując wypłatę 6 milionów dolarów odszkodowania. Jeszcze dotkliwszy cios spadł na Meta w Nowym Meksyku, gdzie zasądzono 375 milionów dolarów za wprowadzanie w błąd co do bezpieczeństwa produktów i dopuszczenie do nadużyć wobec nieletnich. Kluczowe jest tu jednak nie samo odszkodowanie, lecz strategia prawna: powodowie skutecznie dowiedli, że szkodliwy był nie konkretny post czy film, ale celowy projekt algorytmów i interfejsów, mający na celu uzależnienie użytkownika.

    Sądy zaczynają odróżniać rolę platformy jako „przekaźnika” informacji od jej roli jako „projektanta” doświadczeń. Jeśli wyroki te utrzymają się w procesach apelacyjnych, każda funkcja produktu – od mechanizmu nieskończonego przewijania po systemy rekomendacji – może stać się podstawą do wielomiliardowych pozwów.

    Ryzyko nie ogranicza się wyłącznie do mediów społecznościowych. Podobne batalie toczy już Roblox, a eksperci ostrzegają, że na celowniku mogą znaleźć się wszystkie platformy hostujące treści generowane przez użytkowników, w tym serwisy gamingowe czy e-commerce.

    Choć Meta i Google zapowiadają walkę w sądach wyższej instancji, nastroje w systemie prawnym USA ulegają zmianie. Nawet sędziowie Sądu Najwyższego sugerują, że Sekcja 230 nie może być „kartą wolności”, która zwalnia firmy z elementarnej dbałości o bezpieczeństwo ich klientów. Dla liderów technologicznych nadchodzi czas, w którym audyt etyczny algorytmów stanie się równie istotny, co audyt finansowy. Wynik nadchodzących apelacji nie tylko rozstrzygnie o losach tysięcy toczących się spraw, ale wyznaczy nowe reguły gry dla całej gospodarki cyfrowej.

  • Chiński rynek chipów 2026: AI napędza rekordowe wzrosty

    Chiński rynek chipów 2026: AI napędza rekordowe wzrosty

    Podczas gdy uwaga Doliny Krzemowej skupia się niemal wyłącznie na najbardziej zaawansowanych procesach litograficznych, w Szanghaju rysuje się obraz nowej, pragmatycznej dominacji. Tegoroczne targi Semicon China 2026 potwierdziły to, co analitycy podejrzewali od dawna: globalny głód infrastruktury AI nie tylko przyspiesza rozwój najnowocześniejszych jednostek obliczeniowych, ale wywołuje gwałtowny wzrost zapotrzebowania na komponenty, które Chiny potrafią produkować najlepiej i najtaniej.

    Jerry Zhang z firmy VAT zauważa, że dynamika branży w tym roku „nadchodzi szybciej niż oczekiwano”. To nie jest wyłącznie kwestia optymizmu handlowego, lecz twardej matematyki mocy przerobowych. Według prognoz SEMI China, udział Chin w globalnej produkcji chipów opartych na dojrzałych węzłach (od 22nm do 40nm) wzrośnie do 42% w ciągu najbliższych dwóch lat. To strategiczne przesunięcie, ponieważ to właśnie te „robocze” procesory stanowią kręgosłup systemów zasilania, motoryzacji i łączności, bez których centra danych AI nie mogą funkcjonować.

    Sztuczna inteligencja zmienia architekturę całego sektora. Jak podkreśla Terry Feng z Teradyne, zapotrzebowanie na moc obliczeniową wymusza bardziej skomplikowane testowanie i pakowanie układów. Chiny stają się tu kluczowym ogniwem, szczególnie w obszarze interkonektów optycznych. Firmy takie jak MRSI (część Mycronic) już teraz raportują portfele zamówień wypełnione na rok do przodu, co sugeruje, że wąskie gardła w dostawach komponentów do centrów danych mogą stać się nową normą rynkową.

    Pomimo silnych dążeń do samowystarczalności, reprezentowanych przez inwestycje takich gigantów jak SMIC czy Yangtze Memory, krajobraz pozostaje nierozerwalnie spleciony z zachodnią technologią. Eksperci z Tidal Wave Solutions wskazują na istotną lukę: zagraniczni dostawcy wciąż utrzymują przewagę w specjalistycznej wiedzy materiałowej oraz wsparciu posprzedażowym. Chiński przemysł chipowy, choć potężny pod względem skali i szybkości reakcji na popyt, wciąż potrzebuje zachodniego know-how, aby utrzymać ciągłość najbardziej skomplikowanych procesów. Chińska ekspansja w segmencie 22-40nm uczyni z tego regionu absolutne centrum grawitacji dla elektroniki użytkowej i przemysłowej.

  • Nowe zwolnienia w Meta: Firma tnie koszty, by inwestować w AI

    Nowe zwolnienia w Meta: Firma tnie koszty, by inwestować w AI

    Meta Platforms wykonuje kolejny krok w stronę „roku efektywności”, który zdaje się nie mieć końca. W minioną środę gigant z Menlo Park przeprowadził kolejną rundę zwolnień, obejmującą kilkuset pracowników w kluczowych jednostkach biznesowych. Choć skala cięć jest mniejsza niż w ubiegłych latach, sygnał wysłany do rynku jest jasny: firma Marka Zuckerberga priorytetyzuje zasoby tam, gdzie widzi przyszłość, bezlitośnie tnąc wydatki w pozostałych obszarach.

    Według źródeł zbliżonych do spółki, redukcje dotknęły przede wszystkim działy Reality Labs, zespoły operacyjne mediów społecznościowych oraz struktury rekrutacyjne. To strategiczne przesunięcie akcentów.

    Podczas gdy Reality Labs wciąż generuje miliardowe straty w pogoni za wizją metawersum, Meta musi jednocześnie finansować morderczy wyścig zbrojeń w dziedzinie sztucznej inteligencji. Prognozy wydatków na 2026 rok, sięgające nawet 169 miliardów dolarów, nie pozostawiają złudzeń – walka o dominację w AI wymaga gigantycznego kapitału, który musi zostać skądś pozyskany.

    Oficjalne stanowisko firmy mówi o „regularnej restrukturyzacji w celu osiągnięcia celów strategicznych”. Jednak dla analityków biznesowych głębszy kontekst jest bardziej złożony. Meta zmaga się z rosnącymi kosztami pracy, napędzanymi przez konieczność przyciągania najdroższych na rynku talentów inżynieryjnych specjalizujących się w uczeniu maszynowym.

    W efekcie firma stosuje strategię „wymiany tkanki”: redukuje kadrę w obszarach dojrzałych lub mniej rokujących, by zwolnić budżet na astronomiczne wynagrodzenia dla ekspertów od modeli Llama.

    Przy blisko 79 tysiącach pracowników, firma przestała być monolitem skupionym wyłącznie na wzroście. Dziś to organizacja, która uczy się operować w trybie ciągłej optymalizacji. Każde zwolnione stanowisko w zespole rekrutacji przybliża spółkę do sfinansowania kolejnego klastra procesorów H100. W dolinie krzemowej nastała era, w której innowacja nie polega już tylko na tworzeniu nowego, ale przede wszystkim na odważnym rezygnowaniu z tego, co przestało być priorytetem.