Kategoria: Legislacja i regulacje

  • Koniec snu o cyfrowej Europie? Capgemini stawia na pragmatyzm zamiast suwerenności

    Koniec snu o cyfrowej Europie? Capgemini stawia na pragmatyzm zamiast suwerenności

    Aiman Ezzat, CEO Capgemini, publicznie odrzucił ideę całkowitej autonomii technologicznej Starego Kontynentu, nazywając ją nierealną. Choć szef francuskiego giganta IT ubiera to w szaty pragmatyzmu, dla wielu liderów biznesowych i politycznych jego słowa to przyznanie się do trwałej zależności od Doliny Krzemowej.

    Capgemini, pozycjonując się jako „pomost” między Brukselą a amerykańskimi hiperskalerami, promuje model, w którym europejskie firmy zarządzają danymi i operacjami, ale same obliczenia powierzają infrastrukturze AWS, Google czy Microsoftu. To podejście, choć wygodne krótkoterminowo, rodzi fundamentalne pytania o bezpieczeństwo i konkurencyjność regionu w dłuższej perspektywie.

    Architektura zależności

    Ezzat dzieli suwerenność na cztery warstwy: dane, operacje, regulacje i technologię. Twierdzi, że kontrola nad pierwszymi trzema wystarczy, by Europa czuła się bezpiecznie. Jednak to czwarta warstwa – czysta moc obliczeniowa i hardware – jest fundamentem gospodarki opartej na AI.

    Pozostawienie tej warstwy w rękach amerykańskich gigantów oznacza, że europejskie firmy budują swoje najbardziej innowacyjne rozwiązania na „wynajętym gruncie”. Wobec transatlantyckich i zmienności amerykańskiej polityki handlowej, taki model czyni Europę zakładnikiem decyzji zapadających w Seattle czy Mountain View. „Suwerenne rozwiązania AI” oferowane przez Capgemini mogą okazać się jedynie estetyczną nakładką na systemy, nad którymi Europa nie ma realnej kontroli technicznej.

    Między etyką a zyskiem

    Krytycy wytykają Capgemini, że ich wizja suwerenności jest skrojona pod aktualne kontrakty, a nie pod strategiczny interes regionu. Firma sama zmaga się z problemami wizerunkowymi – niedawna decyzja o sprzedaży amerykańskiego ramienia obsługującego kontrakty rządowe pokazuje, jak trudno jest pogodzić rolę „niezależnego doradcy” z agresywną ekspansją na rynku USA.

    Partnerstwa z lokalnymi graczami, jak Mistral AI, są prezentowane jako dowód na wspieranie europejskiego ekosystemu. Jednak dopóki te modele są trenowane i hostowane na serwerach Microsoftu, mowa o „europejskim championie” pozostaje jedynie zabiegiem marketingowym. Lekcja z wystąpienia Ezzata jest ostrzeżeniem: akceptacja „rozwiązań pomostowych” może oznaczać trwałą rezygnację z budowy własnego potencjału.

  • USA i Chiny poza paktem o wojskowym AI. Europa zostaje sama z regulacjami

    USA i Chiny poza paktem o wojskowym AI. Europa zostaje sama z regulacjami

    Podczas gdy Dolina Krzemowa ściga się o miano lidera w modelach językowych, na froncie technologii militarnych trwa znacznie bardziej ryzykowna gra. Szczyt REAIM w hiszpańskiej A Coruña, mający na celu wypracowanie standardów odpowiedzialnego wdrażania sztucznej inteligencji w wojsku, zakończył się wymownym impasem. Tylko jedna trzecia uczestniczących krajów zdecydowała się na podpisanie deklaracji zasad, a wśród nieobecnych znaleźli się najwięksi gracze: USA i Chiny.

    Dla kadry zarządzającej w sektorze obronnym i technologicznym sygnał jest jasny: mimo retoryki o bezpieczeństwie, pragmatyzm pola bitwy wygrywa z dyplomacją. Zaledwie 35 z 85 państw poparło zbiór 20 zasad, które obejmują m.in. konieczność zachowania ludzkiego nadzoru nad bronią autonomiczną oraz transparentność w łańcuchach dowodzenia. Choć sygnatariuszami zostały potęgi europejskie i Korea Południowa, brak poparcia ze strony Waszyngtonu i Pekinu sprowadza te ustalenia do roli teoretycznych postulatów.

    Holenderski minister obrony, Ruben Brekelmans, trafnie zdiagnozował sytuację jako klasyczny „dylemat więźnia”. Państwa stoją przed wyborem: narzucić sobie etyczne ograniczenia, ryzykując pozostanie w tyle za przeciwnikami, lub kontynuować niekontrolowany rozwój w obawie przed utratą przewagi strategicznej. Szybkie postępy Rosji i Chin w autonomizacji systemów walki budują presję, która sprawia, że nawet demokratyczni sojusznicy wahają się przed sformalizowaniem jakichkolwiek barier.

    Obecny klimat polityczny dodaje kolejną warstwę niepewności. Napięcia na linii USA–Europa oraz nieprzewidywalność przyszłych relacji transatlantyckich sprawiły, że delegaci podchodzili do wiążących deklaracji z dużą rezerwą. Nawet jeśli tegoroczny dokument nie miał mocy prawnej, sama próba zarysowania konkretnej polityki okazała się zbyt śmiała dla tych, którzy postrzegają AI jako decydujący atut w nadchodzącej dekadzie.

    Z biznesowego punktu widzenia brak globalnego konsensusu oznacza, że rynek AI w sektorze defense pozostanie „Dzikim Zachodem”. Firmy technologiczne rozwijające systemy dla wojska muszą nawigować w próżni regulacyjnej, gdzie standardy etyczne są kształtowane przez indywidualne kontrakty rządowe, a nie międzynarodowe prawo. Dopóki najwięksi gracze nie uznają, że ryzyko niezamierzonej eskalacji przeważa nad korzyściami z technologicznej dominacji, wspólny front w kwestii wojskowego AI pozostanie jedynie ambitnym projektem na papierze.

  • Bruksela luzuje uścisk: Apple Maps i Ads poza radarem DMA

    Bruksela luzuje uścisk: Apple Maps i Ads poza radarem DMA

    Decyzja Komisji Europejskiej o wyłączeniu Apple Maps oraz Apple Ads z restrykcyjnych ram Digital Markets Act (DMA) to rzadkie, ale znaczące zwycięstwo giganta z Cupertino w starciu z unijną biurokracją. Choć Apple jako korporacja pozostaje pod ścisłym nadzorem, te konkretne usługi uniknęły etykiety „strażnika dostępu”, co w praktyce oznacza brak konieczności otwierania ich ekosystemów na zewnętrzną konkurencję.

    Bruksela uznała argumentację Apple, wskazującą na relatywnie niskie udziały rynkowe obu platform w Europie. W świecie zdominowanym przez Google Maps i potężne sieci reklamowe Meta czy Google, oferta Apple nie stanowi krytycznej „bramy” łączącej biznes z klientem końcowym. Dla strategów biznesowych to sygnał, że UE potrafi zachować elastyczność i nie nakłada regulacji ryczałtowo na każdą usługę Big Tech.

    To rozstrzygnięcie pozwala Apple zachować pełną kontrolę nad doświadczeniem użytkownika w ramach nawigacji i wewnętrznej reklamy w App Store. Jednocześnie podkreśla ono pragmatyzm Komisji: regulacje mają uderzać tam, gdzie monopol dusi innowacje, a nie tam, gdzie gigant wciąż walczy o pozycję pretendenta.

  • Hiszpania zakazuje social mediów młodzieży. To początek końca ery „Dzikiego Zachodu” w UE?

    Hiszpania zakazuje social mediów młodzieży. To początek końca ery „Dzikiego Zachodu” w UE?

    Hiszpania staje się najnowszym polem bitwy w narastającym konflikcie między europejskimi państwami narodowymi a gigantami technologicznymi. Premier Pedro Sánchez, deklarując, że „demokracja nie ugnie się przed oligarchami algorytmu”, zapowiedział radykalne zaostrzenie kursu wobec platform społecznościowych. Proponowane przepisy, zakładające zakaz korzystania z mediów społecznościowych dla osób poniżej 16. roku życia oraz pociąganie kadry zarządzającej do odpowiedzialności za mowę nienawiści, stawiają Hiszpanię w awangardzie cyfrowego protekcjonizmu.

    Ruch Madrytu to coś więcej niż lokalna regulacja; to sygnał dla rynków, że model biznesowy oparty na nieograniczonym dostępie do młodych demografii stoi pod znakiem zapytania. Podobne kroki podjęła już Australia, a Francja i Wielka Brytania intensywnie analizują analogiczne scenariusze. Dla inwestorów i liderów technologicznych oznacza to konieczność redefinicji strategii wzrostu w Europie, gdzie ryzyko regulacyjne staje się kluczowym kosztem operacyjnym.

    Reakcja sektora technologicznego była natychmiastowa i nadzwyczaj bezpośrednia. Elon Musk określił Sáncheza mianem „tyrana”, a Pavel Durov, założyciel Telegrama, wykorzystał swoją platformę do bezpośredniego ostrzeżenia milionów hiszpańskich użytkowników. Według Durova, nowe prawo zmusi firmy do masowego gromadzenia danych wrażliwych i umożliwi rządom arbitralną kontrolę treści. Ta bezpośrednia komunikacja platform z obywatelami, z pominięciem tradycyjnych kanałów dyplomatycznych, jest dla rządu dowodem na „pilną potrzebę uregulowania” narzędzi, które mogą służyć do masowej dezinformacji.

    Kluczowym elementem hiszpańskiej strategii jest próba zakończenia anonimowości w sieci poprzez powiązanie profili użytkowników z europejskim portfelem tożsamości cyfrowej (EUDI Wallet). Jeśli ten model zostanie wdrożony, Hiszpania może stworzyć precedens, który trwale zmieni architekturę internetu w UE – z przestrzeni pseudonimowej w ściśle monitorowany ekosystem. Dla firm technologicznych oznacza to koniec ery „laissez-faire” i konieczność budowy kosztownych systemów weryfikacji wieku oraz moderacji treści, które będą musiały sprostać surowym wymogom lokalnego prawa. W tym starciu stawką nie są tylko zasięgi, ale fundamenty relacji między państwem a prywatnym kapitałem cyfrowym.

  • Suwerenność czy studnia bez dna? Rząd, Microsoft i miliardy za licencje

    Suwerenność czy studnia bez dna? Rząd, Microsoft i miliardy za licencje

    W lutym 2026 roku polska debata o cyfryzacji weszła w nową, gorącą fazę. Centralny Ośrodek Informatyki (COI) ogłosił ambitny plan: budowę narodowego pakietu biurowego dla administracji publicznej, który miałby zastąpić rozwiązania giganta z Redmond. To ruch wpisujący się w szerszy, europejski nurt „suwerenności cyfrowej” (Digital Sovereignty), ale w polskim wydaniu budzi on tyle samo nadziei, co uzasadnionego sceptycyzmu. Dla biznesu i liderów IT to sygnał, że dotychczasowy model „licencja przede wszystkim” przestaje być jedyną ścieżką rozwoju państwa. Czy jednak Polska jest gotowa na własny „Office”, czy może czeka nas kolejny miliardowy projekt o wątpliwej jakości?

    Dyktat jednego dostawcy: Diagnoza monopolu

    Punktem wyjścia dla inicjatywy COI był raport Fundacji Instrat „Zamówienia na pozór otwarte”, opublikowany pod koniec 2025 roku. Dane są bezlitosne: aż 99% przeanalizowanych zamówień publicznych na oprogramowanie biurowe w Polsce bezpośrednio lub pośrednio faworyzuje produkty Microsoft. W co piątym przetargu konkurencja jest wykluczana wprost, a w pozostałych – poprzez specyficzne wymogi techniczne, które spełnia tylko jeden ekosystem.

    Zjawisko vendor lock-in (uwiązanie u dostawcy) przestało być teoretycznym problemem akademickim, a stało się realnym zagrożeniem dla budżetu państwa. Gdy koszty licencji rosną, administracja nie ma dokąd uciec, bo cała infrastruktura, od poczty po zaawansowane arkusze kalkulacyjne, opiera się na zamkniętych standardach. Szef COI, Radosław Maćkiewicz, stawia sprawę jasno: Polska wydaje na oprogramowanie Microsoftu za duże pieniądze, a te środki mogłyby wspierać rodzimy ekosystem IT.

    Druga strona medalu: Widmo „systemów-miliardowców”

    Kiedy administracja mówi o „budowie własnych rozwiązań”, w sektorze prywatnym zapala się czerwona lampka. Historia polskiej informatyzacji publicznej pełna jest projektów, których koszty liczone były w miliardach, a jakość pozostawiała wiele do życzenia. Symbolem tych obaw jest Kompleksowy System Informatyczny ZUS (KSI ZUS). Według danych z ostatnich lat, utrzymanie i rozwój tego systemu w sześcioletnim cyklu (2015–2020) kosztowało państwo blisko 2,8 miliarda złotych. Co więcej, aktualne kontrakty na samo utrzymanie KSI ZUS opiewają na setki milionów złotych (np. oferta Asseco za blisko 350 mln zł).

    Krytycy słusznie pytają: czy państwo, które boryka się z efektywnym zarządzaniem takimi molochami, powinno porywać się na budowę od zera ekosystemu, który ma konkurować z dopracowywanym przez dekady Microsoft 365? Budowa nowoczesnego pakietu biurowego to nie tylko edytor tekstu, to setki tysięcy godzin pracy programistów, testów bezpieczeństwa i integracji z chmurą. Istnieje realne ryzyko, że „narodowa alternatywa” stanie się kolejną studnią bez dna, w której znikną miliardy z publicznej kasy, a produkt końcowy będzie odstawał od rynkowych standardów.

    Warto przy tym pamiętać o opinii ekspertów dotyczącej jakości oprogramowania budowanego przez COI, np. przy okazji mObywatela. Choć aplikacja cieszy się popularnością, raporty CSIRT MON wskazywały na luki bezpieczeństwa, takie jak „martwy kod” czy podatności w łańcuchu dostaw bibliotek. Skalowanie tych problemów na system, od którego zależeć będzie praca każdego urzędnika w kraju, budzi zrozumiały lęk.

    Lekcja z Hagi: Dlaczego suwerenność to nie tylko oszczędności

    Argumenty o kosztach to jednak tylko część równania. Geopolityczny punkt zwrotny nastąpił w maju 2025 roku, kiedy to prokurator generalny Międzynarodowego Trybunału Karnego (MTK) w Hadze miał utracić dostęp do swojego konta e-mail dostarczanego przez Microsoft. Oficjalnym powodem miały być sankcje nałożone przez administrację Donalda Trumpa.

    Niezależnie od późniejszych zaprzeczeń korporacji, incydent ten przeraził europejskich decydentów. Stało się jasne, że poleganie na amerykańskim modelu SaaS to nie tylko kwestia wygody, ale i wystawienie się na eksterytorialne prawo USA (np. CLOUD Act) oraz decyzje polityczne obcego mocarstwa. To właśnie ten strach napędza dziś migracje w niemieckim landzie Szlezwik-Holsztyn (60 tys. stanowisk przechodzących na Linuksa i LibreOffice) czy w duńskim Ministerstwie Cyfryzacji. W tych przypadkach suwerenność nad danymi jest ceniona wyżej niż wypolerowany interfejs giganta z USA.

    Transparentność oszczędności: Mit „darmowego” Open Source

    Inicjatywa COI ma bazować na rozwiązaniach otwartych (Open Source). To kluczowa informacja, bo obniża ona barierę wejścia – nie musimy pisać wszystkiego od zera, możemy czerpać z takich projektów jak LibreOffice, Collabora Online czy Nextcloud. Jednak w biznesie IT „otwarte” rzadko oznacza „tanie w krótkim terminie”.

    Transparencja oszczędności wymaga uczciwego spojrzenia na TCO (Total Cost of Ownership). O ile koszt licencji Microsoftu (ok. 38–49 mln zł rocznie dla samego ZUS w 2024/25) jest łatwo mierzalny, o tyle koszty ukryte migracji są ogromne. Niemiecki Szlezwik-Holsztyn szacuje, że oszczędzi 15 mln euro rocznie na licencjach, ale jednocześnie inwestuje 9 mln euro w samym tylko 2026 roku w proces transformacji i szkolenia.

    Prawdziwym kosztem narodowego pakietu biurowego będą:

    1. Szkolenia i adaptacja: Urzędnicy przyzwyczajeni do Outlooka mogą drastycznie stracić na wydajności w pierwszym roku pracy z nowym narzędziem.

    2. Utrzymanie i SLA: Open Source wymaga silnych, lokalnych zespołów wsparcia. Zamiast płacić Microsoftowi, będziemy płacić polskim firmom (np. w modelu PPP), co wspiera gospodarkę, ale nie musi oznaczać drastycznego spadku wydatków w budżecie.

    3. Kompatybilność: Miliony historycznych dokumentów.docx i zaawansowanych arkuszy.xlsx muszą działać bezbłędnie. Koszt naprawiania błędów w formatowaniu może pochłonąć miliony.

    Europejski trend: Lyon i Szlezwik-Holsztyn przecierają szlak

    Polska nie jest osamotniona. Lyon, trzecie co do wielkości miasto Francji, już teraz wdraża OnlyOffice i Linuksa na 10 tysiącach stanowisk, argumentując to nie tylko suwerennością, ale i ekologią – otwarte oprogramowanie pozwala na dłuższe korzystanie ze starszego sprzętu. Z kolei niemiecki projekt openDesk, rozwijany przez ZenDiS pod egidą MSW Niemiec, staje się gotowym standardem dla całej Europy.

    To właśnie tu leży szansa dla COI: nie budować „koła od nowa”, ale stać się polskim integratorem europejskich rozwiązań suwerennych. Wykorzystanie Collabora Online w połączeniu z polską chmurą rządową pozwoliłoby uniknąć losu KSI ZUS, a jednocześnie dałoby gwarancję, że dane obywateli nigdy nie opuszczą kraju.

    Wartość dla biznesu

    Inicjatywa COI powinna być odczytywana jako wezwanie do dywersyfikacji. Całkowita rezygnacja z Microsoftu w komercyjnych przedsiębiorstwach jest dziś mało prawdopodobna, ale budowa „hybrydowej odporności” staje się powoli koniecznością.

    Dla polskiego sektora IT to ogromna szansa. Przejście z modelu sprzedaży licencji (gdzie większość marży trafia do USA) na model wysokomarżowych usług wdrożeniowych i utrzymaniowych wokół Open Source może być „kołem zamachowym” dla rodzimych integratorów. Jednak biznes musi patrzeć państwu na ręce. Jeśli „narodowy pakiet” zostanie zamknięty w murach jednej instytucji, stanie się kosztownym pomnikiem. Jeśli natomiast zostanie zbudowany w oparciu o transparentne partnerstwa publiczno-prywatne i otwarte standardy, może stać się fundamentem nowoczesnego państwa, które zamiast płacić „cyfrowy podatek” gigantom, inwestuje we własny intelekt.

    Kluczem do sukcesu nie będzie technologia – bo LibreOffice czy OnlyOffice są już gotowe – ale transparentność wydatkowania tych „zaoszczędzonych” milionów. Prawdziwa suwerenność to zdolność do swobodnego wyboru technologii, a nie przymus korzystania z oprogramowania tylko dlatego, że jest „narodowe”. Polska musi udowodnić, że potrafi budować systemy nie tylko drogie, ale przede wszystkim skuteczne.

  • Efekt Grenlandii w IT: Jak nieprzewidywalna polityka USA napędza europejską chmurę

    Efekt Grenlandii w IT: Jak nieprzewidywalna polityka USA napędza europejską chmurę

    Jeszcze kilka lat temu termin „suwerenność technologiczna” był domeną akademickich debat i niszowych raportów przygotowywanych przez unijnych urzędników w Brukseli. Dla CEO czy CTO w Europie, amerykański Big Tech był jak grawitacja – stały, nieunikniony i, mimo pewnych kontrowersji dotyczących prywatności, gwarantujący stabilność. Jednak ostatnie miesiące przyniosły brutalną weryfikację tego optymizmu. Wydarzenia na linii Waszyngton–Bruksela, w tym zdumiewające ambicje terytorialne Donalda Trumpa dotyczące Grenlandii, stały się katalizatorem zmian, które na zawsze mogą przerysować mapę cyfrowego biznesu w Europie.

    Koniec cyfrowego optymizmu

    Dlaczego „Efekt Grenlandii” stał się symbolem zmian w IT? Choć próba aneksji wyspy przez administrację USA mogła wydawać się medialną anegdotą, dla europejskich liderów biznesu była to czytelna przestroga: żyjemy w czasach, w których dotychczasowe zasady gry i sojusze mogą zostać zakwestionowane w ciągu jednego tweeta lub nieprzewidywalnej decyzji politycznej.

    Ryzyko przestało być teoretyczne. Dziś europejski biznes musi zadać sobie pytanie, które do niedawna brzmiało jak scenariusz filmu science-fiction: Co się stanie z moją firmą, jeśli w wyniku sporu dyplomatycznego dostęp do usług SaaS, chmury obliczeniowej czy centrów danych z USA zostanie zablokowany? Odpowiedź na to pytanie buduje dziś nową strategię „technologii ograniczonego zaufania”.

    Statystyka uzależnienia: Krajobraz po bitwie

    Aby zrozumieć skalę wyzwania, należy spojrzeć na twarde dane. W 2024 roku europejscy klienci wydali blisko 25 miliardów dolarów na infrastrukturę chmurową dostarczaną przez pięciu największych amerykańskich graczy. Według danych IDC, firmy z USA kontrolują aż 83% europejskiego rynku chmury.

    Ten kontrast jest uderzający, gdy przypomnimy sobie Europę sprzed dwóch dekad. W dobie telefonii komórkowej to nasz kontynent dyktował warunki dzięki potędze Nokii i Ericssona. Dziś, w dobie gospodarki opartej na danych, Europa znalazła się w głębokim cieniu Stanów Zjednoczonych i Chin. Próby budowy lokalnych wyszukiwarek czy portali społecznościowych kończyły się porażką, miażdżone przez amerykańską skalę, kulturę wysokiego ryzyka i niemal nieograniczony dostęp do kapitału.

    Liderzy biznesu w UE wskazują na trzy główne hamulce: nadmierną biurokrację, rozdrobnienie rynku na 27 krajowych systemów oraz lęk przed ryzykiem, który paraliżuje innowacje na wczesnym etapie.

    Forteca Europa: Nowa strategia obronna

    W obliczu rosnących napięć, Niemcy i Francja – dwie największe gospodarki Unii – przestały czekać na ogólnoeuropejski konsensus i przeszły do ofensywy. Strategia jest jasna: jeśli nie możemy (jeszcze) stworzyć własnego Google, musimy zabezpieczyć fundamenty.

    Niemieckie Federalne Ministerstwo Cyfryzacji wdrożyło właśnie openDesk – otwartoźródłową alternatywę dla narzędzi Microsoftu. To sygnał, że oprogramowanie Open Source przestaje być domeną entuzjastów, a staje się „polisą ubezpieczeniową” dla instytucji państwowych i strategicznych przedsiębiorstw. Z kolei Francja promuje Visio – lokalne rozwiązanie do wideokonferencji, eliminując zależność od amerykańskich platform w administracji publicznej.

    Prezydent Emmanuel Macron idzie o krok dalej, oferując tanią energię jądrową dla firm budujących centra danych w regionie i aktywnie wspierając Mistral AI – europejską odpowiedź na oprogramowanie od OpenAI. To nie jest już tylko polityka; to budowa nowego ekosystemu biznesowego, w którym „pochodzenie technologii” staje się kluczowym parametrem wyboru.

    Reakcja gigantów: Kamuflaż czy adaptacja?

    Amerykańscy giganci technologiczni nie zamierzają bezczynnie przyglądać się utracie wpływów w regionie, który generuje dla nich setki miliardów dolarów przychodów. Strategia adaptacyjna Big Techu jest fascynująca: budują „europejskie chmury”, które mają wyglądać i działać jak lokalne firmy.

    Microsoft zacieśnia współpracę z Delos Cloud (spółką zależną SAP), a Google tworzy niezależne podmioty z siedzibami w Niemczech i personelem wyłącznie z UE. Cel jest jasny: ominąć obawy dotyczące amerykańskiego Cloud Act, który teoretycznie pozwala służbom z USA na wgląd w dane przechowywane za granicą.

    Jednak dla świadomego CTO to wciąż rozwiązanie połowiczne. Pytanie o to, czy „lokalna spółka” amerykańskiego giganta realnie oprze się naciskom własnego rządu w sytuacji kryzysowej, pozostaje otwarte.

    Zarządzanie zmianą: Ludzie, nie tylko bity

    Jak zauważa Frank Karlitschek, dyrektor generalny NextCloud, technologia to tylko połowa sukcesu. Największym wyzwaniem dla europejskiego biznesu jest zarządzanie zmianą. Migracja z wygodnych, znanych od lat systemów amerykańskich na alternatywy europejskie lub open-source to proces bolesny operacyjnie.

    Wymaga on doskonałej komunikacji i przygotowania pracowników na zmianę nawyków. Jednak w nowym paradygmacie geopolitycznym, ten wysiłek jest traktowany nie jako koszt, ale jako inwestycja w ciągłość biznesową (Business Continuity).

    Technologia jako waluta dyplomatyczna

    „Efekt Grenlandii” uświadomił Europie, że w XXI wieku suwerenność nie kończy się na granicach lądowych – ona zaczyna się na serwerach. Europa nie dąży do całkowitej izolacji od amerykańskiej technologii, bo byłoby to ekonomicznym samobójstwem. Dąży jednak do stworzenia „bezpiecznika”.

  • 2 miliardy dolarów w grze. Google uniknął finansowego nokautu w sporze o prywatność

    2 miliardy dolarów w grze. Google uniknął finansowego nokautu w sporze o prywatność

    Alphabet może odetchnąć z ulgą, przynajmniej na moment. Sędzia federalny w San Francisco, Richard Seeborg, oddalił roszczenia konsumentów domagających się od giganta z Mountain View zwrotu 2,36 miliarda dolarów rzekomo nienależnych zysków. Kwota ta miała być karą za gromadzenie danych od użytkowników, którzy świadomie wyłączyli funkcje śledzenia aktywności w aplikacjach. Choć werdykt chroni bilans finansowy Google przed drastycznym uszczupleniem, rzuca jednocześnie światło na systemowe napięcia między modelem biznesowym opartym na analityce a rosnącymi wymaganiami dotyczącymi prywatności.

    Piątkowa decyzja jest pokłosiem wrześniowego procesu, w którym ława przysięgłych uznała Google za winne potajemnego zbierania danych o aktywności milionów osób. Wówczas zasądzono 425 milionów dolarów odszkodowania – sumę znaczącą, lecz symboliczną w zestawieniu z astronomicznymi 31 miliardami dolarów, o które pierwotnie wnioskowali powodowie. Kluczowym zwycięstwem dla Google w najnowszej odsłonie sporu jest odrzucenie mechanizmu „disgorgement”, czyli przymusowego oddania zysków wygenerowanych dzięki spornym praktykom. Sędzia Seeborg uznał, że strona skarżąca nie przedstawiła wystarczających dowodów na „nieodwracalną szkodę”, która uzasadniałaby tak dotkliwą karę lub natychmiastowy nakaz wstrzymania procesów przetwarzania danych.

    Dla kadry zarządzającej w sektorze technologicznym sprawa Rodriguez v. Google stanowi istotny precedens. Google argumentowało, że wymuszone zablokowanie zbierania danych powiązanych z kontami użytkowników mogłoby „sparaliżować” usługi analityczne, z których korzystają miliony zewnętrznych deweloperów. To pokazuje, jak głęboko mechanizmy śledzenia są wplecione w ekosystem Androida i szerzej – w infrastrukturę cyfrowej reklamy. Zwycięstwo Google w kwestii finansowej nie oznacza jednak końca problemów wizerunkowych i prawnych. Sędzia podtrzymał status pozwu zbiorowego obejmującego 98 milionów użytkowników, co oznacza, że batalia o definicję „zgody” w świecie Big Tech będzie trwać w sądach apelacyjnych.

    W krajobrazie zdominowanym przez coraz surowsze regulacje, takie jak europejskie RODO czy kalifornijskie CCPA, sprawa ta podkreśla determinację gigantów do obrony integralności swoich silników danych. Choć tym razem Google uniknęło najczarniejszego scenariusza, granica między niezbędną analityką a naruszeniem prywatności pozostaje jednym z najbardziej kosztownych punktów zapalnych w relacjach na linii technologia–prawo.

  • Kary w euro i nowe obowiązki moderacji. Ministerstwo Cyfryzacji przygotowuje wdrożenie DSA

    Kary w euro i nowe obowiązki moderacji. Ministerstwo Cyfryzacji przygotowuje wdrożenie DSA

    Warszawa w końcu naciska pedał gazu w kwestii cyfrowych regulacji. Ministerstwo Cyfryzacji, chcąc uniknąć widma wielomilionowych kar ze strony Komisji Europejskiej, zaprezentowało dwutorową strategię wdrożenia Aktu o usługach cyfrowych (DSA). To ruch spóźniony, ale o krytycznym znaczeniu dla modelu operacyjnego platform internetowych działających nad Wisłą.

    Zamiast jednego, kompleksowego dokumentu, resort zdecydował się na podział przepisów na dwa odrębne projekty ustaw. Ten pragmatyczny manewr ma na celu nie tylko przyspieszenie procesu legislacyjnego, ale także ominięcie potencjalnych raf politycznych. W tle tli się bowiem konflikt na linii rząd-prezydent, który w przeszłości paraliżował już wdrażanie unijnych standardów.

    Fundamentem zmian jest wyznaczenie „cyfrowego szeryfa”. Rola ta przypadła Prezesowi Urzędu Komunikacji Elektronicznej (UKE), który jako koordynator ds. usług cyfrowych zyska szerokie kompetencje kontrolne i sankcyjne. Dla biznesu oznacza to koniec ery dobrowolności w moderacji treści. Firmy technologiczne będą musiały zmierzyć się z nowym poziomem transparentności: od uzasadniania każdej decyzji o usunięciu postu, po odkrywanie kart w zakresie działania algorytmów reklamowych. Wsparcie dla UKE ze strony UOKiK oraz KRRiT sugeruje, że nadzór będzie miał charakter wielowymiarowy, obejmujący zarówno ochronę konsumentów, jak i ład informacyjny.

    Drugi z projektów dotyka kwestii najbardziej zapalnej: procedury blokowania nielegalnych treści. Ministerstwo stara się tu wyważyć skuteczność walki z najcięższymi przestępstwami, takimi jak terroryzm czy handel ludźmi, z ochroną wolności słowa. Kluczowym bezpiecznikiem dla przedsiębiorców i użytkowników ma być brak rygoru natychmiastowej wykonalności nakazów oraz silna ścieżka odwoławcza przed sądem powszechnym. To istotne z punktu widzenia stabilności prowadzenia biznesu – ryzyko arbitralnego wyłączania usług przez organy państwowe ma być minimalizowane przez sądową kontrolę.

  • Grok na celowniku DSA: Dlaczego Bruksela chce zakazać chatbota xAI

    Grok na celowniku DSA: Dlaczego Bruksela chce zakazać chatbota xAI

    Doniesienia dziennika Handelsblatt rzucają nowe światło na napięte relacje między Brukselą a technologicznym imperium Elona Muska. Według wysokich rangą urzędników unijnych, Komisja Europejska wszczyna formalne postępowanie przeciwko chatbotowi Grok w ramach Aktu o usługach cyfrowych (DSA). To nie jest zwykłe upomnienie – cel jest jasny: wymuszenie na xAI wycofania narzędzia z rynku europejskiego.

    Dla kadry zarządzającej i inwestorów to sygnał, że unijne organy regulacyjne przestały jedynie monitorować rynek, a przeszły do aktywnej defensywy wartości demokratycznych i bezpieczeństwa danych. Głównym punktem zapalnym jest sposób, w jaki Grok wykorzystuje dane użytkowników platformy X do trenowania swoich modeli bez wystarczającej, zdaniem UE, transparentności i zgody.

    Z perspektywy biznesowej sytuacja ta stwarza niebezpieczny precedens dla firm AI operujących w modelu „move fast and break things”. Jeśli xAI ugnie się pod presją, Europa może stać się cyfrową wyspą z ograniczonym dostępem do najbardziej kontrowersyjnych modeli, co z kolei zmusi lokalne firmy do polegania na dostawcach deklarujących pełną zgodność z rygorystycznym prawem unijnym. To test sił, który zdefiniuje koszty innowacji w regionie.

  • Bruksela daje telekomom tlen, ale nie pieniądze Big Techu

    Bruksela daje telekomom tlen, ale nie pieniądze Big Techu

    Europejscy giganci telekomunikacyjni otrzymali w środę od Komisji Europejskiej wyraźny, choć słodko-gorzki sygnał dotyczący przyszłości ich modeli biznesowych. W ramach długo oczekiwanego projektu ustawy o sieciach cyfrowych (Digital Networks Act), Bruksela zaproponowała rewolucyjną zmianę w zarządzaniu zasobami radiowymi: przyznanie operatorom prawa do korzystania z widma przez czas nieokreślony. To fundamentalna zmiana w stosunku do obecnego standardu, gdzie licencje wydawane są zazwyczaj na minimum 20 lat, co wymusza na firmach cykliczną niepewność i konieczność budowania rezerw na kosztowne aukcje.

    Dla dyrektorów finansowych telekomów propozycja ta jest kluczowa. Domyślne odnawianie licencji i ujednolicenie zasad wyceny częstotliwości ma na celu zwiększenie przewidywalności inwestycyjnej. Wysoki rangą urzędnik Komisji przyznał wprost, że nielimitowane licencjonowanie ma być sygnałem dla rynków kapitałowych, że sektor telekomunikacyjny jest bezpieczną przystanią dla długoterminowego kapitału. Jest to niezbędne, aby zrealizować ambitny cel Brukseli: pełne pokrycie Unii Europejskiej siecią światłowodową w latach 2030–2035. Henna Virkkunen, szefowa UE ds. technologii, podkreśliła w oświadczeniu, że odporna infrastruktura jest warunkiem koniecznym dla suwerenności cyfrowej Europy.

    Jednakże entuzjazm operatorów studzi fakt, że ich kluczowy postulat finansowy został przez Komisję zignorowany. Lobbyingowa ofensywa mająca na celu zmuszenie tzw. Big Techu (Google, Netflix, Meta) do bezpośredniego dopłacania do kosztów infrastruktury – argumentowana faktem, że podmioty te generują lwią część ruchu w sieci – zakończyła się niepowodzeniem. Zamiast obowiązkowego „podatku od ruchu”, ustawa proponuje jedynie dobrowolny mechanizm współpracy między dostawcami usług a gigantami technologicznymi. W praktyce oznacza to utrzymanie status quo, w którym ciężar CAPEX-u spoczywa na operatorach, a Dolina Krzemowa unika nowych obciążeń regulacyjnych w Europie.

    Dodatkowym elementem pakietu, mającym uelastycznić transformację technologiczną, jest możliwość wydłużenia przez rządy krajowe terminu wygaszania sieci miedzianych do 2030 roku. Teraz projekt trafi pod obrady Parlamentu Europejskiego i państw członkowskich, gdzie z pewnością dojdzie do kolejnych starć lobbystów obu sektorów.

  • Koniec wymówek Big Techu. Meta oskarżona o czerpanie zysków z nielegalnych kasyn

    Koniec wymówek Big Techu. Meta oskarżona o czerpanie zysków z nielegalnych kasyn

    Dla gigantów technologicznych, takich jak Meta Platforms, argument o niemożności pełnego monitorowania milionów reklam był przez lata skuteczną tarczą przeciwko regulatorom. Jednak ostatnie wystąpienie Tima Millera, dyrektora wykonawczego brytyjskiej Komisji ds. Hazardu, sugeruje, że w Europie kończy się cierpliwość dla modelu „reagowania po fakcie”. Miller, przemawiając podczas targów ICE Barcelona, postawił sprawę jasno: właściciel Facebooka i Instagrama nie tylko wie o nielegalnych reklamach kasyn, ale świadomie przymyka na nie oko, dopóki pieniądze płyną szerokim strumieniem.

    Oskarżenia Millera uderzają w czuły punkt modelu biznesowego Mety – skuteczność jej własnych narzędzi weryfikacyjnych. Regulator zwrócił uwagę na paradoks: publicznie dostępna Biblioteka Reklam Mety (Ad Library) bez trudu ujawnia promocje operatorów hazardowych, którzy chwalą się omijaniem systemu GamStop. Jest to brytyjski mechanizm samowykluczenia, mający chronić osoby uzależnione. Skoro urzędnicy są w stanie znaleźć te reklamy za pomocą prostych słów kluczowych, twierdzenie Mety o niewiedzy staje się – zdaniem Millera – „po prostu fałszywe”.

    Z perspektywy biznesowej sytuacja ta rzuca cień na procedury compliance w Big Tech. Miller określił bibliotekę reklam mianem „okna na przestępczość”, sugerując, że Meta posiada techniczne możliwości do natychmiastowego zablokowania takich treści, lecz decyduje się tego nie robić. To oskarżenie o cyniczną kalkulację: ryzyko reputacyjne jest wliczane w koszty przychodu, dopóki presja zewnętrzna nie stanie się zbyt silna.

    Dla reklamodawców i partnerów biznesowych Mety jest to sygnał ostrzegawczy. Komisja ds. Hazardu przyznała, że dotychczasowe postępy w rozmowach z gigantem są „bardzo ograniczone”. Może to zwiastować nadchodzące zaostrzenie regulacji, które wymusi na platformach prewencyjną cenzurę treści pod groźbą gigantycznych kar finansowych. Jeśli regulatorzy uznają, że platformy są współwinne promowania szarej strefy, skończy się era pasywnej moderacji. Jak podsumował Miller, obecna postawa Mety pozostawia wrażenie, że firma jest zadowolona z pobierania pieniędzy od oszustów, dopóki ktoś głośno nie zaprotestuje.

  • Nvidia w potrzasku. Dlaczego Pekin odrzucił chipy AI mimo zgody Trumpa?

    Nvidia w potrzasku. Dlaczego Pekin odrzucił chipy AI mimo zgody Trumpa?

    Jensen Huang, CEO Nvidia, planuje pod koniec stycznia wizytę w Chinach. Choć oficjalnym tłem podróży są firmowe obchody Nowego Roku Księżycowego, w kuluarach wizytę traktuje się jako pilną misję dyplomatyczną, mającą na celu odblokowanie kluczowego rynku zbytu. Sytuacja jest bezprecedensowa: administracja Donalda Trumpa, ignorując głosy waszyngtońskich jastrzębi, formalnie zatwierdziła sprzedaż potężnych chipów H200 do Chin. Tymczasem to Pekin powiedział „nie”.

    Decyzja chińskich służb celnych z 14 stycznia o wstrzymaniu importu H200 stanowi zaskakujące odwrócenie ról w trwającej wojnie technologicznej. Dotychczas bariery stawiali Amerykanie; teraz opór Pekinu sugeruje albo taktykę negocjacyjną, albo chęć ochrony rosnących w siłę rodzimych producentów, takich jak Huawei. Huang, którego plan podróży może objąć spotkania w Pekinie, musi osobiście zweryfikować, czy dla Nvidii wciąż jest miejsce na chińskim rynku. Dla akcjonariuszy to wyraźny sygnał: zgoda Białego Domu to za mało, by zagwarantować przychody z Państwa Środka, a technologiczny decoupling wchodzi w nową, bardziej skomplikowaną fazę.

  • Bruksela zaostrza kurs: Operatorzy muszą pożegnać się z Huawei i ZTE

    Bruksela zaostrza kurs: Operatorzy muszą pożegnać się z Huawei i ZTE

    Komisja Europejska, pod przewodnictwem nowej wiceprzewodniczącej wykonawczej Henny Virkkunen, przedstawiła we wtorek projekt nowelizacji ustawy o cyberbezpieczeństwie, który zamienia dotychczasową dobrowolność w twarde wymogi prawne. Dla europejskiego biznesu telekomunikacyjnego i technologicznego oznacza to początek kosztownego wyścigu z czasem. Głównym celem nowych regulacji – choć w dokumencie nie pada żadna nazwa – są chińscy giganci technologiczni, tacy jak Huawei i ZTE.

    Bruksela proponuje radykalne poszerzenie definicji infrastruktury krytycznej. Nowe ramy obejmą aż osiemnaście kluczowych obszarów, wykraczając daleko poza samą telekomunikację. Na liście znalazły się między innymi systemy zarządzania energią, infrastrukturą wodną, chmurą obliczeniową, a także sektory wrażliwe, jak urządzenia medyczne, drony czy technologie kosmiczne. Mechanizm działania jest bezwzględny: jeśli po formalnej ocenie ryzyka, zainicjowanej przez Komisję lub co najmniej trzy państwa członkowskie, dany dostawca zostanie uznany za podmiot „wysokiego ryzyka”, operatorzy telefonii komórkowej otrzymają 36 miesięcy na całkowite usunięcie jego kluczowych komponentów ze swoich sieci.

    Dla branży telekomunikacyjnej to sygnał alarmowy. Stowarzyszenie Connect Europe, reprezentujące największych operatorów na kontynencie, już ostrzega przed miliardowymi kosztami dostosowania się do nowych wymogów, które mogą spowolnić inwestycje w nowoczesne sieci. Unijni urzędnicy argumentują jednak, że cena „suwerenności technologicznej” jest konieczna do zapłacenia w obliczu rosnącej liczby ataków ransomware i zagrożeń szpiegowskich. Europa wyraźnie koryguje swój kurs, zbliżając się do stanowiska Stanów Zjednoczonych, które już w 2022 roku zablokowały możliwość zatwierdzania nowego sprzętu od Huawei i ZTE.

    Reakcja Pekinu była natychmiastowa. Rzecznik chińskiego MSZ wezwał UE do porzucenia ścieżki protekcjonizmu, a Huawei w ostrym oświadczeniu zarzucił Komisji naruszanie zasad Światowej Organizacji Handlu (WTO). Chiński koncern podkreśla, że ocena dostawców powinna opierać się na twardych dowodach technicznych, a nie na kraju pochodzenia. Mimo tych protestów, polityczny klimat w Europie gęstnieje. Niemcy, dotąd powściągliwe, powołały już komisję ekspertów do rewizji relacji handlowych z Chinami i wykluczyły chińskie komponenty z przyszłych sieci 6G.

    Przed wejściem w życie, projekt musi przejść przez negocjacje z rządami krajowymi i Parlamentem Europejskim. Biorąc jednak pod uwagę obecną atmosferę geopolityczną, europejski biznes powinien już teraz przygotowywać scenariusze dywersyfikacji swoich łańcuchów dostaw, nie czekając na ostateczny podpis pod ustawą.

  • Odwrót od konfrontacji. Bruksela rezygnuje z „podatku od Internetu” dla Big Tech

    Odwrót od konfrontacji. Bruksela rezygnuje z „podatku od Internetu” dla Big Tech

    Europejscy operatorzy telekomunikacyjni, liczący na systemowe zmuszenie amerykańskich gigantów technologicznych do współfinansowania infrastruktury sieciowej, mogą czuć się rozczarowani. Zamiast zapowiadanej rewolucji i twardych regulacji w ramach dyskusji o „Fair Share”, Komisja Europejska zamierza postawić na dyplomację.

    Według doniesień na temat projektu ustawy o sieciach cyfrowych (Digital Networks Act), który komisarz Henna Virkkunen ma przedstawić 20 stycznia, Bruksela odchodzi od nakładania wiążących zobowiązań finansowych na największych generatorów ruchu w sieci. Zamiast tego, dokument zakłada wprowadzenie ram dobrowolnej współpracy pod nadzorem Organu Europejskich Regulatorów Łączności Elektronicznej (BEREC). Giganci tacy jak Google czy Meta byliby jedynie zachęcani do udziału w spotkaniach i definiowania „najlepszych praktyk”, co w praktyce oddala wizję bezpośrednich transferów pieniężnych do europejskich telekomów.

    Zmiana kursu Komisji Europejskiej jest wyraźnym sygnałem geopolitycznego pragmatyzmu. W obliczu nowej administracji Donalda Trumpa, który każdą próbę opodatkowania amerykańskich korporacji traktuje jako gospodarczą prowokację, Bruksela wybiera strategię unikania konfliktu. W sytuacji napiętych relacji transatlantyckich, gdzie Waszyngton coraz agresywniej reaguje na próby regulacji swoich cyfrowych czempionów, ustawa o sieciach cyfrowych staje się elementem delikatnej gry dyplomatycznej. Unia Europejska wydaje się kalkulować, że eskalacja napięcia handlowego jest obecnie zbyt ryzykowna, nawet kosztem interesów lokalnych dostawców internetu.

    Projekt ustawy to jednak nie tylko kwestia relacji z USA, ale także próba harmonizacji rynku wewnętrznego, która napotyka opór państw członkowskich. Kluczowe gospodarki, w tym Francja, Niemcy i Włochy, pozostają sceptyczne wobec centralizacji zarządzania telekomunikacją, preferując utrzymanie kontroli nad regulacjami na poziomie krajowym.

    Dokument porusza również kwestie infrastrukturalne, proponując ujednolicenie zasad aukcji widma radiowego oraz potencjalną rewizję celów cyfrowych. Komisja dopuszcza możliwość przesunięcia terminu całkowitego wygaszenia sieci miedzianych i zastąpienia ich światłowodami, pierwotnie planowanego na 2030 rok. Jeśli lokalne władze wykażą, że termin ten jest nierealny, Bruksela jest gotowa na elastyczność, co stanowi kolejny dowód na to, że nadchodząca legislacja będzie raczej zbiorem kompromisów niż radykalnym przełomem.

  • Spór o cenzurę DNS. Dlaczego Cloudflare nie chce współpracować  z włoskim „Piracy Shield”?

    Spór o cenzurę DNS. Dlaczego Cloudflare nie chce współpracować  z włoskim „Piracy Shield”?

    Eskalacja napięcia na linii Rzym – San Francisco przybiera bezprecedensowe rozmiary. Cloudflare, amerykański gigant infrastruktury sieciowej, rozważa drastyczne kroki, włącznie z całkowitym wycofaniem serwerów z Włoch. To bezpośrednia reakcja na grzywnę w wysokości 14 milionów euro nałożoną przez regulatora AGCOM oraz żądania cenzurowania internetu, które firma uznaje za technicznie niebezpieczne i eksterytorialne.

    Osią sporu jest włoski mechanizm „Piracy Shield”, wprowadzony pod naciskiem nadawców sportowych, w tym podmiotów powiązanych z włoską piłką nożną. Regulacje te nakładają na dostawców DNS obowiązek blokowania wskazanych adresów IP w ciągu zaledwie trzydziestu minut od zgłoszenia. Co istotne, proces ten odbywa się bez uprzedniej kontroli sądowej, dając posiadaczom praw autorskich potężne narzędzie do natychmiastowego działania. Cloudflare odmówiło jednak wdrożenia tych blokad w swoim publicznym resolverze DNS (1.1.1.1), argumentując to brakiem przejrzystości oraz żądaniem strony włoskiej, by blokady obowiązywały globalnie, a nie tylko lokalnie.

    Obawy amerykańskiej spółki znajdują potwierdzenie w niedawnych incydentach. Wdrożenie systemu w 2024 roku doprowadziło do pomyłkowego zablokowania Dysku Google, co według Computer & Communications Industry Association (CCIA) spowodowało kilkugodzinny blackout usług dla tysięcy włoskich użytkowników i firm. Badania RIPE Labs wykazały również, że ofiarą „Tarczy” padły setki legalnych witryn, blokowanych bez wiedzy ich właścicieli i bez jasnej ścieżki odwoławczej. Dla Cloudflare dostosowanie się do tych wymogów oznaczałoby nie tylko wzrost opóźnień w sieci, ale przede wszystkim akceptację cenzury opartej na automatyzmie podatnym na błędy.

    Odpowiedź Matthew Prince’a i zarządu Cloudflare jest stanowcza. Firma zapowiedziała, że w przypadku utrzymania presji regulacyjnej wstrzyma wszelkie plany inwestycyjne we Włoszech i usunie swoje serwery z włoskich miast. Co więcej, zagrożono wycofaniem wartych miliony dolarów usług cyberbezpieczeństwa świadczonych pro bono na rzecz nadchodzących Zimowych Igrzysk Olimpijskich Mediolan-Cortina.

    Sprawa wykracza już poza ramy lokalnego sporu administracyjnego. Cloudflare zamierza poruszyć temat w rozmowach z rządem USA, wskazując włoskie przepisy jako przykład nieuzasadnionych barier dla amerykańskiego biznesu w Europie. W momencie, gdy Unia Europejska stara się egzekwować akty o usługach i rynkach cyfrowych (DSA/DMA), jednostronne i agresywne działania Włoch mogą stać się zarzewiem szerszego konfliktu transatlantyckiego.

  • Zmierzch ePUAP. Rok 2026 i e-doręczenia definitywnie zmieniają cyfrowy krajobraz administracji

    Zmierzch ePUAP. Rok 2026 i e-doręczenia definitywnie zmieniają cyfrowy krajobraz administracji

    Polska administracja cyfrowa zbliża się do punktu zwrotnego, który trwale zmieni sposób komunikacji na linii państwo–obywatel oraz państwo–biznes. Z końcem 2025 roku wygasa okres przejściowy wdrażania e-Doręczeń, co w praktyce oznacza operacyjną emeryturę dla popularnej platformy ePUAP w zakresie pism ogólnych. Radosław Maćkiewicz, dyrektor Centralnego Ośrodka Informatyki (COI), potwierdza, że od 1 stycznia 2026 roku kończy się okres równoważności obu systemów. Od tego momentu każdy elektroniczny wniosek kierowany do urzędu będzie wymagał aktywnego adresu do e-Doręczeń (ADE), a rola ePUAP zostanie zmarginalizowana do przypadków ściśle określonych przepisami szczególnymi.

    Skalę tej cyfrowej migracji obrazują najnowsze dane Poczty Polskiej. W systemie funkcjonuje już ponad dwa miliony skrzynek, z czego aż 75 proc. aktywowano w bieżącym roku. Jako operator wyznaczony, Poczta obsłużyła w 2025 roku około 40 milionów przesyłek elektronicznych, w tym 12 milionów listów poleconych i blisko 27 milionów przesyłek hybrydowych. Choć liczby te robią wrażenie, kluczowa jest statystyka instytucjonalna. Według szefa COI, ponad 55 proc. podmiotów publicznych posiada już skrzynki, co w praktyce pokrywa niemal 100 proc. urzędów, które do tej pory aktywnie korzystały z systemów teleinformatycznych.

    Harmonogram wdrożeń jest sztywny i nieubłagany. Już od 1 stycznia 2025 roku obowiązek korzystania z systemu obejmuje m.in. adwokatów, radców prawnych, doradców restrukturyzacyjnych oraz kluczowe instytucje jak ZUS czy NFZ. Pełna implementacja, obejmująca sądownictwo i organy ścigania, rozpisana jest aż do października 2029 roku, jednak to rok 2026 będzie momentem krytycznym dla większości przedsiębiorców i obywateli.

    Przejście na standard zgodny z unijnym rozporządzeniem eIDAS to jednak nie tylko kwestia legislacyjna, ale i technologiczna. COI wskazuje na przewagi nowej architektury nad starzejącym się ePUAP-em, wymieniając przede wszystkim większe limity rozmiarów załączników oraz – co kluczowe dla sektora IT – szersze możliwości integracji z zewnętrznymi systemami teleinformatycznymi (EZD). System jest sukcesywnie skalowany pod kątem wydajności przetwarzania równoległego, aby sprostać rosnącemu wolumenowi danych. Choć sama rejestracja adresu jest bezpłatna i zajmuje chwilę, dla rynku IT nadchodzi czas ostatecznej weryfikacji gotowości systemów dziedzinowych na nowy standard komunikacji.

  • DORA: IBM oficjalnie pod unijnym nadzorem jako kluczowy dostawca technologii

    DORA: IBM oficjalnie pod unijnym nadzorem jako kluczowy dostawca technologii

    Decyzja europejskich regulatorów o włączeniu IBM do grona kluczowych zewnętrznych dostawców usług ICT nie jest zaskoczeniem, ale stanowi istotny precedens w relacjach na linii Big Tech – sektor finansowy. Europejskie Urzędy Nadzoru, w skład których wchodzą EBA, EIOPA oraz ESMA, oficjalnie potwierdziły strategiczną rolę amerykańskiego koncernu, co w praktyce oznacza objęcie go bezpośrednim nadzorem na poziomie unijnym w ramach rozporządzenia DORA (Digital Operational Resilience Act).

    Dla rynku finansowego jest to sygnał, że cyfrowa odporność operacyjna przestaje być wyłącznie wewnętrznym problemem banków czy ubezpieczycieli, a staje się kwestią systemową, wymagającą ścisłej kontroli dostawców technologii. Jak zauważa Piotr Pietrzak, Technical Sales Leader w IBM na region Polski, krajów bałtyckich i Ukrainy, DORA wymusza właśnie takie systemowe podejście do odporności cyfrowej. Nowe przepisy obejmują szerokie spektrum podmiotów – od firm inwestycyjnych po instytucje płatnicze – traktując technologię jako integralny element stabilności rynku i bezpieczeństwa klientów.

    Status kluczowego dostawcy to dla IBM z jednej strony prestiżowe potwierdzenie pozycji zaufanego partnera, a z drugiej zobowiązanie do jeszcze ściślejszej współpracy z organami nadzoru (ESA). Firma od dłuższego czasu przygotowywała swoje struktury technologiczne i governance, aby sprostać nowym wymogom. W okresie poprzedzającym wdrożenie regulacji, zespoły IBM prowadziły szeroko zakrojone działania dostosowawcze, równolegle rozwijając globalne technologie cyberbezpieczeństwa.

    Z perspektywy CIO instytucji finansowych, objęcie IBM bezpośrednim nadzorem unijnym jest wiadomością uspokajającą. Oznacza to, że korzystanie z infrastruktury i usług tego dostawcy wiąże się z dodatkową gwarancją zgodności regulacyjnej. IBM zapowiada dalsze dostarczanie wytycznych i zasobów, które pomogą klientom w nawigowaniu po skomplikowanych wymogach DORA, nie tracąc przy tym z oczu innowacyjności.

    Cel nowych regulacji jest jednoznaczny: ograniczenie ryzyka systemowego w europejskim ekosystemie finansowym. Włączenie kluczowych graczy technologicznych w ramy bezpośredniego nadzoru to krok, który redefiniuje odpowiedzialność za bezpieczeństwo cyfrowe na Starym Kontynencie. IBM deklaruje pełną gotowość do konstruktywnej współpracy z regulatorami, wykorzystując swoje doświadczenie w zarządzaniu ryzykiem, by proces adaptacji przebiegł płynnie zarówno dla samej firmy, jak i jej partnerów biznesowych.

  • Cyfrowa Polska: suwerenność cyfrowa zaczyna się od wolności wyboru technologii, nie od izolacji rynku

    Cyfrowa Polska: suwerenność cyfrowa zaczyna się od wolności wyboru technologii, nie od izolacji rynku

    Strategia Cyfryzacji Państwa ma być kompleksowym, długoterminowym dokumentem wyznaczającym kierunki rozwoju informatyzacji państwa. Ponowne konsultacje w tej sprawie ogłosiło Ministerstwo Cyfryzacji. To właśnie w ich ramach eksperci Związku Cyfrowa Polska przygotowali opinię, koncentrującą się na elementach niezbędnych dla skutecznej realizacji celów Strategii.

    Według Związku to wolność technologicznego wyboru – oparta na interoperacyjności i otwartych standardach – powinna stać się fundamentem suwerenności cyfrowej. Tylko taki model pozwala administracji publicznej unikać uzależnienia od jednego dostawcy, elastycznie reagować na zmiany technologiczne i skutecznie podnosić poziom bezpieczeństwa systemów publicznych.

    – Suwerenność cyfrowa nie polega na tym, że państwo zamyka się w jednym, „własnym” ekosystemie technologicznym. Polega na tym, że w każdej chwili może świadomie wybrać najlepsze dostępne rozwiązanie i zmienić je, jeśli pojawi się lepsza alternatywa –  mówi Michał Kanownik, prezes Związku Cyfrowa Polska.

    Organizacja zwraca uwagę, że rynek technologiczny w Polsce odpowiada dziś za około 10 procent PKB i zapewnia pracę blisko 1,5 mln osób. Globalni i lokalni dostawcy technologii tworzą wspólny ekosystem, z którego korzystają administracja, biznes i obywatele. Strategia, zdaniem Związku, powinna ten fakt jasno odzwierciedlać, zamiast sugerować, że obecność globalnych firm jest zagrożeniem dla suwerenności państwa.

    Chmura i zamówienia publiczne: diagnoza bez narzędzi to za mało

    Eksperci podkreślają, że dokument Strategii w obecnym kształcie trafnie diagnozuje wiele problemów, ale nie zawsze wskazuje narzędzia pozwalające na ich rozwiązanie. Dotyczy to w szczególności mechanizmów wdrażania chmury oraz organizacji zamówień publicznych w obszarze IT.

    – Strategia powinna być instrukcją działania dla administracji, a nie jedynie zbiorem ambitnych celów. Bez uproszczenia zakupów IT, realnej polityki Cloud First i jasnego podejścia do współpracy z rynkiem nie uda się ani przyspieszyć cyfryzacji usług publicznych, ani zbudować odporności państwa – stwierdza Michał Kanownik.

    Konkrety? Strategia zbyt ostrożnie podchodzi do chmury publicznej, mimo że jest ona standardem w najbardziej regulowanych sektorach na świecie, od bankowości po obronność. Eksperci Cyfrowej Polski postulują przyjęcie polityki Cloud First na poziomie ustawowym, traktowanie rządowej chmury oraz chmur komercyjnych jako rozwiązań komplementarnych, przyjęcie obowiązku uzasadniania decyzji o niewykorzystaniu chmury przy nowych projektach IT, a także promowanie architektur multi-cloud i hybrydowych w celu ograniczenia zjawiska uzależnienia od jednego dostawcy (vendor lock-in).

    Jednym z najpoważniejszych problemów cyfryzacji administracji są nieefektywne mechanizmy zakupowe. Związek wskazuje, że System Zapewnienia Usług Chmurowych (ZUCH) w obecnej formie nie spełnił swojej roli, co potwierdziły również kontrole NIK. W opinii zaproponowano reformę lub zastąpienie ZUCH modelem wzorowanym na brytyjskim G-Cloud oraz uproszczenie procedur, tak, aby realnie otworzyć rynek zamówień publicznych dla polskich MŚP i startupów.

    – Brytyjski program G-Cloud umożliwił zawarcie tysięcy kontraktów z ponad 5000 dostawców, głównie z sektora małych i średnich przedsiębiorstw, o łącznej wartości ok. 11,5 mld funtów. To przykład, z którego powinniśmy skorzystać – zauważa Michał Kanownik.

    Trzeba przygotować się na nowe typy zagrożeń

    Skuteczna cyfryzacja państwa nie może abstrahować od kwestii cyberbezpieczeństwa i odporności infrastruktury krytycznej. Jak czytamy w opinii Cyfrowej Polski, Strategia powinna w większym stopniu koncentrować się na praktycznych rozwiązaniach, takich jak fizycznie i logicznie odizolowane centra przetwarzania danych, dedykowana infrastruktura łączności oraz systemy projektowane z myślą o działaniu w warunkach kryzysowych.

    W opinii Związku istotnym niedoprecyzowaniem Strategii jest również podejście do nowych typów zagrożeń, w tym zagrożeń postkwantowych. Organizacja wskazuje, że rozwój kryptografii kwantowej i postkwantowej nie powinien ograniczać się wyłącznie do zaplecza badawczo-rozwojowego, lecz obejmować pilotażowe wdrożenia dostępnych już rozwiązań komercyjnych. Dotyczy to w szczególności infrastruktury krytycznej oraz kluczowych węzłów przetwarzania danych, które powinny być przygotowywane na długoterminowe ryzyka technologiczne.

    Uporządkowania wymaga także kwestia cyfrowej tożsamości i system podpisów elektronicznych. Eksperci oceniają, że Strategia powinna jednoznacznie wzmacniać rolę kwalifikowanego podpisu elektronicznego i kwalifikowanej walidacji jako rozwiązań działających w całej Unii Europejskiej i umożliwiających automatyczną, wiarygodną weryfikację dokumentów. W warunkach rosnącej liczby nadużyć dokumentowych ma to kluczowe znaczenie dla bezpieczeństwa obrotu prawnego.

    – Wszystkie te uwagi mają na celu stworzenie kompleksowej, trwałej strategii, która pozostanie z nami na lata. Choć dobrze oceniamy sam kierunek dokumentu, to uważamy, że szczegóły mają w tym przypadku fundamentalne znaczenie. Dlatego deklarujemy gotowość do dalszej współpracy i dialogu z Ministerstwem Cyfryzacji – podsumowuje Michał Kanownik.

    źródło: Związek Cyfrowa Polska

  • Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

    Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

    W efekcie rozwój usług cloud w UE odbywa się równolegle z debatą o suwerenności danych, etycznym przetwarzaniu informacji i potrzebie budowania rozwiązań zgodnych z europejskimi wartościami. Według Komisji Europejskiej inwestycje w infrastrukturę obliczeniową i AI będą jednym z najważniejszych motorów wzrostu, ale tylko wtedy, gdy przedsiębiorstwa i instytucje zaufają, że chmura jest środowiskiem bezpiecznym, przewidywalnym i zgodnym z regulacjami.

    Europejska chmura w praktyce: od skalowalności po strategiczną niezależność

    Rosnące obciążenie systemów, digitalizacja usług publicznych i rozwój modeli AI sprawiają, że chmura publiczna staje się dla europejskich organizacji nie tylko wygodnym narzędziem, lecz kluczowym elementem infrastruktury gospodarczej. Pozwala szybko zwiększać moc obliczeniową, wdrażać nowe funkcje i przenosić procesy, które wcześniej wymagały własnych centrów danych. Jednocześnie UE coraz mocniej akcentuje potrzebę budowania rozwiązań, które zapewniają kontrolę nad przepływem danych i ograniczają zależność od pozaeuropejskich jurysdykcji.

    – Europejski model zakłada, że architektura IT musi wspierać audytowalność, kontrolę nad danymi i interoperacyjność. To nie jest koszt regulacyjny, lecz inwestycja w europejską gospodarkę, która nie ogranicza w dłuższej perspektywie jej rozwoju, ale sprawia że utrzymujemy swoją tożsamość gospodarki europejskiej – komentuje Artur Kmiecik, Head of Cloud and Infrastructure w Capgemini Polska.

    Standardy i certyfikacja: EUCS jako nowa mapa bezpieczeństwa w cloud computingu

    Aby uporządkować wymagania wobec dostawców chmury, ENISA przygotowuje EUCS – europejski schemat certyfikacji, który ma ujednolicić zasady oceny bezpieczeństwa i zgodności usług. Dla organizacji oznacza to jaśniejsze kryteria wyboru dostawcy, a dla administracji publicznej – możliwość korzystania z usług o przewidywalnym poziomie ochrony. EUCS upraszcza także dokumentację oraz integrację systemów, które muszą spełniać rygorystyczne normy branżowe. W praktyce to strategiczny krok w stronę bardziej transparentnego i ustandaryzowanego rynku chmury w całej Unii.

    Dane pod ochroną: jak GDPR i EDPB wyznaczają ramy odpowiedzialnego przetwarzania

    Regulacje dotyczące ochrony danych pozostają jednym z najsilniejszych filarów europejskiego podejścia do chmury. GDPR oraz wytyczne Europejskiej Rady Ochrony Danych precyzują, w jaki sposób projektować procesy przetwarzania i jak zapewniać zgodność w środowisku, które dynamicznie się zmienia. To wymusza praktyki oparte na privacy-by-design, regularnej ocenie ryzyka, kontroli dostępu i dokumentowaniu działań. Jednocześnie organizacje muszą mieć pełną świadomość, gdzie znajdują się ich dane oraz kto może je przetwarzać. Efektem jest model, który wzmacnia przejrzystość i przewidywalność – także w przypadku usług działających ponad granicami państw członkowskich.

    AI w chmurze – innowacja pod nadzorem regulacyjnym

    Sztuczna inteligencja naturalnie rozwija się w środowiskach chmurowych, które zapewniają skalę, moc obliczeniową i możliwość szybkich aktualizacji. Jednocześnie AI Act tworzy ramy prawne, które mają zagwarantować bezpieczeństwo użytkowników i transparentność modeli. Organizacje, które chcą korzystać z bardziej zaawansowanych systemów, muszą przygotować się na obowiązki dokumentacyjne, testy zgodności oraz ocenę ryzyka, zwłaszcza w sektorach o wysokiej odpowiedzialności. Dzięki temu rozwój AI nie odbywa się kosztem jakości danych ani praw użytkowników. Regulacje nie spowalniają innowacji – porządkują ją i nadają jej jasne zasady działania.

    Zaufanie jako waluta cyfrowej gospodarki: transparentność i kontrola nad danymi

    Złożoność środowisk cloud powoduje, że organizacje coraz częściej oczekują nie tylko zabezpieczeń, ale także pełnej audytowalności operacji. Możliwość śledzenia aktywności, wglądu w logi, analizowania uprawnień i weryfikowania procesów staje się jednym z kluczowych kryteriów wyboru dostawcy. Firmy i instytucje chcą mieć pewność, że wiedzą, kto i w jaki sposób przetwarza ich dane – a transparentność staje się równie istotna jak techniczne zabezpieczenia.

    – Architektura IT w naszym regionie musi uwzględniać nie tylko skalę i moc obliczeniową, ale także wymagania stawiane przez Unię Europejską. W praktyce zaufanie do chmury staje się walutą cyfrowej gospodarki – organizacje, które potrafią je zdobyć poprzez kontrolę nad przepływem danych i odpowiedzialne wykorzystanie AI, zyskają realną przewagę konkurencyjną. Przyszłość europejskiej chmury to nie tylko interoperacyjność, ale także etyczna innowacja, która chroni użytkowników i wzmacnia gospodarkę opartą na danych – dodaje Artur Kmiecik, Head of Cloud and Infrastructure w Capgemini Polska.

    Przyszłość europejskiej chmury: interoperacyjność, etyka i odpowiedzialna innowacja

    Inicjatywy takie jak GAIA-X czy europejskie przestrzenie danych pokazują, że przyszłość chmury w UE to rozwój systemów, które mogą współpracować ze sobą niezależnie od dostawcy. Interoperacyjność ma ułatwić tworzenie projektów międzysektorowych, automatyzację procesów i wymianę danych w sposób zgodny z najwyższymi standardami etycznymi. Jednocześnie rośnie znaczenie zasad odpowiedzialnej innowacji, które mają chronić użytkowników i wzmacniać gospodarkę opartą na danych. To kierunek, który pozwoli Europie rozwijać nowoczesne technologie bez rezygnacji z wartości, które definiują jej podejście do cyfryzacji

    źródło: Capgemini

  • NIS2 to nie lista zakupów dla IT. Dlaczego sama technologia nie wystarczy?

    NIS2 to nie lista zakupów dla IT. Dlaczego sama technologia nie wystarczy?

    Branża IT lubi myśleć o bezpieczeństwie w kategoriach produktów. Nowa generacja firewalli, systemy EDR, zaawansowana segmentacja sieci – to konkrety, które łatwo wycenić, sprzedać i wdrożyć. Jednak w obliczu unijnej dyrektywy NIS2 ten tradycyjny model myślenia staje się pułapką. Eksperci analizujący nowe przepisy stawiają sprawę jasno: NIS2 nie jest technicznym manualem dla administratorów. To rewolucja w zarządzaniu, która brutalnie obnaża to, co w wielu firmach było dotąd ignorowane – brak spójnego ładu korporacyjnego.

    Wiele firm wciąż żyje w przekonaniu, że zgodność z nowymi regulacjami można „kupić” lub osiągnąć poprzez aktualizację infrastruktury. To niebezpieczny błąd poznawczy. Analiza założeń dyrektywy wskazuje, że punkt ciężkości przesuwa się radykalnie z „działania IT” na „zarządzanie ryzykiem”. Oznacza to, że nawet najdroższa technologia nie uchroni organizacji przed konsekwencjami, jeśli zawiodą ludzie, procesy decyzyjne i struktura odpowiedzialności.

    Iluzja cyfrowej twierdzy

    Gdy dochodzi do incydentu bezpieczeństwa, pierwszym odruchem jest szukanie winnych w dziale technologicznym. Czy zawiódł system? Czy przeoczono aktualizację? Tymczasem specjaliści zajmujący się strategią bezpieczeństwa wskazują na inny trop. Cyberbezpieczeństwo rzadko upada z powodu braku technologii. Rzadko kiedy problemem jest fizyczny brak zapory ogniowej czy narzędzi do monitoringu. Te zazwyczaj są na miejscu.

    Systemy zawodzą najczęściej z powodu decyzji, priorytetów i struktur, które nie potrafią w pełni zmapować ryzyka. Nie chodzi więc o to, czy firma „ma” narzędzia, ale czy jej struktury zarządcze są skonfigurowane tak, by ryzyko było rozumiane i kontrolowane na każdym szczeblu. Jeśli zarząd nie rozumie, co chroni i dlaczego, nawet najlepiej uzbrojona cyfrowa twierdza będzie mieć otwarte tylne drzwi. Zarządzanie (Governance) staje się zatem w świetle NIS2 funkcją krytyczną dla bezpieczeństwa – fundamentem, bez którego technologia traci swoją skuteczność.

    Koniec ery „to problem informatyków

    Jedną z największych zmian, jaką wprowadza NIS2, jest redefinicja odpowiedzialności. Przez lata cyberbezpieczeństwo było traktowane jako domena techniczna, zepchnięta do działów IT, z dala od sal konferencyjnych zarządu. Nowa dyrektywa kończy z tym podejściem.

    NIS2 to wymóg zarządczy. Zobowiązuje kierownictwo nie tylko do aktywnego zarządzania bezpieczeństwem, ale też do udowodnienia, że podejmowane decyzje są oparte na rzetelnej ocenie ryzyka w kontekście modelu biznesowego. Zarządy stają przed wyzwaniem połączenia technicznej poprawności z biznesową trafnością. Muszą umieć ocenić, jak konkretne zagrożenie cyfrowe wpływa na finanse, łańcuch dostaw czy reputację.

    Bez tej klasyfikacji analiza techniczna pozostaje w próżni. Wymaga się od firm, aby były w stanie wykazać „ścieżkę decyzyjną” – w jaki sposób decyzje są przygotowywane, priorytetyzowane i dokumentowane. To ogromne wyzwanie dla organizacji, którym brakuje uporządkowanej logiki podejmowania decyzji. W 2026 roku odpowiedzialność będzie imienna i bezpośrednia, co wymusza na kadrze C-level edukację i zmianę mentalności.

    Papier przyjmie wszystko, hakerzy – nie

    Kolejnym nieporozumieniem, które blokuje postęp w wielu organizacjach, jest podejście do compliance jako do zbioru dokumentów. Panuje przekonanie, że zgodność można osiągnąć poprzez stworzenie odpowiedniej liczby procedur czy polityk bezpieczeństwa. W praktyce, NIS2 wymaga czegoś zupełnie odwrotnego – żywego ekosystemu.

    Dyrektywa wzywa do spójnego połączenia wielu, często silosowych obszarów: środków bezpieczeństwa technicznego, zarządzania, rozwoju kompetencji personelu, sprawozdawczości oraz zarządzania łańcuchem dostaw. Jeśli te elementy nie zazębiają się idealnie, powstają luki. To właśnie w tych lukach – między procedurą HR a konfiguracją serwera, między raportem dla zarządu a rzeczywistym stanem sieci – dochodzi do największych katastrof w sytuacjach awaryjnych.

    Zarządzanie obejmuje więcej niż formalną definicję obowiązków. To ramy, w których ryzyka stają się widoczne. Jeśli firma nie połączy tych kropek, pozostanie z szafą pełną dokumentów, które w żaden sposób nie zwiększają jej realnej odporności.

    Czas – zasób, którego nie zintegrujesz

    Wdrożenie dyrektywy NIS2 nie może być rozumiane jako jednorazowy obowiązek prawny do „odhaczenia”. To proces transformacji, a największym wrogiem firm w tym procesie jest czas. Wiele organizacji drastycznie nie docenia momentu startu, łudząc się, że zdążą z implementacją w kilka tygodni przed ostatecznym terminem.

    Eksperci ostrzegają: nawet przy dobrej sytuacji wyjściowej, zdefiniowanie nowych ról, koordynacja procesów, a przede wszystkim wprowadzenie skutecznych struktur raportowania w „języku zarządzania”, zajmuje miesiące. W przypadku firm o złożonych łańcuchach dostaw lub rozproszonej strukturze, czas ten wydłuża się jeszcze bardziej. Zakotwiczenie wymagań bezpieczeństwa na wielu poziomach operacyjnych to maraton, nie sprint.

    Nadchodzące miesiące to kluczowe „okno transferowe”. Ci, którzy zaczynają proces transformacji teraz, mają luksus kontrolowania priorytetów i rozsądnego alokowania zasobów. Mogą przeprowadzić realistyczną inwentaryzację i ustalić, które środki realnie zmniejszają ryzyko.

    Ci, którzy będą zwlekać, wpadną w spiralę presji czasu. Wdrożenia „na ostatnią chwilę” zazwyczaj kończą się połowicznymi rozwiązaniami, które nie są dostosowane do indywidualnego profilu ryzyka firmy. Taka strategia nie tylko zwiększa koszty (działanie w trybie awaryjnym zawsze jest droższe), ale też podnosi ryzyko, że wymagania centralne pozostaną niekompletne.

    Konsekwencje braku działania

    Co się stanie, gdy firmy zareagują zbyt późno? Konsekwencje wykraczają daleko poza sankcje regulacyjne, o których najczęściej się mówi. Organizacje, które nie wdrożą na czas odpowiednich struktur zarządczych, tracą zdolność do operacyjnego zarządzania ryzykiem. Stają się reaktywne, a nie proaktywne.

    Wiąże się to z ogromnym ryzykiem reputacyjnym. W nowej rzeczywistości brak dowodów na skuteczne zarządzanie bezpieczeństwem to prosta droga do utraty zaufania klientów i inwestorów. Co więcej, firmy te mogą zostać wypchnięte z rynku przez własnych partnerów biznesowych – łańcuchy dostaw będą bowiem wymagać spełnienia określonych standardów, których nie da się wdrożyć z dnia na dzień.

    Punkt zwrotnyNIS2 to moment zwrotny dla całej branży. Dyrektywa przenosi cyberbezpieczeństwo z poziomu technicznego zaplecza do strategicznego rdzenia przedsiębiorstwa. Zarządzanie (Governance) staje się nowym firewallem – czynnikiem, który określi stabilność gospodarczą i ryzyko odpowiedzialności w nadchodzących latach.

  • Sądowa „przecena” dla Intela. Gigant zapłaci UE o 1/3 mniej

    Sądowa „przecena” dla Intela. Gigant zapłaci UE o 1/3 mniej

    Dla Intela, giganta zmagającego się obecnie z jedną z najtrudniejszych restrukturyzacji w swojej historii, każda pozytywna wiadomość finansowa jest na wagę złota. W środę Sąd Unii Europejskiej dostarczył kalifornijskiej spółce rzadki w ostatnim czasie powód do zadowolenia, decydując o znaczącej redukcji grzywny antymonopolowej. Choć wina producenta w kwestii blokowania konkurencji nie została podważona, wymiar kary uległ złagodzeniu, co kończy kolejny rozdział w trwającej blisko dwie dekady sadze prawnej.

    Sprawa, oznaczona sygnaturą T-1129/23, sięga korzeniami do okresu agresywnej walki o dominację na rynku procesorów x86 między Intelem a Advanced Micro Devices (AMD). W centrum sporu znalazły się praktyki stosowane w latach 2002–2006, które Komisja Europejska zidentyfikowała jako tak zwane „nagie ograniczenia” (naked restrictions). Mechanizm ten polegał na przekazywaniu płatności kluczowym partnerom OEM – firmom HP, Acer oraz Lenovo – w zamian za wstrzymywanie lub celowe opóźnianie wprowadzania na rynek komputerów wyposażonych w układy konkurencji.

    Pierwotnie, w 2009 roku, Bruksela nałożyła na Intela rekordową wówczas karę 1,06 miliarda euro. Po latach batalii sądowej ta gigantyczna suma została uchylona, jednak w 2023 roku Komisja powróciła z nowym wymiarem kary, ustalonym na poziomie 376 milionów euro. To właśnie od tej decyzji odwołał się amerykański producent, argumentując, że sankcja jest nieproporcjonalna do rzeczywistej szkodliwości czynu.

    Intel
    źródło: Intel

    Sędziowie w Luksemburgu przychylili się do części argumentacji obrony. W uzasadnieniu wyroku wskazano, że kwota 376 milionów euro nie odzwierciedlała adekwatnie wagi naruszenia. Trybunał zwrócił uwagę na ograniczony zasięg procederu, który dotyczył stosunkowo niewielkiej liczby urządzeń, a także na fakt, że antykonkurencyjne działania nie miały charakteru ciągłego – w materiale dowodowym wskazano na dwunastomiesięczną przerwę między poszczególnymi incydentami. W rezultacie grzywna została zredukowana o około jedną trzecią, do poziomu niespełna 237 milionów euro.

    Dla rynku kanałowego i branży IT wyrok ten jest istotnym sygnałem. Potwierdza on, że europejskie organy regulacyjne pozostają nieustępliwe w kwestii ochrony zasad konkurencji, nawet jeśli procesy egzekwowania prawa ciągną się latami. Z drugiej strony, decyzja sądu pokazuje, że Komisja Europejska musi precyzyjnie kalibrować kary, opierając się na twardych danych dotyczących skali naruszeń, a nie jedynie na ogólnej pozycji rynkowej podmiotu.

    Decyzja nie jest jeszcze ostateczna. Zarówno Intel, jak i Komisja Europejska mają możliwość złożenia odwołania do Trybunału Sprawiedliwości UE, co mogłoby przedłużyć ten prawny maraton. Jednak w obecnej sytuacji makroekonomicznej i przy napiętym budżecie Intela, zaoszczędzenie blisko 140 milionów euro stanowi istotny zastrzyk, nawet jeśli jest to tylko częściowe zwycięstwo w sprawie, która kładzie się cieniem na reputacji firmy z czasów jej absolutnej dominacji.