Kategoria: Legislacja i regulacje

  • Europa, USA czy Chiny? Dlaczego regulacje mogą stać się naszym „killer feature” w wyścigu AI

    Europa, USA czy Chiny? Dlaczego regulacje mogą stać się naszym „killer feature” w wyścigu AI

    Ostatnie lata to czas bezprecedensowej demokratyzacji technologii. Sztuczna inteligencja, napędzana spadającymi kosztami mocy obliczeniowej i wzrostem wydajności, wyszła z laboratoriów prosto na nasze biurka. Patrząc na tempo wdrażania innowacji za oceanem czy skalę działań w Chinach, łatwo ulec wrażeniu, że Stary Kontynent zostaje w tyle. Panuje przekonanie, że Europa, ze swoim zamiłowaniem do legislacji, sama zakłada sobie technologiczną blokadę. A co, jeśli jest dokładnie odwrotnie? W świecie, gdzie algorytmy zaczynają decydować o ludzkim zdrowiu i finansach, „zaufanie” staje się walutą cenniejszą niż sama prędkość obliczeń.

    Sztuczna inteligencja przechodzi obecnie fazę wykładniczego rozwoju. Nie jest to już tylko nowinka dla entuzjastów, ale potężna siła transformująca naukę i przemysł. Widzimy wyraźną konwergencję AI z innymi wschodzącymi dziedzinami, takimi jak biotechnologia czy neuronauka. Jednak ten pęd ku przyszłości rodzi fundamentalne pytanie: czy potrafimy nad nim zapanować?

    Trzecia droga cyfrowego rozwoju

    Geopolityczna mapa rozwoju sztucznej inteligencji jest wyraźnie podzielona. Stany Zjednoczone stawiają na szybkość i dominację rynkową dużych graczy (Big Tech). Chiny koncentrują się na masowym wdrażaniu i ścisłej integracji technologii z aparatem państwowym. W tym kontekście Europa wydaje się obierać „trzecią drogę”.

    Zamiast ślepego wyścigu na parametry, Unia Europejska stawia na jakość, etykę i bezpieczeństwo. W dokumentach strategicznych i debatach branżowych coraz częściej pojawia się pojęcie Trustworthy AI (godna zaufania sztuczna inteligencja). To podejście zakłada, że maksymalizacja potencjału technologicznego musi iść w parze z poszanowaniem praw podstawowych i zrównoważonym rozwojem.

    Dla wielu managerów IT i szefów software house’ów brzmi to jak korporacyjna nowomowa lub, co gorsza, kolejna przeszkoda biurokratyczna. Warto jednak spojrzeć na to z perspektywy biznesowej. W sektorach krytycznych – takich jak energetyka, bankowość, cyberbezpieczeństwo czy ochrona zdrowia – klienci coraz ostrożniej podchodzą do „czarnych skrzynek”. Europejskie ramy prawne mogą stać się gwarancją jakości, której brakuje rozwiązaniom z „cyfrowego Dzikiego Zachodu”.

    Innowacja w gorsecie zasad – czy to się opłaca?

    Aby zrozumieć, dlaczego regulacja może być katalizatorem innowacji, wystarczy spojrzeć na sektor medyczny. To tutaj narzędzia oparte na AI zmieniają paradygmat badań. Zaawansowane modele głębokiego uczenia (Deep Learning) już dziś wspomagają lekarzy w analizie obrazów medycznych, wykrywając anomalie szybciej i precyzyjniej niż ludzkie oko.

    Prawdziwą rewolucją, o której wspomina się w branżowych analizach, jest jednak możliwość prowadzenia „wirtualnych” badań klinicznych. Dzięki symulacjom na cyfrowych modelach można walidować potencjalne terapie bez konieczności angażowania prawdziwych pacjentów na wczesnym etapie. To drastycznie przyspiesza odkrywanie leków i obniża koszty R&D.

    Jednak wdrożenie takich systemów wymaga absolutnej pewności co do ich niezawodności. Szpital nie kupi algorytmu, który „halucynuje” lub podejmuje decyzje na podstawie uprzedzeń (bias) zaszytych w danych treningowych. W tym miejscu europejskie podejście staje się przewagą. Wymóg rygorystycznej walidacji, przejrzystości i etycznego projektowania sprawia, że systemy powstające w tym reżimie prawnym są bezpieczniejsze. Dla inwestora w MedTech czy BioTech, zgodność z normami UE to nie tylko „checkbox” w dokumentacji, ale polisa ubezpieczeniowa minimalizująca ryzyko wdrożeniowe.

    Ciemna strona algorytmów i odpowiedź regulatora

    Projekty badawczo-rozwojowe coraz częściej traktują AI jako narzędzie przekrojowe – od automatyzacji żmudnych zadań po masową analizę danych. Jednak wraz ze wzrostem złożoności systemów, rosną też wyzwania. Brak przejrzystości (problem „black box”), podatność na ataki typu adversarial attacks oraz kwestie prywatności danych to realne problemy, z którymi mierzą się działy IT.

    Odpowiedzią na te wyzwania są inicjatywy takie jak AI Act (Ustawa o sztucznej inteligencji) czy znane wszystkim RODO. Choć często krytykowane za skomplikowanie, w rzeczywistości ustanawiają one ramy, które porządkują rynek. Kluczowe stają się trzy filary:

    1.  Przejrzystość – użytkownik musi wiedzieć, że wchodzi w interakcję z maszyną.

    2.  Wytłumaczalność (XAI) – decyzje algorytmu muszą być możliwe do zrozumienia i audytu przez człowieka.

    3.  Nadzór ludzki – ostateczna odpowiedzialność zawsze spoczywa na człowieku, co jest kluczowe dla zachowania autonomii.

    W środowiskach badawczych, gdzie integralność danych jest fundamentem, bezpieczeństwo systemów AI jest priorytetem. System musi być odporny nie tylko na błędy, ale i na celowe manipulacje. Europejskie regulacje wymuszają podejście Security by Design, co w dłuższej perspektywie buduje znacznie stabilniejszy ekosystem innowacji.

    Co to oznacza dla branży IT?

    Dla firm technologicznych działających w Europie płynie z tego jasny wniosek: era „wdrażania czegokolwiek, byle szybko” dobiega końca. Nadchodzi czas inżynierii odpowiedzialnej.

    Europejskie software house’y i integratorzy systemów mają szansę wykreować unikalną wartość rynkową. Zamiast konkurować z gigantami z USA czy Chin wyłącznie mocą obliczeniową czy ceną, mogą oferować produkty „Enterprise Grade AI” – systemy audytowalne, bezpieczne prawnie i etycznie, gotowe do implementacji w najbardziej wymagających sektorach gospodarki.

    Wyzwanie jest dwojakie: z jednej strony musimy maksymalizować potencjał AI, aby nie wypaść z globalnego łańcucha innowacji, a z drugiej – zapewnić, że technologia ta szanuje prywatność i prawa jednostki. Sukces w tym obszarze wymaga ścisłej współpracy sektora publicznego i prywatnego. Zaufanie publiczne do algorytmów nie powstanie samoistnie; musi zostać zbudowane na fundamencie solidnego prawa i transparentnej technologii.

    Przyszłość sztucznej inteligencji w Europie jest pełna zawiłości, ale i ogromnego potencjału. Wiele wskazuje na to, że w nadchodzących latach to nie „surowa moc” modeli, ale ich przewidywalność i bezpieczeństwo będą decydować o sukcesie rynkowym. Europa, narzucając wysokie standardy etyczne i regulacyjne, może paradoksalnie wyjść na prowadzenie, oferując światu technologię, której można bezpiecznie używać – a nie tylko się nią zachwycać.

  • Bruksela stawia weto: Regulacje cyfrowe nie są na sprzedaż za stal

    Bruksela stawia weto: Regulacje cyfrowe nie są na sprzedaż za stal

    Bruksela wysyła Waszyngtonowi jasny sygnał, że cyfrowa suwerenność Europy nie będzie walutą w transatlantyckich negocjacjach handlowych. Stanowcza deklaracja Teresy Ribery, wiceprzewodniczącej Komisji Europejskiej, definitywnie ucina próby połączenia polityki celnej z technologicznym compliance. Jest to bezpośrednia odpowiedź na poniedziałkową sugestię Howarda Lutnicka, Sekretarza Handlu USA, który zaproponował obniżenie ceł na import stali i aluminium w zamian za „zrównoważenie” unijnych restrykcji wobec sektora technologicznego.

    Próba powiązania przez amerykańską administrację surowcowej „starej ekonomii” z regulacjami cyfrowymi pokazuje, jak dotkliwe dla gigantów z Doliny Krzemowej stały się ramy wyznaczone przez Akt o rynkach cyfrowych (DMA) i Akt o usługach cyfrowych (DSA). Lutnick, dążąc do wymuszenia ustępstw, próbował przenieść ciężar dyskusji z poziomu ochrony prawnej na płaszczyznę czysto transakcyjną. Ribera jednak natychmiast zamknęła tę furtkę, podkreślając, że europejskie ramy prawne służą ochronie konsumentów i zapewnieniu uczciwej konkurencji, a nie protekcjonizmowi, którym można handlować.

    Dla rynku kanałowego i branży IT w Europie ta wymiana zdań niesie kluczową informację: okres wdrażania rygorystycznych wymogów nie ulegnie złagodzeniu pod wpływem presji geopolitycznej. Unia Europejska zamierza bronić swojego modelu regulacyjnego niezależnie od kosztów w innych sektorach gospodarki. Integratorzy i dystrybutorzy technologii muszą zatem przygotować się na to, że obecny, wymagający krajobraz prawny jest stałym elementem gry rynkowej, a nie tymczasową niedogodnością polityczną.

  • Monopol na prywatność? UOKiK kwestionuje rynkową grę Apple

    Monopol na prywatność? UOKiK kwestionuje rynkową grę Apple

    Polski regulator dołącza do globalnej fali sceptycyzmu wobec praktyk Apple, stawiając zarzuty nadużywania pozycji dominującej. Stawką w grze o App Tracking Transparency nie jest tylko ochrona danych, ale miliardy złotych z rynku reklamy mobilnej.

    Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK), Tomasz Chróstny, wszczął postępowanie antymonopolowe przeciwko Apple. Oś sporu stanowi wdrożona w 2021 roku polityka App Tracking Transparency (ATT), która w ekosystemach iOS i iPadOS wymusza na deweloperach uzyskiwanie zgody użytkownika na śledzenie jego aktywności. Choć z perspektywy konsumenckiej ruch ten wydaje się pro-prywatnościowy, polski regulator dostrzega w nim mechanizm rynkowej eliminacji konkurencji. Istotą problemu jest podwójna rola amerykańskiego giganta, który występuje jednocześnie jako „strażnik” ekosystemu (regulator) oraz aktywny uczestnik rynku reklamy, konkurujący o budżety z zewnętrznymi wydawcami aplikacji.

    Analitycy UOKiK zwracają uwagę na fundamentalną asymetrię w komunikacji z użytkownikiem. W przypadku niezależnych deweloperów, system iOS wyświetla ostrzegawczy komunikat z pytaniem o zgodę na „śledzenie”, co budzi negatywne skojarzenia i drastycznie obniża współczynniki konwersji (opt-in). Tymczasem własne usługi Apple, realizujące de facto ten sam cel biznesowy, proszą użytkownika o włączenie „reklam spersonalizowanych”. Ta semantyczna i wizualna różnica – przyciski „Poproś o nieśledzenie” kontra „Włącz” – tworzy nierówne boisko dla podmiotów czerpiących zyski z reklamy behawioralnej.

    W opinii Prezesa UOKiK, takie działanie może stanowić nadużycie pozycji dominującej, za co grozi kara do 10 proc. obrotu firmy. Co istotne, Prezes Urzędu Ochrony Danych Osobowych potwierdził, że rygorystyczne ramy ATT nie wynikają bezpośrednio z przepisów o ochronie danych, co podważa linię obrony koncernu opartą na konieczności prawnej. Skutki tych praktyk najdotkliwiej odczuwają niezależni wydawcy i reklamodawcy, dla których utrudniony dostęp do danych oznacza spadek wartości powierzchni reklamowej oraz słabszą pozycję negocjacyjną.

    Polskie śledztwo wpisuje się w szerszy trend europejski. Podobne postępowania prowadzą organy antymonopolowe w Niemczech, Włoszech i Rumunii, a francuski regulator podjął już decyzje skutkujące wielomilionowymi karami. Dla branży IT sygnał z Warszawy jest jasny: argument „privacy-first” przestaje być absolutną tarczą chroniącą przed ingerencją w model biznesowy zamkniętych ekosystemów.

  • Co dalej z AI? Ministerstwo Cyfryzacji ogłasza zaktualizowaną wersję Polityki rozwoju sztucznej inteligencji w Polsce

    Co dalej z AI? Ministerstwo Cyfryzacji ogłasza zaktualizowaną wersję Polityki rozwoju sztucznej inteligencji w Polsce

    Dokument zakłada m.in. wdrożenie AI w administracji publicznej (AI HUB Poland), powstanie dedykowanych „Map wdrożeń sektorowych”, a także wsparcie dla małych i średnich przedsiębiorstw. Opisane w Polityce AI zadania w efekcie mają przyczynić się do realizacji założonych celów – Polska sercem kontynentu AI dzięki wdrożeniom w kluczowych sektorach gospodarki oraz sprawne państwo wykorzystujące rozwiązania AI.

    AI BUH Poland

    Polityka AI przewiduje uruchomienie portalu AI HUB Poland, który zgodnie z założeniami ma być narzędziem wspierającym efektywne zarządzanie, rozwój i wdrażanie technologii AI w sektorze publicznym. Celem platformy jest stworzenie zintegrowanego środowiska, które usprawni wykorzystanie sztucznej inteligencji w usługach publicznych oraz w kluczowych obszarach funkcjonowania państwa.

    Projekt przewiduje m.in. szybką adopcję innowacji opartych na AI, podnoszenie kompetencji pracowników administracji, harmonizację danych do budowy modeli sztucznej inteligencji oraz tworzenie krajowych dużych modeli językowych.

    AI HUB Poland to wspólna inicjatywa ekspertów Centralnego Ośrodka Informatyki, NASK i partnerów, która ma wspierać cyfrowy rozwój państwa i wzmacniać konkurencyjność Polski na arenie międzynarodowej. Działania platformy obejmują uruchomienie centralnego systemu do zarządzania projektami AI, budowę repozytorium otwartych rozwiązań automatyzacji, dzielenie się najlepszymi praktykami oraz wsparcie wdrożeniowe dla mniejszych jednostek administracji.

    Mapy wdrożeń sektorowych

    Ministerstwo Cyfryzacji zauważa, że sztuczna inteligencja staje się jednym z najważniejszych motorów transformacji gospodarczej. Jej wykorzystanie może znacząco przyspieszyć rozwój innowacji, zwiększyć konkurencyjność polskich firm oraz poprawić jakość życia społeczeństwa. Aby w pełni wykorzystać ten potencjał, potrzebne jest skoncentrowanie działań na tych projektach i sektorach, które mogą przynieść Polsce największe korzyści ekonomiczne i społeczne.

    Polski Instytut Ekonomiczny wskazuje trzy podejścia, które pomagają określić priorytetowe obszary rozwoju AI: analizę kluczowych branż gospodarki, ocenę tzw. stosu technologicznego oraz identyfikację „wielkich wyzwań” – złożonych problemów, w których AI może odegrać szczególnie istotną rolę.

    Na podstawie tych analiz oraz rekomendacji Grupy Roboczej ds. Sztucznej Inteligencji wyodrębniono sektory o największym potencjale wdrożeń AI. Są to: energetyka, e-commerce, produkty podwójnego zastosowania, cyberbezpieczeństwo, BioMedTech, usługi finansowe oraz transport i logistyka. To właśnie w tych obszarach sztuczna inteligencja może generować największą wartość – od optymalizacji zużycia energii, przez szybsze odkrywanie leków, po autonomiczną mobilność i zaawansowane systemy cyberobrony.

    Wyznaczone kierunki wpisują się również w działania Komisji Europejskiej, która stawia na rozwój bezpiecznych, interoperacyjnych i wysokiej jakości systemów AI w sektorach strategicznych dla całej UE.

    W celu skutecznego wdrażania sztucznej inteligencji, potrzebna jest współpraca międzysektorowa, solidna infrastruktura danych, kompetentne kadry oraz spójne regulacje. Dlatego dla każdego z kluczowych sektorów powstaną dedykowane Mapy wdrożeń sektorowych. Będą one obejmować analizę potrzeb branży, kluczowe obszary biznesowe dla zastosowań AI, zasady współdzielenia danych oraz mechanizmy wsparcia – tak, aby polskie przedsiębiorstwa mogły w pełni wykorzystać potencjał przełomowej technologii.

    Wsparcie dla małych i średnich przedsiębiorstw

    Kluczową rolę w rozwoju AI w Europie odgrywają małe i średnie przedsiębiorstwa. Dzięki swojej elastyczności, zdolności do szybkiego eksperymentowania i innowacyjnemu podejściu, to właśnie MŚP – a szczególnie startupy – często jako pierwsze wdrażają nowe technologie i wprowadzają przełomowe rozwiązania na rynek. Jednocześnie stoją przed barierami, takimi jak ograniczone zasoby, trudniejszy dostęp do danych oraz konieczność spełnienia wymogów etycznych i regulacyjnych.

    W celu przyspieszenia rozwoju AI w tym sektorze, niezbędne jest wsparcie obejmujące finansowanie, infrastrukturę obliczeniową oraz możliwość testowania rozwiązań w bezpiecznych warunkach. Ważną rolę odgrywają tu inkubatory, akceleratory i platformy wymiany wiedzy, które pomagają firmom szybciej komercjalizować innowacje oraz budować kompetencje technologiczne.

    W Polsce rozwijana infrastruktura – w tym Fabryki AI – ma pozwolić przedsiębiorcom korzystać z doradztwa technologicznego i regulacyjnego, mocy obliczeniowych oraz środowisk testowych. Uzupełnia ją oferowany przez PFR program „Cyfrowa wyprawka dla firm”, który pomaga potwierdzić gotowość technologiczną i uzyskać wsparcie w zakresie zgodności z AI Act.

    Jednym z najważniejszych elementów polityki wsparcia dla MŚP są regulacyjne piaskownice AI, które – zgodnie z unijnymi przepisami – muszą być dla nich całkowicie bezpłatne. Umożliwiają one testowanie rozwiązań w kontrolowanych warunkach i zmniejszają ryzyko związane z wejściem na rynek. W Polsce powstaną specjalistyczne piaskownice sektorowe, a ich integracja z Fabrykami AI zapewni dostęp do danych i infrastruktury.

    Aby polskie przedsiębiorstwa mogły wykorzystać pełen potencjał AI, kluczowe będzie zwiększanie świadomości korzyści z jej wdrażania, dostarczanie praktycznego doradztwa oraz uruchamianie dedykowanych programów i konkursów wspierających projekty AI. W dłuższej perspektywie przełoży się to na wzrost konkurencyjności MŚP, rozwój innowacji i wzmocnienie pozycji Polski w europejskim ekosystemie technologicznym.

    Podsumowanie

    Zaktualizowana Polityka AI stanowi odpowiedź na wyzwania związane z dynamicznym rozwojem technologii AI. Dokument wyznacza kierunki działań, integrując potrzeby administracji, biznesu, nauki oraz społeczeństwa. Ministerstwo Cyfryzacji zapowiada dalsze prace nad wdrażaniem postanowień Polityki AI.

  • Brukselski zwrot: UE opóźnia kluczowe przepisy AI pod presją Big Tech

    Brukselski zwrot: UE opóźnia kluczowe przepisy AI pod presją Big Tech

    Komisja Europejska wykonuje wyraźny krok w tył na froncie regulacji cyfrowych. W odpowiedzi na rosnącą krytykę ze strony amerykańskich gigantów technologicznych oraz obawy o konkurencyjność gospodarczą regionu, Bruksela zaproponowała w środę pakiet zmian znany jako „Digital Omnibus”. Projekt zakłada nie tylko uproszczenie biurokracji, ale przede wszystkim znaczące opóźnienie wdrażania restrykcyjnych wymogów ustawy o sztucznej inteligencji (AI Act).

    Najważniejszym elementem propozycji jest przesunięcie terminów dla systemów AI klasyfikowanych jako rozwiązania „wysokiego ryzyka”. Pierwotnie rygorystyczne zasady miały zacząć obowiązywać w sierpniu 2026 roku, jednak Komisja sugeruje teraz odroczenie ich do grudnia 2027 roku. Decyzja ta stanowi istotny oddech dla firm wdrażających algorytmy w newralgicznych obszarach, takich jak rekrutacja pracowników, ocena zdolności kredytowej, usługi zdrowotne, infrastruktura krytyczna czy identyfikacja biometryczna.

    Zmiana kursu wykracza jednak poza sam kalendarz wdrożeń. Proponowane korekty dotykają również „świętego graala” europejskich regulacji, czyli RODO. Nowe ramy prawne mają ułatwić gigantom takim jak Alphabet (Google), Meta czy OpenAI wykorzystywanie danych osobowych Europejczyków do trenowania ich modeli sztucznej inteligencji. Jest to bezpośrednia odpowiedź na argumenty branży, która od dawna wskazywała, że rygorystyczna ochrona danych w UE tworzy barierę innowacyjną nie do przeskoczenia w wyścigu z USA i Chinami. Dodatkowo pakiet przewiduje uproszczenie irytujących dla użytkowników mechanizmów zgody na pliki cookies.

    Choć urzędnicy w Brukseli podczas briefingu zapewniali, że „uproszczenie nie jest deregulacją”, a jedynie krytycznym przeglądem otoczenia prawnego, ruch ten wpisuje się w szerszy trend. Podobnie jak w przypadku niedawnego złagodzenia przepisów środowiskowych, UE zdaje się uginać pod presją biznesu i ryzyka politycznego odwetu ze strony Waszyngtonu. „Digital Omnibus” musi jeszcze zostać zatwierdzony przez państwa członkowskie, ale sam fakt jego powstania sygnalizuje, że Europa zaczyna rewidować swoją rolę globalnego szeryfa cyfrowego na rzecz pragmatyzmu gospodarczego.

  • Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    We wtorek organy regulacyjne Unii Europejskiej wykonały bezprecedensowy ruch, wskazując 19 firm – w tym Amazon Web Services, Google Cloud oraz Microsoft – jako krytycznych dostawców usług dla europejskiej bankowości. Decyzja ta fundamentalnie zmienia układ sił na linii Big Tech – nadzór finansowy, przenosząc relacje z poziomu partnerskiego na ściśle regulowany.

    Ruch ten jest bezpośrednią konsekwencją wejścia w życie rozporządzenia DORA (Digital Operational Resilience Act). Nowe przepisy dają europejskim organom nadzoru (EBA, EIOPA, ESMA) uprawnienia do bezpośredniej kontroli firm technologicznych, które do tej pory odpowiadały jedynie przed swoimi klientami biznesowymi. Regulatorzy nie ukrywają, że ich głównym celem jest mitygacja ryzyka systemowego. W dobie powszechnej cyfryzacji awaria u jednego z wiodących dostawców chmury obliczeniowej mogłaby sparaliżować znaczną część europejskiego systemu bankowego, wywołując efekt domina o trudnych do oszacowania skutkach.

    Lista podmiotów objętych nowym reżimem nadzorczym jest zróżnicowana, co pokazuje, jak głęboko technologia przeniknęła do finansów. Oprócz „wielkiej trójki” chmurowej (AWS, Google, Microsoft), na celowniku znalazły się również IBM, dostawcy danych rynkowych tacy jak Bloomberg i London Stock Exchange Group (LSEG), a także operatorzy telekomunikacyjni, w tym Orange, oraz firmy doradcze jak Tata Consultancy Services. Każdy z tych podmiotów będzie teraz musiał udowodnić, że posiada odpowiednie ramy zarządzania ryzykiem, a ich infrastruktura jest odporna na cyberataki i awarie techniczne.

    Reakcja branży na to ogłoszenie była wyważona i dyplomatyczna, co sugeruje, że giganci technologiczni od dawna przygotowywali się na ten scenariusz. Przedstawiciele Microsoftu i Google Cloud natychmiast zadeklarowali pełną gotowość do współpracy, podkreślając swoje zaangażowanie w kwestie cyberbezpieczeństwa. Z kolei LSEG otwarcie przyjął nowe oznaczenie, traktując je jako potwierdzenie swojej kluczowej roli w ekosystemie. Milczenie zachowały póki co Bloomberg i Orange, co może wskazywać na trwające wewnętrzne analizy nowych obowiązków regulacyjnych.

    Decyzja Brukseli wpisuje się w szerszy, globalny trend zacieśniania kontroli nad infrastrukturą krytyczną. Europejski Bank Centralny wprost wymienia zakłócenia technologiczne obok napięć geopolitycznych jako główne zagrożenia dla sektora. Podobne kroki podejmuje Wielka Brytania, choć tamtejszy proces legislacyjny jest opóźniony względem unijnego – Londyn planuje wskazać swoje podmioty krytyczne dopiero w przyszłym roku. Europa po raz kolejny staje się więc poligonem doświadczalnym dla nowych standardów regulacyjnych w świecie technologii.

  • Google przegrywa w Berlinie. Ponad pół miliarda euro kary za niszczenie konkurencji

    Google przegrywa w Berlinie. Ponad pół miliarda euro kary za niszczenie konkurencji

    Regulacyjny front przeciwko Google w Europie właśnie zyskał na sile. Sąd regionalny w Berlinie (Landgericht Berlin) orzekł, że koncern musi zapłacić łącznie 572 miliony euro odszkodowania dwóm niemieckim porównywarkom cen za nadużywanie dominującej pozycji. To kolejny rozdział w wieloletniej batalii o faworyzowanie własnych usług w wynikach wyszukiwania.

    Zasądzona kwota zostanie podzielona między Idealo (465 mln euro), platformę należącą do koncernu medialnego Axel Springer, oraz Producto (107 mln euro). Sprawa dotyczyła praktyki znanej jako „self-preferencing”, czyli nieuczciwego promowania własnej usługi Google Shopping kosztem konkurencyjnych witryn, które były spychane na dalsze pozycje w wyszukiwarce.

    W trakcie procesu Google bronił się, wskazując na korekty wprowadzone w 2017 roku po interwencji Komisji Europejskiej. Umożliwiły one innym porównywarkom kupowanie powierzchni reklamowej w ramach usługi Google Shopping. Sąd w Berlinie uznał jednak to działanie za niewystarczające do zrekompensowania szkód, które konkurenci ponieśli w latach poprzedzających tę zmianę

    Dla Idealo wyrok ten, choć zwycięski, nie kończy sprawy. Firma, która pierwotnie domagała się 3,3 miliarda euro, już w lutym zapowiadała, że zasądzona kwota stanowi zaledwie „ułamek” rzeczywistych strat ekonomicznych. Przedstawiciele Idealo potwierdzili, że będą kontynuować walkę prawną. Google natomiast nie zgadza się z wyrokiem i zapowiedział złożenie apelacji.

    Orzeczenie berlińskiego sądu wpisuje się w szerszy obraz regulacyjnej presji wywieranej na Big Tech w Europie. To tak zwane „roszczenie następcze” (follow-on claim), bazujące na wcześniejszych ustaleniach Komisji Europejskiej dotyczących monopolistycznych praktyk Google.

    W tle pozostaje wdrażany Akt o Rynkach Cyfrowych (DMA), który ma systemowo ukrócić faworyzowanie własnych usług przez cyfrowych „gatekeeperów”. Bruksela prowadzi już zresztą nowe dochodzenia w sprawie potencjalnych naruszeń DMA przez Google. Sam koncern konsekwentnie twierdzi jednak, że rygorystyczne egzekwowanie nowych przepisów już teraz negatywnie wpływa na jakość wyników wyszukiwania i uderza w europejskie firmy.

  • Google proponuje zmiany w adtech. Chce uniknąć rozbioru biznesu

    Google proponuje zmiany w adtech. Chce uniknąć rozbioru biznesu

    Alphabet (Google) złożył Komisji Europejskiej propozycję ugody dotyczącą swojego biznesu adtech, próbując zażegnać widmo przymusowej dezinwestycji. To odpowiedź na wrześniową karę w wysokości 2,95 miliarda euro i twarde stanowisko regulatorów, którzy sugerowali sprzedaż części firmy jako jedyne skuteczne rozwiązanie konfliktu interesów. Google twierdzi, że jego plan w pełni adresuje obawy KE bez „destrukcyjnego rozpadu”, który miałby zaszkodzić tysiącom europejskich wydawców i reklamodawców.

    Sedno wieloletniego sporu leży w pozycji Google, którą Departament Sprawiedliwości USA określił mianem „trifekty monopoli”. Firma kontroluje jednocześnie dominujące narzędzia po stronie popytowej (Google Ads), kluczowy serwer reklam po stronie podażowej (Google Ad Manager) oraz największą giełdę (AdX) łączącą obie strony. Regulatorzy po obu stronach Atlantyku zarzucają, że Google wykorzystuje tę integrację do faworyzowania własnej giełdy. Dane z serwera wydawców (Ad Manager) miały dawać AdX nieuczciwą przewagę informacyjną nad konkurencyjnymi giełdami, co w efekcie obniżało przychody wydawców i szkodziło rywalom rynkowym.

    Zamiast strukturalnego podziału, Google oferuje „natychmiastowe zmiany w produkcie”. Konkretny przykład to umożliwienie wydawcom ustalania różnych cen minimalnych (floor prices) dla różnych oferentów w Ad Managerze. Jest to bezpośrednia odpowiedź na krytykę dotychczasowych, często nieprzejrzystych mechanizmów aukcyjnych. Firma obiecuje również zwiększenie interoperacyjności swoich narzędzi, by dać klientom rzekomo większą elastyczność i wybór.

    Propozycja Google jest manewrem obronnym na dwóch frontach. Jest niemal identyczna do tej złożonej w USA, gdzie Departament Sprawiedliwości już walczy w sądzie o przymusową sprzedaż giełdy AdX. Amerykański sędzia orzekł zresztą, że Google nielegalnie powiązał swój serwer reklam z giełdą. Komisja Europejska analizuje teraz ofertę, ale wiele wskazuje na to, że regulatorzy mogą nie zadowolić się technicznymi poprawkami. Jeśli amerykański sąd nakaże dezinwestycję, rozwiąże to również problem Brukseli.

  • OpenAI odmawia przekazania 20 mln logów ChatGPT. Trwa spór prawny z The New York Times

    OpenAI odmawia przekazania 20 mln logów ChatGPT. Trwa spór prawny z The New York Times

    Spór prawny między OpenAI a The New York Times zaostrza się, przenosząc ciężar z ogólnych oskarżeń o naruszenie praw autorskich na drażliwy grunt prywatności użytkowników. W środę prawnicy twórców ChatGPT zwrócili się do sędziego federalnego w Nowym Jorku o zablokowanie nakazu. Zobowiązuje on firmę do ujawnienia ponad 20 milionów zanonimizowanych zapisów rozmów z ChatGPT.

    Dla OpenAI jest to próba ochrony poufnych informacji milionów użytkowników. Firma argumentuje, że „99,99%” tych transkryptów nie ma żadnego związku ze sprawą, a udostępnienie logów, nawet po deidentyfikacji, stanowi „spekulacyjną wyprawę wędkarską” i naruszenie prywatności. Dane Stuckey, dyrektor ds. bezpieczeństwa informacji w OpenAI, określił potencjalne ujawnienie jako przymusowe przekazanie „dziesiątek milionów bardzo osobistych rozmów”.

    Jednak dla The New York Times, dzienniki czatów są kluczowym dowodem w sprawie. Koncern medialny, który oskarża OpenAI o bezprawne wykorzystanie milionów swoich artykułów do trenowania modeli, potrzebuje tych danych z dwóch powodów. Po pierwsze, aby udowodnić, że ChatGPT faktycznie replikuje treści chronione prawem autorskim w odpowiedzi na zapytania zwykłych użytkowników.

    Po drugie, logi mają posłużyć do obalenia centralnej tezy obronnej OpenAI. Firma twierdzi, że NYT celowo „zhakował” chatbota, używając specyficznych, wprowadzających w błąd zapytań (promptów), aby siłą wydobyć z modelu dowody naruszenia. Dzienniki mają pokazać, czy takie wyniki są normą, czy tylko efektem manipulacji.

    Obie strony spierają się o interpretację bezpieczeństwa. Rzecznik NYT nazwał stanowisko OpenAI „celowo wprowadzającym w błąd”, podkreślając, że „żadna prywatność użytkownika nie jest zagrożona”. Wskazał, że sąd nakazał dostarczenie jedynie próbki czatów, zanonimizowanych przez samo OpenAI i objętych nakazem ochronnym. Sędzia Ona Wang, wydając pierwotny nakaz, również uznała, że „wyczerpująca deidentyfikacja” będzie wystarczającym zabezpieczeniem.

  • Prawa autorskie a AI: GEMA wygrywa proces z OpenAI. Chodzi o dane treningowe

    Prawa autorskie a AI: GEMA wygrywa proces z OpenAI. Chodzi o dane treningowe

    Wtorkowa decyzja sądu w Monachium to znaczący sygnał dla twórców generatywnej sztucznej inteligencji i potencjalny kamień milowy w sporze o „uczciwe wykorzystanie” danych treningowych. W ściśle obserwowanej sprawie o prawa autorskie, sąd stanął po stronie GEMA, niemieckiej organizacji zbiorowego zarządzania prawami, przeciwko OpenAI. Sędzia Elke Schwager orzekła, że amerykańska firma nie może wykorzystywać tekstów piosenek bez licencji i nakazała jej zapłatę odszkodowania za dotychczasowe naruszenia.

    GEMA, reprezentująca blisko 100 000 twórców (w tym muzyka Herberta Groenemeyera), argumentowała, że ChatGPT bez autoryzacji odtwarza chronione teksty. Co kluczowe, organizacja twierdziła, że ich twórczość posłużyła do nieautoryzowanego szkolenia modelu. OpenAI ripostowało w trakcie procesu, że argumenty te świadczą o fundamentalnym niezrozumieniu zasad działania i architektury ChataGPT.

    Choć od wyroku przysługuje apelacja, sprawa ta jest postrzegana jako kluczowy precedens dla regulacji AI w Europie, wykraczający poza samą muzykę. GEMA otwarcie dąży do stworzenia ram licencyjnych, które uderzyłyby w obecny model operacyjny wielu firm AI. Zakładałyby one, że firmy technologiczne musiałyby płacić za wykorzystanie treści chronionych zarówno na etapie trenowania algorytmów, jak i w materiałach wyjściowych generowanych przez AI. Obie strony zapowiedziały wydanie szerszych oświadczeń jeszcze we wtorek.

  • Social media nie dla duńskich dzieci. Dania wprowadza zakaz

    Social media nie dla duńskich dzieci. Dania wprowadza zakaz

    Dania chce być pierwszym krajem w Europie, który przytnie czas ekranowy najmłodszym – i zrobi to nie tylko kampanią społeczną, ale twardą regulacją. Rząd zapowiedział zakaz korzystania z mediów społecznościowych dla dzieci poniżej 15 roku życia. Rodzice będą mogli udzielać wyjątku dzieciom od 13 lat – np. jeśli platforma jest potrzebna do komunikacji klasowej. Ale kierunek jest jasny: państwo chce wyciągnąć dzieci z algorytmów.

    Premier Mette Frederiksen już w ubiegłym miesiącu zapowiedziała, że rząd zaostrzy kurs. Minister cyfryzacji Caroline Stage Olsen powiedziała, że social media „kradną czas, dzieciństwo i dobrostan”. Większość partii w Folketingu deklaruje poparcie. Firmy technologiczne oficjalnie czekają na szczegóły legislacyjne – ale cichy opór w branży jest pewny. Dania idzie śladem Australii, która rok temu zakazała social mediów do 16 roku życia.

    Dane Duńskiej Agencji ds. Konkurencji i Konsumentów pokazują, że młodzi spędzają średnio 2 godziny i 40 minut dziennie w mediach społecznościowych. Najczęściej – na Snapchacie, YouTube, Instagramie i TikToku. To uderzy właśnie w te platformy. Alphabet i Meta mogą to przeżyć, bo monetyzują też dorosłych. Ale TikTok, który w Europie rośnie głównie dzięki nastolatkom, ma realny problem.

    Ta decyzja to też sygnał do Brukseli. UE zaczęła regulować platformy systemowo przez DSA i DMA. Dania robi krok dalej – nie pyta o zgodę platform, tylko zabiera im demografię. Jeśli ten eksperyment się powiedzie, presja na podobne ruchy wzrośnie. Wtedy spór o „ekrany vs. zdrowie psychiczne” zmieni skalę – z debaty mediów na debatę rządów.

     

     

     

  • Bruksela łagodzi AI Act. Big Tech może czasowo odetchnąć

    Bruksela łagodzi AI Act. Big Tech może czasowo odetchnąć

    Wygląda na to, że intensywny lobbing wielkich firm technologicznych i krytyka ze strony administracji USA przynoszą rezultaty. Komisja Europejska rozważa złagodzenie części zapisów swojej przełomowej Ustawy o Sztucznej Inteligencji (AI Act), co może dać cenne odroczenie takim graczom jak Apple czy Meta.

    Ruch ten jest częścią szerszego dążenia nowej Komisji do „uproszczenia” skomplikowanych regulacji cyfrowych, które UE przyjęła w ciągu ostatnich dwóch lat. Kluczowy ma być tak zwany „Digital Omnibus”, czyli pakiet upraszczający, który 19 listopada ma zaprezentować nowa unijna wiceprzewodnicząca wykonawcza ds. cyfryzacji, Henna Virkkunen.

    Według projektu dokumentu, do którego dotarł Reuters, Komisja proponuje „ukierunkowane środki upraszczające” mające na celu zapewnienie proporcjonalnego wdrożenia przepisów.

    Co to oznacza w praktyce? Przede wszystkim, firmy mogą zostać zwolnione z obowiązku rejestrowania swoich systemów AI w unijnej bazie danych dla systemów wysokiego ryzyka, jeśli narzędzia te są wykorzystywane wyłącznie do „wąskich lub proceduralnych zadań”. To znacząca redukcja obciążeń biurokratycznych, o którą apelowała branża.

    Co więcej, branża może zyskać dodatkowy czas na dostosowanie się. Dokument wprowadza roczny okres karencji na nakładanie kar finansowych, które miałyby być egzekwowane dopiero od 2 sierpnia 2027 roku. Przejściowy okres karencji miałby również objąć kluczowy wymóg oznaczania treści generowanych przez AI – mechanizm mający na celu walkę z deepfake’ami i dezinformacją.

    Ta zmiana kursu nie jest odosobniona. Bruksela niedawno złagodziła także ambitne zasady środowiskowe po silnym oporze ze strony przemysłu i rolników. Dla firm technologicznych, które krytykowały AI Act za potencjalne hamowanie innowacji, to wyraźny sygnał, że ich głos (oraz nacisk Waszyngtonu) został przynajmniej częściowo wysłuchany. Dokument może jeszcze ulec zmianie przed oficjalną prezentacją.

  • Nvidia traci Chiny. Huang: Blackwell nie dla Pekinu, H20 nikt nie chce

    Nvidia traci Chiny. Huang: Blackwell nie dla Pekinu, H20 nikt nie chce

    Jensen Huang, CEO Nvidia, ostatecznie rozwiał nadzieje na szybki powrót firmy na chiński rynek zaawansowanych układów AI. Podczas swojej czwartej tegorocznej wizyty na Tajwanie, Huang kategorycznie zaprzeczył, by prowadzone były „jakiekolwiek aktywne dyskusje” na temat sprzedaży flagowych chipów Blackwell do Chin.

    Jego komentarze ucinają spekulacje, które pojawiły się w zeszłym tygodniu. Sugerowano, że rozmowy między prezydentem USA Donaldem Trumpem a prezydentem Chin Xi Jinpingiem mogą otworzyć drogę do sprzedaży okrojonej wersji Blackwell w Chinach.

    Chipset Blackwell, kluczowy dla następnej generacji sztucznej inteligencji, pozostaje objęty ścisłym amerykańskim embargiem eksportowym z obawy o jego militarne zastosowanie. „Obecnie nie planujemy wysyłać niczego do Chin” – stwierdził Huang w Tainan, dodając, że powrót Nvidii zależy od zmiany polityki Pekinu.

    Jednak oświadczenie Huanga odsłania znacznie głębszy problem biznesowy. Nawet tam, gdzie Nvidia może legalnie sprzedawać, Chiny już nie kupują. Stany Zjednoczone zezwoliły na eksport znacznie słabszego modelu H20, zaprojektowanego specjalnie w celu obejścia sankcji. Okazał się on rynkową porażką.

    Huang w ciągu ostatniego miesiąca wielokrotnie przyznawał, że udział firmy w chińskim rynku zaawansowanych chipów AI spadł praktycznie do zera. Stwierdził, że Pekin „nie chce Nvidii w kraju”, a lokalni giganci technologiczni, jak Alibaba czy Tencent, wolą inwestować w krajowe alternatywy (np. od Huawei) niż kupować gorsze wydajnościowo amerykańskie procesory.

    Podczas wizyty u kluczowego partnera produkcyjnego, TSMC, Huang zapewnił, że globalnie „biznes jest bardzo silny”. Sprostował również niedawne doniesienia „Financial Times”, jakoby ogłosił zwycięstwo Chin w wyścigu AI. „To nie jest to, co powiedziałem” – zaznaczył. Wyjaśnił, że Chiny mają „bardzo dobrą technologię” i 50% światowych badaczy AI, co miało służyć jako ostrzeżenie dla USA. „Stany Zjednoczone muszą nadal poruszać się niesamowicie szybko… musimy szybko biec”.

    Dla globalnego biznesu technologicznego oznacza to, że przychody są obecnie bezpośrednio uzależnione od decyzji politycznych, a brak dostępu do kluczowych rynków błyskawicznie stymuluje powstawanie silnej, lokalnej konkurencji. W konsekwencji firmy muszą być gotowe na szybką fragmentację rynku AI i dywersyfikować swoje strategie w odpowiedzi na rosnący protekcjonizm technologiczny.

  • NIS2: chaos i niepewność w polskich firmach. Kogo naprawdę obejmuje?

    NIS2: chaos i niepewność w polskich firmach. Kogo naprawdę obejmuje?

    W Polsce o NIS2 wciąż mówi się jak o projekcie z branżowych prezentacji. Tymczasem dyrektywa przestała być teorią. Rząd właśnie przyjął projekt ustawy o Krajowym Systemie Cyberbezpieczeństwa, który ma ją implementować. W perspektywie najbliższych miesięcy realnym ryzykiem dla firm nie jest już to, że regulacja będzie „za ostra”, tylko to, że firmy wejdą w ten obowiązek nieprzygotowane.

    Najlepiej pokazują to dane. W raporcie „Cyberportret polskiego biznesu 2025” aż 36% osób odpowiedzialnych za cyberbezpieczeństwo nie potrafi odpowiedzieć, czy ich organizacja jest objęta NIS2. To już nie jest kwestia niskiej świadomości. To jest sygnał, że połowa rynku wciąż nie dokonała podstawowej analizy ryzyka regulacyjnego.

    Tymczasem dyrektywa nie dotyczy tylko „operatorów kluczowych” w wąskim, sektorowym rozumieniu. Nowa definicja obejmuje nie tylko krytyczne branże, ale także znaczną część łańcuchów dostaw. Jeśli kontrahent wymaga zgodności – twoja firma będzie musiała ją udowodnić. Niezależnie od tego, czy państwo wskaże cię na listę „ważnych” lub „kluczowych”.

    Konsekwencje niewiedzy będą biznesowe. Jeśli detaliści, dystrybutorzy technologii, operatorzy SaaS, outsourcerzy usług IT, integratorzy czy software house’y nie będą potrafili pokazać zgodności, tracą kontrakty. W praktyce rynek wymusi NIS2 szybciej niż nadzorca.

    Jednocześnie polskie firmy, mimo chaosu interpretacyjnego, działają. 53% organizacji, które zakładają że NIS2 ich obejmuje, ma już zaktualizowane polityki bezpieczeństwa. Ponad połowa prowadzi dodatkowe szkolenia. To akcje najprostsze do zrobienia i o najmniejszym CAPEX – ale ich masowa adopcja pokazuje, że dla wielu CIO i CISO dyrektywa jest już faktem.

    Więcej wysiłku wymaga budowa mocy operacyjnych. Zatrudnienie ekspertów ds. cyberbezpieczeństwa potwierdziło 35% badanych firm. 43% deklaruje, że dopiero planuje taki ruch. Problemem nie jest niechęć do inwestycji, tylko dostępność ludzi. Rynek specjalistów jest napięty. Zwiększenie zatrudnienia będzie trwać. A regulacja nie da na to dodatkowego roku.

    To wszystko dzieje się w momencie, gdy Polska realnie znajduje się w globalnym topie celów cyberprzestępców. Według ESET w pierwszym półroczu 2025 nasz kraj odpowiadał za 6% globalnych incydentów ransomware – więcej niż Stany Zjednoczone. Każda firma, która w tym kontekście czeka na „ostateczne przepisy”, bierze na siebie niepotrzebne ryzyko.

    Warto więc odwrócić perspektywę. NIS2 nie jest checklistą compliance. Zestaw wymagań proceduralnych, wyższa odpowiedzialność zarządów, obowiązek raportowania incydentów i testowania odporności to po prostu dobry framework security governance. Nawet jeśli firma ostatecznie formalnie nie będzie „pod NIS2”, wdrożenie jego logiki jest tańsze niż recovery po ransomware.

    Z biznesowego punktu widzenia pytanie nie brzmi już, czy NIS2 nas obejmuje. Pytanie brzmi, czy chcemy mieć kontrolę zanim regulator lub rynek zrobią to za nas.

  • AI Act, czyli gra o zaufanie. Jak Europa chce wygrać z USA, regulując AI

    AI Act, czyli gra o zaufanie. Jak Europa chce wygrać z USA, regulując AI

    Globalny wyścig w dziedzinie sztucznej inteligencji trwa w najlepsze. Jesteśmy świadkami spektakularnych postępów technologicznych, napędzanych miliardowymi inwestycjami i nowymi falami zainteresowania, jak choćby „AI Agentica”. W tej rywalizacji Stany Zjednoczone i Chiny zdają się priorytetyzować innowacje i szybkie wdrożenia, dążąc do jak najszybszego osiągnięcia przewagi. Europa jednak świadomie wybiera inną trasę. W momencie, gdy debata publiczna jest zdominowana przez „hałas i fanfary” technologicznych przełomów, Unia Europejska wprowadza AI Act – kompleksowe „rozporządzenie w sprawie gwarancji”.

    To bezprecedensowe posunięcie rodzi fundamentalne pytanie dla biznesu: czy UE, nakładając skomplikowane regulacje, staje się hamulcowym innowacji i skazuje swoje firmy na porażkę w globalnej konkurencji? A może, przeciwnie, jest to wyrachowana, długoterminowa strategia budowania nowej przewagi opartej na fundamentalnej wartości, jaką jest zaufanie?

    AI Act jako (pozorne) obciążenie dla innowacji

    Nie można ignorować faktu, że AI Act dla wielu firm oznacza przede wszystkim koszty i wyzwania operacyjne. Wprowadzenie rygorystycznych zasad zgodności (compliance), konieczność przeprowadzania audytów oraz klasyfikacja systemów AI pod kątem ryzyka, to procesy czasochłonne i kosztowne. W sektorze technologicznym, gdzie time-to-market jest kluczowym wskaźnikiem sukcesu, każda zwłoka regulacyjna to potencjalna utrata udziałów rynkowych na rzecz konkurentów z Azji czy Ameryki Północnej.

    Co więcej, AI Act stawia czoła problemowi tak zwanej „czarnej skrzynki”. Dostarczony tekst źródłowy słusznie podkreśla, że od algorytmów coraz częściej wymaga się „przejrzystości i wytłumaczalności”. Dla inżynierów i zespołów R&D może to oznaczać konieczność wyboru modeli prostszych i potencjalnie mniej skutecznych, byle tylko były one w pełni zrozumiałe dla regulatora. Istnieje realna obawa, że mniejsze startupy nie udźwigną tego ciężaru, podczas gdy dla gigantów technologicznych, jak Salesforce, Oracle czy IBM, będzie to tylko kolejny koszt prowadzenia działalności, który z łatwością wkalkulują w swoje globalne operacje.

    Regulacja jako fundament nowej przewagi konkurencyjnej

    Jednak postrzeganie AI Act wyłącznie jako obciążenia jest strategiczną krótkowzrocznością. Warto przypomnieć sobie zjawisko „Efektu Brukseli”, które zaobserwowaliśmy po wdrożeniu RODO (GDPR). Początkowo krytykowane jako biurokratyczny hamulec, RODO stało się de facto globalnym standardem ochrony danych. AI Act ma wszelkie predyspozycje, by powtórzyć ten sukces na polu sztucznej inteligencji.

    Tekst źródłowy trafnie diagnozuje, że „piętą achillesową” AI są dane i prywatność. W czasach rosnącej nieufności społecznej wobec technologii, AI Act jest bezpośrednią odpowiedzią na te obawy. Zaufanie staje się kluczową walutą biznesową. Europejska firma, która będzie mogła zaoferować klientowi usługę AI (szczególnie w „obszarach wrażliwych”, jak rekrutacja, zdrowie czy finanse) z certyfikatem zgodności z AI Act, zyska natychmiastową przewagę wizerunkową. To nie tylko minimalizuje ryzyko prawne i finansowe, ale buduje fundament długoterminowej relacji z klientem, który wie, że algorytm nie jest stronniczy i nie działa jak nieprzejrzysta „czarna skrzynka”.

    Geopolityczne szachy – kto ustala zasady gry?

    Wdrożenie AI Act to nic innego jak geopolityczne szachy. Na globalnej planszy ścierają się trzy różne filozofie. Mamy podejście amerykańskie, gdzie innowacje napędzane są głównie przez wolny rynek i dominację korporacji. Mamy model chiński, gdzie AI jest narzędziem rozwoju gospodarczego, ale i ścisłej kontroli państwowej. I mamy Unię Europejską, która próbuje znaleźć „trzecią drogę”, godząc „wolność technologiczną z ochroną obywatela”.

    Ta różnica w podejściu niesie za sobą poważne implikacje dla globalnych łańcuchów wartości. Istnieje ryzyko, że międzynarodowe korporacje będą zmuszone tworzyć różne wersje swoich produktów – jedną, „wolną” i potencjalnie bardziej innowacyjną na rynki pozaeuropejskie, i drugą, „bezpieczną” i zgodną z regulacjami, na restrykcyjny rynek UE. To podnosi koszty i komplikuje strategie produktowe, ale jednocześnie czyni z Europy największy na świecie rynek „zaufanej AI”.

    Gra o licencję na działanie

    AI Act nie jest ani prostym hamulcem, ani cudowną tarczą. Jest strategicznym zakładem Unii Europejskiej, opartym na przekonaniu, że w perspektywie dekady zaufanie do technologii będzie równie cenne, o ile nie cenniejsze, niż sama technologia. Konkurencyjność europejskich firm krótkoterminowo z pewnością zostanie wystawiona na ciężką próbę. Długoterminowo jednak, w świecie coraz bardziej świadomym ryzyk związanych ze stronniczością, prywatnością i brakiem kontroli, firmy potrafiące udowodnić etyczne i transparentne działanie AI zyskają dostęp do najbardziej świadomych i lukratywnych rynków.

    W globalnym wyścigu AI nie chodzi tylko o to, kto pierwszy dotrze do mety. Chodzi o to, kto zbuduje technologię, której społeczeństwo dobrowolnie pozwoli działać na masową skalę. Europa, poprzez AI Act, próbuje zbudować właśnie taką społeczną licencję na działanie.

    Kluczowe wnioski

    • Strategiczny zakład na zaufanie: AI Act to świadomy wybór UE, priorytetyzujący etykę i bezpieczeństwo nad nieograniczoną szybkością innowacji, co stanowi kontrę do podejścia USA i Chin.
    • Krótkoterminowe koszty vs. długoterminowa przewaga: Firmy muszą liczyć się ze wzrostem kosztów compliance i potencjalnym spowolnieniem time-to-market. Jednocześnie regulacja może stać się globalną przewagą („Efekt Brukseli”), czyniąc ze zgodności kluczowy atut marketingowy.
    • Wytłumaczalność (XAI) jako wymóg biznesowy: Problem „czarnej skrzynki” przestaje być kwestią akademicką, a staje się wymogiem prawnym. Firmy muszą inwestować w transparentne i wytłumaczalne modele AI, aby działać na rynku UE.
    • Globalny standard w produkcji: Tak jak RODO wpłynęło na globalne standardy danych, tak AI Act wymusi na międzynarodowych korporacjach dostosowanie swoich produktów, jeśli chcą one operować na jednolitym rynku europejskim.
  • Czy Microsoft blokuje konkurencję? Skarga Qwant i decyzja francuskiego urzędu

    Czy Microsoft blokuje konkurencję? Skarga Qwant i decyzja francuskiego urzędu

    Francuska wyszukiwarka Qwant znalazła się na kursie kolizyjnym z Microsoftem – jednak wszystko wskazuje na to, że tamtejszy regulator antymonopolowy odrzuci jej skargę. To pozornie lokalny spór, ale dobrze obrazuje, jak trudno jest rzucić wyzwanie gigantom kontrolującym infrastrukturę wyszukiwania, nawet w Europie, która na sztandarach niesie regulacje Big Tech.

    Qwant, który od lat korzysta z wyników i infrastruktury Bing, oskarżył Microsoft o praktyki ograniczające konkurencję: wymuszanie warunków wyłączności, utrudnianie rozwoju własnej technologii wyszukiwania oraz faworyzowanie w przydziale reklam. W skrócie – argumentuje, że bez niezależnego dostępu do danych i reklam nie da się zbudować realnej alternatywy.

    Francuski organ antymonopolowy miał jednak podczas czerwcowego przesłuchania zasugerować odrzucenie wniosku. Decyzja ma zapaść w ciągu dwóch tygodni, choć Qwant zapowiada dalszą walkę w sądzie lub na szczeblu unijnym. Microsoft odpowiada krótko: zarzuty są bezpodstawne, a rynek wyszukiwania i tak zdominowany jest przez Google.

    I tu pojawia się zasadniczy problem – kto naprawdę kontroluje rynek wyszukiwania? Google ma ponad 90% udziału w Europie, ale to Bing pozostaje kluczowym dostawcą „silnika” dla większości mniejszych graczy: Qwant, DuckDuckGo, Ecosia czy Lilo. Syndykacja wyszukiwania to cichy filar rynku – kilku globalnych dostawców decyduje, kto ma dane, reklamy i przychody.

    Qwant nie jest w stanie konkurować bez Microsoftu, ale jednocześnie zarzuca mu blokowanie niezależności. Taki paradoks sprawia, że pytanie o konkurencję nie dotyczy już interfejsów czy prywatności, lecz infrastruktury: kto kontroluje dostęp do indeksu sieci, do sieci reklamowej, do modeli AI?

    W kontekście europejskich regulacji – od DMA po planowane zasady przejrzystości algorytmów – sprawa Qwant może okazać się testem. Jeśli regulatorzy uznają, że korzystanie z usług dominującego dostawcy nie rodzi ryzyka nadużyć, mniejsze wyszukiwarki pozostaną w roli klientów, nie konkurentów.

    Niezależnie od werdyktu, jedno już widać: era „neutralnego dostępu” do wyszukiwania skończyła się. W epoce AI i własnych modeli językowych, pytanie brzmi, czy Europa zbuduje własną infrastrukturę, czy będzie jedynie korzystać z amerykańskich interfejsów. Qwant to nie tylko francuski problem – to test suwerenności cyfrowej w praktyce.

  • Unia Europejska stawia warunki Chinom: inwestycje tylko za know-how

    Unia Europejska stawia warunki Chinom: inwestycje tylko za know-how

    Unia Europejska wchodzi w nową fazę myślenia o bezpieczeństwie gospodarczym. Podczas spotkania ministrów w Danii, która sprawuje rotacyjną prezydencję, pojawił się postulat obwarowania chińskich inwestycji w Europie dodatkowymi warunkami – w tym obowiązkowym transferem technologii i know-how. To wyraźne odejście od dotychczasowego modelu otwartości rynku i sygnał, że Bruksela zaczyna grać według zasad, które od lat stosują Pekin i Waszyngton.

    Duński minister spraw zagranicznych Lars Rasmussen przyznał, że Europa zbyt długo zakładała, że przestrzeganie reguł wolnego handlu samo w sobie wystarczy, by wygrać globalną konkurencję. „Jeśli zapraszamy chińskie inwestycje do Europy, musi to być powiązane z transferem technologii” – podkreślił. To zdanie może stać się punktem zwrotnym w unijnej polityce przemysłowej.

    Bruksela od miesięcy analizuje, jak ograniczyć ryzyka związane z napływem kapitału z krajów autorytarnych, szczególnie w sektorach strategicznych – półprzewodnikach, OZE, infrastrukturze krytycznej i elektromobilności. Komisja Europejska pracuje nad dokumentem, który do końca roku ma przedstawić konkretne narzędzia: od screeningu inwestycji po wymóg „prawdziwych inwestycji”, jak to ujął komisarz ds. handlu Maroš Šefčovič – tworzących miejsca pracy, przynoszących IP i transfer wiedzy.

    Reakcja Pekinu była natychmiastowa. Rzecznik chińskiego MSZ Lin Jian skrytykował pomysł, mówiąc o „protekcjonistycznych i dyskryminacyjnych praktykach”. Chiny oficjalnie sprzeciwiają się przymusowemu transferowi technologii – choć europejscy producenci samochodów, dóbr przemysłowych czy turbin wiatrowych od lat wskazują, że taki transfer często był warunkiem wejścia na chiński rynek.

    W tle toczy się więc spór o definicję sprawiedliwości w globalnym handlu. Europa, która przez dekady stawiała na otwartość, zaczyna przyjmować logikę wzajemności: dostęp za dostęp, technologie za technologie.

    Czy UE jest gotowa na politykę, którą sama dotąd krytykowała? I czy europejskie firmy – zwłaszcza uzależnione od chińskich łańcuchów dostaw – poprą taki kierunek? Nadchodzące miesiące pokażą, czy Bruksela zdoła stworzyć wspólne zasady, które zbalansują konkurencyjność z bezpieczeństwem. Jedno jest pewne: era naiwnego wolnego handlu w Europie właśnie dobiega końca.

  • Samsung musi zapłacić 445 mln dolarów za naruszenie patentów 5G i Wi-Fi

    Samsung musi zapłacić 445 mln dolarów za naruszenie patentów 5G i Wi-Fi

    Samsung po raz kolejny mierzy się z potężnym ciosem finansowym w sądzie w Marshall w stanie Teksas – miejscowości, która od lat uchodzi za epicentrum najgłośniejszych batalii patentowych w USA. Federalna ława przysięgłych uznała, że koreański gigant naruszył cztery patenty należące do amerykańskiej spółki Collision Communications, przyznając jej odszkodowanie w wysokości 445,5 mln dolarów.

    Spór dotyczył kluczowych technologii związanych ze standardami 4G, 5G i Wi-Fi, wykorzystywanych m.in. w smartfonach z serii Galaxy, laptopach i innych urządzeniach Samsunga. Collision, niewielka firma z New Hampshire, argumentowała, że opatentowane rozwiązania powstały na bazie badań prowadzonych pierwotnie przez BAE Systems – wykonawcę sektora obronnego – i służą poprawie wydajności sieci bezprzewodowych. Samsung odpierał zarzuty, twierdząc, że sporne patenty są nieważne.

    Teksas, a zwłaszcza sąd w Marshall, ma długą historię sporów z udziałem globalnych producentów elektroniki. Samsung w ostatnich latach kilkakrotnie musiał zmagać się tu z wielomilionowymi roszczeniami – branża od lat nazywa ten region „rocket docket” ze względu na szybkie tempo postępowań i przychylność wobec właścicieli patentów.

    Wyrok może mieć szersze implikacje dla branży technologicznej, w której rośnie presja wokół własności intelektualnej w obszarze 5G i AI. Coraz częściej mniejsze podmioty – często spin-offy badawcze – pozywają globalnych producentów, licząc na udział w zyskach z masowej komercjalizacji swoich rozwiązań.

    Collision i Samsung nie wydali jeszcze oficjalnych komentarzy. Sprawa może trafić do apelacji, ale już dziś pokazuje, że wojny patentowe pozostają jednym z niewidocznych, lecz kosztownych frontów rywalizacji technologicznej.

  • Nowa eskalacja USA–Chiny. Trump grozi blokadą „kluczowego oprogramowania”

    Nowa eskalacja USA–Chiny. Trump grozi blokadą „kluczowego oprogramowania”

    Decyzja Donalda Trumpa o nałożeniu 100-procentowych ceł na chińskie towary i wprowadzeniu kontroli eksportu „wszelkiego kluczowego oprogramowania” od 1 listopada to nie tylko kolejny ruch w wojnie handlowej. To sygnał, że ewentualny powrót Trumpa do Białego Domu może oznaczać gwałtowne przyspieszenie procesów decouplingu – rozdzielenia technologicznego USA i Chin, które już dziś kosztuje globalne rynki miliardy dolarów.

    Rzadko zdarza się, aby decyzja polityczna wstrząsnęła Wall Street w ciągu godzin. Tym razem wystarczyła zapowiedź, by indeks S&P 500 zanurkował o 2,7%, a Nasdaq 100 stracił 3,5%. Inwestorzy odczytali ten ruch jako zapowiedź nowej ery – takiej, w której globalny handel nie opiera się już na konkurencji cenowej, lecz na kontroli strategicznych zasobów, od oprogramowania po metale ziem rzadkich.

    Trump uzasadnił decyzję tym, że Chiny „przyjęły niezwykle agresywne stanowisko”, zapowiadając szerokie ograniczenia eksportu praktycznie wszystkiego, co produkują – zwłaszcza surowców krytycznych. To szczególnie istotne, bo Pekin od miesięcy sygnalizuje możliwość ograniczeń w eksporcie metali takich jak gal, german czy grafit – kluczowych dla produkcji chipów, baterii i technologii wojskowych.

    Technologiczna żelazna kurtyna

    Najbardziej niepokojący element ogłoszenia Trumpa dotyczy kontroli eksportu „wszelkiego kluczowego oprogramowania”. W praktyce mogłoby to oznaczać restrykcje w sprzedaży systemów operacyjnych, narzędzi AI, oprogramowania przemysłowego czy infrastruktury chmurowej – nie tylko do Chin, ale także do firm z nimi współpracujących.

    Dla globalnych łańcuchów dostaw oznaczałoby to coś w rodzaju cyfrowej żelaznej kurtyny. Korporacje technologiczne musiałyby na nowo przeprojektować modele dystrybucji i licencjonowania. W branży krążą już scenariusze „podwójnych wersji” produktów – jednej na rynki zachodnie, drugiej na Chiny, z osobnymi aktualizacjami i repozytoriami.

    Rynek szuka nowej równowagi

    Choć Trump zasugerował, że może się wycofać, jeśli Pekin porzuci groźby ograniczeń eksportowych, rynki nie wierzą w szybkie porozumienie. Rolnictwo już liczy straty – notowania soi w Chicago spadły o 1,9%, sygnalizując obawy o kontrataki handlowe Chin, które w przeszłości uderzały w farmerów z kluczowych stanów USA.

    W tle pozostaje pytanie strategiczne: czy ten konflikt zmierza ku stałej przebudowie porządku handlowego? Zarówno USA, jak i Chiny zwiększają subsydia dla własnych sektorów technologicznych. UE przygotowuje własne mechanizmy kontroli eksportu i „de-riskingu”. Coraz więcej ekonomistów wskazuje, że globalizacja w dotychczasowej formie dobiegła końca – zastępowana przez blokowe sojusze gospodarcze i technologiczne.

    Xi czy rynki? Trump stawia termin

    „Wyznaczyłem termin na 1 listopada. Zobaczymy, co się stanie” – powiedział Trump. Termin ten to deadline nie tylko dla Pekinu, lecz także dla globalnych korporacji, które będą musiały wybrać: albo pełna zgodność z amerykańskimi regułami eksportu, albo ryzyko utraty dostępu do największego rynku technologicznego świata.

    Wojna handlowa, która zaczęła się od ceł na stal i soję, przenosi się ostatecznie do najwrażliwszego obszaru – oprogramowania i technologii krytycznych. I tym razem to nie konflikt o handel. To walka o architekturę przyszłego internetu, standardy AI i kontrolę geopolitycznej infrastruktury XXI wieku.

  • Nvidia bierze na siebie opłaty za wizy H-1B po decyzji Trumpa

    Nvidia bierze na siebie opłaty za wizy H-1B po decyzji Trumpa

    W odpowiedzi na kontrowersyjną decyzję prezydenta Donalda Trumpa o nałożeniu opłaty w wysokości 100 000 USD na każdą nową aplikację H-1B — która zaczęła obowiązywać od 21 września 2025 r. — CEO Nvidia Jensena Huanga wystosował wewnętrzny komunikat, w którym zapewnia, że firma będzie kontynuować sponsorskie procedury wizowe i pokrywać wszystkie koszty związane z tym procesem.

    To posunięcie ma za zadanie stłumić narastającą niepewność wśród pracowników technologicznych, w szczególności tych na wizach H-1B — wielu z nich pochodzi z Indii i Chin. Huang podkreśla, że imigracja stanowi fundament innowacji w firmie: „Cuda Nvidii… nie byłoby tego bez imigracji” — napisał w liście do zatrudnionych.

    Sceptycy zwracają uwagę, że choć giganci technologiczni (jak Nvidia) mogą wchłonąć ogromne opłaty, decyzja administracji Trumpa uderza przede wszystkim w mniejsze przedsiębiorstwa i startupy pozbawione zaplecza finansowego. Wśród krytyków znalazły się organizacje branżowe i stowarzyszenia tech, które apelują do administracji o rewizję regulacji, ostrzegając przed odpływem talenty i osłabieniem przewagi konkurencyjnej USA.

    Jednak należy zaznaczyć, że nowe obciążenie finansowe nie dotyczy obecnych posiadaczy wiz H-1B ani tych, którzy złożyli wnioski przed 21 września. Równocześnie istnieje klauzula umożliwiająca zwolnienie z tej opłaty, jeżeli zatrudnienie danej osoby lub całej grupy H-1B będzie uznane za „w interesie narodowym” USA. 

    W praktyce zapowiedź Nvidii wskazuje, że w branży chipowej i technologicznej czołowe podmioty będą mogły izolować się od presji regulacyjnej — lecz dylemat pozostaje nierówny: czy polityka wizowa stanie się narzędziem selekcji firm, które stać na opłacenie „członkostwa w grze”?

  • Qualcomm przed sądem w Londynie. Pozew za „ukryty podatek” w cenie smartfonów Apple i Samsunga

    Qualcomm przed sądem w Londynie. Pozew za „ukryty podatek” w cenie smartfonów Apple i Samsunga

    Qualcomm staje do pojedynku – w październiku w londyńskim Trybunale ds. Konkurencji rozpocznie się proces, który może przedefiniować relacje producentów smartfonów z dostawcami chipów. Brytyjska organizacja konsumencka Which? oskarża firmę o nadużycie dominującej pozycji poprzez narzucanie producentom smartfonów — w tym Apple i Samsungowi — konieczności opłacania wygórowanych opłat licencyjnych niezależnie od użycia chipów Qualcomm. Kwota roszczeń sięga 480 mln funtów (ok. 646,8 mln USD), a dotyczyć ma blisko 29 mln konsumentów, którzy kupili iPhone’y lub telefony Samsung od 2015 roku. 

    Which? argumentuje, że praktyka „no license, no chips” działa jako ukryty podatek: opłaty licencyjne są zbiorowo przerzucane na użytkowników, niezależnie od faktycznego wkładu technologicznego Qualcomm w konkretne urządzenie. Qualcomm utrzymuje, że licencjonowanie patentów standardowych (SEP) jest zgodne z rynkowymi normami, a pozwem błędnie została przedstawiona relacja między sprzedażą układów a opłatami patentowymi.

    Choć to państwowy proces zbiorowy, kluczowym pytaniem nie będzie bezpośrednio wysokość odszkodowań — to może być ustalone później — lecz dopuszczalność pozwu zbiorowego i związek między polityką Qualcomm a szkodą konsumencką. Zainteresowanie sądu wzbudził już sam sposób przygotowania ekspertyz: nowy prezes Trybunału skrytykował nadmiar materiałów dowodowych i subiektywność analiz branżowych przed procesem.

    To nie pierwszy raz, gdy Qualcomm staje w ogniu antitrustowych oskarżeń. W USA, w sporze z Federalną Komisją Handlu (FTC), sąd apelacyjny uchylił wcześniejsze orzeczenie, że polityka „no license, no chips” narusza prawo antymonopolowe.  W Kalifornii konsumencki pozew z 2023 r. został oddalony.

    Dla branży technologicznej — zwłaszcza tanich producentów smartfonów — wyrok w Londynie może stać się precedensem. Jeśli Trybunał uwzględni argumenty Which?, otworzy to furtkę do podobnych roszczeń na innych rynkach. Jeżeli jednak Qualcomm wygra, będzie miał silny argument na rzecz utrzymania strategii licencjonowania.