Tag: Prawo

  • Big Tech kontra Australia. Nowe prawo ma zmusić platformy do płacenia wydawcom

    Big Tech kontra Australia. Nowe prawo ma zmusić platformy do płacenia wydawcom

    Australia po raz kolejny staje się globalnym poligonem doświadczalnym w relacjach na linii państwo–Big Tech. Rząd w Canberze ogłosił plany wprowadzenia „News Bargaining Incentive” – mechanizmu, który ma zastąpić dotychczasowe, mało efektywne przepisy z 2021 roku. Nowa regulacja stawia gigantów takich jak Meta, Alphabet oraz TikTok przed twardym wyborem: albo wynegocjują komercyjne umowy z lokalnymi wydawcami, albo zostaną obciążeni podatkiem w wysokości 2,25% ich lokalnych przychodów.

    Zgodnie z projektem ustawy, który ma wejść w życie w lipcu 2025 roku, wpływy z nowej daniny nie zasilą ogólnego budżetu państwa, lecz zostaną bezpośrednio przekierowane do organizacji medialnych. Kluczowym kryterium podziału środków ma być liczba zatrudnionych dziennikarzy, co ma promować realne tworzenie treści, a nie jedynie zasięgi. Premier Anthony Albanese, mimo ostrzeżeń ze strony administracji USA o możliwych cłach odwetowych, podkreśla suwerenność australijskiej polityki gospodarczej.

    Ruch Australii to odejście od modelu miękkich negocjacji na rzecz twardego fiskalizmu. Poprzedni system pozwalał platformom na unikanie płatności poprzez wygaszanie umów lub, w skrajnych przypadkach, blokowanie treści informacyjnych, co Meta przetestowała już w 2021 roku. Obecna propozycja jest znacznie trudniejsza do zneutralizowania z poziomu operacyjnego – podatek od przychodu jest kosztem, którego nie da się uniknąć prostą zmianą algorytmu.

    Warto jednak zwrócić uwagę na ryzyko geopolityczne. Zapowiedzi Donalda Trumpa dotyczące ceł na kraje nakładające podatki na amerykańskie firmy technologiczne sugerują, że lokalna ochrona dziennikarstwa może stać się zarzewiem szerszego konfliktu handlowego. Dla sektora technologicznego oznacza to okres zwiększonej zmienności i konieczność rewizji strategii obecności na rynkach o silnych tendencjach protekcjonistycznych.

  • Sukcesja firmy – jak zabezpieczyć biznes i rodzinę na przyszłość?

    Sukcesja firmy – jak zabezpieczyć biznes i rodzinę na przyszłość?

    Właściwie zaplanowana sukcesja nie tylko chroni interesy rodziny, ale przede wszystkim zapewnia ciągłość funkcjonowania przedsiębiorstwa.

    Na czym polega sukcesja firmy?

    Sukcesja firmy to proces przekazania zarządzania i własności przedsiębiorstwa kolejnemu pokoleniu lub wskazanym osobom. Może dotyczyć zarówno jednoosobowych działalności gospodarczych, jak i spółek.

    W praktyce oznacza to uporządkowanie kluczowych kwestii:

    • kto przejmie stery firmy,
    • jak zostanie podzielony majątek,
    • kto będzie podejmował decyzje operacyjne,
    • w jaki sposób zabezpieczyć relacje z kontrahentami i pracownikami.

    Brak tych ustaleń prowadzi często do chaosu organizacyjnego, sporów rodzinnych i problemów prawnych, które mogą sparaliżować działalność firmy.

    Co dzieje się z firmą po śmierci właściciela?

    W przypadku jednoosobowej działalności gospodarczej sytuacja jest szczególnie wrażliwa. Po śmierci przedsiębiorcy firma nie przestaje istnieć od razu – funkcjonuje jako tzw. przedsiębiorstwo w spadku. To jednak stan przejściowy, który wymaga szybkich decyzji.

    Najważniejsze wyzwania w tym momencie to:

    • zapewnienie bieżącego zarządzania,
    • utrzymanie ważności umów,
    • zachowanie płynności finansowej,
    • uregulowanie kwestii podatkowych.

    Bez odpowiedniego przygotowania firma może stracić zdolność operacyjną nawet w ciągu kilku dni.

    Zarządca sukcesyjny – klucz do ciągłości biznesu

    Jednym z najważniejszych elementów skutecznej sukcesji jest powołanie zarządcy sukcesyjnego. To osoba, która tymczasowo przejmuje zarządzanie firmą po śmierci właściciela.

    Dlaczego to tak istotne?

    Zarządca sukcesyjny:

    • zapewnia ciągłość działalności,
    • może podpisywać umowy i reprezentować firmę,
    • dba o interesy spadkobierców,
    • stabilizuje sytuację w okresie przejściowym.

    Co ważne, zarządcę można wskazać jeszcze za życia przedsiębiorcy. Jeśli tego zabraknie, spadkobiercy mają ograniczony czas na podjęcie decyzji, co w praktyce często okazuje się problematyczne.

    Najczęstsze błędy przy planowaniu sukcesji

    W praktyce przedsiębiorcy najczęściej popełniają kilka powtarzalnych błędów, które znacząco utrudniają przejęcie firmy:

    • brak testamentu lub nieprecyzyjne zapisy,
    • brak wyznaczonego zarządcy sukcesyjnego,
    • nieuregulowane kwestie własnościowe,
    • brak komunikacji w rodzinie lub firmie,
    • pomijanie aspektów podatkowych.

    Każdy z tych elementów może doprowadzić do konfliktów lub nawet upadku przedsiębiorstwa, mimo że wcześniej działało ono stabilnie.

    Jak przygotować skuteczny plan sukcesji firmy?

    Dobrze zaplanowana sukcesja firmy powinna być procesem, a nie jednorazową decyzją. Warto podejść do niej strategicznie i uwzględnić kilka kluczowych kroków:

    1. Analiza sytuacji firmy i majątku
    Zrozumienie struktury biznesu, zobowiązań oraz powiązań prawnych.

    2. Wybór następcy lub modelu zarządzania
    Nie zawsze musi to być członek rodziny – czasem lepszym rozwiązaniem jest menedżer zewnętrzny.

    3. Przygotowanie dokumentów prawnych
    Testament, umowy, pełnomocnictwa oraz inne formy zabezpieczenia.

    4. Rozważenie nowoczesnych rozwiązań
    Coraz większą popularnością cieszy się fundacja rodzinna, która pozwala uporządkować kwestie majątkowe i zarządcze.

    5. Komunikacja i wdrożenie planu
    Przekazanie wiedzy i przygotowanie organizacji na zmianę.

    Dlaczego sukcesja firmy to inwestycja, a nie koszt?

    Wielu przedsiębiorców traktuje temat sukcesji jako coś odległego lub zbędnego. W rzeczywistości to jedna z najważniejszych decyzji strategicznych.

    Dobrze przygotowany plan sukcesji:

    • chroni wartość firmy,
    • minimalizuje ryzyko konfliktów,
    • zapewnia ciągłość przychodów,
    • zwiększa bezpieczeństwo rodziny i pracowników.

    To nie tylko kwestia formalności, ale realny wpływ na przyszłość biznesu.

    Wsparcie ekspertów w procesie sukcesji

    Sukcesja firmy to złożony proces, który łączy prawo, podatki i strategię biznesową. Dlatego coraz więcej przedsiębiorców decyduje się na współpracę z wyspecjalizowanymi doradcami.

    Przykładem jest PragmatIQ – firma doradcza, która wspiera przedsiębiorców w planowaniu sukcesji oraz zabezpieczaniu biznesu na przyszłość. Dzięki doświadczeniu w obszarze prawa gospodarczego i zarządzania możliwe jest przygotowanie rozwiązań dopasowanych do konkretnej sytuacji firmy.

    Sukcesja firmy – nie odkładaj tej decyzji

    Nieprzewidziane zdarzenia mogą nastąpić w każdej chwili. Brak planu sukcesji oznacza ryzyko utraty tego, co budowałeś latami.

    Dlatego warto podejść do tematu świadomie i odpowiedzialnie. Sukcesja firmy to nie tylko formalność – to fundament stabilności biznesu i bezpieczeństwa najbliższych. Źródło: https://pragmatiq.pl/

  • Czy Claude Mythos od Anthropic zagraża bankom? Pilne rozmowy w Londynie i USA

    Czy Claude Mythos od Anthropic zagraża bankom? Pilne rozmowy w Londynie i USA

    Jak informuje Financial Times, brytyjskie organy regulacyjne — w tym Bank of England oraz FCA — w trybie pilnym analizują potencjalne zagrożenia, jakie niesie ze sobą najnowszy model AI od Anthropic: Claude Mythos Preview.

    Sytuacja jest bezprecedensowa, ponieważ model ten nie jest kolejnym chatbotem do generowania treści marketingowych. Claude Mythos powstaje w ramach enigmatycznej inicjatywy „Project Glasswing”. Według oficjalnych komunikatów Anthropic, jest to kontrolowane środowisko, w którym model służy do celów defensywnych. Problem polega na tym, że granica między obroną a atakiem w cyberprzestrzeni jest cieńsza niż kiedykolwiek.

    Sam producent przyznał, że Mythos zidentyfikował już tysiące krytycznych luk w systemach operacyjnych i przeglądarkach. To, co dla inżynierów bezpieczeństwa jest przełomem, dla strażników systemu finansowego staje się koszmarem. Jeśli model potrafi z taką łatwością wskazywać słabe punkty w globalnym oprogramowaniu, to krytyczna infrastruktura IT największych banków, ubezpieczycieli i giełd może być wystawiona na strzał.

    Niepokój nie ogranicza się tylko do londyńskiego City. Po drugiej stronie oceanu amerykański sekretarz skarbu, Scott Bessent, zwołał już spotkanie z gigantami z Wall Street, aby ocenić ryzyko cybernetyczne płynące z rozwoju tak zaawansowanych modeli. Reakcja regulatorów sugeruje, że stoimy u progu nowej ery zarządzania ryzykiem, gdzie największym zagrożeniem dla banków nie są już złe kredyty, lecz sztuczna inteligencja zdolna do autonomicznego wykrywania błędów w kodzie, na którym opiera się światowy obieg pieniądza.

    W ciągu najbliższych dwóch tygodni przedstawiciele brytyjskiego sektora finansowego mają zostać szczegółowo poinstruowani przez Narodowe Centrum Cyberbezpieczeństwa (NCSC). Dla liderów biznesu płynie stąd jasny sygnał: nadszedł czas, aby audyty bezpieczeństwa IT przestały być formalnością, a stały się realnym polem walki z modelem, który uczy się szybciej niż jakikolwiek haker. Project Glasswing miał przynieść przejrzystość, ale na razie rzucił długi cień na zaufanie do cyfrowej stabilności sektora finansowego.

  • Gorące krzesło CISO. Osobista odpowiedzialność w dobie NIS2 – gdy ryzyko cyfrowe staje się prywatnym

    Gorące krzesło CISO. Osobista odpowiedzialność w dobie NIS2 – gdy ryzyko cyfrowe staje się prywatnym

    Jeszcze dekadę temu największym zawodowym koszmarem Dyrektora ds. Bezpieczeństwa Informacji (CISO) była utrata pracy w wyniku spektakularnego ataku hakerskiego. Była to dotkliwa, lecz czysto korporacyjna konsekwencja. Dziś krajobraz ten ulega dramatycznemu przeobrażeniu. W obliczu nowych regulacji unijnych, takich jak NIS2 czy DORA, a także precedensów płynących z rynków zachodnich, stawką przestaje być wyłącznie pozycja w strukturze firmy. Na stole pojawia się kwestia osobistej odpowiedzialności prawnej i majątkowej.

    Transformacja roli CISO z technicznego strażnika infrastruktury w kluczowego stratega biznesowego nie wynika wyłącznie z naturalnej ewolucji rynku IT. Jest ona wymuszana przez splot czynników geopolitycznych, gwałtowny rozwój sztucznej inteligencji oraz nadchodzącą rewolucję kwantową. Jednak to warstwa legislacyjna sprawia, że fotel szefa bezpieczeństwa staje się jednym z „najgorętszych” miejsc w nowoczesnym przedsiębiorstwie.

    Koniec „technicznego doradcy”

    Przez lata rola CISO była postrzegana przez pryzmat kompetencji twardych: konfiguracji firewalli, zarządzania dostępami czy monitorowania sieci. Decyzje o akceptacji ryzyka podejmowano często na niższych szczeblach, z dala od sal posiedzeń zarządu. Obecna rzeczywistość brutalnie weryfikuje ten model. Integracja sztucznej inteligencji z systemami cyberbezpieczeństwa sprawia, że ilość przetwarzanych danych przekracza ludzkie możliwości percepcji. Systemy autonomiczne podejmują decyzje o odpieraniu ataków w czasie rzeczywistym, co rodzi fundamentalne pytania o nadzór.

    Kto ponosi odpowiedzialność, gdy algorytm AI popełni błąd skutkujący wyciekiem danych medycznych lub paraliżem łańcucha dostaw? W świetle nadchodzących regulacji, odpowiedź coraz rzadziej brzmi „dostawca oprogramowania”, a coraz częściej wskazuje na kadrę zarządzającą, która dopuściła dany system do użytku.

    Dyrektywa NIS2 czy rozporządzenie DORA to nie tylko zbiory technicznych wytycznych. To akty prawne, które redefiniują pojęcie „należytej staranności”. Przesuwają one ciężar odpowiedzialności z działów IT bezpośrednio na organy zarządzające. W tym układzie CISO przestaje być tylko inżynierem – staje się strażnikiem zgodności (compliance) i gwarantem, że firma operuje w granicach prawa. Nieznajomość niuansów legislacyjnych staje się dla menedżerów bezpieczeństwa równie groźna, co niezałatana luka w oprogramowaniu (zero-day).

    Syndrom kozła ofiarnego a realne sprawstwo

    W środowisku cyberbezpieczeństwa od lat toczy się dyskusja o dysproporcji między odpowiedzialnością (responsibility) a decyzyjnością (authority). Wielu CISO obawia się scenariusza, w którym stają się wygodnym „zderzakiem” dla zarządu w momencie kryzysu. Obawy te nie są bezpodstawne. W sytuacji, gdy cyberataki wspierane przez obce rządy czy zaawansowane grupy ransomware stają się codziennością, całkowite wyeliminowanie ryzyka jest niemożliwe. Celem staje się odporność (resilience) – zdolność do przetrwania ataku i szybkiego powrotu do sprawności.

    Problem pojawia się w momencie, gdy organizacja oczekuje od CISO „gwarancji bezpieczeństwa”, jednocześnie odmawiając budżetu adekwatnego do zagrożeń. W nowym reżimie prawnym taka asymetria jest niebezpieczna dla obu stron. Jeśli CISO ponosi odpowiedzialność karną lub cywilną za niedopełnienie obowiązków, musi posiadać realne narzędzia do blokowania ryzykownych projektów biznesowych.

    Współczesny rynek pracy weryfikuje te relacje. Obserwuje się trend, w którym doświadczeni menedżerowie bezpieczeństwa podczas negocjacji kontraktowych domagają się wpisania jasnych ram decyzyjnych oraz objęcia ich polisami ubezpieczeniowymi typu D&O (Directors and Officers), które tradycyjnie zarezerwowane były dla członków zarządu. To sygnał dojrzewania branży – specjaliści są gotowi przyjąć na siebie ciężar odpowiedzialności, pod warunkiem, że idzie ona w parze z mandatem do działania.

    „Paper Trail” – Biurokracja jako tarcza obronna

    W kontekście odpowiedzialności prawnej zmienia się również podejście do dokumentacji. To, co kiedyś traktowano jako uciążliwą biurokrację, dziś staje się kluczowym elementem strategii obronnej CISO. Zasada „trust but verify” ustępuje miejsca podejściu opartemu na dowodach.

    Wobec zagrożeń płynących z łańcuchów dostaw (Supply Chain Attacks) czy postępu w dziedzinie obliczeń kwantowych, które wkrótce mogą podważyć obecne standardy szyfrowania, CISO musi wykazać, że podjął wszelkie możliwe kroki zaradcze, dostępne na danym etapie technologicznym. Dokumentowanie procesu decyzyjnego, w tym formalne rejestry akceptacji ryzyka (Risk Acceptance Forms) podpisywane przez zarząd, przestaje być formalnością. To dowód na to, że menedżer bezpieczeństwa rzetelnie poinformował decydentów o konsekwencjach np. zaniechania migracji do kryptografii kwantowo-odpornej czy braku wdrożenia architektury Zero Trust przy integracji systemów OT/IT.

    W ujęciu prawnym nie chodzi bowiem o to, by być niezatapialnym – bo w cyfrowym świecie nie ma takich twierdzy – ale o to, by udowodnić, że dochowano najwyższych standardów profesjonalizmu, a ewentualna szkoda nie wynikała z zaniedbania.

    CISO przy stole, a nie w serwerowni

    Ewolucja zagrożeń wymusza zmianę pozycjonowania CISO w strukturze organizacyjnej. Skoro cyberbezpieczeństwo dotyka kwestii etyki (przy wdrażaniu AI), geopolityki (przy wyborze dostawców chmurowych) i ciągłości biznesowej, osoba za nie odpowiedzialna nie może raportować do dyrektora IT, którego priorytetem jest wydajność i dostępność systemów. Konflikt interesów w takim układzie jest nieunikniony.

    Nowoczesny model zarządczy zakłada obecność CISO bezpośrednio przy stole decyzyjnym, w roli partnera dla CEO i rady nadzorczej. Jego zadaniem jest tłumaczenie skomplikowanych zagadnień technicznych na język ryzyka biznesowego i finansowego. Rola ta ewoluuje w stronę „Architekta Zaufania”. W gospodarce cyfrowej zaufanie klientów i partnerów jest walutą równie twardą, co kapitał zakładowy. Firma, która potrafi transparentnie komunikować swoje podejście do ochrony danych i etyki AI, zyskuje przewagę konkurencyjną.

    Profesjonalizacja przez odpowiedzialność

    Widmo odpowiedzialności prawnej, choć może wydawać się paraliżujące, w dłuższej perspektywie ma szansę uzdrowić relacje na linii biznes-bezpieczeństwo. Wymusi ono profesjonalizację funkcji CISO, odrywając ją od stereotypu „hamulcowego” innowacji.

    W nadchodzących latach rynek będzie poszukiwał liderów hybrydowych – łączących głęboką wiedzę technologiczną z przenikliwością prawną i etyczną. Zdolność do nawigowania między wymogami dyrektywy NIS2, wyzwaniami ery post-kwantowej a presją na wynik finansowy stanie się definicją kompetencji na tym stanowisku. Dla firm oznacza to konieczność rewizji nie tylko budżetów na cyberbezpieczeństwo, ale przede wszystkim – struktury odpowiedzialności. Bezpieczeństwo przestało być bowiem problemem IT, a stało się parametrem warunkującym egzystencję przedsiębiorstwa na rynku regulowanym.

  • Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    Koniec dzikiego zachodu w chmurze. Unia Europejska bierze pod lupę 19 gigantów IT

    We wtorek organy regulacyjne Unii Europejskiej wykonały bezprecedensowy ruch, wskazując 19 firm – w tym Amazon Web Services, Google Cloud oraz Microsoft – jako krytycznych dostawców usług dla europejskiej bankowości. Decyzja ta fundamentalnie zmienia układ sił na linii Big Tech – nadzór finansowy, przenosząc relacje z poziomu partnerskiego na ściśle regulowany.

    Ruch ten jest bezpośrednią konsekwencją wejścia w życie rozporządzenia DORA (Digital Operational Resilience Act). Nowe przepisy dają europejskim organom nadzoru (EBA, EIOPA, ESMA) uprawnienia do bezpośredniej kontroli firm technologicznych, które do tej pory odpowiadały jedynie przed swoimi klientami biznesowymi. Regulatorzy nie ukrywają, że ich głównym celem jest mitygacja ryzyka systemowego. W dobie powszechnej cyfryzacji awaria u jednego z wiodących dostawców chmury obliczeniowej mogłaby sparaliżować znaczną część europejskiego systemu bankowego, wywołując efekt domina o trudnych do oszacowania skutkach.

    Lista podmiotów objętych nowym reżimem nadzorczym jest zróżnicowana, co pokazuje, jak głęboko technologia przeniknęła do finansów. Oprócz „wielkiej trójki” chmurowej (AWS, Google, Microsoft), na celowniku znalazły się również IBM, dostawcy danych rynkowych tacy jak Bloomberg i London Stock Exchange Group (LSEG), a także operatorzy telekomunikacyjni, w tym Orange, oraz firmy doradcze jak Tata Consultancy Services. Każdy z tych podmiotów będzie teraz musiał udowodnić, że posiada odpowiednie ramy zarządzania ryzykiem, a ich infrastruktura jest odporna na cyberataki i awarie techniczne.

    Reakcja branży na to ogłoszenie była wyważona i dyplomatyczna, co sugeruje, że giganci technologiczni od dawna przygotowywali się na ten scenariusz. Przedstawiciele Microsoftu i Google Cloud natychmiast zadeklarowali pełną gotowość do współpracy, podkreślając swoje zaangażowanie w kwestie cyberbezpieczeństwa. Z kolei LSEG otwarcie przyjął nowe oznaczenie, traktując je jako potwierdzenie swojej kluczowej roli w ekosystemie. Milczenie zachowały póki co Bloomberg i Orange, co może wskazywać na trwające wewnętrzne analizy nowych obowiązków regulacyjnych.

    Decyzja Brukseli wpisuje się w szerszy, globalny trend zacieśniania kontroli nad infrastrukturą krytyczną. Europejski Bank Centralny wprost wymienia zakłócenia technologiczne obok napięć geopolitycznych jako główne zagrożenia dla sektora. Podobne kroki podejmuje Wielka Brytania, choć tamtejszy proces legislacyjny jest opóźniony względem unijnego – Londyn planuje wskazać swoje podmioty krytyczne dopiero w przyszłym roku. Europa po raz kolejny staje się więc poligonem doświadczalnym dla nowych standardów regulacyjnych w świecie technologii.

  • OpenAI odmawia przekazania 20 mln logów ChatGPT. Trwa spór prawny z The New York Times

    OpenAI odmawia przekazania 20 mln logów ChatGPT. Trwa spór prawny z The New York Times

    Spór prawny między OpenAI a The New York Times zaostrza się, przenosząc ciężar z ogólnych oskarżeń o naruszenie praw autorskich na drażliwy grunt prywatności użytkowników. W środę prawnicy twórców ChatGPT zwrócili się do sędziego federalnego w Nowym Jorku o zablokowanie nakazu. Zobowiązuje on firmę do ujawnienia ponad 20 milionów zanonimizowanych zapisów rozmów z ChatGPT.

    Dla OpenAI jest to próba ochrony poufnych informacji milionów użytkowników. Firma argumentuje, że „99,99%” tych transkryptów nie ma żadnego związku ze sprawą, a udostępnienie logów, nawet po deidentyfikacji, stanowi „spekulacyjną wyprawę wędkarską” i naruszenie prywatności. Dane Stuckey, dyrektor ds. bezpieczeństwa informacji w OpenAI, określił potencjalne ujawnienie jako przymusowe przekazanie „dziesiątek milionów bardzo osobistych rozmów”.

    Jednak dla The New York Times, dzienniki czatów są kluczowym dowodem w sprawie. Koncern medialny, który oskarża OpenAI o bezprawne wykorzystanie milionów swoich artykułów do trenowania modeli, potrzebuje tych danych z dwóch powodów. Po pierwsze, aby udowodnić, że ChatGPT faktycznie replikuje treści chronione prawem autorskim w odpowiedzi na zapytania zwykłych użytkowników.

    Po drugie, logi mają posłużyć do obalenia centralnej tezy obronnej OpenAI. Firma twierdzi, że NYT celowo „zhakował” chatbota, używając specyficznych, wprowadzających w błąd zapytań (promptów), aby siłą wydobyć z modelu dowody naruszenia. Dzienniki mają pokazać, czy takie wyniki są normą, czy tylko efektem manipulacji.

    Obie strony spierają się o interpretację bezpieczeństwa. Rzecznik NYT nazwał stanowisko OpenAI „celowo wprowadzającym w błąd”, podkreślając, że „żadna prywatność użytkownika nie jest zagrożona”. Wskazał, że sąd nakazał dostarczenie jedynie próbki czatów, zanonimizowanych przez samo OpenAI i objętych nakazem ochronnym. Sędzia Ona Wang, wydając pierwotny nakaz, również uznała, że „wyczerpująca deidentyfikacja” będzie wystarczającym zabezpieczeniem.

  • Zarzuty za Securebox. Byli dyrektorzy MS odpowiedzą za system cyberbezpieczeństwa za 26 mln zł

    Zarzuty za Securebox. Byli dyrektorzy MS odpowiedzą za system cyberbezpieczeństwa za 26 mln zł

    Kontrakt na blisko 26,6 mln złotych w Ministerstwie Sprawiedliwości na autorski system cyberbezpieczeństwa znalazł się pod lupą prokuratury. Sprawa dotyczy zakupu 400 urządzeń „Securebox”, które według śledczych miały być kupione po zawyżonej cenie i nie spełniały norm technicznych. Zarzuty niedopełnienia obowiązków i przekroczenia uprawnień w celu osiągnięcia korzyści majątkowej postawiono dwóm byłym dyrektorom. Grozi im do 10 lat więzienia.

    Prokuratura Regionalna w Lublinie zarzuca Zbigniewowi G., byłemu Dyrektorowi Biura Cyberbezpieczeństwa MS, że nie zweryfikował poprawności działania sprzętu i wiedział, że na zakup brakowało środków w budżecie. Z kolei Jan K., były Dyrektor Instytucji Gospodarki Budżetowej Centrum Cyberbezpieczeństwa w Zamościu, usłyszał zarzuty wdrożenia urządzeń niespełniających wymogów (m.in. funkcjonowania na terenie UE) oraz realizowania dostawy przez instytucję, która nie była do tego wyznaczona.

    Największe zdumienie w branży IT budzi jednak natura samego produktu. Securebox był promowany jako „autorski produkt” Centrum Cyberbezpieczeństwa z Zamościa, czyli jednostki podległej resortowi. Jego celem miało być skanowanie i zabezpieczanie zewnętrznych nośników pamięci, jak pendrive’y, używanych w sądach i prokuraturach. W praktyce, zdaniem śledczych, instytucja państwowa kupiła od samej siebie wadliwą technologię za miliony złotych.

    Eksperci ds. cyberbezpieczeństwa nie kryją sceptycyzmu. Paweł Kraszewski publicznie wskazał, że podobny poziom bezpieczeństwa można osiągnąć wielokrotnie taniej. Zasugerował, że analogiczne rozwiązanie, bazujące na oprogramowaniu open-source i komercyjnych licencjach antywirusowych, mógłby wdrożyć mały zespół IT w ramach standardowych obowiązków, generując jedynie koszt serwera i licencji.

    Obaj podejrzani nie przyznali się do winy. Prokuratura zastosowała wobec nich dozór policyjny, zakaz opuszczania kraju oraz zabezpieczenia majątkowe na łączną kwotę ponad 4,3 mln złotych.

  • Prawa autorskie a AI: GEMA wygrywa proces z OpenAI. Chodzi o dane treningowe

    Prawa autorskie a AI: GEMA wygrywa proces z OpenAI. Chodzi o dane treningowe

    Wtorkowa decyzja sądu w Monachium to znaczący sygnał dla twórców generatywnej sztucznej inteligencji i potencjalny kamień milowy w sporze o „uczciwe wykorzystanie” danych treningowych. W ściśle obserwowanej sprawie o prawa autorskie, sąd stanął po stronie GEMA, niemieckiej organizacji zbiorowego zarządzania prawami, przeciwko OpenAI. Sędzia Elke Schwager orzekła, że amerykańska firma nie może wykorzystywać tekstów piosenek bez licencji i nakazała jej zapłatę odszkodowania za dotychczasowe naruszenia.

    GEMA, reprezentująca blisko 100 000 twórców (w tym muzyka Herberta Groenemeyera), argumentowała, że ChatGPT bez autoryzacji odtwarza chronione teksty. Co kluczowe, organizacja twierdziła, że ich twórczość posłużyła do nieautoryzowanego szkolenia modelu. OpenAI ripostowało w trakcie procesu, że argumenty te świadczą o fundamentalnym niezrozumieniu zasad działania i architektury ChataGPT.

    Choć od wyroku przysługuje apelacja, sprawa ta jest postrzegana jako kluczowy precedens dla regulacji AI w Europie, wykraczający poza samą muzykę. GEMA otwarcie dąży do stworzenia ram licencyjnych, które uderzyłyby w obecny model operacyjny wielu firm AI. Zakładałyby one, że firmy technologiczne musiałyby płacić za wykorzystanie treści chronionych zarówno na etapie trenowania algorytmów, jak i w materiałach wyjściowych generowanych przez AI. Obie strony zapowiedziały wydanie szerszych oświadczeń jeszcze we wtorek.

  • Sprzedawali dane z LinkedIn za 15 000 USD. Kulisy pozwu przeciwko ProAPIs

    Sprzedawali dane z LinkedIn za 15 000 USD. Kulisy pozwu przeciwko ProAPIs

    LinkedIn złożył w sądzie federalnym w Kalifornii pozew przeciwko firmie ProAPIs i jej szefowi, Rahmatowi Alamowi, oskarżając ją o prowadzenie zaawansowanej i zmasowanej operacji skrobania danych z profili użytkowników. Sprawa rzuca światło na nieustającą walkę platform społecznościowych z podmiotami, które komercjalizują nieautoryzowany dostęp do informacji.

    Według LinkedIn, ProAPIs stworzyło zautomatyzowany system, który każdego dnia generował tysiące fałszywych kont w serwisie. Celem było ominięcie zabezpieczeń i masowe kopiowanie danych dostępnych wyłącznie dla zalogowanych członków – w tym informacji profilowych, danych firmowych, postów czy reakcji. Mimo że platforma twierdzi, iż jest w stanie wykryć i zablokować takie konta w ciągu kilku godzin, ten krótki czas wystarczał botom do zebrania ogromnych ilości danych.

    Pozyskane w ten sposób informacje miały być następnie przetwarzane i sprzedawane stronom trzecim. LinkedIn podaje, że ProAPIs oferowało dostęp do swoich usług za kwoty sięgające nawet 15 000 dolarów miesięcznie, reklamując swoje zbiory jako „aktualne i kompleksowe”. Jednocześnie firma miała bezprawnie wykorzystywać logo i znaki towarowe LinkedIn, co mogło sugerować oficjalne partnerstwo.

    W pozwie platforma podkreśla, że takie działania stanowią rażące naruszenie jej warunków użytkowania, które zabraniają tworzenia fałszywych tożsamości i automatycznego odczytywania danych. LinkedIn argumentuje, że proceder ten nie tylko narusza jego architekturę bezpieczeństwa, ale przede wszystkim podważa zaufanie użytkowników i naraża ich na realne ryzyko – od spamu i prób phishingu po odsprzedaż wrażliwych informacji.

    LinkedIn domaga się odszkodowania za straty wizerunkowe i ekonomiczne, chcąc wysłać jasny sygnał branży data scrapingu. Sprawa nie jest odosobniona i wpisuje się w szerszy trend, w którym platformy cyfrowe coraz agresywniej bronią dostępu do swoich ekosystemów. Incydent ten pokazuje, jak dużym i lukratywnym biznesem stało się zautomatyzowane gromadzenie danych oraz jak trudno jest skutecznie zabezpieczyć się przed tego typu atakami.

  • Pakt z diabłem czy umowa stulecia? Hollywood i OpenAI siadają do stołu w sprawie Sory

    Pakt z diabłem czy umowa stulecia? Hollywood i OpenAI siadają do stołu w sprawie Sory

    OpenAI wyprzedza potencjalne spory prawne, związane ze swoim narzędziem do generowania wideo Sora, oferując studiom filmowym i właścicielom praw autorskich przyszłą kontrolę nad ich własnością intelektualną oraz udział w przychodach. To strategiczne posunięcie ma na celu przekonanie do siebie Hollywood, zanim technologia stanie się powszechnie dostępna i zdąży wywołać prawne batalie, które nękają inne modele generatywnej AI.

    Firma planuje dać właścicielom treści szczegółowe opcje zarządzania tym, jak ich postacie czy dzieła są wykorzystywane przez silnik Sory. Kluczową funkcją ma być możliwość całkowitego zablokowania wykorzystania danej własności intelektualnej. Inicjatywa jest próbą zbudowania mostu z branżą kreatywną, która z rosnącym niepokojem obserwuje postępy w generowaniu wideo. W kuluarach mówi się, że najwięksi gracze, tacy jak Disney, podchodzą do podobnych technologii z dużą rezerwą, obawiając się niekontrolowanego użycia ich ikonicznych postaci.

    Kluczowym elementem propozycji jest model podziału przychodów z właścicielami praw, którzy zdecydują się na udostępnienie swoich zasobów w ekosystemie Sory. Sam Altman, CEO OpenAI, przyznał, że opracowanie sprawiedliwego i skutecznego systemu monetyzacji będzie wymagało eksperymentów i czasu. Testy różnych podejść mają rozpocząć się wkrótce w zamkniętej grupie użytkowników Sory, a docelowo spójny model ma zostać wdrożony w szerszym pakiecie produktów firmy.

    Choć Sora nie jest jeszcze publicznie dostępna – obecnie testuje ją wąska grupa twórców i filmowców – to jej zapowiedzi wywołały poruszenie w branży. Proaktywna strategia OpenAI, mająca na celu uregulowanie kwestii praw autorskich przed szerokim debiutem produktu, może stanowić istotną przewagę konkurencyjną wobec podobnych narzędzi rozwijanych przez Google czy Metę. Zabezpieczenie partnerstw z dużymi dostawcami treści jest postrzegane jako klucz do komercyjnego sukcesu i legitymizacji rynku wideo generowanego przez AI.

  • Co zrobić, gdy bank źle poinformował o całkowitym koszcie kredytu?

    Co zrobić, gdy bank źle poinformował o całkowitym koszcie kredytu?

    Całkowity koszt kredytu – czym właściwie jest?

    Pojęcie całkowitego kosztu kredytu zostało zdefiniowane w ustawie o kredycie konsumenckim. Zgodnie z przepisami, obejmuje ono wszystkie koszty, które konsument zobowiązuje się ponieść w związku z umową kredytową – w tym nie tylko odsetki, ale również prowizje, opłaty administracyjne, składki ubezpieczeniowe, a także koszty związane z usługami dodatkowymi (np. pakietami medycznymi, kartami rabatowymi), jeżeli warunkiem ich poniesienia jest zawarcie umowy.

    Pełna i prawidłowa informacja o całkowitym koszcie kredytu powinna zostać przedstawiona konsumentowi jeszcze przed podpisaniem umowy – w formularzu informacyjnym oraz w samej umowie. Niedopełnienie tego obowiązku może mieć poważne skutki dla instytucji finansowej.

    Co może pójść nie tak – typowe błędy kredytodawców

    Do najczęstszych uchybień po stronie banków i firm pożyczkowych należą:

    • zaniżenie rzeczywistej rocznej stopy oprocentowania (RRSO) poprzez nieuwzględnienie wszystkich kosztów,
    • nieprawidłowe wskazanie całkowitej kwoty do zapłaty – czyli sumy kapitału i kosztów,
    • pominięcie niektórych opłat (np. opłat przygotowawczych, ubezpieczenia kredytu),
    • brak przejrzystości dokumentów – informacje rozproszone lub trudne do zidentyfikowania,
    • błędy w formularzu informacyjnym, który nie odzwierciedla rzeczywistych warunków umowy.

    Z punktu widzenia prawa konsumenckiego, tego typu błędy są nie tylko formalnością – stanowią naruszenie obowiązków informacyjnych, które może skutkować zastosowaniem sankcji.

    Naruszenie obowiązków informacyjnych a sankcja kredytu darmowego

    Polskie prawo przewiduje dla konsumenta szczególną formę ochrony w sytuacji, gdy kredytodawca nie spełnił obowiązków informacyjnych – tzw. sankcję kredytu darmowego (art. 45 ustawy o kredycie konsumenckim). Polega ona na tym, że konsument, mimo zawarcia kredytu odpłatnego, spłaca jedynie kapitał – bez żadnych odsetek, prowizji czy kosztów dodatkowych.

    Co istotne, nie trzeba wykazywać celowości błędu po stronie banku – wystarczy, że naruszenie miało miejsce. Jeżeli więc bank nieprawidłowo poinformował o kosztach, konsument może złożyć oświadczenie o skorzystaniu z sankcji. Musi to jednak nastąpić w terminie 1 roku od całkowitej spłaty kredytu.

    Z sankcji kredytu darmowego można skorzystać wyłącznie w przypadku kredytów konsumenckich, czyli:

    • udzielonych osobom fizycznym (nie firmom),
    • o wartości nieprzekraczającej 255 550 zł (lub równowartości w walucie obcej),
    • udzielonych odpłatnie (czyli z jakimikolwiek kosztami dodatkowymi),
    • zawartych po 18 grudnia 2011 r. – czyli po wejściu w życie ustawy o kredycie konsumenckim.

    Nie ma przy tym znaczenia, czy kredyt został udzielony przez bank, firmę pożyczkową czy instytucję pozabankową – wszystkie te podmioty podlegają przepisom ustawy. Z ochrony nie można jednak skorzystać przy kredytach hipotecznych oraz umowach leasingowych.

    Aby skorzystać z sankcji, muszą zostać spełnione dwie przesłanki:

    1. Umowa kredytowa zawiera jedno z wymienionych w ustawie uchybień formalnych (np. błędna RRSO, brak informacji o prawie do wcześniejszej spłaty, nieprawidłowy formularz informacyjny),
    2. Konsument złoży pisemne oświadczenie o zastosowaniu sankcji w ciągu roku od spłaty kredytu.

    Jeśli te warunki zostaną spełnione, kredytobiorca uzyskuje uprawnienie do spłaty wyłącznie pożyczonego kapitału – a wszystkie zapłacone wcześniej koszty powinny zostać mu zwrócone.

    Jak wygląda procedura – krok po kroku

    W przypadku stwierdzenia nieprawidłowości w umowie lub formularzu, warto podjąć następujące kroki:

    1. Analiza dokumentów – dokładne porównanie formularza informacyjnego, umowy kredytowej i rzeczywiście poniesionych kosztów.
    2. Ocena, czy doszło do uchybień – na tym etapie przydatna jest pomoc specjalistycznej kancelarii.
    3. Złożenie oświadczenia o skorzystaniu z sankcji – musi być pisemne i skierowane do kredytodawcy.
    4. Oczekiwanie na odpowiedź – w razie odmowy kredytodawcy, konieczne może być skierowanie sprawy do sądu.
    5. Postępowanie sądowe (jeśli konieczne) – wówczas sąd ocenia, czy przesłanki sankcji zostały spełnione.

    Warto dodać, że nawet jeśli kredyt został już spłacony, konsument nadal może dochodzić zwrotu poniesionych kosztów – o ile zmieści się w ustawowym terminie.

    Profesjonalna analiza umowy – wsparcie kancelarii

    W praktyce wielu konsumentów nie jest w stanie samodzielnie ocenić, czy ich umowa kredytowa zawiera błędy pozwalające zastosować sankcję. Z tego względu warto skorzystać z pomocy kancelarii wyspecjalizowanej w prawie konsumenckim. Na stronie Sankcja kredytu darmowego  można znaleźć szczegółowe informacje na temat tej instytucji prawnej, a także skorzystać z bezpłatnej weryfikacji dokumentów. To pierwszy krok do odzyskania często niemałych środków, które niesłusznie zostały naliczone przez kredytodawcę.

    TSUE: jasne stanowisko w sprawie błędów informacyjnych

    Znaczące wsparcie dla konsumentów płynie także z orzecznictwa Trybunału Sprawiedliwości Unii Europejskiej. W wyroku z 14 grudnia 2023 r. w sprawie C-127/22, TSUE podkreślił, że obowiązki informacyjne kredytodawcy muszą być realizowane w sposób kompletny, przejrzysty i zrozumiały. Każde uchybienie w tym zakresie może – zgodnie z prawem unijnym – skutkować zastosowaniem sankcji przewidzianych w ustawodawstwie krajowym.

    Trybunał jednoznacznie wskazał, że ochrona konsumenta nie może być iluzoryczna, a obowiązki informacyjne stanowią fundament relacji bank–klient. Orzeczenie to wzmacnia pozycję kredytobiorców i ogranicza możliwość kwestionowania przez banki skuteczności sankcji kredytu darmowego.

    Podsumowanie: niepełna informacja to nie tylko błąd – to naruszenie prawa

    Nieprawidłowe poinformowanie o całkowitym koszcie kredytu nie jest drobnym uchybieniem – stanowi naruszenie prawa, które może skutkować poważnymi konsekwencjami po stronie kredytodawcy. Dzięki instytucji sankcji kredytu darmowego konsument zyskuje realne narzędzie obrony swoich interesów, nawet po zakończeniu spłaty kredytu. Warunkiem skutecznego działania jest jednak szybka reakcja, dokładna analiza dokumentów i – w wielu przypadkach – skorzystanie z pomocy profesjonalnego pełnomocnika.

  • Rynek Privacy Tech: Jak RODO i AI stworzyły nową, miliardową branżę?

    Rynek Privacy Tech: Jak RODO i AI stworzyły nową, miliardową branżę?

    Żyjemy w epoce fundamentalnego paradoksu. Z jednej strony, sztuczna inteligencja, napędzana przez wielkie modele językowe (LLM), staje się krwiobiegiem nowoczesnego biznesu, obiecując bezprecedensową innowację.

    Z drugiej, jej nienasycony apetyt na dane zderza się czołowo z globalnym zrywem na rzecz ochrony prywatności. Ten konflikt nie jest już tylko kwestią etyki, ale twardą rzeczywistością regulacyjną, która tworzy i przekształca całe rynki technologiczne na naszych oczach.   

    Nastroje społeczne osiągnęły masę krytyczną. Badania pokazują, że aż 86% populacji USA wyraża rosnące zaniepokojenie sposobem przetwarzania ich danych, a ponad połowa uważa, że AI utrudni ochronę informacji osobistych.

    W odpowiedzi, rządy na całym świecie budują legislacyjny mur. To, co zaczęło się od przełomowego RODO (GDPR) w Europie, szybko rozprzestrzeniło się globalnie, tworząc gęstą sieć przepisów, od CCPA w Kalifornii po LGPD w Brazylii.

    Obecnie już ponad 137 krajów posiada krajowe przepisy o ochronie danych, obejmujące niemal 80% światowej populacji.   

    Stawka w tej grze jest astronomiczna. Organy regulacyjne nie wahają się używać swojej najpotężniejszej broni: kar finansowych. Rekordowa grzywna w wysokości 1,2 miliarda euro nałożona na firmę Meta za transfer danych między UE a USA czy kara 746 milionów euro dla Amazona to potężne sygnały dla rynku.

    Każda taka decyzja to bezpośredni impuls do wzrostu dla sektora „Privacy Tech” – rynku, który nie wyrósł organicznie z potrzeb konsumentów, ale został niemal w całości stworzony przez działania legislacyjne.

    Prawo nie tylko reguluje technologię – ono ją tworzy. W tym nowym krajobrazie pojawia się kluczowy wniosek: narzędzie, które stworzyło ten problem – sztuczna inteligencja – staje się jednocześnie kluczem do jego rozwiązania.

    Wkraczamy w erę „Prywatności 2.0”, w której zgodność z przepisami staje się inteligentna, proaktywna i, w perspektywie czasu, autonomiczna.   

    Od ręcznej pracy do inteligentnej automatyzacji

    Przed nadejściem ery RODO, zarządzanie prywatnością w wielu organizacjach opierało się na ręcznym mapowaniu danych, niekończących się arkuszach kalkulacyjnych i żmudnych procesach odpowiedzi na żądania użytkowników (DSARs).

    Koszty tej nieefektywności były ogromne – szacuje się, że ręczna obsługa pojedynczego wniosku DSAR kosztowała średnio ponad 1500 dolarów. W świecie, w którym firmy przetwarzają petabajty danych, taki model był nie do utrzymania.   

    Sztuczna inteligencja stała się silnikiem, który napędza rewolucję w tym obszarze, przekształcając platformy do zarządzania prywatnością w inteligentne centra dowodzenia. Nowoczesne systemy wykorzystują AI do automatyzacji kluczowych, niegdyś manualnych procesów.

    Algorytmy AI skanują całą infrastrukturę firmy, od lokalnych serwerów po chmurę, w poszukiwaniu danych osobowych, rozumiejąc ich kontekst i tworząc dynamiczną mapę w czasie rzeczywistym. Następnie, modele AI analizują przepływy danych i uprawnienia dostępu, aby proaktywnie identyfikować i oceniać ryzyko, alarmując o potencjalnych naruszeniach zasad „privacy by design”.

    AI automatyzuje również cały cykl życia zgody użytkownika oraz realizację wniosków DSAR, skracając procesy z tygodni do godzin.   

    Finansowy wpływ tej transformacji jest wymierny. Organizacje, które na szeroką skalę wykorzystują AI i automatyzację w obszarze bezpieczeństwa, oszczędzają średnio 1,76 miliona dolarów na kosztach związanych z naruszeniem danych w porównaniu do firm, które tego nie robią.

    To twardy dowód na zwrot z inwestycji w inteligentne platformy do zarządzania prywatnością, które przekształcają koszt zgodności w zysk operacyjny.   

    Granica zaufania: Świat technologii wzmacniających prywatność (PETs)

    Automatyzacja to jednak dopiero początek. Prawdziwa rewolucja rozgrywa się na granicy kryptografii i zaawansowanej matematyki, w świecie Technologii Wzmacniających Prywatność (Privacy-Enhancing Technologies, PETs).

    To zestaw narzędzi dążących do osiągnięcia „świętego Graala” analityki: możliwości wydobywania cennych informacji z wrażliwych zbiorów bez ujawniania samych danych.   

    Jedną z kluczowych technologii jest szyfrowanie homomorficzne (HE). Pozwala ono na wykonywanie obliczeń na zaszyfrowanych danych, tak jakby analityk przeprowadzał operacje na zamkniętej skrzynce, nie widząc jej zawartości.

    Dopiero właściciel danych, posiadający klucz, może otworzyć skrzynkę i zobaczyć wynik. Technologia ta, rozwijana przez gigantów takich jak Microsoft i IBM, znajduje zastosowanie w medycynie do analizy danych pacjentów z wielu szpitali oraz w finansach do wspólnego wykrywania oszustw.   

    Innym przełomowym narzędziem są dowody o wiedzy zerowej (ZKP). To protokół kryptograficzny, który pozwala udowodnić, że zna się pewną informację, nie ujawniając jej samej.

    To tak, jakby móc udowodnić, że ma się ukończone 21 lat, nie pokazując dowodu osobistego z datą urodzenia i adresem. ZKP rewolucjonizuje zdecentralizowaną tożsamość i prywatne transakcje finansowe.   

    Problem analizy danych na rozproszonych, prywatnych zbiorach rozwiązują prywatność różnicowa i uczenie federacyjne. Prywatność różnicowa polega na dodaniu do zbioru danych precyzyjnie obliczonego „szumu”, który uniemożliwia identyfikację pojedynczej osoby, zachowując jednocześnie ogólne trendy statystyczne.

    Z kolei uczenie federacyjne to podejście, w którym modele AI są trenowane bezpośrednio na urządzeniach końcowych (np. smartfonach), a do centralnego serwera wysyłane są jedynie zagregowane, zanonimizowane „ulepszenia” modelu, a nie surowe dane użytkowników.

    Z tych technik korzystają już tacy giganci jak Apple czy Google.   

    Wdrożenie tych technologii sygnalizuje fundamentalną zmianę. Dane przestają być aktywem, którego wartość polega na wyłącznym posiadaniu. Stają się zasobem, który można bezpiecznie współdzielić i na którym można współpracować, uwalniając ogromną wartość ekonomiczną, która do tej pory była uwięziona w korporacyjnych silosach. Prywatność staje się nie barierą, lecz technologią umożliwiającą innowacje.   

    Ostateczna rozgrywka: Świt autonomicznego systemu prywatności

    Dotychczasowa ewolucja wyznacza wyraźną trajektorię, której logicznym zwieńczeniem jest wizja przyszłości, w której ochrona danych jest zarządzana przez autonomiczne systemy AI. Należy tu odróżnić automatyzację od autonomii.

    Automatyzacja wykonuje zdefiniowane zadania. Autonomia to zdolność systemu do samodzielnego uczenia się, adaptacji i podejmowania decyzji w celu osiągnięcia celu.   

    Taki system przyszłości będzie opierał się na konwergencji kilku technologii. Fundamentem są autonomiczne bazy danych, które wykorzystują AI, aby stać się samorządnymi, samozabezpieczającymi i samonaprawiającymi.

    Na tej podstawie działa nowa generacja agentowej AI – systemów, które potrafią samodzielnie wchodzić w interakcje z bazami danych i wykonywać złożone zadania, aby zrealizować cel, np. „zapewnij ciągłą zgodność z globalnymi przepisami”.

    Układem nerwowym jest inteligentny potok danych, który w czasie rzeczywistym filtruje i redaguje dane osobowe, zanim trafią one do analizy.   

    Połączenie tych elementów tworzy obraz przyszłości, w której autonomiczny system będzie ciągle monitorował globalny krajobraz prawny, automatycznie tłumaczył język prawniczy na egzekwowalne polityki i w czasie rzeczywistym rekonfigurował przepływy danych w całej infrastrukturze firmy.

    Będzie też autonomicznie wykrywał i neutralizował potencjalne naruszenia, zanim zdążą one eskalować.   

    Ta technologiczna trajektoria prowadzi do nieuchronnej „komodytyzacji zgodności”, gdzie podstawowe zadania staną się powszechnie dostępną usługą. Nie oznacza to jednak końca zawodu specjalisty ds. prywatności. Wręcz przeciwnie, jego rola ulegnie transformacji – od operacyjnego „gaszenia pożarów” do strategicznego nadzoru i zarządzania etyką autonomicznych systemów.

    W tej nowej rzeczywistości kluczowymi kompetencjami nie będą już tylko interpretacja prawa, ale audyt algorytmów i definiowanie granic operacyjnych dla agentów AI.

    Prywatność 2.0 to nie cel sam w sobie. To system operacyjny dla przyszłości cyfrowej gospodarki.

  • Nvidia pod lupą Chin. Koncern oskarżony o monopol

    Nvidia pod lupą Chin. Koncern oskarżony o monopol

    Pekin wszczął dochodzenie antymonopolowe przeciwko Nvidii, co stanowi kolejną odsłonę eskalującego konfliktu technologicznego z Waszyngtonem. Czas ogłoszenia decyzji – zbiegający się z rozmowami handlowymi – sugeruje, że spór o chipy staje się kluczowym elementem nacisku w relacjach obu mocarstw.

    Chińska Państwowa Administracja ds. Regulacji Rynku (SAMR) poinformowała o wszczęciu wstępnego dochodzenia w sprawie praktyk biznesowych Nvidii. Choć oficjalny komunikat był bardzo zwięzły, ruch ten został odebrany jako strategiczna odpowiedź na amerykańskie restrykcje eksportowe, które odcięły chińskie firmy od najnowocześniejszych procesorów AI.

    Przedstawiciele amerykańskiej administracji określili ten krok jako podjęty w „złym czasie”, co jedynie podkreśla jego wagę w toczących się negocjacjach.

    Działania chińskiego urzędu nie są przypadkowe. To element szerszej strategii, w ramach której Pekin odpowiada na amerykańskie cła i umieszczanie kolejnych chińskich firm na czarnych listach handlowych.

    Podobne dochodzenia antymonopolowe dotknęły w przeszłości inne amerykańskie giganty, sygnalizując gotowość do wykorzystywania narzędzi regulacyjnych jako formy odwetu.

    Analitycy wskazują, że formalnym pretekstem do wszczęcia postępowania jest najprawdopodobniej akwizycja izraelskiej firmy Mellanox Technologies przez Nvidię sprzed pięciu lat. Chiny zatwierdziły tę transakcję pod warunkiem, że producent GPU będzie kontynuował dostawy zaawansowanych technologii na chiński rynek.

    Obecnie, w związku z amerykańskimi restrykcjami, Nvidia nie może sprzedawać swoich najbardziej wydajnych, zintegrowanych rozwiązań (łączących GPU z technologią sieciową Mellanox), co Pekin może interpretować jako naruszenie wcześniejszych zobowiązań.

    Sytuacja stawia Nvidię w wyjątkowo trudnym położeniu. Z jednej strony, Chiny odpowiadały w zeszłym roku za 13% całkowitej sprzedaży firmy, a popyt na układy AI ze strony lokalnych gigantów technologicznych pozostaje ogromny.

    Z drugiej, firma musi lawirować między coraz surowszymi regulacjami eksportowymi USA a rosnącą presją ze strony Pekinu. Próby ominięcia restrykcji, takie jak stworzenie specjalnego chipu H20 na rynek chiński, napotykają na kolejne przeszkody – od obaw o bezpieczeństwo po stronie chińskiej, po niejasne zasady płatności narzucone przez Waszyngton.

    Potencjalne konsekwencje dochodzenia mogą obejmować kary finansowe sięgające nawet 10% rocznych przychodów Nvidii. Jednak analitycy wskazują, że dotkliwsze od ewentualnych kar są długofalowe cele strategiczne Chin, czyli dążenie do samowystarczalności technologicznej i promowanie krajowych alternatyw.

    Dochodzenie antymonopolowe jest więc przede wszystkim sygnałem ostrzegawczym i potężnym narzędziem nacisku, pokazującym, że dalsze zaostrzanie kursu przez USA będzie miało bezpośrednie, bolesne konsekwencje dla amerykańskich korporacji.

  • Google ukarane w Australii. Grzywna to część globalnej presji antymonopolowej

    Google ukarane w Australii. Grzywna to część globalnej presji antymonopolowej

    Google zapłaci 55 milionów dolarów australijskich (ok. 35,8 mln USD) kary za ograniczanie konkurencji na tamtejszym rynku. To wynik ugody z Australijską Komisją ds. Konkurencji i Konsumentów (ACCC), która zakwestionowała umowy firmy z największymi operatorami telekomunikacyjnymi, Telstra i Optus.

    Na ich mocy aplikacja wyszukiwarki Google była domyślnie instalowana na telefonach z Androidem, co w praktyce blokowało dostęp do rynku konkurencyjnym rozwiązaniom.

    Dochodzenie ACCC wykazało, że w latach 2019-2021 Google dzieliło się z telekomami przychodami z reklam generowanych przez wyszukiwarkę na urządzeniach z Androidem. Była to forma płatności za wyłączność, która, jak przyznała sama firma, miała istotny, negatywny wpływ na konkurencję.

    Choć z finansowego punktu widzenia kara jest dla Alphabet, spółki-matki Google (której roczne przychody w 2023 roku przekroczyły 300 miliardów dolarów), niemal niezauważalna, jej znaczenie jest przede wszystkim symboliczne i prawne.

    Decyzja australijskiego regulatora nie jest odosobnionym przypadkiem. Wpisuje się w globalny trend wzmożonej kontroli antymonopolowej nad działaniami Google.

    Podobne zarzuty dotyczące promowania własnej wyszukiwarki na platformie Android doprowadziły do nałożenia przez Unię Europejską wielomiliardowych kar. Również w Stanach Zjednoczonych sąd federalny orzekł niedawno, że firma nielegalnie utrzymywała monopol na rynku wyszukiwania.

    Grzywna nałożona przez ACCC to kolejny w ostatnim czasie problem prawny dla technologicznego giganta w Australii. Zaledwie tydzień wcześniej sąd w dużej mierze przyznał rację studiu Epic Games, twórcy gry Fortnite, w sprawie dotyczącej praktyk monopolistycznych w sklepach z aplikacjami Google i Apple.

    Oba te wydarzenia wskazują na rosnącą determinację australijskich regulatorów i sądów w celu ograniczenia rynkowej dominacji największych firm technologicznych. Ugoda z ACCC ma otworzyć milionom australijskich konsumentów drogę do większego wyboru dostawców usług wyszukiwania w przyszłości.

  • Systemy sztucznej inteligencji a prawa autorskie

    Systemy sztucznej inteligencji a prawa autorskie

    Systemy sztucznej inteligencji (AI) można rozróżnić na dwie podstawowe grupy, które różnią się zarówno pod względem technologicznym, jak i prawnym, a mianowicie mowa o:

    • tradycyjnej sztucznej inteligencji (AI),
    • generatywnej sztucznej inteligencji (Generative AI).

    Powyższy podział jest istotny dla prawidłowego zrozumienia związanych z nimi obowiązków, potencjalnych zagrożeń oraz regulacji prawnych, które je dotyczą, zwłaszcza pod kątem praw autorskich.

    Tradycyjne systemy AI działają na podstawie jasno określonych algorytmów i reguł, które przetwarzają dane, wykrywają wzorce i podejmują decyzje. W tym przypadku prawo autorskie dotyczy przede wszystkim danych wejściowych oraz efektów pracy człowieka nad systemem, natomiast same algorytmy i modele nie są chronione jako utwory. Zwykle nie pojawiają się tu poważne problemy związane z ochroną praw autorskich, ponieważ AI nie generuje nowych, autonomicznych dzieł.

    W przeciwieństwie do tradycyjnego AI inaczej wygląda sytuacja generatywnej sztucznej inteligencji. Generative AI tworzy całkowicie nowe treści — teksty, obrazy, dźwięki czy kod — na podstawie wzorców wyuczonych z ogromnych zbiorów danych, które często zawierają materiały chronione prawem autorskim. To rodzi szereg problemów prawnych, takich jak:

    • Wykorzystanie chronionych materiałów do trenowania modeli AI: W kontekście rozwoju generatywnej sztucznej inteligencji kluczowym zagadnieniem jest sposób, w jaki modele AI są trenowane na ogromnych zbiorach danych, które często zawierają materiały chronione prawem autorskim, takie jak teksty, obrazy, muzyka czy kod źródłowy. Zgodnie z unijnym Rozporządzeniem o sztucznej inteligencji (AI Act), które ma na celu uregulowanie stosowania AI w Unii Europejskiej, dostawcy modeli generatywnych mają obowiązek respektowania sprzeciwów właścicieli praw autorskich wobec wykorzystania ich utworów w procesie treningu. Procedura ta nazywana jest „opt-out” i pozwala twórcom lub właścicielom praw na wyrażenie sprzeciwu wobec użycia ich treści do szkolenia systemów AI.
    • Ochrona praw autorskich wygenerowanych dzieł: Wytwory AI zazwyczaj nie są uznawane za utwory chronione prawem autorskim, ponieważ nie są tworzone przez człowieka, co oznacza, że często trafiają do domeny publicznej. Jednocześnie jednak pojawia się poważny problem związany z tym, że AI podczas generowania treści korzysta z ogromnych zbiorów danych, które często zawierają materiały chronione prawem autorskim. Jeśli wygenerowana praca zawiera elementy zbliżone lub wręcz kopiujące chronione utwory, może dojść do naruszenia praw autorskich osób trzecich. Takie naruszenia mogą pociągać za sobą odpowiedzialność prawną użytkowników lub dostawców AI, nawet jeśli nie mieli oni pełnej świadomości wykorzystania chronionych materiałów.
    • Brak jasnej granicy ochrony: W przypadku bardziej złożonych wytworów, które powstają w wyniku wielokrotnych interakcji człowieka z AI (np. dostosowywanie promptów), kwestia przyznania ochrony prawnej jest niejasna i wymaga dalszych regulacji. Dodatkowo, obecne regulacje, takie jak unijna Dyrektywa o prawie autorskim na jednolitym rynku cyfrowym (CDSM) z 2019 roku oraz Rozporządzenie AI Act z 2024 roku, wprowadzają pewne mechanizmy ochrony praw twórców, jednak pozostawiają wiele niejasności interpretacyjnych. Przepisy te nie precyzują jednoznacznie, jak traktować prawa autorskie w kontekście dzieł generowanych przez AI, co powoduje trudności zarówno dla twórców, jak i dla podmiotów rozwijających technologie AI.

    Podział systemów sztucznej inteligencji na tradycyjne i generatywne niesie ze sobą ważne skutki prawne. Tradycyjna AI podlega przede wszystkim standardowym regulacjom dotyczącym przetwarzania danych oraz odpowiedzialności za podejmowane decyzje. Z kolei generatywna AI, która tworzy nowe treści, stawia dodatkowe wyzwania prawne, zwłaszcza w obszarach prawa autorskiego, ochrony danych poufnych oraz zgodności z umowami. Ponadto podlega coraz bardziej szczegółowym i rozbudowanym regulacjom. 

    Prawo autorskie wobec sztucznej inteligencji stoi przed poważnymi wyzwaniami. Obecnie dzieła tworzone autonomicznie przez AI nie są chronione, a wykorzystywanie chronionych materiałów do trenowania modeli wymaga uwzględnienia praw właścicieli. Przyszłość regulacji praw autorskich będzie zależała od dalszych prac legislacyjnych i orzecznictwa, które będą musiały precyzyjniej określić zasady korzystania z AI w twórczości oraz ochrony praw twórców i użytkowników.

    W związku z tym zarówno twórcy, jak i użytkownicy tych systemów powinni dokładnie zapoznać się z obowiązującymi przepisami oraz świadomie oceniać ryzyka związane z ich wykorzystaniem.


    Autor: r.pr. Damian Lipiński, Kancelaria Prawna GFP_Legal | Grzelczak Fogel i Partnerzy | Wrocław

  • Szokujące wyznanie Microsoft. Jedno prawo USA sprawia, że są bezradni

    Szokujące wyznanie Microsoft. Jedno prawo USA sprawia, że są bezradni

    Kwestia suwerenności danych w Unii Europejskiej nabiera coraz większego znaczenia, a niedawne oświadczenie Microsoftu przed francuskim Senatem tylko potęguje obawy. Koncern przyznał, że nie może w pełni zagwarantować, iż dane europejskich klientów nie zostaną udostępnione amerykańskim władzom. To stwierdzenie, choć szczere, rzuca cień na koncepcję „suwerennej chmury”, promowanej przez największych dostawców z USA.

    Problem leży w konflikcie jurysdykcji. Z jednej strony, amerykańscy giganci technologiczni, tacy jak Microsoft, AWS i Google, inwestują w europejskie centra danych, obiecując, że informacje ich klientów z UE pozostaną na kontynencie. Inicjatywy takie jak „Microsoft Sovereign Cloud” mają zapewniać zgodność z lokalnymi regulacjami i chronić przed nieautoryzowanym dostępem. Z drugiej strony, te same firmy podlegają amerykańskiej ustawie CLOUD Act, która zobowiązuje je do udostępnienia danych na żądanie amerykańskich organów ścigania, niezależnie od miejsca ich przechowywania.

    Przedstawiciele Microsoftu podkreślają, że firma nie jest bezbronna i może kwestionować bezzasadne żądania. Do tej pory, jak twierdzi koncern, nie było przypadku przekazania danych z europejskich serwerów na mocy CLOUD Act. Jednak dla wielu ekspertów ds. prywatności i europejskich decydentów to za mało. Ryzyko, nawet jeśli teoretyczne, jest nie do zaakceptowania, zwłaszcza w kontekście przetwarzania danych wrażliwych przez instytucje publiczne.

    Unia Europejska, świadoma swojej zależności – około 72% rynku chmury w Europie jest w rękach trzech amerykańskich firm – poszukuje alternatyw. Inicjatywy takie jak Gaia-X mają na celu stworzenie sfederowanej, europejskiej infrastruktury danych, która zapewniłaby większą kontrolę i suwerenność. Jest to jednak proces długotrwały i kosztowny, a dorównanie skali i zaawansowaniu technologicznemu amerykańskich liderów stanowi ogromne wyzwanie.

    W rezultacie, europejskie firmy i instytucje stają przed trudnym wyborem. Mogą kontynuować współpracę z amerykańskimi dostawcami, akceptując ryzyko prawne, lub poszukiwać lokalnych alternatyw, które mogą jeszcze nie oferować tak zaawansowanych i kompleksowych usług. Przyznanie przez Microsoft, że „nie może zagwarantować” pełnej suwerenności, jest ważnym głosem w tej debacie, który z pewnością przyspieszy dążenia Europy do osiągnięcia cyfrowej niezależności.

  • Czy sztuczna inteligencja powinna mieć zakaz udawania człowieka?

    Czy sztuczna inteligencja powinna mieć zakaz udawania człowieka?

    Sztuczna inteligencja coraz częściej udaje człowieka — i robi to z rosnącą skutecznością. Od deepfake’ów po głosy podszywające się pod bliskich, generatywne systemy AI zacierają granice między prawdą a fikcją. W obliczu tych wyzwań wraca pytanie, które zadał Isaac Asimov ponad 80 lat temu: jakie prawa powinny obowiązywać maszyny, zanim będzie za późno?

    Od fizycznego bezpieczeństwa do ochrony prawdy

    Asimov wprowadził swoje prawa w epoce, gdy roboty były czystą spekulacją, a zagrożenia miały głównie charakter fizyczny: maszyna nie mogła skrzywdzić człowieka. Dziś sztuczna inteligencja raczej nie grozi nam mechanicznym ramieniem, ale może — i coraz częściej to robi — oszukiwać nas słowem, obrazem i dźwiękiem. Złośliwe wykorzystanie generatywnej AI staje się jednym z największych wyzwań społecznych, ekonomicznych i politycznych.

    W samym tylko 2023 roku cyberprzestępstwa oparte na manipulacji cyfrowej kosztowały ofiary 10,3 miliarda dolarów – wynika z danych FBI. Rosnąca dostępność narzędzi GenAI spowodowała gwałtowny wzrost jakości i skali deepfake’ów, fałszywych głosów, generowanych awatarów i zmanipulowanych filmów. Te zjawiska były szczególnie niebezpieczne w roku 2024, gdy ponad 4 miliardy ludzi na świecie brały udział w wyborach. Deepfake’i nie muszą być doskonałe — wystarczy, że wzbudzają wątpliwość. A w sferze politycznej to wystarczy, by zasiać chaos.

    Czwarte prawo: nie udawaj człowieka

    W reakcji na rosnące zagrożenia pojawiła się nowa propozycja rozszerzenia praw robotyki o czwarte prawo: AI nie może udawać człowieka. To zasada, która uderza w samo sedno problemu — czyli w nieprzejrzystość i manipulację. W czasach Asimova robot miał być fizyczną maszyną — dziś może być niewidzialnym botem, który dzwoni do naszej babci i podszywa się pod wnuczka proszącego o szybki przelew.

    To właśnie zacieranie granic między człowiekiem a maszyną stanowi największe ryzyko — nie tylko w sferze bezpieczeństwa, ale przede wszystkim dla zaufania społecznego. Bo jeśli nie możemy już wierzyć temu, co widzimy i słyszymy — to komu lub czemu będziemy ufać?

    Od science fiction do realnej polityki

    Unia Europejska, przyjmując ustawę o sztucznej inteligencji, zrobiła pierwszy krok w stronę formalizacji zasad, o których Asimov mógł tylko pisać w opowiadaniach. Przepisy wymagają, by systemy AI były transparentne, a treści generowane automatycznie — jasno oznaczane. W praktyce oznacza to, że jeśli rozmawiamy z chatbotem, powinniśmy o tym wiedzieć. Jeśli widzimy wideo wygenerowane przez AI — powinno być oznaczone.

    Ale prawdziwe wyzwanie leży gdzie indziej: w egzekwowaniu tych zasad na skalę globalną i technologiczną. Potrzebne są standardy techniczne (np. znakowanie cyfrowe czy „wodoodporne” watermarki treści AI), ale także kampanie edukacyjne, które zwiększą świadomość użytkowników, jak odróżniać treści prawdziwe od zmanipulowanych.

    AI bez etyki to nie robotyka — to anarchia

    Nie brakuje głosów, że świat zareagował zbyt wolno. List otwarty podpisany przez ponad tysiąc ekspertów i liderów branży technologicznej, wzywający do wstrzymania rozwoju największych modeli AI, pozostał bez realnego echa. AI rozwija się szybciej, niż jesteśmy w stanie regulować jej użycie. Przestępcy, dezinformatorzy i oszuści już dziś wykorzystują możliwości technologii, która jeszcze kilka lat temu była w fazie eksperymentalnej. Co więcej — to tanie, łatwo dostępne narzędzia, których użycie nie wymaga już zaawansowanej wiedzy.

    W tym sensie czwarte prawo robotyki staje się nie tylko moralnym postulatem, ale koniecznością operacyjną. Tak jak nie pozwalamy produktom spożywczym udawać lekarstw, tak nie powinniśmy pozwalać AI udawać ludzi.

    Nowe granice współpracy człowieka z maszyną

    Paradoks współczesnej sztucznej inteligencji polega na tym, że jej potencjał do pomocy człowiekowi jest równie ogromny jak potencjał do szkodzenia. AI może wspierać edukację, zdrowie publiczne, efektywność energetyczną czy walkę z chorobami. Ale tylko wtedy, gdy działa w sposób przejrzysty i kontrolowalny.

    Wchodzimy w epokę, w której „człowiek czy AI?” stanie się jednym z najważniejszych pytań XXI wieku — nie tylko dla programistów, ale dla prawników, dziennikarzy, nauczycieli i wyborców. To pytanie będzie wymagało systemowych odpowiedzi: regulacji, standardów, etyki i, być może, nowej wersji praw robotyki — dostosowanej nie do fizycznych robotów, ale do cyfrowych bytów, które dziś kształtują naszą rzeczywistość.

    Ostatecznie, nie chodzi już tylko o to, by robot nie skrzywdził człowieka. Chodzi o to, by nie oszukał go tak skutecznie, że człowiek nawet nie zorientuje się, że miał do czynienia z maszyną.

  • Nie tylko NIS2, czyli o nowych przepisach dot. certyfikacji w cyberbezpieczeństwie

    Nie tylko NIS2, czyli o nowych przepisach dot. certyfikacji w cyberbezpieczeństwie

    Na początku maja 2025 r. do Sejmu wpłynął rządowy projekt ustawy o krajowym systemie certyfikacji cyberbezpieczeństwa. To nie tylko reakcja na europejskie przepisy (konkretnie – Rozporządzenie UE 2019/881), ale też szansa na uporządkowanie rynku, który dziś bywa nieprzejrzysty i oparty na zaufaniu do „logotypu”. 

    Po co nam system certyfikacji cyberbezpieczeństwa?

    Do tej pory nie istniały w Polsce przepisy, które regulowałyby certyfikację z zakresu cyberbezpieczeństwa. Owszem, rynek oferuje możliwość uzyskania różnego rodzaju certyfikatów z zakresu cyber, ale są to certyfikaty prywatne, gdzie każdy właściciel „programu certyfikacyjnego” ustala własne zasady. Nie podważając sensu i wartości merytorycznej tego rodzaju certyfikatów, trzeba pamiętać, że brak jednolitych zasad/kryteriów certyfikacji może – przynajmniej w części przypadków – rodzić pytania, na ile można na takich certyfikatach polegać. Dlatego cieszy fakt, że niebawem pojawią się przepisy ustawowe w tym zakresie. 

    Co się zmieni w praktyce?

    Wejście w życie przepisów o certyfikacji z zakresu cyberbezpieczeństwa nie spowoduje, że nie będzie już można wydawać certyfikatów prywatnych. One nadal pozostaną i osoby/podmioty zainteresowane będą mogły kontynuować ich wydawanie czy też ubieganie się o nie. Obok certyfikatów prywatnych pojawi się jednak dodatkowo możliwość certyfikacji przez jednostki akredytowane w ramach prawnych ustanowionych przez państwo. Co istotne, nowe przepisy nie nakładają żadnych dodatkowych obowiązków na podmioty niezainteresowane uczestnictwem w systemie certyfikacji. 

    Jakie będą poziomy certyfikacji?

    Certyfikaty będą mogły być przyznawane w ramach europejskich programów certyfikacji (mamy obecnie EUCC czyli European Cybersecurity Scheme on Common Criteria, który może być stosowany do produktów ICT takich jak sprzęt czy oprogramowanie; w opracowaniu są natomiast kolejne programy adresowane dla 5G i usług chmurowych) oraz – uzupełniająco – krajowych schematów certyfikacji, które będą tworzone w drodze rozporządzeń ministra właściwego ds. informatyzacji. Na poziomie europejskim obowiązywać będzie trójstopniowa klasyfikacja (wg. poziomów zaufania: podstawowy, istotny/znaczący i wysoki), natomiast na poziomie krajowym klasyfikacja ma być jednostopniowa. 

    Europejskie programy certyfikacji będą dotyczyć przede wszystkim produktów, usług i procesów ICT, a wydawane w ich ramach certyfikaty będą automatycznie uznawane na terenie całej Unii Europejskiej. 

    Krajowe certyfikaty będą mogły być wydawane nie tylko odnośnie produktów, usług i procesów ICT, ale także odnośnie systemu zarządzania cyberbezpieczeństwem w danym podmiocie (jako całości) czy też osobistych kwalifikacji osób fizycznych. 

    Jak będzie wyglądać system certyfikacji?

    W projekcie ustawy przewidziano, że w systemie certyfikacji będą uczestniczyć:

    • minister właściwy ds. informatyzacji (odpowiedzialny m.in. za tworzenie krajowych schematów, nadzór i kontrolę),
    • Polskie Centrum Akredytacji (odpowiedzialne za udzielanie akredytacji jednostkom oceniającym zgodność),
    • jednostki oceniające czyli jednostki certyfikujące, w tym także firmy prywatne,
    • przedsiębiorcy i osoby fizyczne, które chcą poddać się certyfikacji.

    Kiedy przepisy o certyfikacji wejdą w życie?

    Projekt ustawy o krajowym systemie certyfikacji cyberbezpieczeństwa wyprzedził co prawda w wyścigu legislacyjnym planowaną nowelizację ustawy o krajowym systemie cyberbezpieczeństwa (implementującą dyrektywę NIS2), lecz na jego uchwalenie będziemy musieli jeszcze chwilę poczekać. Obecnie został skierowany do komisji sejmowych, a następnie przejść musi całą procedurę ustawodawczą w Sejmie i Senacie. Realnie, powinien pojawić się na przełomie Q2/Q3 2025. 


    Autor: r.pr. Piotr Grzelczak, Kancelaria Prawna GFP_Legal (Grzelczak Fogel i Partnerzy sp.p.)

  • Jak ochronić biznes przed nieuczciwą konkurencją online? Nowe przepisy chronią firmy

    Jak ochronić biznes przed nieuczciwą konkurencją online? Nowe przepisy chronią firmy

    Nieuczciwa konkurencja w Internecie to problem, który dotyka wielu przedsiębiorców. W zakresie prawa zaszły w tej kwestii istotne zmiany w ostatnim czasie. 1 kwietnia 2025 r. Rada Ministrów przyjęła projekt ustawy o zmianie niektórych ustaw w celu zapewnienia stosowania przepisów prawa Unii Europejskiej poprawiających funkcjonowanie rynku wewnętrznego, a następnie 8 kwietnia projekt skierowano do Sejmu. Ustawa wprowadza rozwiązania zapewniające sprawne dochodzenie roszczeń przez przedsiębiorców w przypadku stosowania nieuczciwych praktyk rynkowych przez dostawców usług pośrednictwa internetowego oraz dostawców wyszukiwarek internetowych. Ponadto dostosowuje polskie przepisy do rozporządzeń unijnych i umożliwia ich skuteczne stosowanie.

    Jak wyjaśnia Ministerstwo Rozwoju i Technologii, ustawa ma pomóc przede wszystkim przedsiębiorcom, którzy będą mogli liczyć na większą stabilność prawa i usprawnienie procedur. Chodzi m.in. o wdrożenie regulacji tzw. rozporządzenia P2B (rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/1150 z dnia 20 czerwca 2019 r. w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego) oraz aktu o rynkach cyfrowych (rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/1925 z dnia 14 września 2022 r. w sprawie kontestowalnych i uczciwych rynków w sektorze cyfrowym oraz zmiany dyrektyw (UE) 2019/1937 i (UE) 2020/1828).

    Nowe kompetencje prezesa UOKiK

    Na podstawie przywołanej wyżej ustawy prezes Urzędu Ochrony Konkurencji i Konsumentów uzyska nowe kompetencje w zakresie rynku cyfrowego. Będzie m.in. uprawniony do egzekwowania przepisów dotyczących rynków cyfrowych, w tym przeprowadzania dochodzeń w sprawie tzw. strażników dostępu.

    Warto wskazać, że za strażników dostępu uznaje się duże platformy cyfrowe takie jak wyszukiwarki internetowe, sklepy z aplikacjami i komunikatory. Takie platformy posiadają silną pozycję gospodarczą, istotny wpływ na rynek wewnętrzny oraz działają w wielu krajach UE; mają silną pozycję pośrednika, łącząc dużą liczbę użytkowników z dużą liczbą firm; a także posiadają ugruntowaną i trwałą pozycję na rynku (ich pozycja jest stabilna w długim okresie).

    Prezes UOKiK będzie mógł samodzielnie podejmować czynności dochodzeniowe w ramach postępowania wyjaśniającego. Ponadto, do jego zadań będzie należała współpraca z Komisją Europejską, w tym wymiana informacji na temat naruszeń przepisów w Polsce. Prezes UOKiK będzie także wspierał KE w dochodzeniach na rynku cyfrowym prowadzonych na terytorium RP.

    Dodatkowo prezes UOKiK będzie wspierał Komisję Europejską w zakresie badań rynku mających na celu: wskazanie kolejnych strażników dostępu, informowanie o systematycznym niewypełnianiu obowiązków przez strażników dostępu oraz wskazywanie nowych usług i nowych praktyk.

    Prostsza ścieżka dochodzenia roszczeń

    Ustawa wprowadza również sprawniejszą ścieżkę dochodzenia roszczeń przez przedsiębiorców, którzy będą mogli skuteczniej dochodzić swoich praw wobec dostawców usług pośrednictwa internetowego i wyszukiwarek internetowych, stosujących nieuczciwe praktyki. Model w założeniu ma być sprawniejszy niż tradycyjne postępowania.

    Nowe przepisy umożliwią organizacjom i stowarzyszeniom występowanie w imieniu przedsiębiorców w sprawach o nieuczciwą konkurencję. Celem zmian jest ochrona przedsiębiorców przed nieuczciwymi praktykami rynkowymi, takimi jak niejasne regulaminy czy faworyzowanie produktów pośredników.

    W ramach ustawy rozszerzono definicję czynu nieuczciwej konkurencji o zakres usług pośrednictwa internetowego i wyszukiwarek internetowych. Wskazano także organ właściwy, mogący udzielać przedsiębiorcy informacji w związku z naruszeniem przepisów rozporządzenia – będzie to minister właściwy ds. gospodarki. Organ ten będzie mógł udzielać przedsiębiorcy informacji m.in. o przysługujących mu prawach i informacji dotyczących postępowania w przypadku dokonania czynu nieuczciwej konkurencji przez dostawcę usług pośrednictwa internetowego lub dostawcę wyszukiwarki internetowej.

    Wszystko to powinno stanowić użyteczne narzędzie wsparcia przedsiębiorców w procesie przygotowania do ewentualnego dochodzenia swoich praw na drodze sądowej.


    Mikolaj Domagala GFP Legal 150x150 1

    Autor: Mikołaj Domagała – Radca prawny przy Okręgowej Izbie Radców Prawnych w Opolu z ponad siedmioletnim doświadczeniem zawodowym.Specjalizuje się w doradztwie z zakresu prawa handlowego, prawa bankowego, prawa kontraktów, prawa nowych technologii oraz ochrony danych osobowych. Pracuje w Kancelarii GFP_Legal

  • RODO a naruszenia danych: Nowy poradnik PUODO – kluczowe zmiany i interpretacje

    RODO a naruszenia danych: Nowy poradnik PUODO – kluczowe zmiany i interpretacje

    W dniu 20 lutego 2025 r. na stronie Prezesa Urzędu Ochrony Danych Osobowych („PUODO”) opublikowano zaktualizowany poradnik dotyczący naruszeń ochrony danych osobowych („Poradnik”). Ponieważ niektóre sformułowania poradnika wywołały duże kontrowersje, PUODO zorganizował również webinar w celu wyjaśnienia niejasności dot. RODO. Główne wątpliwości dotyczyły stanowiska PUODO na temat tego w jakich przypadkach należy zgłaszać naruszenia oraz roli inspektorów ochrony danych („IOD”) w procesie oceny naruszeń. 

    W dalszej części artykułu zostaną opisane wybrane kwestie dotyczące obsługi naruszeń poruszone w Poradniku i podczas webinaru.  

    Czy wszystkie przypadki naruszeń RODO należy zgłaszać do UODO?

    Nie. UODO podkreślił, że poradnik nie miał na celu zmiany dotychczasowej praktyki, a jedynie przedstawienie stanowiska UODO prostszym językiem. W razie wątpliwości interpretacyjnych, należy odnosić się do tekstu RODO, jak i do wytycznych EROD (Europejskiej Rady Ochrony Danych). 

    Aby ocenić, czy naruszenie należy zgłosić do UODO należy zastanowić się nad tym, czy istnieje prawdopodobieństwo wystąpienia ryzyka dla praw i wolności osób dotkniętych naruszeniem. Nie trzeba zgłaszać tych przypadków naruszeń, w których zostanie ustalone, że ryzyko naruszenia praw lub wolności jest mało prawdopodobne. W Poradniku UODO określił te przypadki skrótowo jako: „brak ryzyka”, jednak podczas webinarium wskazano, że było to jedynie pewne uproszczenie (nie chodzi więc o całkowity brak ryzyka, a małe prawdopodobieństwo jego wystąpienia). 

    Na tym etapie nie bada się więc wagi ryzyka, a prawdopodobieństwo jego wystąpienia.  Możemy więc mieć do czynienia z przypadkami, w których zajdzie konieczność zgłoszenia naruszenia skutkującego małym (acz bardzo prawdopodobnym) ryzykiem naruszenia, jak i z przypadkami odwrotnymi – kiedy zgłoszenia nie trzeba będzie realizować mimo dużego ryzyka, jeśli prawdopodobieństwo wystąpienia ryzyka jest małe. Chodzi o ustalenie, czy są realne szanse, aby osoby, których dane dotyczą odczuły negatywne konsekwencje zdarzenia.  

    Jako przykłady sytuacji, w których prawdopodobieństwo wystąpienia ryzyka jest małe (brak ryzyka) wskazano w Poradniku następujące:

    • ujawnienie danych, które są już publicznie dostępne;
    • ujawnienie lub utracenie danych zaszyfrowanych w sposób zapewniający ich nieczytelność dla osób nieupoważnionych;
    • definitywne zaradzenie incydentowi przez administratora (np. mimo, że dokumenty zawierające dane osobowe wyrzucono na śmietnik administrator dysponuje dowodem, że nikt do nich nie zaglądał (nagrania z monitoringu), a administrator odzyskał dokumenty). \

    Powyższe przypadki stanowią jedynie przykłady sytuacji, które należy uznać za sytuacje uzasadniające brak zgłoszenia – nie jest to katalog zamknięty. 

    UODO podkreślał jednak wielokrotnie, że zasadą jest zgłaszanie naruszeń, a więc jeśli administrator decyduje się nie zgłaszać danego naruszenia, powinien umieć wykazać, że w danym przypadku ryzyko nie jest prawdopodobne. 

    Kiedy zgłaszać naruszenia?

    RODO wprowadza regułę, zgodnie z którą naruszenie powinno zostać zgłoszone w ciągu 72 godzin od momentu stwierdzenia naruszenia. Chodzi o zgłaszanie takich incydentów bezpieczeństwa, które dotyczą danych osobowych i mogą prowadzić do nieuprawnionego naruszenia poufności, integralności lub dostępności danych. Ustalenie dokładnej chwili, od której należy liczyć rozpoczęcie biegu terminu 72 godzin budzi jednak wątpliwości. 

    W opinii Urzędu o tym, kiedy zgłosić naruszenie decyduje dostateczna pewność administratora, że mamy do czynienia z naruszeniem. Czyli przykładowo sytuacja, w której administrator (i) wie, że ma do czynienia z incydentem bezpieczeństwa, (iii) incydent dotyczy danych osobowych, (iii) administrator nie jest na sto procent pewny, że skutek się wydarzył, ale zdaje sobie sprawę z tego, że mogło do niego dojść (jest na to duża szansa). W takiej sytuacji, mimo braku stuprocentowej pewności według UODO rozpoczyna się bieg terminu na zgłoszenie naruszenia – istnieje bowiem realna szansa, że doszło do naruszenia. 

    Podczas webinaru analizowano również przypadek ataku na infrastrukturę administratora pod kątem momentu, w którym rozpoczyna biec termin na zgłoszenie naruszenia. Pytanie dotyczyło tego, czy jeśli po ataku administrator zleci analizę powłamaniową, momentem rozpoczęcia biegu terminu na zgłoszenie naruszenia może być moment otrzymania informacji zwrotnej od zewnętrznej firmy informatycznej zaangażowanej do analizy zdarzenia. Przedstawiciel UODO nie wykluczył, że może to być ten moment, jednak zastrzegł, że będzie to zależeć od okoliczności danej sprawy, w szczególności od tego czy administrator działał z należytą starannością, odpowiednio wcześnie podejmując działania zmierzające do wyjaśnienia okoliczności zdarzenia. Istotne jest też, aby administrator miał wdrożone takie środki techniczne i administracyjne, aby jak najwcześniej mógł stwierdzić wystąpienie naruszenia.     

    Jaka jest rola inspektora ochrony danych w procesie oceny naruszenia?

    UODO podkreślił, że inspektor ochrony danych odgrywa istotną rolę w procesie oceny naruszeń, dlatego powinien być włączany w proces obsługi naruszenia na jak najwcześniejszym etapie. Rola IOD jest jednak rolą głównie doradczą. Nie powinno się więc delegować na IOD obowiązków nałożonych przez RODO bezpośrednio na administratorów. W szczególności IOD nie powinien zgłaszać naruszeń ochrony danych osobowych w imieniu administratora, wysyłać takich zgłoszeń, zawiadamiać w imieniu administratora podmiotów danych, dokumentować naruszeń za administratora (w szczególności, jeśli wiązałoby się to z określaniem działań zaradczych), podejmować zobowiązań dotyczących bezpieczeństwa przetwarzania danych, czy też działać na podstawie pełnomocnictwa w sprawach związanych z ochroną danych osobowych. 

    W ocenie UODO, podejmowanie powyższych działań może się wiązać z ryzykiem (i) konfliktu interesów (np. w sytuacji, gdy IOD najpierw byłby zobowiązany do przygotowania dokumentacji, a później jej monitorowania); (ii) naruszenia niezależności IOD (działanie na podstawie pełnomocnictwa wymaga ścisłego wykonywania poleceń).

    Podczas webinaru wyjaśniono jednak, że IOD pełni ważną rolę w procesie obsługi naruszenia i nie jest całkowicie pozbawiony możliwości dokumentowania naruszenia – wręcz przeciwnie, może prowadzić taką dokumentację, jednak nie powinien jej prowadzić w imieniu administratora. Administrator powinien konsultować z IOD sposób postępowania z naruszeniami, radzić się inspektora, w szczególności w przypadku trudniejszych, mniej oczywistych przypadków naruszeń. 

    W związku z nowymi wytycznymi PUODO warto dokonać przeglądu wewnętrznych polityk i procedur dotyczących procesu obsługi naruszeń pod kątem zgodności ze stanowiskiem wyrażonym w Poradniku. 


    Autorka: r.pr. Ewa Kuczyńska, Kancelaria GFP_Legal

  • Anthropic wygrywa pierwszą bitwę w sporze o prawa autorskie do tekstów

    Anthropic wygrywa pierwszą bitwę w sporze o prawa autorskie do tekstów

    W najnowszym rozdziale sagi, która rozgrywa się na styku sztucznej inteligencji i prawa autorskiego, firma Anthropic odniosła taktyczne zwycięstwo. Sędzia federalny w Kalifornii odrzucił wniosek Universal Music Group (UMG) i innych wydawców muzycznych, którzy chcieli tymczasowo uniemożliwić Anthropic wykorzystywanie tekstów piosenek do trenowania swojego chatbota Claude.

    Sędzia Eumi Lee uznała, że żądania wydawców były zbyt szerokie i nie przekonali jej, że Anthropic wyrządza im „nieodwracalną szkodę”. Mimo tej wygranej, to nie koniec walki. Wydawcy muzyczni, w tym giganci jak UMG, Concord i ABKCO, pozostają optymistyczni co do swoich szans w dalszej części procesu. Z kolei Anthropic wyraziło ulgę, że sąd odrzucił to, co nazwali „destrukcyjnym i niejasnym wnioskiem” wydawców.

    O co ten cały szum?

    Sednem sporu jest to, jak firmy AI, takie jak Anthropic, wykorzystują materiały chronione prawami autorskimi do „uczenia” swoich systemów. Wydawcy muzyczni twierdzą, że Anthropic bezprawnie używa tekstów z setek piosenek (od Beyoncé po Rolling Stonesów) do trenowania Claude’a, aby ten odpowiadał na zapytania użytkowników.\

    Ten przypadek to tylko jeden z wielu, które pokazują rosnące napięcie między twórcami (autorami, artystami, dziennikarzami) a firmami technologicznymi. Ci pierwsi coraz głośniej protestują przeciwko wykorzystywaniu ich dzieł bez zgody i wynagrodzenia.

    „Dozwolony użytek” w roli głównej

    Kluczowym argumentem firm technologicznych jest „dozwolony użytek” – zasada prawna, która pozwala na pewne wykorzystanie materiałów chronionych prawami autorskimi bez zgody właściciela. Chodzi o takie sytuacje jak cytowanie w recenzji, parodia czy użycie w celach edukacyjnych.

    To właśnie interpretacja „dozwolonego użytku” będzie prawdopodobnie decydująca w tym i podobnych procesach. Choć sędzia Lee nie zagłębiła się w tę kwestię w swojej decyzji, jej ostateczne rozstrzygnięcie będzie miało ogromny wpływ na przyszłość AI.