Tag: AI Act

  • NIS2 i AI Act w Polsce: Kosztowny obowiązek czy bilet wstępu na rynki zachodnie?

    NIS2 i AI Act w Polsce: Kosztowny obowiązek czy bilet wstępu na rynki zachodnie?

    Jeszcze dwa lata temu zgodność regulacyjna (compliance) była traktowana w salach konferencyjnych jako zło konieczne – kosztowna pozycja w Excelu, którą należało zminimalizować. Dziś, w styczniu 2026 roku, budzimy się w nowej rzeczywistości. Okresy ochronne minęły. „Papierowe tygrysy” nabrały realnych kształtów, a rynek brutalnie weryfikuje, kto odrobił pracę domową, a kto liczył na wieczne odroczenie.

    Dla polskich firm i ich europejskich partnerów compliance przestało być kwestią uniknięcia kary administracyjnej. Stało się najtwardszą walutą w relacjach B2B i warunkiem sine qua non utrzymania się w łańcuchach dostaw.

    Europa dwóch prędkości, jeden bezlitosny rynek

    Mamy styczeń 2026. Europa Zachodnia jest już ponad rok po terminie pełnej transpozycji dyrektywy NIS2 (październik 2024). W Niemczech, Francji czy Skandynawii mechanizmy nadzoru działają pełną parą, a pierwsze dotkliwe kary finansowe oraz personalne konsekwencje dla członków zarządów stały się faktem medialnym.

    Polska znajduje się w specyficznym momencie. Jesteśmy świeżo po burzliwym, opóźnionym wejściu w życie nowelizacji Ustawy o Krajowym Systemie Cyberbezpieczeństwa (UKSC), która implementowała unijne wymogi w połowie 2025 roku. Polskie firmy wciąż są w fazie „szoku powdrożeniowego”. Podczas gdy niemiecki kontrahent traktuje procedury cyberbezpieczeństwa jako standard, polski dostawca często dopiero kończy gorączkowe łatanie luk, by nie stracić kontraktu.

    Ta asymetria czasowa rodzi konkretne skutki biznesowe. Dla polskiego biznesu rok 2026 to wyścig z czasem, by udowodnić Europie, że „Made in Poland” oznacza również „Secure by European Standards”.

    Efekt domina NIS2: Wielka czystka w łańcuchach dostaw

    Najważniejszym zjawiskiem gospodarczym początku 2026 roku nie są same regulacje, ale ich wtórny efekt, który nazywamy „Higieną Łańcucha Dostaw” (Supply Chain Hygiene).

    Nowelizacja UKSC objęła nadzorem tysiące nowych podmiotów w Polsce – od szpitali, przez firmy wodociągowe, aż po producentów żywności i dostawców usług cyfrowych. Jednak prawdziwy nacisk nie płynie z Warszawy, ale od klientów korporacyjnych.

    Obserwujemy masowe zjawisko „Vendor Shedding” (zrzucania dostawców). Duże koncerny przemysłowe i spółki Skarbu Państwa, same będąc podmiotami kluczowymi, są zmuszone do audytowania swoich podwykonawców. W zapytaniach ofertowych (RFP) na rok 2026 sekcja dotycząca cyberbezpieczeństwa stała się kryterium nokautującym (knock-out criteria).

    Dla polskiego biznesu sytuacja jest zero-jedynkowa. Software house z Wrocławia czy firma logistyczna spod Poznania, która chce współpracować z niemieckim sektorem automotive, musi przedstawić „paszport zgodności NIS2” (często w formie certyfikatu ISO 27001 lub audytu zgodności z KSC). Brak dokumentu oznacza automatyczne odrzucenie oferty, bez względu na atrakcyjność cenową. Compliance stało się nową barierą wejścia na rynki eksportowe.

    AI Act: Wyścig do sierpnia 2026

    Równie dynamiczna sytuacja panuje w obszarze sztucznej inteligencji. Jesteśmy w połowie drogi wdrażania AI Act. Mamy już za sobą (luty 2025) wejście w życie zakazów stosowania praktyk niedozwolonych oraz (sierpień 2025) regulacji dla modeli ogólnego przeznaczenia (GPAI).

    Przed nami jednak najważniejszy kamień milowy: sierpień 2026, kiedy to pełne zastosowanie znajdą przepisy dotyczące Systemów Wysokiego Ryzyka (High-Risk AI Systems). Choć do terminu pozostało kilka miesięcy, rynek nie czeka.

    W styczniowych budżetach IT na 2026 rok firmy masowo wymagają od dostawców oprogramowania statusu „AI Act Ready”. Klienci B2B boją się odpowiedzialności prawnej za „czarne skrzynki”. Wolą zapłacić więcej za system, który gwarantuje transparentność, nadzór człowieka i audytowalność danych, niż ryzykować wdrożenie taniego algorytmu, który za pół roku stanie się nielegalny.

    Tutaj rysuje się ogromna szansa dla polskiego sektora IT. Polskie firmy technologiczne zaczynają wykorzystywać zgodność z AI Act jako swoją Unikalną Propozycję Sprzedaży (USP). W starciu z tańszą konkurencją z rynków azjatyckich czy nawet amerykańskich (gdzie regulacje są luźniejsze), polski kod jest promowany jako „Bezpieczna Przystań” (Safe Harbor). Europejski stempel zgodności staje się gwarancją jakości i bezpieczeństwa prawnego, co przyciąga inwestorów szukających stabilności.

    DORA: Lekcje rok po „godzinie zero”

    Sektor finansowy jest już o krok dalej. Rozporządzenie DORA (Digital Operational Resilience Act) jest w pełni skuteczne od 17 stycznia 2025 roku. Rok funkcjonowania w nowym reżimie przyniósł twarde wnioski.

    Polski sektor bankowy, uchodzący za jeden z najnowocześniejszych w Europie, stał się bezwzględnym weryfikatorem dla branży Fintech. DORA wymusiła na bankach rygorystyczne zarządzanie ryzykiem dostawców zewnętrznych (ICT Third Party Risk).

    Efekt? Fintechy i dostawcy bramek płatniczych, którzy zlekceważyli wymogi odporności cyfrowej, w ciągu ostatnich 12 miesięcy stracili dostęp do API bankowych lub zostali wypowiedzeni z umów. DORA zadziałała jak narzędzie selekcji naturalnej – na rynku zostali tylko ci, którzy potrafią wykazać nie tylko innowacyjność, ale i operacyjną niezniszczalność.

    Compliance jako twarda korzyść finansowa

    W 2026 roku dyskusja o zgodności regulacyjnej przeniosła się z działu prawnego do działu finansowego. Dane z rynku pokazują konkretne liczby:

    Ubezpieczenia (Cyber Insurance): W obliczu fali ataków ransomware, koszty polis w 2026 roku są astronomiczne. Jednak brokerzy oferują zniżki rzędu 30-40% dla firm, które wykażą pełną zgodność z KSC/NIS2. Dla dużego przedsiębiorstwa to oszczędności idące w setki tysięcy złotych rocznie – bezpośredni zwrot z inwestycji w compliance.

    Zamówienia Publiczne: Nowe Prawo Zamówień Publicznych w Polsce coraz mocniej premiuje bezpieczeństwo. Cena przestała być jedynym wyznacznikiem. Waga kryteriów pozacenowych (w tym certyfikowanego bezpieczeństwa informacji) w przetargach na rok 2026 wzrosła znacząco. Firmy „zgodne” wygrywają przetargi, nawet oferując wyższe ceny.

    Fuzje i Przejęcia (M&A): Fundusze Venture Capital i Private Equity zmieniły swoje listy kontrolne. Due diligence w 2026 roku zaczyna się od pytania o zgodność z AI Act i NIS2. Startup z „długiem prawnym” jest niesprzedawalny lub jego wycena jest drastycznie obniżana.

    Zmień myślenie albo zgiń

    Dla Zarządów i Dyrektorów (CxO) wniosek na rok 2026 jest jasny: dział Compliance nie jest już „działem hamulcowym”, który mówi „nie”. Jest to kluczowy partner działu sprzedaży.

    W krajobrazie biznesowym zdominowanym przez niepewność geopolityczną i technologiczną, zaufanie stało się towarem deficytowym. Certyfikat zgodności z NIS2 czy gotowość na AI Act to w 2026 roku dowód na to, że firma jest przewidywalnym, bezpiecznym i dojrzałym partnerem.

    Firmy, które traktują regulacje jedynie jako przykry obowiązek biurokratyczny, już przegrywają walkę o rynki zachodnie. Te, które uczyniły z transparentności i bezpieczeństwa swój sztandar, zyskują przewagę konkurencyjną, której nie da się skopiować z dnia na dzień. W 2026 roku compliance to nie tarcza – to miecz, którym wycina się nieprzygotowaną konkurencję.

  • Bruksela łagodzi AI Act. Big Tech może czasowo odetchnąć

    Bruksela łagodzi AI Act. Big Tech może czasowo odetchnąć

    Wygląda na to, że intensywny lobbing wielkich firm technologicznych i krytyka ze strony administracji USA przynoszą rezultaty. Komisja Europejska rozważa złagodzenie części zapisów swojej przełomowej Ustawy o Sztucznej Inteligencji (AI Act), co może dać cenne odroczenie takim graczom jak Apple czy Meta.

    Ruch ten jest częścią szerszego dążenia nowej Komisji do „uproszczenia” skomplikowanych regulacji cyfrowych, które UE przyjęła w ciągu ostatnich dwóch lat. Kluczowy ma być tak zwany „Digital Omnibus”, czyli pakiet upraszczający, który 19 listopada ma zaprezentować nowa unijna wiceprzewodnicząca wykonawcza ds. cyfryzacji, Henna Virkkunen.

    Według projektu dokumentu, do którego dotarł Reuters, Komisja proponuje „ukierunkowane środki upraszczające” mające na celu zapewnienie proporcjonalnego wdrożenia przepisów.

    Co to oznacza w praktyce? Przede wszystkim, firmy mogą zostać zwolnione z obowiązku rejestrowania swoich systemów AI w unijnej bazie danych dla systemów wysokiego ryzyka, jeśli narzędzia te są wykorzystywane wyłącznie do „wąskich lub proceduralnych zadań”. To znacząca redukcja obciążeń biurokratycznych, o którą apelowała branża.

    Co więcej, branża może zyskać dodatkowy czas na dostosowanie się. Dokument wprowadza roczny okres karencji na nakładanie kar finansowych, które miałyby być egzekwowane dopiero od 2 sierpnia 2027 roku. Przejściowy okres karencji miałby również objąć kluczowy wymóg oznaczania treści generowanych przez AI – mechanizm mający na celu walkę z deepfake’ami i dezinformacją.

    Ta zmiana kursu nie jest odosobniona. Bruksela niedawno złagodziła także ambitne zasady środowiskowe po silnym oporze ze strony przemysłu i rolników. Dla firm technologicznych, które krytykowały AI Act za potencjalne hamowanie innowacji, to wyraźny sygnał, że ich głos (oraz nacisk Waszyngtonu) został przynajmniej częściowo wysłuchany. Dokument może jeszcze ulec zmianie przed oficjalną prezentacją.

  • Unijny AI Act wchodzi w nową fazę. Na Polskę i Europę czekają kolejne obowiązki

    Unijny AI Act wchodzi w nową fazę. Na Polskę i Europę czekają kolejne obowiązki

    W sierpniu 2025 roku weszły w życie kolejne przepisy unijnego Aktu o sztucznej inteligencji (AI Act), wprowadzając nowe, istotne wymogi dla dostawców technologii i administracji państw członkowskich. Regulacje koncentrują się na modelach AI ogólnego przeznaczenia (GPAI) i tworzeniu struktur nadzoru. Polska, podobnie jak inne kraje UE, pracuje nad dostosowaniem krajowego prawa, choć prace nad kluczową ustawą wciąż trwają.

    Nowy etap wdrażania AI Act, przełomowej regulacji dla sektora technologicznego, skupia się na zapewnieniu transparentności i bezpieczeństwa najbardziej zaawansowanych systemów AI. Dostawcy modeli ogólnego przeznaczenia, takich jak te stanowiące podstawę dla popularnych chatbotów czy generatorów obrazów, zostali zobowiązani do szczegółowej oceny ich wpływu na prawa podstawowe. Muszą także publikować zwięzłe podsumowania danych wykorzystanych do trenowania algorytmów i zapewnić nadzór nad ich dalszym zastosowaniem.

    To odpowiedź regulatora na rosnące obawy dotyczące potencjalnych ryzyk związanych z nietransparentnym działaniem potężnych modeli językowych i generatywnych. Komisja Europejska opublikowała również specjalny kodeks postępowania, który ma w praktyce pomóc firmom wdrożyć te skomplikowane wymogi.

    Kolejnym filarem sierpniowych zmian jest ustanowienie formalnych ram zarządzania i nadzoru nad rynkiem AI. Przepisy powołują do życia unijne struktury administracyjne, które we współpracy z organami krajowymi będą monitorować przestrzeganie prawa. Wprowadzono także system kar finansowych za naruszenia, co ma zapewnić realną egzekucję regulacji.

    Tymczasem w Polsce trwają prace rządowe nad projektem ustawy o systemach sztucznej inteligencji (U71), która ma implementować unijne prawo. Projekt, pozytywnie zaopiniowany przez Komitet do Spraw Europejskich, zakłada powołanie nowego organu nadzorczego – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Kluczową rolę w koordynacji wdrożenia odgrywa Ministerstwo Cyfryzacji.

    Istotnym elementem polskiej strategii ma być wspieranie innowacji poprzez tworzenie tzw. piaskownic regulacyjnych. Te kontrolowane środowiska testowe pozwolą firmom i startupom na eksperymentowanie z nowymi technologiami AI bez ryzyka naruszenia skomplikowanych przepisów, co ma stanowić kompromis między bezpieczeństwem a rozwojem. Brak finalizacji krajowych przepisów pozostaje jednak wyzwaniem dla polskiego sektora IT, który czeka na jasne wytyczne implementacyjne.

  • Startupy a AI Act: Komisja Europejska planuje złagodzenie regulacji

    Startupy a AI Act: Komisja Europejska planuje złagodzenie regulacji

    Startupy technologiczne w całej Europie mogą wkrótce odetchnąć z ulgą. Komisja Europejska rozważa złagodzenie niektórych zapisów AI Act – przełomowego unijnego prawa regulującego rozwój i stosowanie sztucznej inteligencji. W ramach zapowiadanego „AI Continent Action Plan” Bruksela szuka informacji zwrotnych, by zmniejszyć presję regulacyjną na młodych innowatorów.

    Ten ruch nie jest zaskoczeniem. Od miesięcy narastały głosy sprzeciwu – zarówno ze strony startupów, jak i organizacji wspierających przedsiębiorczość – że rozbudowana biurokracja i kosztowna zgodność z przepisami mogą zdusić europejską innowację w zarodku. Komisja, zdaniem dokumentu ujawnionego przez Reutersa, planuje zidentyfikować środki, które ułatwią „płynne i proste stosowanie” AI Act, zwłaszcza w odniesieniu do małych graczy.

    Europejska ambicja kontra rzeczywistość rynku

    AI Act to bezprecedensowy w skali świata dokument – znacznie bardziej kompleksowy niż podejście amerykańskie (oparte głównie na samoregulacji) czy chińskie (nacelowane na stabilność społeczną i kontrolę państwa). Choć cel był szczytny – stworzenie ram zaufania i ochrony obywateli – w praktyce ustawa wprowadza szereg obowiązków dotyczących przejrzystości, dokumentacji i audytów dla systemów wysokiego ryzyka.

    Dla korporacji z rozbudowanymi działami prawnymi i compliance to przeszkoda do pokonania. Dla startupu – bariera nie do przeskoczenia.

    W tym kontekście AI Continent Action Plan jawi się jako próba ratowania konkurencyjności europejskiego rynku AI. Jak zauważa Henna Virkkunen, europosłanka zaangażowana w proces legislacyjny, Komisja chce zareagować jeszcze przed pełnym wejściem w życie AI Act.

    Presja z Doliny Krzemowej

    Nie da się ukryć, że Europa, pomimo ambitnych deklaracji, została zepchnięta na boczny tor w globalnym wyścigu AI. Amerykańskie firmy – OpenAI, Anthropic, Meta czy Google DeepMind – zdominowały przestrzeń dużych modeli językowych. Nawet francuski Mistral, uznawany za europejską perełkę w dziedzinie open-source AI, zarejestrował się… w Delaware.

    To nie przypadek. To sygnał.

    Europejski rynek potrzebuje nie tylko regulacji, ale też elastyczności. Startupy walczą nie tylko z konkurencją zza oceanu, ale i z lokalną papierologią. Bez realnej korekty AI Act może okazać się, że Bruksela zbudowała idealny system… którego nikt nie będzie chciał używać.

    Co może się zmienić?

    Choć szczegóły planu nie są jeszcze znane, eksperci spodziewają się m.in.:

    • uproszczonych procedur compliance dla firm poniżej określonego progu zatrudnienia lub finansowania,
    • „piaskownic regulacyjnych”, w których innowacje mogłyby być testowane przy minimalnych wymogach formalnych,
    • wsparcia technicznego i prawnego finansowanego z funduszy UE dla podmiotów rozwijających systemy AI wysokiego ryzyka.

    To kierunek zbieżny z postulatami środowisk startupowych, które od miesięcy apelowały o „smart regulation” – prawo nie tyle mniej surowe, co lepiej dopasowane do realiów innowacyjnej gospodarki.

  • UE łagodzi ton w regulacjach AI Act– nowa wersja kodeksu już dostępna

    UE łagodzi ton w regulacjach AI Act– nowa wersja kodeksu już dostępna

    Unia Europejska przedstawiła trzecią wersję Kodeksu Postępowania dla systemów sztucznej inteligencji ogólnego przeznaczenia (GPAI), takich jak ChatGPT. Dokument, będący wynikiem prac niezależnych ekspertów, precyzuje kluczowe zasady i obowiązki dla dostawców tych systemów, w zgodzie z nadchodzącym Aktem o Sztucznej Inteligencji (AI Act).

    Kluczowe elementy kodeksu

    Kodeks opiera się na trzech filarach:

    • Przejrzystość: Zobowiązuje dostawców do otwartego informowania o sposobie działania modeli AI oraz wykorzystywanych danych.
    • Prawa autorskie: Koncentruje się na ochronie własności intelektualnej, z naciskiem na właściwe zarządzanie danymi treningowymi.
    • Analiza ryzyka: Adresowana do dostawców najbardziej zaawansowanych modeli GPAI, które mogą generować ryzyko systemowe, wymagając oceny modeli, raportowania incydentów i zabezpieczeń cybernetycznych.

    Warto zauważyć, że kodeks wprowadza pewne wyjątki, zwłaszcza dla modeli open source, co ma na celu wsparcie innowacji i współpracy w społeczności deweloperskiej.

    Zmiana tonu i pragmatyczne podejście

    W porównaniu z wcześniejszymi wersjami, najnowszy projekt Kodeksu prezentuje bardziej wyważony ton. Zamiast restrykcyjnych nakazów, promuje pragmatyczne i oparte na rozwiązaniach podejście, kładąc nacisk na współpracę i przyszłościowe zabezpieczenia. Elastyczność dokumentu widać w sekcji dotyczącej praw autorskich, gdzie zastąpiono sztywne terminy bardziej adaptacyjnymi, takimi jak „do najlepszych możliwości” czy „proporcjonalny”. Ponadto sugeruje się, aby firmy bagatelizowały oskarżenia, które są „wyjątkowe”, „bezpodstawne” lub „powtarzalne”.

    Geopolityczne konteksty i zewnętrzne presje

    Zmiana tonu Kodeksu może wskazywać na ewolucję podejścia UE do regulacji technologicznych. Wydaje się, że nowa legislacja jest bardziej otwarta na dialog z globalnymi gigantami technologicznymi, co może być reakcją na presję ze strony Stanów Zjednoczonych oraz europejskiego sektora technologicznego. Podczas ostatniego Mobile World Congress (MWC) wyrażano obawy, że Europa pozostaje w tyle w wyścigu AI, co podkreślali m.in. Arthur Mensch, dyrektor generalny Mistral, i Claudia Nemat z Deutsche Telekom.

    Proces konsultacji i dalsze kroki

    Obecna wersja Kodeksu podlega konsultacjom, w ramach których zainteresowane strony mogą wnosić uwagi do 30 marca. Po ich analizie, ostateczna wersja dokumentu ma zostać opublikowana w maju. Kodeks ma służyć jako narzędzie ułatwiające dostawcom modeli GPAI wykazanie zgodności z AI Act, uwzględniając najnowsze standardy branżowe.

    Trzecia wersja Kodeksu Postępowania dla systemów sztucznej inteligencji ogólnego przeznaczenia stanowi krok ku bardziej elastycznej i opartej na współpracy regulacji AI w Unii Europejskiej. Poprzez uwzględnienie opinii różnych interesariuszy i dostosowanie języka dokumentu, UE dąży do stworzenia ram prawnych wspierających zarówno innowacje, jak i ochronę praw użytkowników.

  • Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja jeszcze kilka lat temu była futurystyczną wizją, a dziś stanowi kluczowy element cyfrowej transformacji. Jej rozwój i wdrożenia są w dużej mierze kształtowane przez największe firmy technologiczne – Google, Microsoft, Amazon, Meta czy Apple. To właśnie te korporacje posiadają zarówno kapitał, jak i infrastrukturę, aby trenować i rozwijać zaawansowane modele AI.

    W ostatnich latach wyścig o dominację w dziedzinie AI nabrał tempa. Microsoft strategicznie inwestuje w OpenAI, a ostatnio inwestuje także we własny model, Google rozwija własne modele w ramach DeepMindGemini, a Amazon wzmacnia swoje usługi chmurowe o nowe narzędzia oparte na sztucznej inteligencji, w ostatnim czasie również dołączając do bezpośredniego wyścigu AI dzięki ogłoszeniu Amazon Nova. Z jednej strony oznacza to dynamiczny postęp technologiczny, z drugiej – rodzi pytania o monopolizację tej kluczowej technologii. Czy mniejsze firmy i startupy mają jeszcze szansę na konkurowanie w tej dziedzinie? Jakie są konsekwencje takiego układu sił dla innowacji i dostępności AI?

    Status quo: kto rządzi rynkiem AI?

    Obecny krajobraz sztucznej inteligencji jest zdominowany przez kilka gigantycznych firm technologicznych, które nie tylko posiadają największe zasoby obliczeniowe, ale także inwestują miliardy dolarów w rozwój AI. Google, Microsoft, Amazon, Meta, Apple oraz Nvidia to główni gracze, którzy kontrolują zarówno rozwój modeli AI, jak i infrastrukturę potrzebną do ich działania.

    Najwięksi gracze i ich strategie

    • Microsoft & OpenAI – Microsoft zainwestował już ponad 13 miliardów dolarów w OpenAI i mocno integruje modele AI, takie jak GPT-4, z własnymi produktami (np. Copilot w systemie Windows i pakiecie Office). Ostatnie nieoficjalne doniesienia sugerują, że gigant z Redmond nie poprzestaje na zewnętrzych modelach AI i inwestuje we własne.
    • Google & DeepMind – Google od lat rozwija własne modele AI, a jego jednostka badawcza DeepMind stoi za takimi osiągnięciami jak AlphaFold czy nowa seria modeli Gemini. Firma zintegrowała AI w swoich usługach, od wyszukiwarki po chmurę.
    • Amazon – Jako lider w sektorze chmurowym, Amazon rozwija AI w ramach AWS, oferując własne modele AI, takie jak Bedrock oraz narzędzia do budowy chatbotów i systemów predykcyjnych. Poza tym, w połowie lutego Amazon ogłosił własne modele AI – Amazon Nova.
    • Meta (Facebook) – Meta skupia się na AI generatywnej oraz otwartoźródłowych modelach, jak Llama 2, które mają być alternatywą dla zamkniętych systemów.
    • Apple – Choć Apple wydaje się mniej aktywne w publicznych dyskusjach o AI, to pracuje nad integracją tej technologii w ekosystemie iPhone’ów i Maców, inwestując w rozwój AI-on-device.
    • Nvidia – Nie rozwija własnych modeli, ale ma największy udział w rynku sprzętu dla AI. Jej karty graficzne (GPU) są podstawą dla treningu i działania najnowocześniejszych modeli AI.

    Dominacja Big Tech w AI wynika nie tylko z doświadczenia i zespołów badawczych, ale przede wszystkim z dostępu do gigantycznych zasobów obliczeniowych. Trening zaawansowanego modelu językowego, takiego jak GPT-4 czy Gemini, wymaga tysięcy układów GPU, co sprawia, że tylko najwięksi gracze mogą sobie na to pozwolić.

    Ponadto, wiele startupów AI jest uzależnionych od infrastruktury dostarczanej przez te firmy – od chmury (AWS, Google Cloud, Azure), przez API do modeli AI, aż po narzędzia programistyczne. 

    AI jako nowy monopol – czy grozi nam dominacja kilku firm?

    Coraz częściej pojawiają się obawy, że zamiast szeroko dostępnej technologii, AI staje się domeną kilku gigantycznych firm. Microsoft, Google, Amazon, Meta i Nvidia inwestują miliardy dolarów w rozwój AI i kontrolują kluczowe zasoby: modele, dane i infrastrukturę obliczeniową. Czy grozi nam sytuacja, w której dostęp do najbardziej zaawansowanych systemów AI będzie ściśle kontrolowany przez nielicznych?

    Jednym z największych wyzwań jest to, że startupy i mniejsze firmy są w dużej mierze zależne od infrastruktury dostarczanej przez gigantów. Budowa własnego modelu AI od podstaw wymaga nie tylko ogromnej mocy obliczeniowej, ale także dostępu do wysokiej jakości danych, co często jest poza zasięgiem mniejszych graczy. W rezultacie wiele firm korzysta z gotowych modeli dostarczanych przez OpenAI (GPT-4), Google (Gemini) czy Meta (Llama), co jeszcze bardziej umacnia pozycję tych gigantów.

    Jeśli rozwój sztucznej inteligencji zostanie scentralizowany w rękach kilku firm, mogą pojawić się poważne konsekwencje:

    • Ograniczona konkurencja – mniejsze firmy będą miały utrudniony dostęp do zaawansowanych technologii.
    • Wysokie koszty dostępu – AI może stać się usługą premium, dostępną tylko dla tych, którzy zapłacą.
    • Brak przejrzystości – zamknięte modele AI nie ujawniają, jak są trenowane, co budzi pytania o ich obiektywność i etykę.
    • Potencjalna cenzura i kontrola narracji – AI wykorzystywana w wyszukiwarkach, mediach społecznościowych i generowaniu treści może wpływać na sposób, w jaki konsumujemy informacje.

    Przykładem globalnych napięć jest DeepSeek, chiński projekt AI, który rozwija modele językowe jako alternatywę dla amerykańskich gigantów. DeepSeek AI to open-source’owy model LLM (Large Language Model), który ma uniezależnić Chiny od OpenAI i Google. Rząd w Pekinie od lat inwestuje w sztuczną inteligencję, widząc ją jako kluczowy element przyszłej konkurencyjności. To oznacza, że walka o dominację nad AI nie ogranicza się tylko do korporacji – staje się częścią globalnej rywalizacji gospodarczej.

    Rośnie ruch na rzecz otwartej i zdecentralizowanej sztucznej inteligencji. Inicjatywy takie jak Hugging Face, Stability AI czy Mistral AI rozwijają open-source’owe modele, które mogą być używane bez ograniczeń narzuconych przez Big Tech. Choć modele open-source mają wiele zalet (dostępność, przejrzystość), ich rozwój wciąż wymaga ogromnych zasobów. Kluczowym pytaniem pozostaje, czy rządy i firmy będą wspierać otwarte AI, czy pozwolą na dalszą koncentrację technologii w rękach kilku korporacji.

    Przyszłość AI jeszcze nie jest przesądzona. To, czy stanie się otwartym narzędziem dla wszystkich, czy zamkniętym systemem kontrolowanym przez kilka firm, zależy od decyzji podejmowanych dziś.

    Open-source kontra zamknięte modele – gdzie leży przyszłość?

    Podział na otwarte i zamknięte modele AI nie jest tylko kwestią techniczną – to fundamentalna różnica w podejściu do przyszłości sztucznej inteligencji. Z jednej strony mamy firmy, które traktują AI jako zasób strategiczny, kontrolowany i monetyzowany, z drugiej rosnący ruch open-source, stawiający na dostępność i transparentność. Ta rywalizacja będzie miała kluczowy wpływ na to, kto w przyszłości będzie mógł korzystać z zaawansowanej sztucznej inteligencji i na jakich warunkach.

    Open-source AI zdobywa coraz większą popularność, bo oferuje coś, czego brakuje zamkniętym modelom – elastyczność i niezależność. Deweloperzy mogą dostosowywać modele do własnych potrzeb, bez ograniczeń wynikających z regulaminów OpenAI, Google czy Anthropic. To szczególnie ważne dla sektora naukowego, startupów oraz firm poszukujących tańszych alternatyw.

    Jednak wzrost popularności otwartego AI może zagrozić modelowi biznesowemu Big Tech. Jeśli organizacje będą mogły samodzielnie uruchamiać własne modele, bez potrzeby płacenia za API OpenAI czy Google Cloud, oznacza to mniejsze zyski dla tych firm. W odpowiedzi korporacje próbują balansować między otwartością a kontrolą – Meta udostępniła Llama 2, ale wciąż wymaga zgody na komercyjne użycie, a Google eksperymentuje z częściowo otwartymi modelami.

    Geopolityczny wymiar otwartego AI

    Sztuczna inteligencja staje się też elementem globalnej rywalizacji. Chiny rozwijają alternatywne modele open-source, jak DeepSeek AI, które mają uniezależnić kraj od amerykańskich technologii. DeepSeek jest częścią szerszej strategii Pekinu, zakładającej rozwój suwerennego ekosystemu AI – odpornego na sankcje i kontrolę Zachodu.

    To pokazuje, że otwartość AI to nie tylko kwestia wolności technologicznej, ale też geopolityki i bezpieczeństwa narodowego. Europa również szuka niezależności, wspierając inicjatywy takie jak Mistral AI, ale wciąż jest w tyle za USA i Chinami pod względem inwestycji.

    Nie ma jednoznacznej odpowiedzi, która ścieżka zwycięży. AI rozwija się dynamicznie, na wielu płaszczyznach, pod wpływem różnych czynników, przez co przewidzenie dalszego rozwoju nie jest łatwe. Pewnym jest natomiast, że ktokolwiek może, stara się być jak najbliżej AI, inwestować w nią, rozwijać, ingerować w rozwój, ponieważ w tym momencie jest ona czarnym koniem rozwoju technologicznego. W zależności od ruchów, jakie podejmą firmy tworzące AI, a także od roszad geopolitycznych oraz poziomu regulacji, jakie będą nakładane na AI, możliwe wydają się być trzy scenariusze: wzmocnienie Big Tech – jeśli zamknięte modele okażą się bardziej zaawansowane i kosztowne w utrzymaniu niż ich otwarte odpowiedniki; ekspansja open-source – jeśli rządy i instytucje akademickie zaczną wspierać otwarte AI jako przeciwwagę dla monopolu korporacji lub model hybrydowy – gdzie otwarte modele będą szeroko stosowane, ale najpotężniejsze systemy pozostaną zamknięte.

    Regulacje i polityka – czy rządy mogą ograniczyć wpływ Big Tech na AI?

    Rządy starają się regulować rozwój sztucznej inteligencji, aby ograniczyć monopol Big Tech i zwiększyć kontrolę nad jej wpływem na społeczeństwo. Unia Europejska przyjęła AI Act, który klasyfikuje modele AI według ryzyka i nakłada na firmy obowiązki dotyczące przejrzystości. USA podchodzą ostrożniej, prowadząc rozmowy z technologicznymi gigantami i koncentrując się na rywalizacji z Chinami. Chiny natomiast już teraz wymagają certyfikacji modeli AI i rozwijają własne alternatywy, takie jak DeepSeek AI, by uniezależnić się od amerykańskich firm.

    Choć regulacje mogą zwiększyć nadzór nad AI, mogą też nieoczekiwanie umocnić dominację Big Tech, bo to właśnie największe firmy mają środki na dostosowanie się do nowych wymogów. Aby rzeczywiście zwiększyć konkurencję, konieczne jest wspieranie alternatywnych rozwiązań, takich jak modele open-source i inicjatywy krajowe. Polska, choć nie jest globalnym liderem AI, również rozwija własne technologie, czego przykładem jest PLLuM (Polish Large Language Model), czyli pierwszy duży model językowy stworzony z myślą o języku polskim.

    Przyszłość regulacji AI będzie balansowaniem między kontrolą a innowacją. Zbyt restrykcyjne przepisy mogą spowolnić rozwój technologii, podczas gdy ich brak grozi dominacją kilku korporacji kształtujących AI na własnych zasadach. Wspieranie narodowych inicjatyw, takich jak PLLuM, oraz open-source’owych modeli może stać się kluczowym narzędziem w budowaniu bardziej zdecentralizowanego ekosystemu sztucznej inteligencji.

    Z jednej strony widzimy dynamiczny postęp i integrację AI w codziennym życiu, z drugiej – rosnące obawy o monopolizację i ograniczoną dostępność najpotężniejszych systemów dla mniejszych firm czy niezależnych badaczy.

    Alternatywą dla dominacji Big Tech są modele open-source oraz inicjatywy narodowe, takie jak DeepSeek AI w Chinach czy PLLuM w Polsce. Choć otwarte modele oferują większą przejrzystość i dostępność, ich rozwój jest trudniejszy z powodu ograniczeń sprzętowych i finansowych. Rządy na całym świecie starają się regulować AI, ale ich działania, jak europejski AI Act, mogą paradoksalnie umocnić pozycję największych graczy, jeśli nie zostaną połączone ze wsparciem dla mniejszych podmiotów i inicjatyw open-source.

    Przyszłość sztucznej inteligencji będzie zależała od tego, jak uda się wypracować równowagę między kontrolą a innowacją. Jeśli regulacje i otwarte technologie zostaną odpowiednio rozwinięte, AI może stać się narzędziem dostępnym dla wszystkich, a nie tylko dla kilku globalnych firm.

  • AI Act – gdzie dziś jesteśmy?

    AI Act – gdzie dziś jesteśmy?

    W piątek, 8 grudnia 2023 r. Parlament Europejski i Rada osiągnęły porozumienie polityczne w ramach procedury trilogu co do ram przyszłego rozporządzenia unijnego dotyczącego sztucznej inteligencji (AI Act). O tym, co wynika z tego porozumienia oraz jaka jest dalsza ścieżka ustawodawcza, opowiem w tym artykule. 

    Przyjęcie porozumienia wstępnego ws. AI Act w dniu 8 grudnia 2023 r. było pewnym zaskoczeniem. Zza kulis rozmów dochodziły bowiem sygnały o znacznych rozbieżnościach stanowisk Parlamentu Europejskiego i przedstawicieli części państw członkowskich, w szczególności jeśli chodzi o regulację tzw. modeli fundamentalnych. Ostatecznie jednak osiągnięto porozumienie w tym i innych punktach spornych, co umożliwiło zamknięcie procesu trilogu. 

    Podsumowanie wybranych ustaleń:

    • Przyjęto definicję systemu AI opartą na założeniach OECD. Wskazano przy tym wyraźnie, że wynikiem działania takiego systemu mogą być także treści (content), co rozwiewa wątpliwości odnośnie tego, czy zakresem tej definicji jest objęta generatywna sztuczna inteligencja. 
    • Uzgodniono, jaki będzie zakres zakazu stosowania systemów sztucznej inteligencji. Uzgodnienia są oparte o dotychczasowe propozycje (m.in. zakaz wykorzystywania słabości określonych grup osób, zakaz manipulacji, zakaz scoringu społecznego), przy czym ostatecznie zezwolono na wykorzystywanie systemów identyfikacji biometrycznej w czasie rzeczywistym dla celów policyjnych w ograniczonych przypadkach oraz dopuszczono wykorzystanie systemów rozpoznających emocje zarówno w celach policyjnych jak i ochrony granic. Co istotne, o ile systemów zakazanych przez AI Act nie będzie można stosować w UE, o tyle nie będzie przeszkód, by je w UE tworzyć i eksportować za granicę (dotychczas rozważany był zakaz takiego eksportu). 
    • Nie zmieniono zakresu głównych obowiązków mających zastosowanie do wszystkich systemów AI, których katalog został zaproponowany przez Parlament Europejski. W dużej mierze zachowano również dotychczasowe uregulowania dotyczące systemów AI wysokiego ryzyka. Zachowano także obowiązek przeprowadzania analizy wpływu na prawa podstawowe (fundamental rights’ impact assessment) przez podmioty wdrażające systemy AI w kluczowych obszarach życia społecznego (ochrona zdrowia, edukacja, bankowość, ubezpieczenia). 
    • Przewidziano katalog wyjątków, które będą powodować, że systemy AI w obszarach uznanych typowo za generujące wysokie ryzyko, nie będą uznawane za systemy AI wysokiego ryzyka. Wyjątki dotyczą sytuacji, kiedy (i) system wykonuje jedynie wąsko zakreślone zadanie proceduralne, (ii) celem systemu jest przegląd lub poprawienie rezultatów uprzedniej aktywności ludzkiej, (iii) celem systemu jest wyłącznie wykrywanie pewnych wzorców podejmowania decyzji lub przypadków odejścia od takich wzorców, (iv) system jest wykorzystywany jedynie w ramach czynności przygotowawczych. 
    • Osoby fizyczne będą miały prawo do wniesienia skarg na systemy AI oraz do uzyskiwania wyjaśnień odnośnie decyzji podejmowanych przez systemy AI wysokiego ryzyka, które to decyzje wpływają na ich prawa. 
    • AI Act będzie regulował AI ogólnego zastosowania (general purpose AI – GPAI), a w jej ramach również modele fundamentalne, których regulacji domagał się Parlament Europejski. Będą obowiązywać wymogi minimalne dla wszystkich systemów GPAI, w tym w zakresie dokumentacji technicznej oraz dzielenia się informacjami z podmiotami wykorzystującymi takie systemy jako bazę do tworzenia własnych rozwiązań. Ponadto, wprowadzone zostaną dodatkowe wymogi dla GPAI, która generuje ryzyko systemowe, przy czym wyróżnikiem tego rodzaju systemów będzie moc obliczeniowa wykorzystywana do trenowania modeli. W zasadzie kategoria ta obejmie jedynie największych działających na rynku graczy. 
    • Ustalono zakres, w jakim AI Act będzie stosować się do systemów AI dostępnych w modelu open source. W obecnym stanie rzeczy AI Act ma objąć jedynie GPAI generujące ryzyko systemowe, o którym mowa powyżej. 
    • Kary pieniężne za naruszenia obowiązków wynikających z AI Act utrzymano na zbliżonych poziomach.

    Prace nad finalną redakcją a następnie uchwaleniem AI Act będą trwały jeszcze w pierwszych miesiącach 2024 r. Przewidywana data wejścia w życie tej regulacji to okolice czerwca 2024 r.


    Informacje zawarte w niniejszym artykule oparte są na doniesieniach medialnych i innych dostępnych publicznie informacjach dotyczących przebiegu trilogu ws. AI Act i dokonanych w jego ramach ustaleń. W chwili pisania tego tekstu nie był dostępny tekst jednolity rozporządzenia ani oficjalny wykaz dokonanych w ramach trilogu uzgodnień.