Opinie to przestrzeń ekspertów, liderów branży i redakcji, którzy komentują najważniejsze zjawiska i trendy w sektorze IT i kanale sprzedaży. Publikujemy felietony, analizy i wywiady dotyczące technologii, rynku, regulacji oraz strategii vendorów, integratorów i dystrybutorów.
W korytarzach władzy w Waszyngtonie i salach konferencyjnych Doliny Krzemowej dyskutowany jest ruch, który jeszcze dekadę temu byłby nie do pomyślenia. Biały Dom, według doniesień, rozważa objęcie znaczącego pakietu udziałów w Intelu – ikonie amerykańskiej innowacji.
Nie jest to jednak powtórka z kryzysu finansowego i ratowania General Motors. To coś znacznie głębszego: potencjalna zmiana paradygmatu w polityce przemysłowej USA, w której rząd z roli regulatora i sponsora przechodzi do roli aktywnego, strategicznego inwestora.
Decyzja ta, osadzona w kontekście wartego miliardy dolarów programu CHIPS and Science Act, nie jest kaprysem. Jest odpowiedzią na serię strategicznych potknięć Intela i rosnącą świadomość, że same dotacje nie naprawią kursu firmy, której działania mają bezpośredni wpływ na bezpieczeństwo narodowe.
Pytanie brzmi: czy to jednorazowa interwencja, czy narodziny nowej doktryny, w której państwo staje się graczem na rynku venture capital, by wygrać globalny wyścig technologiczny?
Anatomia zmiany – od dotacji do udziałów
Przez lata standardową odpowiedzią rządu na potrzebę stymulacji strategicznych sektorów były dotacje, ulgi podatkowe i granty badawcze. Ustawa CHIPS Act jest tego najlepszym przykładem.
Jednak przypadek Intela obnażył fundamentalną słabość tego modelu. Mimo perspektywy otrzymania publicznych pieniędzy, ramię inwestycyjne firmy lokowało kapitał w chińskich startupach, a powiązania niektórych członków zarządu z Chinami budziły poważne wątpliwości.
Krótkoterminowa pogoń za zyskiem, wpisana w przestarzały model ładu korporacyjnego, regularnie wygrywała z długofalowym interesem państwa. Okazało się, że pieniądze nie gwarantują zmiany strategicznego kompasu.
Właśnie dlatego udziały kapitałowe stały się tak atrakcyjną alternatywą. Dają one rządowi coś, czego nie zapewni żadna dotacja: miejsce przy stole. Jako znaczący akcjonariusz, państwo zyskuje realny wpływ na decyzje zarządu, skład rady nadzorczej i kluczowe kierunki rozwoju.
To potężne narzędzie nadzoru, które pozwala pilnować, by pieniądze podatników nie były wykorzystywane w sposób sprzeczny z bezpieczeństwem narodowym, na przykład poprzez transfer kluczowych technologii do geopolitycznego rywala.
Co więcej, w przeciwieństwie do bezzwrotnej dotacji, udziały niosą ze sobą potencjalny zwrot z inwestycji, jeśli firma odzyska rynkową siłę.
Amerykańska odpowiedź na chiński model
Ten zwrot w myśleniu nie dzieje się w próżni. Jest bezpośrednią odpowiedzią na model państwowego kapitalizmu, który z sukcesem od lat stosuje Pekin. Chiny poprzez państwowe fundusze inwestycyjne, ścisłą koordynację firm z armią (tzw. fuzja cywilno-wojskowa) i centralne planowanie stworzyły ekosystem, w którym interes państwa jest nadrzędny wobec interesu akcjonariuszy.
Ameryka, przez dekady wierna idei, że rynek sam wyłoni zwycięzców, zderzyła się z rzeczywistością, w której jej najwięksi konkurenci grają według zupełnie innych zasad.
W tym kontekście, propozycja objęcia udziałów w Intelu wygląda jak strategia lustrzana. Stany Zjednoczone, aby skutecznie konkurować, zdają się przyjmować narzędzia swojego rywala.
Rząd zaczyna myśleć jak chiński planista: identyfikuje „narodowych czempionów” i zapewnia im nie tylko finansowanie, ale i strategiczne kierownictwo. Różnica, przynajmniej na razie, polega na tym, że w USA jest to wciąż reakcja na zagrożenie, a nie systemowa cecha gospodarki.
Ciemna strona interwencjonizmu
Nowy model, choć kuszący, jest obarczony ogromnym ryzykiem. Po pierwsze, grozi zniekształceniem rynku. Jeśli Intel stanie się firmą quasi-państwową, jak w tej sytuacji mają konkurować AMD, Nvidia czy GlobalFoundries? Państwowy protekcjonizm dla jednego gracza może zdusić zdrową konkurencję, która jest przecież siłą napędową innowacji w Dolinie Krzemowej.
Po drugie, istnieje ogromne ryzyko upolitycznienia. Decyzje biznesowe mogą stać się zakładnikiem politycznych cykli. Jedna administracja może faworyzować rozwój fabryk w Ohio, a następna, o innych priorytetach, może ten projekt zahamować. Zamiast stabilnej, długoterminowej strategii, firma może być miotana przez zmienne wiatry polityczne.
Wreszcie, pojawia się pytanie o kompetencje. Czy urzędnicy państwowi, nawet z najlepszymi intencjami, są w stanie podejmować lepsze decyzje inwestycyjne niż sektor prywatny? Historia jest pełna kosztownych, państwowych projektów przemysłowych, które zakończyły się porażką.
Nowy rozdział czy ślepy zaułek?
Sprawa Intela jest poligonem doświadczalnym, którego wynik zdefiniuje przyszłość amerykańskiej polityki technologicznej.
To debata o to, jak w erze nowej zimnej wojny pogodzić dynamikę wolnego rynku z imperatywem bezpieczeństwa narodowego.
Jeśli ten eksperyment się powiedzie, możemy spodziewać się podobnych ruchów w innych strategicznych sektorach: od sztucznej inteligencji po biotechnologię.
Pytanie, które pozostaje otwarte, brzmi: czy Zachód, próbując pokonać rywala jego własną bronią, nie straci po drodze części swojej tożsamości gospodarczej, opartej na wolności i konkurencji?
Systemy sztucznej inteligencji (AI) można rozróżnić na dwie podstawowe grupy, które różnią się zarówno pod względem technologicznym, jak i prawnym, a mianowicie mowa o:
Powyższy podział jest istotny dla prawidłowego zrozumienia związanych z nimi obowiązków, potencjalnych zagrożeń oraz regulacji prawnych, które je dotyczą, zwłaszcza pod kątem praw autorskich.
Tradycyjne systemy AI działają na podstawie jasno określonych algorytmów i reguł, które przetwarzają dane, wykrywają wzorce i podejmują decyzje. W tym przypadku prawo autorskie dotyczy przede wszystkim danych wejściowych oraz efektów pracy człowieka nad systemem, natomiast same algorytmy i modele nie są chronione jako utwory. Zwykle nie pojawiają się tu poważne problemy związane z ochroną praw autorskich, ponieważ AI nie generuje nowych, autonomicznych dzieł.
W przeciwieństwie do tradycyjnego AI inaczej wygląda sytuacja generatywnej sztucznej inteligencji. Generative AI tworzy całkowicie nowe treści — teksty, obrazy, dźwięki czy kod — na podstawie wzorców wyuczonych z ogromnych zbiorów danych, które często zawierają materiały chronione prawem autorskim. To rodzi szereg problemów prawnych, takich jak:
Wykorzystanie chronionych materiałów do trenowania modeli AI: W kontekście rozwoju generatywnej sztucznej inteligencji kluczowym zagadnieniem jest sposób, w jaki modele AI są trenowane na ogromnych zbiorach danych, które często zawierają materiały chronione prawem autorskim, takie jak teksty, obrazy, muzyka czy kod źródłowy. Zgodnie z unijnym Rozporządzeniem o sztucznej inteligencji (AI Act), które ma na celu uregulowanie stosowania AI w Unii Europejskiej, dostawcy modeli generatywnych mają obowiązek respektowania sprzeciwów właścicieli praw autorskich wobec wykorzystania ich utworów w procesie treningu. Procedura ta nazywana jest „opt-out” i pozwala twórcom lub właścicielom praw na wyrażenie sprzeciwu wobec użycia ich treści do szkolenia systemów AI.
Ochrona praw autorskich wygenerowanych dzieł: Wytwory AI zazwyczaj nie są uznawane za utwory chronione prawem autorskim, ponieważ nie są tworzone przez człowieka, co oznacza, że często trafiają do domeny publicznej. Jednocześnie jednak pojawia się poważny problem związany z tym, że AI podczas generowania treści korzysta z ogromnych zbiorów danych, które często zawierają materiały chronione prawem autorskim. Jeśli wygenerowana praca zawiera elementy zbliżone lub wręcz kopiujące chronione utwory, może dojść do naruszenia praw autorskich osób trzecich. Takie naruszenia mogą pociągać za sobą odpowiedzialność prawną użytkowników lub dostawców AI, nawet jeśli nie mieli oni pełnej świadomości wykorzystania chronionych materiałów.
Brak jasnej granicy ochrony: W przypadku bardziej złożonych wytworów, które powstają w wyniku wielokrotnych interakcji człowieka z AI (np. dostosowywanie promptów), kwestia przyznania ochrony prawnej jest niejasna i wymaga dalszych regulacji. Dodatkowo, obecne regulacje, takie jak unijna Dyrektywa o prawie autorskim na jednolitym rynku cyfrowym (CDSM) z 2019 roku oraz Rozporządzenie AI Act z 2024 roku, wprowadzają pewne mechanizmy ochrony praw twórców, jednak pozostawiają wiele niejasności interpretacyjnych. Przepisy te nie precyzują jednoznacznie, jak traktować prawa autorskie w kontekście dzieł generowanych przez AI, co powoduje trudności zarówno dla twórców, jak i dla podmiotów rozwijających technologie AI.
Podział systemów sztucznej inteligencji na tradycyjne i generatywne niesie ze sobą ważne skutki prawne. Tradycyjna AI podlega przede wszystkim standardowym regulacjom dotyczącym przetwarzania danych oraz odpowiedzialności za podejmowane decyzje. Z kolei generatywna AI, która tworzy nowe treści, stawia dodatkowe wyzwania prawne, zwłaszcza w obszarach prawa autorskiego, ochrony danych poufnych oraz zgodności z umowami. Ponadto podlega coraz bardziej szczegółowym i rozbudowanym regulacjom.
Prawo autorskie wobec sztucznej inteligencji stoi przed poważnymi wyzwaniami. Obecnie dzieła tworzone autonomicznie przez AI nie są chronione, a wykorzystywanie chronionych materiałów do trenowania modeli wymaga uwzględnienia praw właścicieli. Przyszłość regulacji praw autorskich będzie zależała od dalszych prac legislacyjnych i orzecznictwa, które będą musiały precyzyjniej określić zasady korzystania z AI w twórczości oraz ochrony praw twórców i użytkowników.
W związku z tym zarówno twórcy, jak i użytkownicy tych systemów powinni dokładnie zapoznać się z obowiązującymi przepisami oraz świadomie oceniać ryzyka związane z ich wykorzystaniem.
Publiczne wezwanie do dymisji prezesa jednej z najważniejszych firm technologicznych na świecie to wydarzenie, które wstrząsa rynkami i przyciąga uwagę mediów. Afera wokół nowego CEO Intela, jego konfliktu interesów i finansowych powiązań z Chinami, jest na pozór klasycznym przykładem korporacyjnego dramatu.
Jednak sprowadzanie tej sytuacji wyłącznie do biznesowego sporu byłoby fundamentalnym błędem. Jesteśmy świadkami czegoś znacznie większego: to potyczka w nowej, globalnej grze o dominację, w której firmy takie jak Intel stały się polem bitwy, a technologia – ostatecznym narzędziem władzy.
To nie jest już tylko biznes. To geopolityka w najczystszej postaci.
Nowy wyścig kosmiczny i punkty krytyczne
Aby w pełni zrozumieć, dlaczego Biały Dom decyduje się na tak bezprecedensową interwencję, musimy cofnąć się w czasie. W XX wieku wyścig kosmiczny nie był jedynie naukową rywalizacją o to, kto pierwszy postawi stopę na Księżycu. Był to globalny pokaz siły, technologicznej potęgi i ideologicznej wyższości.
Każdy start rakiety, każda udana misja była manifestacją narodowej mocy. Dziś rolę tamtego wyścigu przejęła technologia. Hegemonia w dziedzinie sztucznej inteligencji, obliczeń kwantowych, a przede wszystkim – w zdolności do projektowania i produkowania najbardziej zaawansowanych półprzewodników – jest XXI-wiecznym ekwiwalentem lądowania na Srebrnym Globie.
W tej nowej zimnej wojnie technologicznej korporacje przestały być wyłącznie prywatnymi przedsiębiorstwami. Stały się strategicznymi aktywami narodowymi, a ich fabryki i centra badawcze to infrastruktura krytyczna o znaczeniu porównywalnym z elektrowniami atomowymi czy sieciami telekomunikacyjnymi.
Kontrola nad łańcuchem dostaw chipów to dziś forma globalnej władzy – zdolność do napędzania własnej gospodarki i wojska, a jednocześnie możliwość odcięcia od niej rywali.
Z tej perspektywy, bezkompromisowa postawa Waszyngtonu wydaje się wręcz logiczna. Pozwolenie, by na czele firmy stanowiącej filar amerykańskiej strategii technologicznej stała osoba z rozległymi powiązaniami inwestycyjnymi w konkurencyjnym mocarstwie, jest postrzegane jako niedopuszczalne ryzyko.
To ekwiwalent sytuacji, w której w latach 60. dyrektor programu Apollo prowadziłby interesy z radzieckim przemysłem. W optyce bezpieczeństwa narodowego jest to luka, której nie można tolerować, niezależnie od kompetencji menedżerskich danej osoby.
Decyzja polityków nie jest więc kaprysem, lecz zimną kalkulacją w grze o najwyższą stawkę.
Niewygodna prawda: Zakład o losy imperium na rannym czempionie
Problem w tym, że ta żelazna logika zderza się z brutalną rzeczywistością biznesową. Rząd Stanów Zjednoczonych nie stawia bowiem na zdrowego, silnego czempiona u szczytu formy.
Stawia na giganta, który od lat znajduje się w defensywie i na wielu frontach przegrywa walkę o technologiczną przyszłość. I to właśnie ten fakt czyni całą sytuację tak niezwykle niebezpieczną.
Lista porażek Intela jest długa i bolesna. Koncern, który przez dekady dyktował światu tempo rozwoju, utracił koronę lidera innowacji produkcyjnych na rzecz tajwańskiego TSMC.
Podczas gdy świat zachwycał się chipami w procesach 5nm, a potem 3nm, Intel wciąż zmagał się z wdrożeniem swoich starszych technologii. Co gorsza, całkowicie przespał rewolucję AI, pozwalając, by Nvidia stworzyła de facto monopol na układy GPU, które stały się mózgiem tej transformacji.
Rynkowa wartość Nvidii, wielokrotnie przewyższająca Intela, jest tego najbardziej wymownym symbolem. Jakby tego było mało, na swoim własnym podwórku – w centrach danych i komputerach osobistych – Intel jest bezlitośnie podgryzany przez odrodzone AMD, które jeszcze kilka lat temu, zdawało się nie mieć szans z potężnym gigantem.
W tym kontekście, wielomiliardowe subsydia z CHIPS Act przestają być zwykłą inwestycją. Stają się desperackim zakładem, że rannego lwa da się jeszcze postawić na nogi, by bronił terytorium.
I właśnie dlatego presja polityczna jest tak ogromna. Stawka jest zbyt wysoka, by pozwolić sobie na najmniejszy błąd, a powiązania CEO stają się łatwym celem i wygodnym wytłumaczeniem na wypadek, gdyby ten ryzykowny plan się nie powiódł.
Co dalej? Trzy scenariusze na krawędzi chaosu
Ta kolizja między logiką bezpieczeństwa narodowego a kruchą rzeczywistością korporacyjną stwarza niezwykle niestabilną sytuację. Dalszy rozwój wydarzeń trudno przewidzieć, zwłaszcza, że ta sytuacja, w której administracja kolebki kapitalizmu wtrąca się w kwestie przywództwa prywatnej firmy, jest bezprecedensowa. Mimo to, pokuszając się o predykcje, warto wymienić trzy możliwe scenariusze rozwoju tych wydarzeń
Polityczna kapitulacja: Zarząd Intela, nie chcąc prowadzić otwartej wojny z Waszyngtonem, ulega presji. CEO podaje się do dymisji, a jego miejsce zajmuje „bezpieczny” kandydat z nienaganną biografią. Predykcja: Na krótką metę uspokoi to polityków. Jednak wewnątrz firmy może to oznaczać paraliż, spowolnienie bolesnych, ale koniecznych reform i dalszą erozję technologiczną.
Wojna na wyniszczenie: Kierownictwo Intela postanawia walczyć. Publicznie broni swojego wyboru, argumentując, że kompetencje biznesowe są ważniejsze od politycznych sentymentów. Rozpoczyna się długa, medialna i polityczna batalia. Predykcja: Firma staje się politycznym zakładnikiem rządowych dotacji. Nieustanny chaos i niepewność paraliżują morale, odstraszają najlepszych inżynierów i zniechęcają inwestorów. Proces ratowania firmy zostaje całkowicie podporządkowany politycznej walce.
Napięte rozejście: CEO i zarząd podejmują błyskawiczne działania. W sposób transparentny pozbywają się wszystkich kontrowersyjnych aktywów i rozpoczynają bezprecedensową ofensywę dyplomatyczną w Waszyngtonie. Zamiast walczyć, próbują budować zaufanie, przekonując, że najszybsza i najskuteczniejsza droga do wzmocnienia bezpieczeństwa USA wiedzie przez ich sukces biznesowy. Predykcja: Jest to ścieżka najtrudniejsza, wymagająca ogromnych umiejętności politycznych i gotowości do kompromisu po obu stronach. Jeśli się powiedzie, może uratować sytuację. Jeśli nie, szybko zamieni się w jeden z dwóch powyższych scenariuszy.
Niezależnie od tego, który scenariusz się zmaterializuje, pewnym jest, że saga Intela to moment definiujący naszą erę. To żywy dowód na to, że globalizacja, jaką znaliśmy, dobiegła końca, a technologia stała się centralną areną globalnej rywalizacji.
Amerykanie tak łatwo nie odpuszczą sobie Intela, ale w końcu będą musieli odłączyć tego pacjenta od respiratora. Pytanie, czy po tym złapie oddech czy wyzionie ducha. I czy to rządowe leczenie pomogło, czy jeszcze bardziej zaszkodziło dawnemu liderowi.
Pomimo piętrzących się barier handlowych, restrykcji eksportowych i geopolitycznych napięć, które stale grożą przerwaniem relacji USA–Chiny, jedno pozostaje niezmienne: chiński rynek jest i pozostaje kluczowym elementem strategii wielu amerykańskich firm technologicznych. Nie dlatego, że jest łatwy. Wręcz przeciwnie – jest trudny, ryzykowny i nieprzewidywalny. Ale właśnie dlatego daje przewagę konkurencyjną, której nie da się odtworzyć gdzie indziej.
Nowa normalność: działać mimo niepewności
Dla wielu firm technologicznych obecność w Chinach nie jest już wyborem, ale koniecznością. W badaniu US-China Business Council, przeprowadzonym wśród 130 amerykańskich firm w 2025 roku, aż 82% respondentów zadeklarowało, że ich operacje w Chinach były rentowne w 2024 roku. Co więcej – 82% tych firm ma za sobą ponad 20 lat obecności na rynku chińskim.
To doświadczenie procentuje, ale nie oznacza komfortu. W ciągu ostatnich lat cła handlowe mocno podniosły koszty funkcjonowania. W 2025 roku stały się drugim najczęściej wskazywanym problemem przez firmy w Chinach, zaraz po „ogólnej nieprzewidywalności relacji USA–Chiny”.
Mimo to firmy nie wycofują się z Państwa Środka. Dlaczego?
Chińska klasa średnia jako test technologicznej dojrzałości
Najczęściej powtarzanym powodem jest dostęp do wschodzącej chińskiej klasy średniej – zamożnej, mobilnej, cyfrowej i bardzo wymagającej. Dla amerykańskich producentów oprogramowania, elektroniki użytkowej czy rozwiązań chmurowych to najcenniejszy poligon testowy na świecie. Jeśli produkt zostanie zaakceptowany w Chinach, ma dużą szansę na sukces globalny.
Ten rynek nie wybacza niedoróbek. Konsumenci oczekują szybkich, intuicyjnych, skalowalnych rozwiązań – i mają dostęp do lokalnych alternatyw, które często są tańsze i równie dobre. Firmy z USA muszą więc stale podnosić poprzeczkę – zarówno w zakresie UX, jak i efektywności kosztowej. Chiński klient to benchmark dla globalnych ambicji technologicznych.
R&D, skala, tempo – co naprawdę daje obecność w Chinach
Poza konsumentami, Chiny oferują coś jeszcze: unikalne warunki do szybkiego skalowania i iteracji produktów. Ekosystem dostawców, tempo wdrażania innowacji i bliskość zaawansowanej infrastruktury przemysłowej sprawiają, że firmy mogą testować i rozwijać nowe technologie szybciej niż w jakimkolwiek innym kraju.
Widać to w sektorze półprzewodników, gdzie amerykańskie firmy – mimo restrykcji eksportowych – wciąż próbują utrzymać relacje z lokalnymi partnerami. Podobnie w obszarze robotyki, elektroniki konsumenckiej czy usług opartych na AI – wiele z tych rozwiązań powstaje z myślą o chińskim użytkowniku i jest dopiero później adaptowanych do rynków zachodnich.
W praktyce oznacza to, że Chiny pełnią funkcję laboratorium technologicznego. Firma, która rezygnuje z tej przestrzeni, traci nie tylko rynek zbytu, ale również dostęp do wiedzy, danych i modeli skalowania, które trudno odtworzyć gdzie indziej.
Ryzyko jako koszt operacyjny
To wszystko dzieje się w cieniu narastającego ryzyka politycznego. W 2025 roku aż 75% respondentów badania US-China Business Council wskazało na wzrost kosztów nakładów produkcyjnych jako największe wyzwanie operacyjne. Mimo to, tylko 39% firm aktywnie reorientuje swoje łańcuchy dostaw – reszta działa tak jak dotąd, bo alternatywa jest albo niedostępna, albo zbyt kosztowna.
Firmy technologiczne uczą się więc funkcjonować z ryzykiem jako elementem kosztowym. Zamiast całkowitego odwrotu z Chin, wdrażają podejścia hybrydowe: lokalna obecność w Chinach, przy jednoczesnym budowaniu buforów bezpieczeństwa w innych krajach Azji (np. Wietnam, Malezja, Indie) czy Meksyku. Tylko nieliczni decydują się na pełną ewakuację – zbyt wiele można stracić.
Przetrwać w globalnej grze
Najważniejszy wniosek z badania? Obecność w Chinach pozostaje strategicznie „nie do negocjacji”. I nie chodzi tu tylko o chwilowe zyski, ale o długofalową zdolność firm do utrzymania pozycji na rynku globalnym. Firmy, które potrafią działać w warunkach chińskiej konkurencji i wymogów konsumenckich, są lepiej przygotowane do wyzwań w innych regionach.
Dlatego – mimo wszystkich trudności – chiński rynek nadal przyciąga amerykańskich technologicznych graczy. Daje im nie tylko dostęp do ogromnego rynku, ale też do dynamiki, której nie oferuje żadna inna gospodarka.
Chiny pozostają dla firm technologicznych przestrzenią pełną sprzeczności: źródłem zysków i ryzyk, innowacji i niepewności. Ale też miejscem, bez którego trudno mówić o globalnej skali działania.
Dopóki chińska gospodarka będzie wyznaczać tempo rozwoju technologii i konsumpcji cyfrowej, dopóty amerykańskie firmy będą musiały znaleźć sposób, by w niej uczestniczyć – niezależnie od politycznych napięć.
Rosnąca liczba cyberataków, nowe obowiązki regulacyjne oraz ograniczone zasoby kadrowe sprawiają, że cyberbezpieczeństwo staje się jednym z kluczowych wyzwań dla polskich firm – niezależnie od ich wielkości czy branży. O tym, jakie zagrożenia dominują dziś w środowisku biznesowym, na ile realną alternatywą stają się usługi typu SOC-as-a-Service oraz z jakimi błędami i barierami organizacyjnymi najczęściej mierzą się firmy przy budowie systemów bezpieczeństwa, mówi Dawid Zięcina, Technical Department Director w DAGMA Bezpieczeństwo IT.
Klaudia Ciesielska, Brandsit: Jakie cyberzagrożenia dominują obecnie w środowisku polskich firm? Czy rzeczywiście obserwujecie wzrost zaawansowanych ataków (APT), czy nadal przeważają incydenty phishingowe i malware?
Dawid Zięcina, Dagma Bezpieczeństwo IT: Polskie firmy są wciąż narażone na te same, dobrze znane typy cyberataków. Najczęściej spotykanym zagrożeniem pozostaje klasyczny phishing, oparty na fałszywych stronach internetowych służących do wyłudzania danych. Choć liczba kampanii phishingowych nieznacznie spada w porównaniu z poprzednimi latami, nadal jest to najczęściej wykorzystywana technika przez cyberprzestępców.
W przypadku złośliwego oprogramowania (malware), nasze obserwacje są spójne z danymi z raportów branżowych – skala jego wykorzystania rośnie, a głównym celem jest kradzież danych.
Warto również zwrócić uwagę na rosnącą aktywność grup APT (Advanced Persistent Threats), co jest ściśle związane z obecną sytuacją geopolityczną. To zazwyczaj grupy powiązane z obcymi państwami, działające w celach wywiadowczych i dezinformacyjnych. Co istotne, ich działania coraz częściej wykraczają poza sektor publiczny czy duże firmy państwowe – ofiarami ataków stają się także mniejsze przedsiębiorstwa będące częścią łańcucha dostaw. Zdarza się również, że celem ataków są osoby prywatne powiązane z pracownikami lub właścicielami tych firm.
„Polskie firmy są wciąż narażone na te same, dobrze znane typy cyberataków.”
Brandsit: Dyrektywa NIS2 oraz nowelizacja ustawy o KSC wprowadzają istotne obowiązki w obszarze cyberbezpieczeństwa. Jakie wyzwania najczęściej napotykają firmy przy próbach wdrożenia zgodności z tymi regulacjami?
D.Z.: Obecnie największym wyzwaniem dla polskich firm przy wdrażaniu zgodności z NIS2 jest brak jednoznacznej, oficjalnie przyjętej przez Polskę wykładni krajowych przepisów, które mają zostać zawarte w nowelizowanej ustawie o Krajowym Systemie Cyberbezpieczeństwa (KSC). Choć większość wytycznych zawartych w NIS2 ma stosunkowo jasną interpretację, to właśnie szczegóły implementacyjne w ustawie mogą w praktyce wyznaczyć kierunek zmian w obszarze cyberbezpieczeństwa. Z tego względu wiele organizacji przyjmuje postawę wyczekującą.
Mimo braku ostatecznego kształtu ustawy, obserwujemy znaczący wzrost zainteresowania usługami wspierającymi wdrażanie systemów zarządzania bezpieczeństwem informacji (zgodnych z ISO/IEC 27001) oraz systemów zapewniających ciągłość działania (zgodnych z ISO 22301). To dobry kierunek, który pozwala organizacjom przygotować się w sposób systemowy do nadchodzących wymagań oraz zaplanować konkretne działania.
Częstym problemem jest brak świadomości, jak głębokiej analizy własnej działalności wymagają te procesy oraz ile czasu i zasobów należy poświęcić, aby skutecznie wdrożyć rozwiązania zwiększające cyberdojrzałość i odporność organizacji — w szczególności na ryzyko przestojów wywołanych np. cyberatakiem.
Brandsit: Czy outsourcing bezpieczeństwa – np. w formie SOC-as-a-Service – staje się realną alternatywą dla firm bez własnych zespołów bezpieczeństwa?
D.Z.: Zarządzane usługi cyberbezpieczeństwa zyskują na popularności nie tylko wśród firm, które nie dysponują własnymi zespołami specjalistów, ale również jako wsparcie dla już istniejących działów bezpieczeństwa. W ramach usług takich jak SOC-as-a-Service klient otrzymuje dostęp do sprawnie działającego, wysoko wyspecjalizowanego zespołu, gotowego do działania w środowisku klienta w krótkim czasie od uruchomienia usługi.
Co istotne, zamawiający zyskuje szeroki zakres kompetencji niezbędnych do obsługi bezpieczeństwa na różnych etapach – bez konieczności zatrudniania wąsko wyspecjalizowanych ekspertów niezależnie od tego, czy incydent wystąpi, a jeśli tak, to jakiego rodzaju.
Utrzymanie i zarządzanie tak rozbudowanymi zespołami wewnętrznie wymagałoby znacznych zasobów kadrowych i finansowych – w modelu outsourcingowym odpowiedzialność ta przechodzi na dostawcę usługi, co czyni to rozwiązanie szczególnie atrakcyjnym pod względem elastyczności i efektywności kosztowej.
Brandsit: Jakie błędy strategiczne najczęściej popełniają firmy budujące system zarządzania bezpieczeństwem IT?
D.Z.: Najczęstsze błędy popełniane przez firmy na etapie wdrażania systemów bezpieczeństwa to brak przygotowanego planu transformacji opartego na rzetelnej analizie ryzyka, fragmentaryczne podejście do zidentyfikowanych problemów oraz niedoszacowanie zasobów – zarówno ludzkich, czasowych, jak i finansowych – niezbędnych do skutecznego wdrożenia.
„Cyberbezpieczeństwo to ciągły proces, który nie ma punktu końcowego i wymaga stworzenia odpowiedniego środowiska do rozwoju.”
Bardzo często organizacje podchodzą do tego procesu jak do sprintu, zakładając, że po szybkim osiągnięciu celu projekt zostanie zakończony. Tymczasem cyberbezpieczeństwo to ciągły proces, który nie ma punktu końcowego i wymaga stworzenia odpowiedniego środowiska do rozwoju.
Takie środowisko można zbudować m.in. poprzez wdrożenie systemu zarządzania bezpieczeństwem informacji oraz systemu zapewniającego ciągłość działania – nawet jeśli organizacja nie planuje formalnej certyfikacji zgodności z wybranym standardem.
Brandsit: Czy obserwujecie zmianę podejścia zarządów i przesunięcie budżetów w stronę cyberbezpieczeństwa, czy wciąż traktowane jest ono jako obowiązek, a nie realna potrzeba biznesowa?
D.Z.: W firmach, w których za obszar cyberbezpieczeństwa odpowiadają doświadczeni specjaliści, zarządy wykazują wysoki poziom zrozumienia zarówno odpowiedzialności, jak i pozytywnego wpływu dobrze wdrożonych procesów bezpieczeństwa na cały biznes.
„Znacznie częściej to właśnie bagatelizowanie zagrożeń lub ignorowanie wcześniej zidentyfikowanych problemów prowadzi do kosztów niewspółmiernie wyższych niż inwestycje, które można było podjąć zawczasu – przed wystąpieniem incydentu.”
Wciąż jednak spotykamy się z podejściem, w którym cyberbezpieczeństwo postrzegane jest jako zbędne ograniczenie – coś, co utrudnia działalność operacyjną i generuje koszty, nie przynosząc bezpośrednich przychodów.
Budowanie świadomości zagrożeń, analiza wpływu IT na funkcjonowanie firmy oraz identyfikacja scenariuszy, w których organizacja może zostać sparaliżowana lub ponieść znaczne straty w wyniku zakłócenia działalności, to kluczowe elementy zmiany tej perspektywy.
Warto podkreślić, że zapewnienie bezpieczeństwa systemów i sieci nie musi wiązać się z ogromnymi wydatkami. Znacznie częściej to właśnie bagatelizowanie zagrożeń lub ignorowanie wcześniej zidentyfikowanych problemów prowadzi do kosztów niewspółmiernie wyższych niż inwestycje, które można było podjąć zawczasu – przed wystąpieniem incydentu.
Na konferencji Build 2025 Microsoft ogłosił, że na jego platformie chmurowej Azure pojawił się nowy model językowy – Grok, opracowany przez start-up xAI założony przez Elona Muska. Choć informacja ta może wydawać się jedynie kolejnym krokiem w rozbudowie oferty AI, w rzeczywistości sygnalizuje istotną zmianę kursu. Microsoft stawia na otwartość wobec różnych dostawców sztucznej inteligencji – również tych, którzy mogą być konkurencją dla jego strategicznych partnerów, takich jak OpenAI.
Ten ruch otwiera nowe możliwości dla klientów Azure, ale też rodzi pytania o przyszłość całego ekosystemu chmurowego Microsoftu. Czy otwartość jest atutem w czasach dominacji kilku dużych graczy AI, czy może ryzykiem strategicznym?
Od Copilota do Groka: Microsoft szuka równowagi
Przez ostatnie lata Microsoft budował swój wizerunek lidera w dziedzinie generatywnej AI, głównie w oparciu o bliską współpracę z OpenAI. Modele GPT-4 napędzają szereg produktów firmy, od pakietu Microsoft 365 po narzędzia dla programistów. W tym kontekście pojawienie się Groka w Azure to sygnał, że firma nie chce być zakładnikiem jednego dostawcy.
xAI, założona przez Elona Muska, prezentuje Groka jako alternatywę dla „zbyt ułożonych” modeli innych firm. Sam model zyskał rozgłos m.in. dzięki integracji z X (dawniej Twitterem), ale jego pojawienie się w Azure to coś więcej niż tylko kolejna integracja. Microsoft sygnalizuje, że nie chce być kojarzony wyłącznie z jednym podejściem do AI – i że platforma Azure ma być przestrzenią dla wielu perspektyw.
Różnorodność jako przewaga… i wyzwanie
Z punktu widzenia klientów biznesowych to dobra wiadomość. Różne modele AI oferują różne funkcjonalności, a możliwość wyboru może przynieść realne korzyści – dopasowanie do branż, języka domenowego, kosztów operacyjnych czy polityki przetwarzania danych. Firmy coraz częściej chcą mieć opcję: nie tylko „GPT albo nic”, ale np. Grok do szybkiego przetwarzania mediów społecznościowych, Mistral do pracy offline i Claude do analizy dokumentów.
Jednak otwartość nie jest darmowa. Równoległe zarządzanie wieloma modelami w jednej infrastrukturze chmurowej generuje złożoność – zwłaszcza w zakresie bezpieczeństwa, widoczności i zgodności z regulacjami. To, co dla jednych jest elastycznością, dla innych może być początkiem chaosu.
Ekosystem pod presją
Microsoft z jednej strony promuje Copiloty oparte na GPT, z drugiej udostępnia konkurencyjne rozwiązania – takie jak Grok. Ta dwutorowość może budzić napięcia zarówno w relacjach z partnerami, jak i z klientami końcowymi. Co stanie się z integratorami i dostawcami rozwiązań opartych wyłącznie na OpenAI? Czy będą zmuszeni do dostosowania się do „nowego pluralizmu”, czy raczej zaczną szukać bardziej zamkniętych środowisk?
Z punktu widzenia użytkownika końcowego może to również prowadzić do fragmentacji doświadczenia. Gdy różne narzędzia działają w oparciu o różne modele AI, pojawia się pytanie o spójność wyników, bezpieczeństwo danych i kontrolę nad przepływem informacji.
Bezpieczeństwo: nowa linia frontu
Największe wyzwanie dotyczy jednak bezpieczeństwa. Każdy nowy model w ekosystemie Azure to nowy wektor ataku – niekoniecznie ze względu na złośliwość twórców, ale przez brak standaryzacji, niedoskonałości konfiguracji i ograniczoną przejrzystość.
Wielomodelowe środowisko AI w chmurze oznacza, że nie zawsze wiadomo, kto przetwarza dane, w jaki sposób i w jakim celu. Granica między legalnym a ukrytym wykorzystaniem sztucznej inteligencji staje się coraz trudniejsza do uchwycenia. Firmy, które nie mają odpowiednich narzędzi do inspekcji, audytu i wykrywania anomalii, mogą nawet nie wiedzieć, że ich dane trafiły do modelu, którego nigdy nie zatwierdzały.
To zmusza organizacje do przedefiniowania swojej strategii bezpieczeństwa. Tradycyjne podejścia – takie jak zapory ogniowe czy proste systemy DLP – nie są już wystarczające. Potrzebne są architektury zero trust, zaawansowane mechanizmy analizy behawioralnej i polityki najmniejszych uprawnień, które obejmują nie tylko ludzi, ale i maszyny.
Czy Microsoft stanie się „marketplace’em” dla AI?
Otwarcie na Groka może być zapowiedzią szerszego trendu – Microsoft może dążyć do uczynienia z Azure czegoś na kształt „App Store’u” dla modeli AI. Klient wybiera, który model chce użyć, a Microsoft zapewnia infrastrukturę, dostęp i integrację.
Z jednej strony to interesujący model biznesowy – Microsoft nie musi inwestować we własne LLM-y w takim stopniu, jeśli stworzy otwartą platformę z modelami od innych firm. Z drugiej – to wymaga silnej kontroli jakości, bezpieczeństwa i zgodności, bez których taka platforma szybko zamieni się w pole minowe.
Pytanie brzmi: czy użytkownicy zaufają platformie, która daje wolność wyboru, ale jednocześnie przerzuca część odpowiedzialności na klienta?
Otwartość to przyszłość – ale wymaga dojrzałości
Otwarcie Azure na alternatywne modele AI to logiczny krok w kierunku demokratyzacji sztucznej inteligencji. Microsoft chce, by jego chmura była miejscem, gdzie można korzystać z dowolnego modelu, dostosowanego do konkretnych potrzeb.
Ale im większa różnorodność, tym większa potrzeba porządku. Firmy muszą nie tylko wybierać najlepsze modele, ale także rozumieć, jak te modele działają, jakie dane przetwarzają i jakie zagrożenia ze sobą niosą. Bez tego, otwartość zamieni się w niekontrolowaną ekspozycję.
Microsoft gra dziś na wielu fortepianach. Pytanie, czy uda mu się utrzymać melodię – czy też zacznie rozbrzmiewać chaos.
W 2025 roku firmy nie tylko tną koszty IT – coraz częściej mówią: resetujemy wszystko. Liderzy technologii przestają aktualizować przestarzałe systemy i zaczynają podejmować decyzje, które jeszcze niedawno uznano by za zbyt ryzykowne: zamiast łatać i przedłużać życie starego, lepiej ogłosić „technologiczne bankructwo” i zbudować ekosystem IT od nowa – lżejszy, elastyczniejszy i gotowy na erę AI.
To nie tylko metafora. Raport Forrester’s 2026 Budget Planning Guides wskazuje, że rośnie liczba organizacji, które zamiast konserwować systemy legacy, przesuwają środki na technologie, które umożliwiają wzrost: automatyzację, analitykę, modele generatywne i rozwiązania edge computing. Liderzy IT mówią wprost: każda linia kodu i każda szafa serwerowa musi mieć uzasadnienie biznesowe – w przeciwnym razie przestaje być inwestycją, a staje się stratą.
Reset zamiast konserwacji
Dług technologiczny to nic nowego. Problem w tym, że w 2026 roku przestał być marginalnym kosztem ukrytym w budżetach działów IT. Stał się strategicznym ciężarem. Starsze systemy są coraz mniej kompatybilne z wymaganiami nowoczesnych aplikacji, trudniejsze w utrzymaniu, droższe w integracji z chmurą i – co kluczowe – opóźniają wdrażanie AI. W realiach presji inflacyjnej, napięć geopolitycznych i niepewności gospodarczej, nikt nie chce utrzymywać IT, które nie napędza wzrostu.
Forrester zachęca liderów do bardziej radykalnego podejścia: zamiast inwestować w utrzymanie, porzucić przestarzały stack, zlecić jego minimalne wsparcie zewnętrznym dostawcom i zbudować nową architekturę – cloud-optimal, AI-native, opartą na danych.
To podejście nie jest jeszcze normą, ale szybko się upowszechnia. Dla firm z dużą skalą i odpowiednią gotowością organizacyjną to sposób na skokową zmianę efektywności, kosztów i przewagi konkurencyjnej.
Czym właściwie jest „technologiczne bankructwo”?
To koncepcja strategiczna – oznacza zaprzestanie inwestycji w systemy i procesy, które nie wspierają kluczowych celów biznesowych. Nie chodzi tylko o zamykanie serwerowni. Często to także decyzja o rezygnacji z monolitycznych systemów ERP, przepisanie aplikacji na mikroserwisy, migracja danych do rozwiązań edge-ready lub całkowita przebudowa cyfrowej architektury.
W praktyce ogłoszenie „technologicznego bankructwa” oznacza trzy ruchy:
Odcinamy finansowanie i rozwój starszych systemów.
Zlecamy ich podstawowe utrzymanie lub migrację na zewnątrz.
Budujemy nową warstwę systemową od zera, opartą na nowoczesnych technologiach.
Dla zespołów IT to duże wyzwanie, ale i szansa na uwolnienie się od lat narastającej złożoności. Dla działów finansowych – powód do optymalizacji struktury kosztów i rozliczalności wydatków technologicznych.
Kto może sobie na to pozwolić?
Najczęściej tę drogę wybierają duże organizacje z branż o wysokiej presji transformacyjnej: finanse, opieka zdrowotna, telco. Mają większe budżety, większą motywację do wdrażania AI, a także więcej do stracenia, jeśli przegapią moment.
Przykłady? Banki przechodzące na core banking cloud-native, firmy medyczne, które inwestują w AI do rozpoznawania obrazów i automatyzacji dokumentacji, czy sieci detaliczne, które porzucają własne systemy POS na rzecz zunifikowanych platform SaaS z otwartym API.
Ale podejście to zyskuje też zwolenników wśród średnich firm, które wcześniej nie mogły sobie pozwolić na taką transformację. Dziś dostępność narzędzi low-code, usług integracyjnych i gotowych komponentów AI pozwala przeprowadzić „technologiczny reset” szybciej i taniej niż kiedykolwiek.
Co to oznacza dla kanału IT?
Dla integratorów, resellerów i dostawców technologii to moment zmiany retoryki sprzedażowej. Nie wystarczy już oferować „modernizacji” lub „cyfrowej transformacji” – klient potrzebuje kogoś, kto pomoże mu zdecydować: co zostawiamy, co usuwamy, a co budujemy od nowa.
To także ogromna szansa dla firm specjalizujących się w migracji, integracji, zarządzaniu projektami IT czy zarządzaniu zmianą. Klient nie szuka już wyłącznie technologii – szuka partnera, który przeprowadzi go przez pełen proces „odcięcia kabla” i zbudowania nowego środowiska pracy.
Wygrywać będą ci partnerzy, którzy oprócz dostarczenia sprzętu czy oprogramowania potrafią doradzić w restrukturyzacji środowiska IT, podpowiedzieć nowe modele kosztowe (np. OpEx vs CapEx) i wesprzeć w procesie szkolenia zespołów w nowych narzędziach.
Nie każdy powinien ogłaszać „bankructwo”
To podejście ma swoje ryzyka. Zbyt szybka rezygnacja z systemów legacy bez planu migracji może skończyć się paraliżem operacyjnym. Utrata danych, niekompatybilność systemów, przeciążenie zespołów – to realne zagrożenia.
Nie każda organizacja jest gotowa na pełne „bankructwo” – ale każda może przemyśleć, które komponenty dzisiejszego IT można odsunąć na bok, zamrozić, przenieść, by skupić budżet i zasoby na tym, co naprawdę tworzy wartość.
W wielu przypadkach właściwym rozwiązaniem będzie model hybrydowy – łączenie nowego z dobrze kontrolowanym starym. Kluczowe jest jednak to, że stary system nie może już rządzić budżetem, strategią ani rytmem działania IT.
Przyszłość buduje się szybciej bez bagażu
Ogłoszenie „technologicznego bankructwa” to nie porażka – to świadoma decyzja strategiczna. To odwaga, by powiedzieć: to, co doprowadziło nas tu, nie zaprowadzi nas dalej.
Liderzy IT, którzy dziś pozbywają się długów technologicznych, nie tylko poprawiają strukturę kosztów. Zyskują przestrzeń do inwestowania w technologie przyszłości: agenticzną AI, inteligencję brzegową, automatyzację decyzji.
Gdy tempo zmian jest coraz szybsze, organizacje z lekkim, adaptacyjnym środowiskiem IT wygrywają nie dlatego, że są bardziej innowacyjne – ale dlatego, że mogą szybciej reagować, eksperymentować i dostarczać wartość klientom. A to dziś największy kapitał.
W ciągu ostatnich kilkunastu miesięcy rynek rozwiązań sieciowych dla sektora SMB i MSP w Polsce oraz w regionie Europy Środkowo-Wschodniej przeszedł zauważalną transformację. Firmy – nawet te najmniejsze – coraz częściej odchodzą od podejścia „tanio i szybko” na rzecz świadomej inwestycji w stabilną, bezpieczną i skalowalną infrastrukturę. Wzrasta znaczenie centralnego zarządzania, jakości usług (QoS), segmentacji sieci czy redundancji – jeszcze niedawno zarezerwowanych dla dużych przedsiębiorstw.
O technologicznych trendach, stopniowej adopcji modelu Network as a Service, roli sztucznej inteligencji w zarządzaniu siecią oraz wyzwaniach stojących przed integratorami i operatorami mówi Robert Gawroński, B2B Channel Managerem w TP-Link Polska. Ekspert przybliża również trzy kluczowe kierunki rozwoju sieci biznesowych na najbliższe lata: Wi-Fi 7, przełączniki multigigabitowe oraz systemy zarządzania oparte na chmurze i architekturze SDN.
Klaudia Ciesielska, Brandsit: Jakie zmiany na rynku rozwiązań sieciowych dla SMB i MSP obserwujecie w Polsce i regionie CEE w ostatnich 12–18 miesiącach?
Robert Gawroński, TP-Link: W ostatnich kilkunastu miesiącach obserwujemy wyraźną zmianę podejścia wśród partnerów z sektora SMB i MSP – coraz częściej kładą oni nacisk na świadomy dobór infrastruktury sieciowej. Zanika podejście, w którym kluczowym kryterium była wyłącznie cena, a w firmach instalowane były konsumenckie access pointy czy routery. Dziś firmy – nawet te najmniejsze – dostrzegają, że sieć to fundament funkcjonowania całej organizacji.
„Zanika podejście, w którym kluczowym kryterium była wyłącznie cena”
Rośnie świadomość, że stabilność, bezpieczeństwo oraz skalowalność infrastruktury mają bezpośredni wpływ na wydajność operacyjną. Widzimy też, że coraz częściej partnerzy pytają o kwestie związane z segmentacją sieci, kontrolą dostępu, redundancją czy jakością usług (QoS) – tematy, które jeszcze niedawno były domeną wyłącznie dużych organizacji.
W Polsce i całym regionie CEE ten wzrost świadomości technicznej bardzo nas cieszy – to przestrzeń, w której jako TP-Link z rozwiązaniami Omada SDN możemy realnie wspierać transformację cyfrową firm, oferując infrastrukturę klasy biznesowej w przystępnej formie.
K.C.: Czy obserwujecie wzrost zainteresowania modelami usługowymi typu Network as a Service (NaaS)?
R.G.: Na chwilę obecną nie obserwujemy dużego zainteresowania modelami NaaS w segmencie, w którym działamy – czyli głównie SMB i MSP. Wciąż dominuje tradycyjny model oparty na zakupie urządzeń i wdrożeniu przez lokalnych integratorów.
Jednak widzimy rosnącą otwartość na usługi zarządzane – szczególnie wśród dostawców IT, którzy szukają możliwości dywersyfikacji oferty i zwiększenia przychodów poprzez stałą obsługę infrastruktury sieciowej. W tej perspektywie NaaS może stać się naturalnym kierunkiem rozwoju w najbliższych latach.
„Widzimy rosnącą otwartość na usługi zarządzane”
Jako TP-Link jesteśmy gotowi, by wspierać partnerów w tej transformacji – zarówno przez elastyczne modele licencjonowania, jak i integrację Omada SDN z narzędziami do zdalnego zarządzania (np. RMM/PSA), co pozwala tworzyć własne usługi sieciowe w modelu abonamentowym.
K.C.: Jakie technologie (np. Wi-Fi 7, sieci mesh, edge computing, SD-WAN) są obecnie na fali wzrostu wśród profesjonalnych klientów i operatorów? Czy któryś trend szczególnie przyspieszył?
R.G.: W sektorze SMB i MSP nadal dominują technologie bezprzewodowe – przede wszystkim Wi-Fi 6, które stało się standardem w nowych wdrożeniach. Widoczny jest jednak coraz silniejszy trend wzrostowy Wi-Fi 7, szczególnie w środowiskach o dużym zagęszczeniu użytkowników, wykorzystujących aplikacje czasu rzeczywistego czy wymagających wysokiej jakości usług multimedialnych.
Równolegle rośnie popularność topologii mesh, która doskonale sprawdza się w budynkach wielokondygnacyjnych, rozproszonych lokalizacjach czy obiektach hotelowych, zapewniając płynność roamingu i uproszczoną konfigurację.
Zwiększa się także znaczenie rozwiązań SDN – centralne zarządzanie siecią z poziomu chmury to dziś coraz częściej wymóg, a nie „wartość dodana”. Omada SDN odpowiada na te potrzeby, umożliwiając łatwe skalowanie infrastruktury, automatyzację zadań administracyjnych i dostęp do danych diagnostycznych w czasie rzeczywistym.
„Centralne zarządzanie siecią z poziomu chmury to dziś coraz częściej wymóg, a nie 'wartość dodana’.”
K.C.: Jak wygląda adopcja rozwiązań AI/ML w zarządzaniu siecią (np. automatyczna optymalizacja, detekcja zagrożeń) przez MSP i operatorów?
R.G.: Rozwiązania wykorzystujące sztuczną inteligencję i uczenie maszynowe coraz częściej stają się integralną częścią systemów zarządzania siecią – i to nie tylko w dużych korporacjach. W przypadku TP-Link, wiele funkcji dostępnych w ramach platformy Omada SDN bazuje na algorytmach AI – np. automatyczna optymalizacja ustawień radiowych, predykcyjne wykrywanie problemów, analiza obciążenia sieci, czy proaktywne ostrzeganie o anomaliach.
Z perspektywy MSP to ogromna wartość, ponieważ umożliwia świadczenie usług wyższej jakości bez konieczności manualnej interwencji w każdą konfigurację. Dzięki temu jeden administrator może zarządzać dziesiątkami lokalizacji klientów końcowych.
Jednocześnie zdajemy sobie sprawę, że nie każdy partner czy administrator czuje się pewnie w temacie AI. Dlatego projektujemy nasze narzędzia tak, by funkcje oparte na AI były intuicyjne, przejrzyste i w pełni transparentne – wspierały administratorów, a nie ich zastępowały. To podejście „AI as an assistant” doskonale sprawdza się w sektorze MSP i SMB.
K.C.: Jakie są największe wyzwania, które pojawiają się przed integratorami i operatorami w tym segmencie rynku, i jak się one zmieniają?
R.G.: Jednym z głównych wyzwań pozostaje stale rosnąca liczba urządzeń podłączanych do sieci – od komputerów i smartfonów, przez systemy POS, kamery monitoringu, aż po czujniki i urządzenia IoT. Zjawisko BYOD dodatkowo komplikuje kwestie kontroli dostępu, przepustowości i bezpieczeństwa.
Kolejnym wyzwaniem jest integracja nowych technologii z istniejącą infrastrukturą. Firmy oczekują modernizacji, ale bez konieczności wymiany wszystkiego – dlatego ważne jest, aby rozwiązania sieciowe były skalowalne, modularne i łatwe w rozbudowie. Omada SDN odpowiada na te potrzeby, umożliwiając etapowe wdrożenia z centralnym zarządzaniem i spójną polityką sieciową.
„Ważne jest, aby rozwiązania sieciowe były skalowalne, modularne i łatwe w rozbudowie”
Wzrasta również presja na zapewnienie wysokiego poziomu bezpieczeństwa – nawet najmniejsze organizacje stają się dziś celem ataków. Dlatego nasze rozwiązania oferują zaawansowane funkcje ochrony, takie jak ACL, izolacja VLAN, kontrola dostępu gości czy analiza zagrożeń.
Nie możemy też zapominać o samych integratorach – ci mierzą się z rosnącą złożonością technologii i potrzebą ciągłego podnoszenia kwalifikacji. Dlatego TP-Link inwestuje w programy edukacyjne i techniczne wsparcie partnerów, pomagając im skutecznie wdrażać nasze rozwiązania i doradzać klientom na poziomie strategicznym.
K.C.: W których obszarach rynku sieciowego dla biznesu spodziewacie się najbardziej intensywnego rozwoju w ciągu najbliższych 2–3 lat?
R.G.: W najbliższych latach spodziewamy się dynamicznego rozwoju przede wszystkim w trzech obszarach:
Wi-Fi 7 – nowy standard oferujący jeszcze większe prędkości, stabilność i niskie opóźnienia. To technologia, która doskonale odpowiada na potrzeby nowoczesnych środowisk pracy, usług opartych na chmurze, wideo 4K/8K, a także AR/VR.
Przełączniki multigigabitowe (2,5G/10G) – wraz z rozwojem Wi-Fi 6/7 oraz wzrostem liczby urządzeń wymagających wysokiej przepustowości, rośnie znaczenie infrastruktury przewodowej. Multigigabit staje się dziś niezbędny zarówno na poziomie szkieletu sieci, jak i dostępu do stacji roboczych czy serwerów NAS.
Zarządzanie chmurowe i SDN – rośnie znaczenie rozwiązań umożliwiających zdalną konfigurację, monitorowanie i optymalizację całej infrastruktury z poziomu jednej platformy. Dla firm z wieloma lokalizacjami, dostawców usług IT i administratorów systemów to dziś podstawa efektywnego działania.
Widzimy również rosnące znaczenie integracji sieci przewodowej i bezprzewodowej – administratorzy oczekują spójnego zarządzania politykami QoS, VLAN, bezpieczeństwa i raportowania bez względu na typ połączenia. Omada SDN jest przygotowana na te wyzwania – zarówno pod względem technologicznym, jak i operacyjnym.
Zamknięcie przejęcia Juniper Networks przez Hewlett Packard Enterprise to coś więcej niż tylko konsolidacja dwóch firm z branży sieciowej. To sygnał, że HPE stawia wszystko na jedną kartę: przyszłość IT, która będzie definiowana przez konwergencję chmury hybrydowej, bezpieczeństwa i sztucznej inteligencji. Transakcja, warta 14 miliardów dolarów, ma potencjał, by zmienić układ sił na rynku infrastruktury IT — i nie tylko.
Nowa pozycja HPE na rynku sieci
Przejęcie podwaja skalę działalności sieciowej HPE, której siłą do tej pory była marka Aruba w segmencie rozwiązań kampusowych. Juniper wnosi natomiast kompetencje w centrach danych, u dostawców usług oraz w rozwiązaniach natywnych AI. Efektem jest portfolio obejmujące cały przekrój potrzeb: od sieci brzegowych, przez data center, po chmurowe środowiska rozproszone.
To nie tylko konsolidacja produktów — to zmiana układu strategicznego. HPE przechodzi od bycia dostawcą infrastruktury IT do roli integratora nowoczesnych środowisk sieciowych, które są „zbudowane ze sztuczną inteligencją i dla sztucznej inteligencji”. Tak pozycjonowana oferta ma odpowiadać na potrzeby klientów wdrażających modele generatywne AI, gdzie sieć staje się równie krytyczna jak moc obliczeniowa.
Sieć jako fundament ery AI
Sztuczna inteligencja, szczególnie w wersji generatywnej, wymaga ogromnych ilości danych i niskich opóźnień. Tradycyjne podejście do zarządzania ruchem i bezpieczeństwem przestaje być wystarczające. Nowa architektura musi być dynamiczna, skalowalna i – co kluczowe – inteligentna.
Juniper wnosi tu swój dorobek w obszarze tzw. AI-native networking, z platformą Mist jako przykładem operacji wspieranych przez uczenie maszynowe. HPE zamierza zintegrować to podejście z usługami GreenLake i własnym modelem operacyjnym, aby stworzyć jednolitą platformę zarządzania siecią i bezpieczeństwem.
Na tym tle HPE mocno akcentuje unikalność swojej propozycji: zarządzanie agentowe AI w środowiskach wielodostawczych, spójne doświadczenie użytkownika (UX) i operatora, oraz silnik bezpieczeństwa zintegrowany z siecią, a nie dobudowany z zewnątrz.
Gra o wyższą marżę i większy rynek
Przejęcie Junipera to również ruch finansowo uzasadniony. Wysokomarżowy biznes Junipera ma zwiększyć udział działalności o wyższej rentowności w strukturze HPE. W praktyce oznacza to przesunięcie punktu ciężkości z tradycyjnych produktów serwerowych i pamięci masowej na software, bezpieczeństwo i usługi sieciowe — czyli obszary o szybszym wzroście i lepszych wskaźnikach marży operacyjnej.
Nowy segment HPE Networking, kierowany przez byłego CEO Junipera Ramiego Rahima, ma odpowiadać za ponad 50% przyszłego dochodu operacyjnego firmy. Dla HPE to istotna zmiana modelu działania — bliższa Cisco niż Dellowi.
Wyzwania: integracja, pozycjonowanie, konkurencja
O ile korzyści strategiczne są oczywiste, o tyle wyzwania też nie są małe. Przede wszystkim HPE musi sprawnie zintegrować zespół Junipera – zarówno operacyjnie, jak i kulturowo – przy zachowaniu ciągłości wsparcia dla klientów obu firm. Do tego dochodzi konieczność jasnego pozycjonowania nowego portfolio wobec oferty Aruba, by uniknąć wewnętrznej kanibalizacji.
Na rynku natomiast konkurencja nie śpi. Cisco już teraz inwestuje w AI w swoich platformach zarządzania siecią i cyberbezpieczeństwem. Dell wchodzi głębiej w partnerstwa z Nvidia i Broadcom. Startupy takie jak Arista czy Arrcus zyskują na popularności w środowiskach chmurowych. HPE będzie musiało nie tylko udowodnić technologiczną przewagę, ale też zbudować nowe kanały dotarcia do klientów – zwłaszcza tych, którzy do tej pory wybierali bardziej „software’owych” dostawców.
Co dalej?
HPE stoi dziś u progu transformacji, która może przedefiniować jego rolę w ekosystemie IT. Połączenie z Juniper Networks tworzy jeden z najbardziej kompletnych stosów sieciowych na rynku, gotowy do obsługi potrzeb chmurowych i AI. Kluczowy będzie jednak sposób, w jaki firma zintegruje technologie, ludzi i procesy. Sukces tej operacji może ustawić HPE w zupełnie nowej lidze — nie jako dostawcę infrastruktury, lecz jako integratora inteligentnych środowisk IT.
Czy Europa może zbudować własną, niezależną chmurę obliczeniową, która będzie realną alternatywą dla globalnych gigantów technologicznych? O tym, gdzie dziś znajduje się europejski rynek chmurowy, jakie są jego ambicje i ograniczenia, a także czym różni się chmura suwerenna od komercyjnej, mówi Michał Bylicki, Dyrektor Sales & Account Management w CloudFerro. Firma od lat uczestniczy w strategicznych projektach chmurowych dla sektora kosmicznego, naukowego i publicznego – zarówno na poziomie europejskim, jak i krajowym.
Klaudia Ciesielska, Brandsit: Czy Europa rzeczywiście buduje alternatywę dla globalnych hiperskalerów, czy raczej rozwija komplementarne rozwiązania dla wyspecjalizowanych sektorów, takich jak nauka, klimat czy bezpieczeństwo?
Michał Bylicki, CloudFerro: Europejska infrastruktura cyfrowa jest dziś zdominowana przez globalnych hiperskalerów – Amazon (AWS), Microsoft (Azure) i Google Cloud kontrolują ok. 72% europejskiego rynku chmurowego. Jednak nie oznacza to, że nie ma alternatywy dla Big Techów. Europejskie firmy technologiczne podejmują strategiczne działania, by budować własną chmurę dla kluczowych sektorów. Dostawcy, tacy jak my, mogą lepiej spełniać lokalne wymagania regulacyjne i gwarantować, że dane pozostaną w Europie, co nabiera znaczenia w dobie np. amerykańskiego Cloud Act.
Z naszej perspektywy Europa nie tyle chce zastąpić hiperskalerów we wszystkich obszarach, ile zabezpieczyć strategiczną niezależność poprzez własne chmury sektorowe. Dlatego tak ważne są działania na rzecz certyfikacji suwerennej europejskiej chmury, standardów interoperacyjności oraz skutecznego nadzoru nad wdrażaniem regulacji dotyczących suwerenności cyfrowej. Równie istotne jest preferowanie europejskich rozwiązań w sektorach strategicznych, takich jak zdrowie, energetyka, obronność czy kosmos. Tylko w ten sposób Europa może budować konkurencyjny, bezpieczny i innowacyjny rynek chmurowy.
„Europa nie tyle chce zastąpić hiperskalerów we wszystkich obszarach, ile zabezpieczyć strategiczną niezależność poprzez własne chmury sektorowe.”
Przykładem jest Copernicus Data Space Ecosystem, największe na świecie otwarte repozytorium danych satelitarnych, zapewniające natychmiastowy dostęp do ok. 100 petabajtów danych z obserwacji Ziemi i ich przetwarzanie w chmurze obliczeniowej. Platforma, zbudowana w oparciu o niezależną, europejską chmurę (CloudFerro), gwarantuje pełną kontrolę nad łańcuchem przechowywania i przetwarzania danych. Na poziomie krajowym Polska rozwija NSIS-Cloud – platformę chmurową dla danych satelitarnych oraz usługi segmentu naziemnego dla narodowej konstelacji satelitów CAMILA. Te projekty, współtworzone przez CloudFerro, pokazują europejską drogę: budowę europejskich alternatyw w strategicznych dziedzinach, jak bezpieczeństwo, klimat, nauka, kosmos czy obronność, przy jednoczesnym uzupełnianiu globalnego ekosystemu technologicznego.
K.C.: Czym technicznie różni się chmura zaprojektowana dla danych krytycznych (np. satelitarnych, meteorologicznych, obronnych) od klasycznych rozwiązań komercyjnych? Jakie wymagania stawiają tego typu systemy?
M.B.: Systemy dla danych krytycznych, np. z obserwacji Ziemi, wymagają znacznie wyższego poziomu niezawodności, bezpieczeństwa i odporności, co przekłada się na inny model projektowania i zarządzania infrastrukturą. System musi być zaprojektowany tak, aby działał nieprzerwanie, nawet w przypadku braku dostępu do energii, czy blackoutu. Wymaga to zastosowania odpowiednich mechanizmów zasilania awaryjnego i architektury, która eliminuje pojedyncze punkty awarii (no single point of failure), zarówno na poziomie infrastruktury, jak i procesów operacyjnych. Drugim istotnym wymogiem jest zdolność do przetwarzania dużych wolumenów danych w krótkim czasie, zwłaszcza w momentach intensywnego obciążenia (np. nagły napływ danych). System musi być skalowalny i gotowy do zapewnienia dużej mocy obliczeniowej w tych krytycznych okresach. Wreszcie, tego typu chmura musi być całościowo projektowana z myślą o odporności i ciągłości działania — nie tylko na poziomie technologii, ale także w zakresie procedur operacyjnych, monitorowania i zarządzania.
K.C.: Jak rozumieją Państwo w praktyce pojęcie „cyfrowej suwerenności”?
M.B.: Cyfrowa suwerenność to pełna kontrola infrastruktury i przechowywanych na niej danych. W praktyce oznacza to, że krytyczne dane pozostają pod lokalnym nadzorem i są przetwarzane zgodnie z krajowym lub unijnym prawem. Suwerenna chmura powinna działać na terenie danego kraju lub regionu (Europy), na infrastrukturze należącej do lokalnych dostawców, niepodlegających rządom państw spoza Europy. To istotne choćby w kontekście przepisów typu Cloud Act, które obligują amerykańskich dostawców do ujawniania danych na wezwanie ich sądów – nawet z serwerów w Europie. Poleganie na europejskich dostawcach eliminuje takie ryzyko i zwiększa zaufanie instytucji do chmury obliczeniowej. Równie ważna jest niezależność technologiczna – w CloudFerro budujemy nasze rozwiązania w oparciu o technologie open source, czyli otwartoźródłowe, unikając uzależnienia od konkretnego dostawcy technologii (tzw. vendor lock-in) i zapewniając interoperacyjność oraz pełną kontrolę nad rozwojem usług.
Suwerenność cyfrowa to pełna kontrola nad tym, gdzie i jak dane są przetwarzane i kto ma do nich dostęp — co ma kluczowe znaczenie dla strategicznych systemów administracyjnych, obronnych czy naukowych. Nie chodzi jednak o izolację. Europa powinna mieć własny ekosystem dostawców, by w strategicznych obszarach mieć realny wybór i autonomię. Nasze doświadczenia pokazują, że europejska chmura jest dziś rzeczywistą alternatywą dla Big Techów.
„Cyfrowa suwerenność to pełna kontrola nad tym, gdzie i jak dane są przetwarzane i kto ma do nich dostęp — co ma kluczowe znaczenie dla strategicznych systemów administracyjnych, obronnych czy naukowych.”
K.C.: Czy Polska jest dziś gotowa na rozwój własnych, wyspecjalizowanych chmur – np. dla sektora publicznego, naukowego, a może także dla obronności? Jakie są największe przeszkody i jakie warunki powinny zostać spełnione, by taki ekosystem realnie się rozwinął?
M.B.: Technologicznie jesteśmy gotowi — potrafimy tworzyć zaawansowane usługi chmurowe na światowym poziomie, np. dla sektora publicznego (choćby na potrzeby e-usług rządowych czy służby zdrowia), dla nauki (repozytoria danych badawczych z dedykowanym HPC) czy nawet dla wojska (odpowiedniki chmur NATO, zapewniające krajowe przechowywanie danych operacyjnych). Mamy w kraju odpowiednie technologie i kompetencje, dzięki czemu możemy realizować zaawansowane projekty na dużą skalę, ale potrzebne są długofalowa strategia i odważne decyzje.
Musimy postawić na usługi suwerennej chmury tam, gdzie stawką jest bezpieczeństwo państwa lub przewaga innowacyjna. Wymaga to początkowo determinacji, by przełamać przyzwyczajenia do rozwiązań Big Techu, lecz opłaci się w postaci niezależnego ekosystemu cyfrowego, tworzącego miejsca pracy w kraju i zwiększającego odporność naszej gospodarki. Warunkiem rozwoju ekosystemu jest także współpraca sektora publicznego z prywatnym. Polskie i Europejskie firmy i organizacje branżowe apelują o wyrównanie pola gry – nie o protekcjonizm, ale właśnie o uwzględnianie wartości dodanej lokalnych dostawców przy realizacji projektów państwowych. Jeśli administracja im zaufa, te usługi będą się tylko rozwijać. Rozwój lokalnych dostawców przynosi Polsce bezpośrednie korzyści w postaci nowych miejsc pracy dla wysoko wykwalifikowanych pracowników, lokalnych inwestycji, potencjału eksportowego i odprowadzanych podatków.
K.C.: W jakim stopniu doświadczenia z europejskich projektów, w których uczestniczy CloudFerro, mogą zostać przeniesione na rynek komercyjny – np. do sektora przemysłowego, utilities, rolnictwa czy energetyki?
M.B.: Doświadczenie zdobyte przez CloudFerro w realizacji dużych projektów chmurowych na bieżąco wdrażamy na rynku komercyjnym. Przede wszystkim projekty, w których uczestniczymy, wymagają budowy i utrzymania zaawansowanych technologicznie, skalowalnych usług w taki sposób, aby użytkownik miał do nich natychmiastowy dostęp, mógł analizować i efektywnie przetwarzać dane, uzyskując wiarygodne informacje. Te możliwości można bezpośrednio przełożyć na potrzeby sektorów, w których rośnie zapotrzebowanie na szybki dostęp do danych (np. z sensorów IoT czy danych geoprzestrzennych) i ich analizę w czasie rzeczywistym. Warto też podkreślić, że CloudFerro ma duże doświadczenie w wykorzystywaniu technologii open source, co eliminuje ryzyko vendor lock-in. To aspekt szczególnie doceniany w sektorze przemysłowym i energetycznym, gdzie interoperacyjność i długoterminowa niezależność technologiczna są kluczowe.
K.C.: Jakie trendy – technologiczne lub geopolityczne – będą miały Państwa zdaniem największy wpływ na przyszłość infrastruktury chmurowej w Europie w najbliższych latach?
M.B.: W najbliższych latach przyszłość infrastruktury chmurowej w Europie będzie determinowana przez kilka kluczowych trendów. Coraz większy nacisk kładzie się na cyfrową suwerenność, zgodność z lokalnymi regulacjami i ochronę danych – co przekłada się na rozwój europejskich suwerennych chmur i rosnące zainteresowanie usługami zgodnymi z prawem UE. Dynamicznie rozwijają się również wyspecjalizowane chmury sektorowe i ekosystemy współpracy, które lepiej odpowiadają na potrzeby konkretnych branż i pomagają uniezależnić się od globalnych dostawców. Równocześnie lawinowo rośnie zapotrzebowanie na zaawansowaną moc obliczeniową, zwłaszcza dla sztucznej inteligencji i analiz big data, co wymusza integrację chmury z superkomputerami i rozwój lokalnych rozwiązań AI. Kluczowe znaczenie zyskuje także bezpieczeństwo – zarówno poprzez rozproszenie infrastruktury, jak i wdrażanie zaawansowanych zabezpieczeń oraz kontrolę łańcucha dostaw, zwłaszcza w kontekście rosnących zagrożeń geopolitycznych.
Wszystko to sprawi, że europejska chmura stanie się coraz bardziej zdecentralizowana, bezpieczna i dostosowana do lokalnych potrzeb, a dzięki temu region zyska większą niezależność i przewagi konkurencyjne. W CloudFerro już teraz przygotowujemy się na te zmiany, rozwijając usługi w myśl zasady: więcej współpracy w europejskim ekosystemie, więcej mocy dla AI i dbałość o suwerenność oraz bezpieczeństwo naszych rozwiązań. Dzięki temu infrastruktura chmurowa w Europie ma szansę stać się fundamentem cyfrowej gospodarki, który oprze się zarówno technologicznym wyzwaniom, jak i geopolitycznym zawirowaniom.
Publiczna kłótnia Elona Muska z Donaldem Trumpem to nie tylko medialny spektakl, ale też sygnał, jak bardzo media społecznościowe zmieniły reguły gry w polityce i gospodarce. Gdy jeden tweet potrafi wywołać rynkową panikę, realną władzę coraz częściej mają ci, którzy potrafią ją skondensować do 280 znaków.
Ostatni konflikt na linii Trump–Musk nie jest więc tylko osobistą potyczką dwóch wpływowych mężczyzn. To znak czasów – i przestroga. Gdy emocjonalne reakcje wąskiej grupy opiniotwórczych osób są amplifikowane przez media społecznościowe, konsekwencje dla rynków i geopolityki mogą być natychmiastowe, a często trudne do odwrócenia.
Polityka w czasach X
Social media nie tylko przyspieszyły obieg informacji – one całkowicie przedefiniowały relacje między polityką, mediami a społeczeństwem. To, co kiedyś było wewnętrzną rozgrywką elit, dziś jest przedmiotem publicznej debaty, memów, sond i viralowych komentarzy. Elon Musk – właściciel platformy X i jednocześnie kluczowy gracz sektora kosmicznego, motoryzacyjnego i energetycznego – posiada dziś zasięg porównywalny do największych mediów, a przy tym nie podlega ich regułom.
To, że jego jedno zdanie potrafi obniżyć wycenę Tesli o 14%, mówi wiele nie tylko o sile jego marki osobistej, ale też o kruchości współczesnych rynków. Jeszcze ważniejsze: pokazuje, jak łatwo emocje i osobiste urazy mogą dziś wpływać na decyzje gospodarcze i polityczne.
Gdy emocje rządzą rynkiem
Przypadek Muska i Trumpa to także przypomnienie, że – jak mówi stare porzekadło – jeśli nie wiadomo o co chodzi, to zwykle chodzi o pieniądze. Krytyka „wielkiej, pięknej ustawy” budżetowej przez Muska mogła mieć źródło w realnych obawach o finanse państwa, ale równolegle godziła w interesy Tesli, która traci preferencje podatkowe. Odpowiedź Trumpa była równie polityczna, co osobista – bo jak wiadomo, każdy, kto podważa jego decyzje, staje się automatycznie zagrożeniem.
Obie strony mają tu wiele do stracenia. Muskowi zależy na utrzymaniu kontraktów federalnych dla SpaceX i dalszym wpływie na politykę technologiczną USA. Trumpowi zależy na budowie wizerunku lidera, który panuje nad wszystkim – nawet nad byłymi sojusznikami. Z tej gry nie zniknie ani ideologia, ani ekonomia – ale nie sposób nie zauważyć, że to właśnie pieniądze stanowią tu wspólny mianownik.
Polityk to też człowiek (i nie zawsze najlepszy szef HR)
Cała sytuacja ujawnia jeszcze jedną, mniej oczywistą prawdę: politycy – niezależnie od skali wpływów – nie są nieomylni w dobieraniu współpracowników. Musk był niegdyś bliskim doradcą w administracji Trumpa, odpowiadał za cięcie wydatków i reformę agend rządowych. Dziś, zaledwie kilka tygodni po odejściu, publicznie podważa sens reform, które współtworzył.
To stawia pytania nie tylko o lojalność czy motywacje, ale też o kompetencje w zakresie przywództwa i zarządzania relacjami. Społeczeństwo – coraz bardziej świadome, coraz lepiej poinformowane – ma prawo oczekiwać, że liderzy będą nie tylko skuteczni, ale też odporni emocjonalnie i odpowiedzialni. I że będą otaczać się ludźmi, którzy w trudnych chwilach nie będą działać impulsywnie.
Nowy porządek ilnformacji
Nie wszystko w tej historii jest negatywne. Era mediów społecznościowych niesie też istotną korzyść: trudniej dziś coś ukryć, zmanipulować lub zamieść pod dywan. Nawet jeśli Elon Musk nie zawsze formułuje swoje wypowiedzi w sposób wyważony, to jego działania i słowa stają się natychmiastowym przedmiotem debaty publicznej. To z kolei wymusza większą przejrzystość – zarówno po stronie biznesu, jak i polityki.
Jednak z drugiej strony, świat reagujący na emocjonalne wpisy miliarderów w czasie rzeczywistym to świat nieprzewidywalny. Ustawy o miliardowych skutkach gospodarczych, kontrakty kosmiczne czy stosunki międzynarodowe nie powinny zależeć od impulsu, z jakim ktoś naciska „Opublikuj”. I choć Musk wycofał się z groźby uziemienia kapsuły Dragon, a Trump próbował załagodzić spór, rysa na zaufaniu – i wartościach rynkowych – pozostała.?
Potrzebujemy nowego języka i nowej dojrzałości w komunikacji publicznej. Bo choć media społecznościowe otworzyły obywatelom dostęp do informacji i skróciły dystans do władzy, to równocześnie zatarły granicę między decyzją państwową a osobistą urazą. A to niebezpieczne.
Is it time to create a new political party in America that actually represents the 80% in the middle?
W czasach dynamicznie zmieniającego się świata technologii, powstanie sztucznej inteligencji (AI) oraz jej nagły rozwój wprowadziło w niemałe zakłopotanie przedstawicieli różnych stanowisk związanych z branżą IT. Niektórzy odbierają ją jako szansę oraz wsparcie, inni z kolei martwią się o utratę pracy i wyczuwają realne zagrożenie jakie może ze sobą nieść.
Czy sztuczna inteligencja może całkowicie zastąpić projektantów?
Jest to pytanie, które w ostatnim czasie często pojawia się na wielu forach. Właściwe wydaje się jednak podejście, że AI będzie niezastąpionym asystentem, pozwalającym skupić się na aspektach kreatywnych i strategicznych. W artykule omówię, jak sztuczna inteligencja wpływa na proces projektowania UX/UI, jakie korzyści i wyzwania niesie ze sobą oraz jakich zmian można spodziewać się w najbliższej przyszłości, w której intuicyjność i prostota korzystania z rozwiązań są kluczowe.
Wraz z rozwojem sztucznej inteligencji rynek narzędzi do projektowania UX/UI wzbogacił się o szereg innowacyjnych rozwiązań wspieranych przez AI. Technologie te nie tylko przyspieszają i ułatwiają proces projektowania, ale także pozwalają na bardziej precyzyjne i efektywne podejście do tworzenia interfejsów i doświadczeń użytkownika.
Jedną z kategorii narzędzi, która wydaje się nieść dużą wartość dla projektanta są narzędzia związane z automatyzacją procesu generowania prototypów i mockupów. Algorytmy narzędzi takich jak: FIGMA AI, Sketch AI, Uizard czy Designs AI, są w stanie analizować dane użytkowników, trendy wizualne oraz najlepsze praktyki projektowe, aby tworzyć wstępne wersje interfejsów, które mogą być następnie dostosowywane przez projektantów. Dzięki temu proces projektowania staje się szybszy i bardziej efektywny, a projektanci mogą skupić się na bardziej kreatywnych aspektach swojej pracy. Po kilkukrotnym użyciu niektórych narzędzi można stwierdzić, że wciąż daleko im do perfekcji. Tworzone projekty często odbiegają od pierwotnych założeń. Jednak jestem przekonany, że w przyszłości proces ten zostanie dopracowany, a efekty pracy z wykorzystaniem AI będą coraz lepiej odpowiadać oczekiwaniom i potrzebom użytkowników.
Kolejną gałęzią działania SI, której warto przyjrzeć się w przypadku projektowania jest pomoc i systematyzacja pracy projektowej. Sztuczna inteligencja może znacząco wpłynąć oraz ułatwić proces zarządzania projektem i harmonogramem. Zaawansowane algorytmy pozwalają na automatyczną analizę postępu prac, wykrycie trudności oraz opóźnień i natychmiastowe przedstawienie zmian, mających na celu ułatwienie realizacji założeń.
Sztuczna inteligencja efektywnie przydziela zadania, uwzględniając umiejętności i dostępność członków zespołu, co pozwala na optymalne rozdzielenie pracy i minimalizowanie ryzyka przeciążenia. Dodatkowo, monitorując wydajność w czasie rzeczywistym, AI dostarcza cennych danych, które umożliwiają szybsze podejmowanie decyzji. Narzędzia takie jak Trello, Asana czy Monday, wzbogacone o sztuczną inteligencję, pozwalają na bardziej zorganizowane i przewidywalne zarządzanie projektem, oszczędzając czas i zwiększając efektywność. W ten sposób sztuczna inteligencja wspiera projektantów, umożliwiając lepsze planowanie i realizację zadań.
Innym przykładem jest wykorzystanie AI do gromadzenia danych o użytkownikach oraz ich późniejszej analizy, umożliwiającej lepsze zrozumienie zachowań i potrzeb. Narzędziami, które umożliwiają taką analize, są między innymi Hotjar, Mixpanel, Amplitude oraz Google Analytics 4 (GA4). Sztuczna inteligencja pozwala projektantom na przetwarzanie i interpretowanie ogromnych ilości danych, dzięki którym następnie można precyzyjniej określić potrzeby użytkownika i to jak ma wyglądać interfejs projektowanych systemów czy usług.
Projekty oparte na danych, a nie tylko na intuicji
Sztuczna inteligencja pomaga w identyfikacji wzorców zachowań, przewidywaniu przyszłych działań użytkowników oraz automatycznym segmentowaniu ich na podstawie interakcji z produktem. Przykładowo, Google Analytics 4 wykorzystuje modele predykcyjne do określania prawdopodobieństwa konwersji, a Hotjar pozwala analizować nagrania sesji użytkowników i mapy cieplne, wskazując obszary, które wymagają optymalizacji. W efekcie projektanci UX/UI mogą szybciej reagować na potrzeby klientów i podejmować trafniejsze decyzje biznesowe oparte na danych, a nie jedynie na intuicji.
W dobie rosnącego znaczenia dostępności i inkluzywności nie można zapomnieć o narzędziach sztucznej inteligencji, które wspierają projektowanie przyjaznych i dostępnych rozwiązań dla wszystkich użytkowników.
Dostępność – czyli jeden z najważniejszych aspektów nowoczesnego projektowania oznacza tworzenie produktów cyfrowych dostępnych dla wszystkich użytkowników, niezależnie od ich ograniczeń technologicznych, poznawczych czy fizycznych. W tej dziedzinie sztuczna inteligencja ma naprawdę duży potencjał. Pozwala na automatyczne generowanie napisów do materiałów audiowizualnych (np. Whisper od OpenAI), a podczas projektowania umożliwia analizę części interfejsu pod kątem użytkowników z niepełnosprawnościami.
Spójrz na projekt z perspektywy osoby z niepełnosprawnością
Sztuczna inteligencja jest w stanie przybliżyć projektantowi jak osoby z określonymi dysfunkcjami mogą korzystać z tworzonego rozwiązania. Dzięki temu rozwiązania cyfrowe stają się bardziej inkluzywne i lepiej dopasowane do potrzeb szerokiego grona odbiorców. Wtyczka Stark, stworzona z myślą o narzędziu projektowym Figma, oferuje szereg funkcji umożliwiających symulację, w jaki sposób osoby z różnymi problemami ze wzrokiem mogą odbierać projekt.
Podsumowując, automatyzacja wspierana przez sztuczną inteligencję staje się coraz bardziej istotnym elementem procesu projektowania UX/UI. Narzędzia i technologie oparte na AI oferują projektantom szereg możliwości, które mogą znacząco przyspieszyć i usprawnić ich pracę, jednocześnie zachowując wysoką jakość i dostosowanie do potrzeb użytkowników. W przyszłości możemy spodziewać się, że sztuczna inteligencja będzie odgrywać coraz większą rolę w projektowaniu UX/UI, wspierając projektantów i ułatwiając im pracę. Jednak nie zastąpi ona całkowicie ludzkiego wkładu w projekt, lecz raczej stanie się nieocenionym wsparciem, umożliwiając tworzenie lepszych i bardziej zaawansowanych rozwiązań w zdecydowanie krótszym czasie. Współpraca między ludźmi, a sztuczną inteligencją będzie kluczowa dla dalszego rozwoju i innowacji w dziedzinie projektowania UX/UI.
O autorze: Karol Danis – Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy. Junior UX Designer z pasją do uczenia się przez działanie. Uważa, że prostota i intuicyjność to fundament każdego projektu. W pracy poszukuje balansu pomiędzy estetyką, a funkcjonalnością. Ceni empatię i lubi pracować blisko użytkowników oraz zespołu.
W dniu 20 lutego 2025 r. na stronie Prezesa Urzędu Ochrony Danych Osobowych („PUODO”) opublikowano zaktualizowany poradnik dotyczący naruszeń ochrony danych osobowych („Poradnik”). Ponieważ niektóre sformułowania poradnika wywołały duże kontrowersje, PUODO zorganizował również webinar w celu wyjaśnienia niejasności dot. RODO. Główne wątpliwości dotyczyły stanowiska PUODO na temat tego w jakich przypadkach należy zgłaszać naruszenia oraz roli inspektorów ochrony danych („IOD”) w procesie oceny naruszeń.
W dalszej części artykułu zostaną opisane wybrane kwestie dotyczące obsługi naruszeń poruszone w Poradniku i podczas webinaru.
Czy wszystkie przypadki naruszeń RODO należy zgłaszać do UODO?
Nie. UODO podkreślił, że poradnik nie miał na celu zmiany dotychczasowej praktyki, a jedynie przedstawienie stanowiska UODO prostszym językiem. W razie wątpliwości interpretacyjnych, należy odnosić się do tekstu RODO, jak i do wytycznych EROD (Europejskiej Rady Ochrony Danych).
Aby ocenić, czy naruszenie należy zgłosić do UODO należy zastanowić się nad tym, czy istnieje prawdopodobieństwo wystąpienia ryzyka dla praw i wolności osób dotkniętych naruszeniem. Nie trzeba zgłaszać tych przypadków naruszeń, w których zostanie ustalone, że ryzyko naruszenia praw lub wolności jest mało prawdopodobne. W Poradniku UODO określił te przypadki skrótowo jako: „brak ryzyka”, jednak podczas webinarium wskazano, że było to jedynie pewne uproszczenie (nie chodzi więc o całkowity brak ryzyka, a małe prawdopodobieństwo jego wystąpienia).
Na tym etapie nie bada się więc wagi ryzyka, a prawdopodobieństwo jego wystąpienia. Możemy więc mieć do czynienia z przypadkami, w których zajdzie konieczność zgłoszenia naruszenia skutkującego małym (acz bardzo prawdopodobnym) ryzykiem naruszenia, jak i z przypadkami odwrotnymi – kiedy zgłoszenia nie trzeba będzie realizować mimo dużego ryzyka, jeśli prawdopodobieństwo wystąpienia ryzyka jest małe. Chodzi o ustalenie, czy są realne szanse, aby osoby, których dane dotyczą odczuły negatywne konsekwencje zdarzenia.
Jako przykłady sytuacji, w których prawdopodobieństwo wystąpienia ryzyka jest małe (brak ryzyka) wskazano w Poradniku następujące:
ujawnienie danych, które są już publicznie dostępne;
ujawnienie lub utracenie danych zaszyfrowanych w sposób zapewniający ich nieczytelność dla osób nieupoważnionych;
definitywne zaradzenie incydentowi przez administratora (np. mimo, że dokumenty zawierające dane osobowe wyrzucono na śmietnik administrator dysponuje dowodem, że nikt do nich nie zaglądał (nagrania z monitoringu), a administrator odzyskał dokumenty). \
Powyższe przypadki stanowią jedynie przykłady sytuacji, które należy uznać za sytuacje uzasadniające brak zgłoszenia – nie jest to katalog zamknięty.
UODO podkreślał jednak wielokrotnie, że zasadą jest zgłaszanie naruszeń, a więc jeśli administrator decyduje się nie zgłaszać danego naruszenia, powinien umieć wykazać, że w danym przypadku ryzyko nie jest prawdopodobne.
Kiedy zgłaszać naruszenia?
RODO wprowadza regułę, zgodnie z którą naruszenie powinno zostać zgłoszone w ciągu 72 godzin od momentu stwierdzenia naruszenia. Chodzi o zgłaszanie takich incydentów bezpieczeństwa, które dotyczą danych osobowych i mogą prowadzić do nieuprawnionego naruszenia poufności, integralności lub dostępności danych. Ustalenie dokładnej chwili, od której należy liczyć rozpoczęcie biegu terminu 72 godzin budzi jednak wątpliwości.
W opinii Urzędu o tym, kiedy zgłosić naruszenie decyduje dostateczna pewność administratora, że mamy do czynienia z naruszeniem. Czyli przykładowo sytuacja, w której administrator (i) wie, że ma do czynienia z incydentem bezpieczeństwa, (iii) incydent dotyczy danych osobowych, (iii) administrator nie jest na sto procent pewny, że skutek się wydarzył, ale zdaje sobie sprawę z tego, że mogło do niego dojść (jest na to duża szansa). W takiej sytuacji, mimo braku stuprocentowej pewności według UODO rozpoczyna się bieg terminu na zgłoszenie naruszenia – istnieje bowiem realna szansa, że doszło do naruszenia.
Podczas webinaru analizowano również przypadek ataku na infrastrukturę administratora pod kątem momentu, w którym rozpoczyna biec termin na zgłoszenie naruszenia. Pytanie dotyczyło tego, czy jeśli po ataku administrator zleci analizę powłamaniową, momentem rozpoczęcia biegu terminu na zgłoszenie naruszenia może być moment otrzymania informacji zwrotnej od zewnętrznej firmy informatycznej zaangażowanej do analizy zdarzenia. Przedstawiciel UODO nie wykluczył, że może to być ten moment, jednak zastrzegł, że będzie to zależeć od okoliczności danej sprawy, w szczególności od tego czy administrator działał z należytą starannością, odpowiednio wcześnie podejmując działania zmierzające do wyjaśnienia okoliczności zdarzenia. Istotne jest też, aby administrator miał wdrożone takie środki techniczne i administracyjne, aby jak najwcześniej mógł stwierdzić wystąpienie naruszenia.
Jaka jest rola inspektora ochrony danych w procesie oceny naruszenia?
UODO podkreślił, że inspektor ochrony danych odgrywa istotną rolę w procesie oceny naruszeń, dlatego powinien być włączany w proces obsługi naruszenia na jak najwcześniejszym etapie. Rola IOD jest jednak rolą głównie doradczą. Nie powinno się więc delegować na IOD obowiązków nałożonych przez RODO bezpośrednio na administratorów. W szczególności IOD nie powinien zgłaszać naruszeń ochrony danych osobowych w imieniu administratora, wysyłać takich zgłoszeń, zawiadamiać w imieniu administratora podmiotów danych, dokumentować naruszeń za administratora (w szczególności, jeśli wiązałoby się to z określaniem działań zaradczych), podejmować zobowiązań dotyczących bezpieczeństwa przetwarzania danych, czy też działać na podstawie pełnomocnictwa w sprawach związanych z ochroną danych osobowych.
W ocenie UODO, podejmowanie powyższych działań może się wiązać z ryzykiem (i) konfliktu interesów (np. w sytuacji, gdy IOD najpierw byłby zobowiązany do przygotowania dokumentacji, a później jej monitorowania); (ii) naruszenia niezależności IOD (działanie na podstawie pełnomocnictwa wymaga ścisłego wykonywania poleceń).
Podczas webinaru wyjaśniono jednak, że IOD pełni ważną rolę w procesie obsługi naruszenia i nie jest całkowicie pozbawiony możliwości dokumentowania naruszenia – wręcz przeciwnie, może prowadzić taką dokumentację, jednak nie powinien jej prowadzić w imieniu administratora. Administrator powinien konsultować z IOD sposób postępowania z naruszeniami, radzić się inspektora, w szczególności w przypadku trudniejszych, mniej oczywistych przypadków naruszeń.
W związku z nowymi wytycznymi PUODO warto dokonać przeglądu wewnętrznych polityk i procedur dotyczących procesu obsługi naruszeń pod kątem zgodności ze stanowiskiem wyrażonym w Poradniku.
Wobec rosnących napięć geopolitycznych i nowych barier handlowych, CIO w całej Europie na nowo definiują swoje podejście do infrastruktury IT. Chmura przestaje być wyłącznie narzędziem operacyjnym — staje się decyzją strategiczną, w której liczy się już nie tylko technologia, ale także pochodzenie, kontrola i zaufanie.
W centrum tej zmiany znajdują się hiperskalerzy, którzy przez lata dominowali na rynku dzięki skali, innowacyjności i ekosystemom usług. Jednak w świetle nowych barier handlowych oraz presji na suwerenność technologiczną, europejskie organizacje zaczynają przyglądać się lokalnym alternatywom. Dla OVHcloud, Bleu czy projektów takich jak Gaia-X może to być szansa, by przejść z cienia do głównego nurtu.
Od wygody do kalkulacji ryzyka
Przez ponad dekadę wybór chmury publicznej był dla europejskich firm decyzją techniczno-biznesową: liczyła się dostępność usług, szybkość wdrożeń i zgodność z przepisami. Amerykańscy hiperskalerzy spełniali te wymagania, a ich globalna skala i nacisk na zgodność z lokalnymi regulacjami czyniły ich naturalnym wyborem.
Obecnie ten model zaczyna się kruszyć. Cła, ograniczenia eksportowe oraz zmieniająca się polityka zagraniczna USA wprowadzają nową zmienną — ryzyko strategiczne. Firmy z sektora publicznego i branż regulowanych coraz częściej biorą pod uwagę scenariusze, w których dostęp do infrastruktury chmurowej może być ograniczony przez czynniki niezwiązane z technologią. Dodatkowo, spadek zaufania do instytucji transatlantyckich skłania decydentów do szukania większej kontroli nad kluczowymi zasobami IT.
W rezultacie komfortowa dominacja amerykańskich dostawców ustępuje miejsca bardziej zniuansowanej kalkulacji — uwzględniającej nie tylko cenę i wydajność, ale także przewidywalność polityczną, zgodność operacyjną i możliwość odzyskania kontroli nad danymi w sytuacjach kryzysowych.
Europejska odpowiedź — aspiracje vs. rzeczywistość
Europa nie od dziś deklaruje ambicję uniezależnienia się od zewnętrznych dostawców technologii infrastrukturalnych. Inicjatywy takie jak Gaia-X, Bleu czy rozwój regionalnych dostawców pokroju OVHcloud miały stać się fundamentem suwerennej chmury. Dotąd jednak ich wpływ na rynek enterprise pozostawał stosunkowo niewielki — głównie z powodu ograniczonej skali, braku usług porównywalnych z hiperskalerami czy też agresywnej konkurencji ze strony liderów rynku cloud.
Obecna sytuacja zmienia percepcję, ale nie rozwiązuje problemów strukturalnych. Wiele organizacji nadal uzależnionych jest od narzędzi i architektur opartych o technologie amerykańskie — nawet jeśli formalnie hostowane są lokalnie.
Mimo to, rośnie gotowość do testowania alternatyw. W segmencie publicznym i w branżach krytycznych widać wzrost zapytań o rozwiązania „europejskie z definicji”, także w kontekście surowych regulacji dotyczących danych i compliance. Dla lokalnych graczy to moment, który może nie powtórzyć się w najbliższych latach — ale tylko pod warunkiem, że dostarczą nie tylko zgodność z przepisami, ale i realną wartość operacyjną.
Realia kanału IT i dostawców technologii
Rosnące zainteresowanie europejskimi alternatywami chmurowymi nie pozostaje bez wpływu na kanał sprzedaży IT. Partnerzy — od integratorów po MSP — muszą dziś na nowo definiować swoją rolę w środowisku, gdzie motywacje zakupowe klientów wykraczają poza czysto techniczne kryteria.
Dostawcy usług IT stają przed rosnącym zapotrzebowaniem na rozwiązania, które nie tylko spełniają wymagania funkcjonalne, ale także wspierają cele związane z suwerennością technologiczną i zgodnością z lokalnymi regulacjami. To oznacza konieczność inwestycji w nowe kompetencje, certyfikacje i integracje z mniej znanymi platformami. W wielu przypadkach partnerzy muszą edukować klientów, gdzie przebiega granica między lokalnym hostingiem a rzeczywistą niezależnością operacyjną i prawną.
Równolegle, presja na transparentność łańcucha dostaw i zarządzanie ryzykiem geopolitycznym sprawia, że vendorzy i dystrybutorzy muszą jasno komunikować pochodzenie rozwiązań, ścieżki danych i zgodność z europejskimi standardami. Dla kanału to okazja do zbudowania przewagi konkurencyjnej — o ile potrafi szybko dostosować się do zmieniającej się mapy lojalności klientów.
Czy to moment przełomowy?
Kumulacja czynników zewnętrznych — od napięć handlowych, przez regulacje dotyczące danych, po niestabilność polityczną — stwarza warunki, które mogą przyspieszyć realokację zaufania technologicznego. Po raz pierwszy europejskie firmy zaczynają traktować chmurę nie tylko jako infrastrukturę operacyjną, ale jako komponent strategicznej odporności.
Jednak czy to wystarczy, by przełamać dominację amerykańskich hiperskalerów? Na razie to bardziej przesunięcie w narracji niż strukturalna zmiana. Wiele będzie zależało od tego, czy europejscy dostawcy potrafią zbudować ofertę nie tylko zgodną z oczekiwaniami politycznymi, ale też konkurencyjną technologicznie. Z kolei po stronie klientów kluczowe będzie, czy obecna fala niepokoju przekształci się w trwałą zmianę kryteriów zakupowych.
W praktyce oznacza to, że przełom nie nastąpi automatycznie — ale warunki do jego zaistnienia pojawiły się po raz pierwszy od dekady. To otwarte okno, które może zdefiniować nowy porządek technologiczny w Europie — lub szybko się zamknąć, jeśli nie zostanie wykorzystane.
Europa przez lata korzystała z globalnej infrastruktury chmurowej bez konieczności podejmowania strategicznych decyzji o niezależności. Dziś, w obliczu narastających napięć geopolitycznych i rosnącej niepewności regulacyjnej, pytanie o suwerenność technologii przestaje być abstrakcyjne. To, czy europejscy gracze wykorzystają tę szansę, zależy nie tylko od ich zdolności do innowacji, ale przede wszystkim od gotowości rynku do zmiany przyzwyczajeń — i od kanału IT, który będzie musiał tę zmianę przeprowadzić.
Tradycyjny model kanału IT – oparty na sprzedaży sprzętu poprzez programy partnerskie IT, na rabatach i celach kwartalnych – przestaje być opłacalny. Klienci oczekują doradztwa, nie tylko dostawy. Zamiast „domykać transakcje”, partnerzy muszą pomagać w rozwiązywaniu problemów biznesowych.
Transformacja modelu sprzedaży – z resellingu na usługi i subskrypcje – nie dzieje się samoistnie. Liderzy kanału, którzy chcą utrzymać pozycję, muszą aktywnie wspierać partnerów w zmianie ich kompetencji, oferty i sposobu działania. Bez tego – ryzykują utratę nie tylko wyników, ale i lojalności ekosystemu.
Od resellera do doradcy – co to właściwie znaczy?
Reseller skupia się na transakcji – sprzedaje produkt, realizuje cel, zamyka temat. Doradca zaczyna od pytania: „Jaki problem próbujesz rozwiązać?”. Różnica jest zasadnicza – i kluczowa w świecie, gdzie technologia stała się narzędziem strategii biznesowej.
By działać jako doradca, partner musi rozumieć procesy klienta, znać jego cele i mieć kompetencje, by rekomendować rozwiązania z różnych warstw – od infrastruktury po aplikacje i usługi. Oznacza to zmianę nie tylko w modelu sprzedaży, ale też w kulturze organizacyjnej partnera.
To przesunięcie z pozycji dostawcy na pozycję zaufanego partnera – i jednocześnie test dojrzałości całego kanału.
Rola lidera w tej transformacji
Partnerzy nie przechodzą transformacji samodzielnie. Potrzebują jasnych drogowskazów, wsparcia kompetencyjnego i realnego powodu, by zmienić sprawdzony model działania. To zadanie dla liderów kanału – nie tylko menedżerów celów sprzedażowych, ale architektów ekosystemu.
Skuteczni liderzy nie ograniczają się do dystrybucji narzędzi i certyfikacji. Inwestują czas w zrozumienie modeli biznesowych partnerów, pomagają budować nowe oferty i wspierają w rozmowach z klientami końcowymi. Tworzą przestrzeń do współpracy – zamiast wymagać dostosowania się do sztywnych struktur. Transformacja kanału to nie tylko wdrożenie nowych programów. To zmiana relacji – z operacyjnej na strategiczną.
Co działa w praktyce? – dobre praktyki liderów
Liderzy, którzy skutecznie wspierają transformację partnerów, stawiają na praktyczne narzędzia i systematyczne wsparcie, a nie jednorazowe akcje.
Najlepiej sprawdza się model enablementu zintegrowanego z realnym cyklem sprzedaży: warsztaty biznesowe zamiast typowych szkoleń produktowych, wspólne budowanie ofert z partnerem, a także wsparcie presales w terenie. Wartością dodaną jest nie tyle technologia, co umiejętność przełożenia jej na język klienta końcowego.
Coraz więcej liderów wprowadza wspólne planowanie biznesowe z partnerami – nie jako formalność, ale jako narzędzie do realnego rozwoju ich oferty, kompetencji i pipeline’u.
Tam, gdzie to podejście działa, partnerzy przestają pytać o rabat. Zaczynają pytać, jak wejść w nowy segment rynku.
Najczęstsze błędy liderów (i jak ich unikać)
Największym błędem liderów kanału jest założenie, że transformacja partnerów dokona się sama – wystarczy ogłosić nową strategię i wprowadzić program. W praktyce bez konsekwentnego wsparcia, partnerzy zostają z nowymi wymaganiami, ale bez narzędzi, żeby im sprostać.
Inny błąd to traktowanie transformacji jako kampanii sprzedażowej z deadline’em. Zmiana modelu biznesowego partnera wymaga czasu, iteracji i zaufania. Liderzy, którzy oczekują szybkich wyników, często wypalają potencjał zamiast go rozwijać.
Równie ryzykowne jest myślenie, że „wszyscy partnerzy są tacy sami”. Brak segmentacji prowadzi do rozmycia komunikacji i utraty wpływu tam, gdzie jest realna szansa na rozwój.
Transformacja to proces. Liderzy, którzy ją rozumieją, mierzą postęp relacjami i kompetencjami – nie tylko wynikami kwartalnymi.
Wnioski: Liderzy jako architekci zmiany
Transformacja kanału nie sprowadza się do zmiany programu partnerskiego. To redefinicja roli partnera w łańcuchu wartości – z dostawcy technologii na doradcę biznesowego.
Liderzy, którzy rozumieją tę zmianę, nie skupiają się wyłącznie na wynikach. Inwestują w relacje, rozwijają kompetencje partnerów i współtworzą z nimi nowe modele biznesowe. Działają jak architekci – projektując struktury, które pozwalają rosnąć obu stronom.
W dłuższej perspektywie to nie rabat ani certyfikat decydują o przewadze konkurencyjnej w kanale. Decyduje jakość przywództwa – i zdolność lidera do prowadzenia partnerów przez zmianę, której sami nie byliby w stanie przeprowadzić.
W dobie dynamicznego rozwoju technologii, sztuczna inteligencja staje się nieodłącznym elementem wielu dziedzin życia, w tym również doradztwa biznesowego. Doradcy prawni i podatkowi dostają do rąk nowe narzędzia, pozwalające zwiększyć efektywność i podwyższyć jakość usług realizowanych dla klientów. Z drugiej strony, muszą oni stawić czoła nowym wyzwaniom, jakie niesie ze sobą integracja AI w ich codziennej pracy. Warto przyjrzeć się tym zagadnieniom, szczególnie w ramach aspektów prawnych i podatkowych.
Wykorzystanie AI a zgodność z prawem: szukając równowagi
Przy tak szybkim rozwoju technologii AI i możliwościach, które ona przynosi, współcześni doradcy, zwłaszcza prawni i podatkowi, mierzą się ze szczególnie złożonym problemem – szukania równowagi między adopcją innowacji technologicznych, a fundamentalnymi zobowiązaniami wobec klientów, kwestią zaufania oraz zasadami etyki zawodowej oraz zapewnieniem stosowania narzędzi AI zgodnie z prawem.
AI jako potężny sojusznik dla nowoczesnych doradców prawnych
AI oferuje niespotykane dotąd możliwości, które mogą poprawić jakość świadczenia usług prawnych. Zaawansowane systemy mogą analizować tysiące dokumentów w bardzo krótkim czasie, znacząco poprawiając efektywność badania i zapewniając kompleksową analizę dużych ilości danych. Sporządzanie dokumentów zostało znacząco usprawnione dzięki narzędziom AI, które mogą proponować konkretne rozwiązania (takie jako klauzule umowne czy argumenty w sporach) na podstawie ogromnych baz danych wzorcowych rozwiązań.
Dla dużych klientów biznesowych o złożonych potrzebach prawnych AI zapewnia znaczną wartość poprzez ulepszone zarządzanie danymi i analizę. Działy prawne mogą korzystać z AI, aby identyfikować możliwości obniżenia kosztów, opracowywać strategie biznesowe, minimalizować ryzyka związane z umowami i usprawniać świadczenie usług.
Krytyczne ryzyka prawne i strategie zaradcze
Pomimo tych korzyści odpowiedzialna integracja AI w praktyce prawnej wymaga świadomości kilku istotnych ryzyk.
Nieścisłości i „halucynacje” Systemy AI, szczególnie oparte na dużych modelach językowych (LLM), mogą generować nieprawidłowe podane w sposób stwarzający pozór wiarygodności. Te „halucynacje” stanowią poważne ryzyko w kontekście prawnym, gdzie precyzja jest kluczowa. Wdrożenie rygorystycznych protokołów weryfikacji jest niezbędne – wszystkie wyniki AI muszą być niezależnie zweryfikowane i krytycznie ocenione przez doświadczonych specjalistów, w oparciu o właściwe źródła przed ich zastosowaniem w sprawach klientów. W tym kontekście rola doświadczonego doradcy jest kluczowa – bez udziału takich osób w procesie realizacji usług doradczych, ryzyko błędów i poważnych negatywnych skutków znacząco rośnie.
Bezpieczeństwo danych i poufność Kluczowym wyzwaniem jest zachowanie poufności danych klientów, zwłaszcza w kontekście tajemnicy zawodowej. Wprowadzanie wrażliwych informacji klientów do narzędzi AI może stanowić naruszenie tajemnicy zawodowej czy innego rodzaju zobowiązań z zakresu poufności i powodować dla klientów poważne ryzyka. W tym kontekście kluczowa jest przede wszystkim znajomość technologii, ścisła kontrola używanych narzędzi i wysoki poziom ekspertyzy technologicznej po stronie samych doradców (i ich organizacji). Szczególnie istotna z perspektywy bezpieczeństwa i poufności danych klientów jest własna infrastruktura techniczna doradców, w ramach której uruchamiane są narzędzia wspierające realizację usług. Firmy doradcze inwestujące w dedykowane, zabezpieczone systemy AI działające w ich własnym, kontrolowanym środowisku IT mogą znacznie zmniejszyć ryzyka związane z poufnością i tajemnicą zawodową. Takie rozwiązanie zwiększa bezpieczeństwo, że dane klientów pozostają w obrębie organizacji doradcy oraz są chronione przez istniejące ramy zarządzania danymi i protokoły bezpieczeństwa. W przeciwieństwie do modeli publicznych, gdzie praktyki dotyczące obsługi danych mogą być niejasne, firmy doradcze posiadające własną infrastrukturę zachowują zdecydowanie większą kontrolę nad przechowywaniem, przetwarzaniem i usuwaniem danych. Stanowi to więc element budowy przewagi konkurencyjnej poprzez zwiększenie bezpieczeństwa, poufności oraz podstawę budowania zaufania.
Zagadnienia dotyczące własności intelektualnej Użycie systemów AI powoduje szereg złożonych problemów prawnych dotyczących obszaru własności intelektualnej, zarówno w odniesieniu do treści wykorzystywanej do szkolenia modeli, jak i generowanych elementów, dostarczanych w ramach realizacji usług. Doradcy prawni muszą wdrożyć procesy przeglądu wyników AI pod kątem potencjalnych naruszeń praw własności intelektualnej oraz przeprowadzać dokładne due diligence narzędzi AI, aby kontrolować źródła danych szkoleniowych.
Zobowiązania etyczne i zawodowe doradców Niezależnie od gwałtownego rozwoju technologii, zobowiązania etyczne doradców prawnych czy podatkowych pozostają niezmienione w erze AI. Muszą oni tak budować swoje kompetencje i wdrażać metody realizacji usług, żeby nie naruszyć fundamentalnych zasad etyki zawodowej. Krytyczna kontrola dostarczanych klientom rezultatów, umiejętność bezpiecznego stosowania i doboru narzędzi AI czy nadrzędna zasada niezależności i nadrzędności tajemnicy zawodowej, to zagadnienia, nad którymi doradcy prawni czy podatkowi powinni skupić się szczególnie wobec gwałtownego rozwoju technologii AI.
Droga naprzód: odpowiedzialna integracja
Nowoczesny doradca prawny czy podatkowy może i powinien wdrażać narzędzia AI, jednocześnie zachowując zgodność z normami prawnymi i etycznymi. Wymaga to wdrożenia kompleksowych ram zarządzania, które obejmują:
jasne polityki dotyczące odpowiednich przypadków użycia AI
rygorystyczne procedury weryfikacji dla wszystkich treści generowanych przez AI
zastosowanie najwyższej jakości procedur i środków do zapewnienia bezpieczeństwa i poufności danych
stałe szkolenia i doskonalenie zawodowe, aby zapewnić personelowi zrozumienie zarówno możliwości, jak i ograniczeń AI.
Podchodząc do wdrażania i stosowania AI w sposób przemyślany, doradcy prawni i podatkowi mogą wykorzystać możliwości dawane przez rozwiązania technologiczne, jednocześnie zachowując podstawowe wartości zaufania, tajemnicy zawodowej i wysokiej jakości doradztwa. Jednocześnie ten proces nie może odbywać się bez posiadania odpowiedniej infrastruktury pozwalającej na bezpieczne wykorzystanie nowych rozwiązań.
AI w świecie podatków
W kontekście doradztwa podatkowego, AI może znacząco usprawnić procesy analizy podatkowej i planowania podatkowego. Zaawansowane algorytmy mogą identyfikować efektywne strategie podatkowe, analizować ryzyka związane z różnymi scenariuszami podatkowymi oraz przewidywać skutki zmian w przepisach podatkowych. Dzięki AI, doradcy podatkowi mogą szybciej i dokładniej identyfikować skutki podatkowe poszczególnych decyzji i działań.
Jednakże, podobnie jak w przypadku doradztwa prawnego, istnieją pewne ryzyka związane z wykorzystaniem AI w doradztwie podatkowym. Przede wszystkim, systemy AI muszą być regularnie aktualizowane, aby uwzględniać najnowsze zmiany w przepisach podatkowych oraz stanowiska organów podatkowych. Ponadto, doradcy podatkowi muszą zachować ostrożność, aby nie polegać wyłącznie na wynikach generowanych przez AI, ale również przeprowadzać własne analizy i weryfikacje.
Skomplikowane transakcje podatkowe Jednym z obszarów, w którym AI może się „pogubić”, są przykładowo skomplikowane transakcje połączenia spółek. Takie transakcje często wiążą się z wieloma złożonymi aspektami podatkowymi, które mogą być trudne do zrozumienia i prawidłowego zinterpretowania przez systemy AI. Na przykład, różne jurysdykcje mogą mieć odmienne przepisy dotyczące opodatkowania transakcji połączenia spółek, co może prowadzić do błędnych wniosków i nieprawidłowych rekomendacji podatkowych. W takich przypadkach, konieczna jest weryfikacja umożliwiająca dokładne przeanalizowanie sytuacji i zapewnienie zgodność z obowiązującymi przepisami.
Transakcje międzynarodowe To obszar, w którym AI może napotkać szczególne trudności. Różne kraje mają różne przepisy podatkowe, a transakcje międzynarodowe mogą wiązać się z wieloma złożonymi aspektami, takimi jak podwójne opodatkowanie, przepisy dotyczące cen transferowych czy różnice w stawkach podatkowych. AI może mieć trudności z prawidłowym uwzględnieniem wszystkich tych czynników, co może prowadzić do błędnych rekomendacji podatkowych.
Ryzyka, ale i perspektywy związane z AI w doradztwie podatkowym
Jednym z ryzyk związanych z AI w doradztwie podatkowym jest możliwość wprowadzenia nieprawidłowych danych wejściowych. Systemy AI opierają się na danych, które są wprowadzane do ich algorytmów. Jeśli dane te są nieprawidłowe lub niekompletne, wyniki generowane przez AI mogą być błędne.
AI może mieć również trudności z uwzględnieniem kontekstu, który jest bardzo istotny w doradztwie podatkowym. Na przykład, AI może nie uwzględnić specyficznych okoliczności dotyczących danej transakcji, które mogą mieć wpływ na jej opodatkowanie.
Równocześnie AI oferuje ogromne możliwości poprawy efektywności i jakości usług doradczych. Jednakże zastosowanie tej technologii wymaga odpowiedzialnego podejścia i świadomości ryzyk związanych z jej wykorzystaniem. Zestawiając ze sobą korzyści i możliwości wynikające z zastosowania narzędzi AI, z obszarami ryzyka, które generuje ich wykorzystywanie – nie ulega wątpliwości, że sztuczna inteligencja nie może na obecnym etapie zastąpić pracy człowieka, zwłaszcza posiadającego znaczące doświadczenie zawodowe. Co więcej, w niewprawnych rękach użycie narzędzi AI może powodować więcej szkód niż przynosić korzyści.
Natomiast zastosowanie technologii AI przez doświadczonych doradców, posiadających przy tym umiejętności prawidłowego wykorzystywania narzędzi AI, daje znaczące synergie. W tym układzie nowa technologia znacząco zwiększa efektywność i jakość dostarczanych usług, a jednocześnie pozwala na kontrolowane i wyłączane kluczowych ryzyk. To właśnie to podejście, połączenie człowieka i technologii, daje najlepsze efekty.
O autorach:
Dagmara Leonik – radczyni prawna, doradczyni podatkowa, menedżerka w Zespole People Advisory Services Tax, EY Polska Marcin Ręgorowicz – radca prawny, menedżer w Zespole Własności Intelektualnej, Technologii i Danych Osobowych w Kancelarii EY Law
Branża IT ulega przekształceniom, zwłaszcza w kanale sprzedaży. Przez lata wielu producentów IT stawiało na szeroką obecność w kanale – im więcej partnerów, tym większy potencjał wzrostu. Dziś to podejście traci na znaczeniu. Coraz więcej vendorów celowo ogranicza liczbę aktywnych partnerów, koncentrując działania na wyselekcjonowanej grupie resellerów i integratorów, którzy realnie wpływają na sprzedaż.
Zamiast skalować liczbę kont, vendorzy wolą pogłębiać relacje z tymi, którzy już mają dostęp do strategicznych klientów i kompetencje w dostarczaniu złożonych rozwiązań. Taka selektywność oznacza wyższe wymagania, ale też większą gotowość do inwestycji po stronie producenta – od wspólnego planowania sprzedaży po priorytetowy dostęp do zasobów presales i środków MDF.
Niektórzy globalni vendorzy, jak Dell Technologies czy HPE, już wcześniej sygnalizowali, że priorytetem jest jakość partnerstw, nie ich liczba. W 2024 roku ten trend wyraźnie przyspieszył również wśród dostawców software’u, zwłaszcza w modelu subskrypcyjnym, gdzie retencja klienta stała się równie ważna co akwizycja.
To, co kiedyś było normą – czyli otwarte rejestracje, niskie progi wejścia i minimalne oczekiwania co do aktywności – coraz częściej ustępuje miejsca „zamkniętemu klubowi”. Dla wielu partnerów oznacza to konieczność przedefiniowania swojej pozycji w relacji z vendorami.
Skupienie na mniejszej liczbie partnerów pociąga za sobą nową logikę współpracy. Vendorzy nie szukają już tylko kanału dystrybucji – oczekują aktywnego współuczestnictwa w procesie sprzedaży i rozwoju klienta. Coraz częściej relacja przypomina wspólny go-to-market niż klasyczny model „producent – reseller”.
W praktyce oznacza to głębsze zaangażowanie po obu stronach: wspólne planowanie pipeline’u, współdzielone cele sprzedażowe i regularne przeglądy wyników. Dla partnerów oznacza to również większą transparentność – producenci oczekują wglądu w dane CRM, szczegółowych prognoz i jasno zdefiniowanego wkładu w realizację projektów.
W zamian oferują coś więcej niż tylko rabat. Dostęp do zespołów technicznych, priorytet w przydziale leadów i pierwszeństwo we wdrażaniu nowych rozwiązań stają się nową walutą w relacjach kanałowych. Vendorzy – szczególnie ci operujący w modelu as-a-service – chcą mieć pewność, że partner nie tylko sprzeda rozwiązanie, ale także pomoże utrzymać klienta przez cały cykl życia umowy.
To przesunięcie w kierunku „value-added engagement” widać szczególnie w sektorze chmury i bezpieczeństwa, gdzie sprzedaż rzadko kończy się na jednym wdrożeniu. Partnerzy, którzy potrafią dostarczyć nie tylko produkt, ale i stałe wsparcie, stają się naturalnym przedłużeniem zespołów producenta.
Efekt domina w kanale
Selektywność producentów nie pozostaje bez wpływu na resztę kanału. Mniejsi i średni partnerzy – dotąd funkcjonujący w modelu transakcyjnym – coraz częściej zauważają, że dostęp do wsparcia technicznego, leadów czy środków marketingowych staje się ograniczony. Vendorzy przenoszą zasoby tam, gdzie widzą większy potencjał zwrotu.
W rezultacie, dla wielu firm partnerskich „średniego szczebla” współpraca z producentem staje się bardziej jednostronna: mniej komunikacji, mniej uwagi, mniej okazji do wspólnych inicjatyw. Partnerzy nadal mają dostęp do podstawowych narzędzi – portali, programów e-learningowych, dokumentacji – ale brakuje indywidualnego podejścia, które wcześniej bywało standardem.
Tę lukę próbują wypełniać dystrybutorzy. Oferują własne programy rozwoju, pre-sales as a service, elastyczne modele finansowania czy dedykowane zasoby inżynierskie. W praktyce to oni przejmują dziś część roli, którą wcześniej odgrywali vendorzy wobec mniejszych partnerów – zwłaszcza w segmencie MSP i lokalnych integratorów.
To także oznacza przesunięcie w dynamice sił: partnerzy, którzy dotąd budowali swoją pozycję bezpośrednio z producentem, coraz częściej muszą akceptować pośrednie relacje – z mniejszym wpływem na strategię i dostęp do kluczowych informacji. Dla wielu z nich to początek konieczności wyboru – albo zwiększyć skalę i kompetencje, albo zredefiniować swój model biznesowy.
Czy warto się postarać?
Dla partnerów, którzy nie znaleźli się w gronie „preferowanych”, pojawia się pytanie: czy opłaca się inwestować w relację z vendorem, który przesuwa zasoby gdzie indziej? Coraz częściej odpowiedź brzmi: tak – pod warunkiem, że potrafią zademonstrować wartość wykraczającą poza samą sprzedaż.
Producenci coraz mocniej premiują partnerów, którzy wykazują inicjatywę – nie czekają na leady, tylko sami generują popyt, dzielą się pipeline’em i podejmują ryzyko w projektach pilotażowych. Kluczowe staje się także posiadanie certyfikowanych kompetencji – nie tylko technicznych, ale również biznesowych, takich jak umiejętność prowadzenia sprzedaży konsultacyjnej czy integracji usług.
W cenie są również mniej oczywiste atuty: dostęp do niszowych rynków wertykalnych, silna marka lokalna czy sprawna organizacja procesu wdrożeniowego. Vendorzy szukają partnerów, którzy nie tylko „sprzedają produkt”, ale potrafią go wbudować w realne środowisko klienta – i zrobić to szybko, przewidywalnie oraz z minimalnym ryzykiem.
Dla wielu partnerów oznacza to konieczność przekształcenia się z dostawcy infrastruktury w doradcę techniczno-biznesowego. To trudny proces, ale w długim okresie – jedyny sposób, by utrzymać bezpośredni dostęp do wsparcia producenta i pozostać w grze o większe projekty.
Branża IT i perspektywa na 2025: czy zostanie tylko elita?
Jeśli obecny kierunek się utrzyma, w 2025 roku kanał sprzedaży IT może stać się bardziej spolaryzowany niż kiedykolwiek wcześniej. Na górze – wąska grupa strategicznych partnerów, mocno zintegrowana z operacjami producenta. Poniżej – szeroka baza mniejszych firm, funkcjonujących w trybie transakcyjnym, obsługiwanych głównie przez dystrybucję lub portale samoobsługowe.
To rodzi pytanie o długofalową równowagę. Koncentracja na „top performers” przynosi szybszy wzrost i lepszą kontrolę kosztów, ale niesie też ryzyko utraty elastyczności. Zwłaszcza na rynkach lokalnych, gdzie relacje i obecność w regionie nadal mają znaczenie, zbyt wąska siatka partnerów może ograniczać skalowalność.
Niektórzy vendorzy próbują balansować – oferując różne ścieżki partnerstwa, zależnie od modelu biznesowego. Inni stawiają wszystko na jedną kartę, licząc na to, że reszta rynku i tak zostanie zagospodarowana przez ekosystem usług, platform chmurowych lub dystrybucji z wartością dodaną.
Dla samych partnerów to moment strategicznych decyzji. Utrzymać obecny model i zaakceptować rolę drugiego szeregu – albo zainwestować w kompetencje, specjalizacje i relacje, które mogą przybliżyć ich do czołówki. Nowa normalność w branży IT nie oznacza końca kanału. Ale zdecydowanie zmienia reguły gry.
Dla firm działających w skali masowej, automatyzacja kontaktu z klientem to dziś warunek konkurencyjności. Chatboty i voiceboty, oparte na modelach NLP i zasilane danymi historycznymi z CRM, przejęły dużą część zadań pierwszej linii wsparcia – od prostych zapytań o status zamówienia po dynamiczne przekierowanie do odpowiednich działów.
Rozwiązania tego typu, szczególnie w sektorze B2C, zapewniają stałą dostępność i przewidywalny czas reakcji. W połączeniu z analityką w czasie rzeczywistym, pozwalają firmom lepiej rozumieć potrzeby klientów i szybciej reagować na ich zachowania. To nie tylko narzędzie redukcji kosztów – to system nerwowy nowoczesnej obsługi klienta.
Z badania Genesys wynika, że ponad połowa przedstawicieli pokolenia Z i millenialsów preferuje kanały samoobsługowe – w tym chatboty – jako punkt wyjścia w kontakcie z marką. Dla integratorów i dostawców technologii to jasny sygnał: rośnie zapotrzebowanie na architektury omnichannel oparte na AI, które mogą łączyć boty tekstowe, voiceboty, kanały mobilne i live chaty w jedną, spójną całość.
Wyzwanie? Zaprojektowanie tych systemów tak, by rozumiały kontekst – nie tylko intencję w zdaniu, ale również jego ton, emocję i historię wcześniejszych interakcji. Właśnie tutaj wchodzi nowa generacja narzędzi: AI do wykrywania empatii i analiza sentymentu, która umożliwia dynamiczne dostosowanie stylu komunikacji do odbiorcy. Skalowalność zyskuje nowy wymiar – staje się personalna.
Ludzka twarz CX: czego nie zastąpi żaden algorytm
Automatyzacja obsługi klienta działa – do momentu, gdy napotka sytuację niestandardową. Wtedy na pierwszy plan wychodzi człowiek. Jak pokazuje raport Genesys, aż 81% respondentów z pokolenia X i Baby Boomers ceni rozmowy z kompetentnym przedstawicielem obsługi bardziej niż jakiekolwiek rozwiązanie samoobsługowe. Nawet wśród młodszych pokoleń, które częściej wybierają chatboty, oczekiwanie empatii i realnego zrozumienia pozostaje silne.
To nie tylko kwestia wieku. To kwestia momentu – skomplikowane sprawy, emocjonalne sytuacje czy decyzje wymagające zaufania nie mogą być obsłużone przez algorytm, niezależnie od tego, jak zaawansowany by był. AI może wykryć ton głosu, ale to człowiek potrafi odpowiednio zareagować – często wychodząc poza skrypt, co stanowi przewagę nie do zautomatyzowania.
Firmy, które chcą budować lojalność, muszą zapewnić przestrzeń na ten ludzki kontakt – szczególnie tam, gdzie liczy się nie tylko czas reakcji, ale jej jakość. Wymaga to inwestycji nie tylko w technologię, ale i w ludzi – przeszkolonych, wspieranych i wyposażonych w odpowiednie narzędzia. CX oparty na empatii to dziś przewaga konkurencyjna – i wciąż jest to domena człowieka.
Zróżnicowane pokolenia, zróżnicowane kanały: projektowanie CX z uwzględnieniem wieku i preferencji
W projektowaniu doświadczeń klienta „jeden rozmiar dla wszystkich” już nie działa. Dane z badania Genesys pokazują, że różnice pokoleniowe mają realny wpływ na to, jak konsumenci wchodzą w interakcję z markami. Pokolenie Z i millenialsi oczekują prostych, szybkich rozwiązań – 53% i 63% z nich preferuje samoobsługę, w tym chatboty i mobilnych asystentów. Tymczasem tylko 31% przedstawicieli wyżu demograficznego wskazuje te kanały jako preferowane.
Z kolei starsi konsumenci – Gen X i Baby Boomers – cenią kontakt z człowiekiem i klarowną strukturę obsługi. 81% z nich zwraca uwagę na kompetencje pracowników, z którymi rozmawiają. Oznacza to, że firmy muszą myśleć segmentacyjnie – nie tylko w zakresie treści komunikacji, ale także formy kontaktu.
Projektowanie CX w oparciu o dane demograficzne to dziś konieczność. Kanały komunikacji powinny być konfigurowalne i elastyczne – z możliwością dynamicznego dopasowania się do preferencji użytkownika. Kluczem jest technologia, która umożliwia analizę intencji i zachowań w czasie rzeczywistym, ale to strategia decyduje, jak i kiedy uruchomić człowieka zamiast algorytmu. W warunkach walki o klienta, przewagę mają te marki, które wiedzą, że CX nie zaczyna się od technologii – ale od zrozumienia człowieka.
Synergia zamiast zastępstwa: modele hybrydowe jako nowy standard
Największym błędem w transformacji obsługi klienta jest traktowanie AI jako zamiennika człowieka. Doświadczenie pokazuje, że najbardziej efektywne modele to te, w których technologia i ludzie współdziałają, a nie konkurują. Hybrydowe podejście – AI wspierające konsultanta w czasie rzeczywistym – staje się nowym standardem.
W praktyce oznacza to systemy, które podpowiadają kolejne kroki w rozmowie, dostarczają kontekst z CRM czy analizują emocje klienta jeszcze w trakcie interakcji. Zamiast automatyzować całość procesu, firmy zwiększają skuteczność zespołów, wyposażając ich w cyfrowych asystentów.
Z raportu Genesys wynika, że to podejście bezpośrednio przekłada się na jakość obsługi. Konsultanci działający w środowisku wspieranym przez AI szybciej rozwiązują złożone problemy i są bardziej zaangażowani. Z kolei klienci odbierają te interakcje jako bardziej osobiste i trafne.
Dla firm z sektora IT i kanału partnerskiego to konkretna szansa: dostarczanie rozwiązań, które integrują AI z pracą człowieka w sposób kontekstowy, adaptacyjny i zgodny z oczekiwaniami użytkownika końcowego. Gdy na znaczeniu zyskała personalizacja na skalę, to właśnie synergia – nie zastępstwo – buduje przewagę konkurencyjną.
Przyszłość to równowaga: CX jako strategiczny wyróżnik marek
Obecnie konsumenci mogą łatwo porównywać produkty i ceny, wobec tego to doświadczenie klienta (CX) coraz częściej decyduje o lojalności – i o tym, czy klient zostanie ambasadorem marki, czy jej krytykiem. Z badania Genesys wynika, że ponad 70% konsumentów w Europie oczekuje od firm empatii, a ponad połowa – niezależnie od wieku – bierze pod uwagę jakość obsługi i wsparcia przed dokonaniem zakupu.
To sygnał, że CX przestaje być tylko działem operacyjnym. Staje się elementem strategii marki i jej kultury organizacyjnej. Firmy, które inwestują w CX – rozumiany nie jako kanał, ale jako doświadczenie end-to-end – osiągają lepsze wyniki biznesowe.
Najskuteczniejsze organizacje łączą technologię (AI, automatyzację, analizę predykcyjną) z „miękkimi” elementami – empatią, dostępnością i elastycznością. Budują CX nie na jednym rozwiązaniu, ale na równowadze: między samoobsługą a wsparciem człowieka, między skalą a personalizacją, między efektywnością a relacją.
W tym podejściu nie chodzi o technologię samą w sobie. Chodzi o to, jak technologia umożliwia tworzenie doświadczeń, które odpowiadają na konkretne potrzeby – pokoleniowe, sytuacyjne, emocjonalne. To właśnie ta równowaga będzie w nadchodzących latach definiować liderów rynku.
Google ogłosiło przejęcie izraelskiego start-upu Wiz za 32 miliardy dolarów – to największy zakup w historii Alphabetu, który sygnalizuje nowe priorytety spółki w obszarze enterprise. Wiz, dostawca platformy do zabezpieczania aplikacji natywnych dla chmury (CNAPP), stał się w ostatnich latach jednym z kluczowych graczy na rynku rozwiązań multicloud security. Jego narzędzia działają zarówno na Google Cloud, jak i na AWS, Azure oraz Oracle Cloud, co sprawia, że transakcja ma wymiar wykraczający poza wzmocnienie własnego ekosystemu Google.
Do finalizacji porozumienia doszło po tym, jak wcześniejsze rozmowy między firmami – toczone przy wycenie 23 miliardów dolarów – zakończyły się fiaskiem w 2024 roku. Obecna umowa wpisuje się w szerszy trend przyspieszającego wdrażania środowisk wielochmurowych oraz rosnącego zapotrzebowania na rozwiązania bezpieczeństwa, które nadążają za integracją sztucznej inteligencji w procesach firmowych i instytucjonalnych.
Dla Google to nie tylko rozszerzenie portfolio, ale próba zdefiniowania własnej roli w świecie, gdzie multicloud i AI stają się standardem, a zaufanie do dostawcy rozwiązań bezpieczeństwa ma znaczenie większe niż kiedykolwiek wcześniej.
Google Cloud i problem z rynkiem enterprise
Mimo intensywnych inwestycji i szybkiego wzrostu przychodów, Google Cloud od lat pozostaje trzecim graczem na rynku chmurowym – za Amazon Web Services i Microsoft Azure. Problemy z penetracją rynku enterprise wynikały nie tylko z późnego wejścia w segment IaaS i PaaS, ale również z ograniczonego zaufania ze strony dużych organizacji publicznych i prywatnych. Klienci często postrzegali Google jako firmę skoncentrowaną na technologii konsumenckiej, z mniej dojrzałym podejściem do długoterminowego wsparcia, compliance i zarządzania ryzykiem.
W odróżnieniu od Microsoftu, który od dekad obsługuje sektor publiczny i ma głęboko zakorzenione relacje w korporacjach, Google nie zbudował jeszcze podobnej pozycji jako partner strategiczny w środowisku enterprise. Nawet dynamiczny rozwój Google Workspace nie wystarczył, by przełamać ten wizerunek. Dla wielu klientów bezpieczeństwo i transparentność procesów pozostawały kluczowymi barierami adopcyjnymi.
Przejęcie Wiz wpisuje się w próbę zmiany tej percepcji. Zamiast budować wszystkie komponenty od podstaw, Google sięga po sprawdzone, niezależne rozwiązanie, które ma już reputację wśród najbardziej wymagających klientów – od startupów po instytucje rządowe. To sygnał, że firma chce być postrzegana nie tylko jako dostawca innowacji, ale także jako partner, który rozumie wyzwania operacyjne i regulacyjne dużych organizacji.
„Zamiast budować wszystkie komponenty od podstaw, Google sięga po sprawdzone, niezależne rozwiązanie, które ma już reputację wśród najbardziej wymagających klientów.”
Wiz jako klucz do nowej narracji
Wiz nie jest kolejnym produktem do włączenia w ofertę Google Cloud. To platforma, która z definicji działa niezależnie od infrastruktury – zaprojektowana z myślą o środowiskach multicloud i hybrydowych, z intuicyjnym interfejsem, który przemawia zarówno do zespołów DevOps, jak i do specjalistów ds. bezpieczeństwa. Jej rola w ekosystemie klientów enterprise polega na tym, że nie wymusza lojalności wobec konkretnego dostawcy chmurowego. To cecha, której Google – jako vendor długo kojarzony z własnym „zamkniętym światem” – do tej pory brakowało.
Włączenie Wiz do swojego portfolio daje Google unikalny atut: możliwość oferowania rozwiązań bezpieczeństwa nie tylko klientom własnej chmury, ale także tym, którzy korzystają z AWS, Azure czy Oracle Cloud. To odważne odejście od dotychczasowego modelu „Google-first” i otwarcie się na logikę realnego rynku enterprise, który w zdecydowanej większości funkcjonuje w modelu wielochmurowym.
To także strategiczna zmiana tonu. Zamiast przekonywać klientów do migracji całej infrastruktury do Google Cloud, firma może teraz rozmawiać językiem bezpieczeństwa – neutralnego, mierzalnego i bezpośrednio przekładającego się na ryzyko operacyjne. W tym kontekście Wiz staje się nie tylko produktem, ale kanałem komunikacji z rynkiem, który do tej pory często wybierał konkurencję nie ze względu na technologię, ale z powodu większego zaufania.
Nowa tożsamość marki Google Cloud?
Dotychczas Google Cloud był przede wszystkim postrzegany jako platforma inżynierska – szybka, skalowalna, pełna innowacji, ale pozbawiona „miękkich kompetencji” potrzebnych w obsłudze złożonych środowisk korporacyjnych. Przejęcie Wiz może oznaczać przesunięcie tego balansu. Google nie tylko wzmacnia kompetencje w obszarze bezpieczeństwa, ale także sygnalizuje gotowość do przyjęcia roli bardziej doradczej, osadzonej w realiach biznesowych klientów.
Dzięki Wiz, Google zyskuje coś, czego nie da się szybko zbudować wewnętrznie: zaufanie u klientów, którzy działają w środowiskach regulowanych, złożonych operacyjnie, często sceptycznych wobec nadmiaru vendor lock-in. Platforma CNAPP od Wiz już dziś działa w wielu instytucjach rządowych, firmach z sektora finansowego i dużych korporacjach – a więc dokładnie tam, gdzie Google od lat próbował wzmocnić swoją obecność.
Dodatkowo, integracja AI z rozwiązaniami bezpieczeństwa – co już teraz testują zarówno Google, jak i Microsoft – zmienia reguły gry. Sztuczna inteligencja nie tylko zwiększa efektywność wykrywania zagrożeń, ale jednocześnie generuje nowe powierzchnie ataku. W tym nowym krajobrazie nie wystarczy być dostawcą technologii – trzeba być partnerem z odpowiedzialnością za cały kontekst działania. To rola, do której Google aspiruje, a przejęcie Wiz może być pierwszym poważnym krokiem w jej kierunku.
„W tym nowym krajobrazie nie wystarczy być dostawcą technologii – trzeba być partnerem z odpowiedzialnością za cały kontekst działania.”
Wnioski i implikacje dla kanału partnerskiego
Dla partnerów Google Cloud przejęcie Wiz może oznaczać początek nowego etapu – zarówno w wymiarze produktowym, jak i strategicznym. Dotychczas wiele firm partnerskich funkcjonowało głównie jako integratorzy infrastruktury GCP lub dostawcy usług opartych na Workspace. Teraz Google otwiera przed nimi dodatkowe pole działania: bezpieczeństwo multicloud w modelu doradczym.
Rozwiązania Wiz pozwalają partnerom adresować potrzeby klientów działających w złożonych środowiskach – łączących GCP, AWS i Azure – bez konieczności replatformingu. To szansa na rozszerzenie oferty o usługi związane z audytem bezpieczeństwa, wdrażaniem polityk CNAPP czy zarządzaniem ryzykiem w cyklu DevSecOps. Zyskują na tym także dostawcy usług zarządzanych (MSP), którzy mogą budować własne modele biznesowe wokół jednej, zunifikowanej platformy.
Z drugiej strony, rosnąca obecność Google w przestrzeni regulowanego enterprise oznacza większe oczekiwania wobec partnerów: kompetencje w zakresie compliance, umiejętność operowania w środowiskach wielochmurowych, a także zdolność do budowania zaufania u klientów, którzy przywiązują wagę do długoterminowego wsparcia i odporności operacyjnej.
W tym sensie Wiz to nie tylko produkt, ale narzędzie zmiany pozycji rynkowej – nie tylko dla Google, ale również dla jego ekosystemu partnerskiego. Dla integratorów i VAR-ów, którzy potrafią szybko zaadaptować nowe kompetencje, może to być moment redefinicji ich roli u klientów – z wykonawcy rozwiązań technicznych na doradcę strategicznego.
Przez lata liderzy w technologii próbowali odnaleźć się w rzeczywistości określanej akronimem VUCA – zmiennej, niepewnej, złożonej i niejednoznacznej. Model, pochodzący z amerykańskiej doktryny wojskowej, dobrze opisywał świat po kryzysie finansowym 2008 roku i wczesnych fazach cyfryzacji. Problem w tym, że dziś przestał wystarczać.
Dzisiejszy krajobraz – zdominowany przez niestabilność geopolityczną, skokowy rozwój AI i globalne napięcia łańcuchów dostaw – wymaga nowszego języka. Wchodzi więc model BANI: kruchy (brittle), lękowy (anxious), nieliniowy (non-linear) i niepojmowalny (incomprehensible). W przeciwieństwie do VUCA, który sugerował, że świat jest trudny, ale możliwy do ogarnięcia za pomocą lepszego planowania, BANI mówi wprost: nie ogarniesz. I nie musisz.
Dla liderów w IT – zwłaszcza tych zarządzających kanałami partnerskimi – oznacza to jedno: przewidywalność i planowanie oparte na danych historycznych przestają działać. Liczy się zdolność reagowania w czasie rzeczywistym, odporność na niespodziewane, a przede wszystkim: umiejętność zarządzania emocjami – swoimi i zespołu – w środowisku permanentnej niepewności.
Wystarczy spojrzeć na przykład: firmy budujące modele biznesowe wokół stałych cykli sprzedażowych dziś muszą radzić sobie z klientami, którzy decydują się na inwestycje z dnia na dzień – albo wcale. Roadmapy produktowe są zaskakiwane przez aktualizacje LLM-ów, a zaplanowane budżety dewastują nagłe zmiany kursów walut i kosztów energii.
VUCA zakładał, że złożoność da się rozbroić kompetencją. BANI podpowiada, że najpierw trzeba zbudować odporność – psychiczną, organizacyjną i relacyjną. To fundamentalna zmiana w myśleniu o przywództwie.
Tradycyjne przywództwo się nie sprawdza – nowa rola lidera
Model lidera jako eksperta, który zna odpowiedzi i wydaje polecenia, jest dziś równie skuteczny jak firewall bez aktualizacji – może wyglądać solidnie, ale nie wytrzymuje realnego kontaktu z rzeczywistością.
W środowisku BANI rola lidera przesuwa się z centrum decyzyjnego do roli katalizatora – osoby, która ułatwia adaptację, buduje kierunek tam, gdzie nie ma mapy, i zarządza napięciem, zamiast je tłumić. Lider musi dziś projektować ramy, w których zespół sam szuka rozwiązań – nie dlatego, że tak jest nowocześnie, ale dlatego, że sam nie nadąży.
W firmach IT i w kanałach sprzedaży, gdzie zespoły pracują hybrydowo, z partnerami o różnych modelach działania, próby mikrozarządzania kończą się spadkiem zaangażowania i brakiem innowacyjności. Zamiast kontrolować – trzeba tworzyć przestrzeń do działania. Zamiast przewidywać – budować zdolność szybkiej reakcji.
Skuteczny lider dziś nie tyle prowadzi z przodu, co ustawia zespół tak, by każdy mógł działać sprawnie bez ciągłych instrukcji z góry. To mniej o dowodzeniu, bardziej o tworzeniu warunków do podejmowania decyzji tam, gdzie powstaje wartość – czyli bliżej klienta, produktu i partnera.
Kluczowe kompetencje lidera transformacyjnego
Przywództwo w technologii zawsze było po części sztuką zarządzania zmianą. Różnica polega na tym, że dziś zmiana nie jest projektem – jest środowiskiem. W takich warunkach kompetencje lidera nie mogą opierać się wyłącznie na wiedzy branżowej czy operacyjnym doświadczeniu. Kluczowe stają się cechy, które jeszcze kilka lat temu uznawano za „miękkie” – dziś są twardym wymogiem przetrwania.
Zwinność decyzyjna to jedna z nich – zdolność szybkiego przełączania się między scenariuszami, często przy braku pełnych danych. Gartner nazywa to „adaptacyjnym podejmowaniem decyzji”. W praktyce: nie chodzi o to, by mieć rację, ale by nie trzymać się błędnej decyzji za długo.
Odporność psychiczna to kolejna. Liderzy w IT mierzą się dziś nie tylko z presją wyników, ale też z rozproszonymi zespołami, nieustanną ekspozycją na zmiany i wysoką niepewnością regulacyjną. Nie chodzi o stoicyzm, ale o zdolność zarządzania sobą – i energią zespołu – w warunkach chaosu.
Komunikacja w niepewności staje się nowym standardem. Zespoły nie oczekują dziś jasnych odpowiedzi – oczekują transparentności i spójności. Lepiej powiedzieć: „nie wiemy jeszcze, ale to monitorujemy” niż milczeć lub tworzyć pozory stabilności.
Wreszcie – umiejętność budowania decentralizacji. Lider nie musi kontrolować wszystkiego, ale powinien wiedzieć, kto podejmuje decyzje i czy mają do tego warunki. W kanałach partnerskich oznacza to m.in. wzmocnienie autonomii lokalnych struktur bez utraty spójności strategicznej.
To nie są kompetencje „nice to have” – to fundament skuteczności w modelu, w którym stałe są tylko zmienne.
Jak to wygląda w branży IT
W teorii transformacyjne przywództwo brzmi jak kolejna warstwa menedżerskiego buzzwordu. W praktyce – to odpowiedź na realne napięcia, z którymi mierzy się dziś niemal każda firma technologiczna: fluktuacje popytu, nieprzewidywalność roadmap produktowych, hybrydowy model pracy i presja na szybsze dostarczanie wartości.
W branży IT, a szczególnie w kanałach partnerskich, liderzy coraz częściej operują w środowiskach, gdzie formalna władza ma drugorzędne znaczenie. Kluczowa staje się zdolność budowania wpływu – przez zaufanie, transparentność i wspólne cele. Oznacza to odejście od zarządzania „przez liczby” i przejście do modelu, w którym relacje, szybkość adaptacji i jakość decyzji lokalnych są ważniejsze niż centralna kontrola.
Zmienia się też definicja efektywności lidera. Nie chodzi już tylko o to, czy zespół dowozi wynik, ale czy potrafi to robić w warunkach ciągłej zmienności – i bez wypalania się w procesie. Organizacje, które to rozumieją, inwestują dziś w kompetencje przywódcze nie jako benefit dla kadry, ale jako infrastrukturę zdolną amortyzować szoki rynkowe.
Zgodnie z raportem Deloitte Tech Trends 2024, aby poprawić pozyskiwanie i retencję talentów w zespołach technologicznych, liderzy powinni priorytetowo traktować nowoczesne doświadczenie inżynieryjne, wspierane przez inwestycje w narzędzia, procesy i kulturę organizacyjną.
Lider jutra to lider-uczeń (i nauczyciel)
W przewidywalnym świecie wystarczał lider z doświadczeniem. W świecie, który zmienia się szybciej niż cykl sprzedażowy, doświadczenie to za mało. Kluczową kompetencją lidera staje się zdolność do ciągłego uczenia się – i uczenia innych. Nie w ramach formalnych szkoleń, ale w codziennej praktyce zarządzania.
To oznacza realny zwrot od modelu „wiem i decyduję” do modelu „słucham, uczę się, iteruję”. Liderzy, którzy ignorują feedback, zamykają się na sygnały z rynku i z zespołu. Ci, którzy go wykorzystują – budują adaptacyjne kultury pracy, które przetrwają niejedną zmianę kierunku.
Koncepcje takie jak „growth mindset”, continuous learning czy peer coaching to nie moda z LinkedIna – to operacyjne podejście do rzeczywistości, w której nikt nie ma pełnego obrazu. Liderzy, którzy regularnie zadają sobie pytania „czego dziś nie wiem?”, zamiast udawać pewność, szybciej wykrywają ryzyka i sprawniej reagują.
Rynek fuzji i przejęć w sektorze IT w Europie Środkowo-Wschodniej dynamicznie ewoluuje, a kluczowe trendy wskazują na rosnącą aktywność regionalnych firm na rynkach zagranicznych, zwłaszcza w Stanach Zjednoczonych. O aktualnych zmianach, wyzwaniach oraz przyszłości inwestycji technologicznych mówi dr Chrystian Poszwiński, Head of CEE w HWF Partners, doświadczony doradca w obszarze transakcji M&A.
Klaudia Ciesielska, Brandsit: Jakie kluczowe trendy obserwuje Pan obecnie na rynku fuzji i przejęć w sektorze IT w Europie Środkowo-Wschodniej?
dr Chrystian Poszwiński, HWF Partners: Zmiana nurtu. Jeszcze w czasach covid, liczne przedsiębiorstwa amerykańskie z sektora IT działały w Polsce i regionie, realizując swoją politykę „acqui-hire”. Obecnie widzimy trend idący w drugą stronę, tzn. polskie firmy, często wsparte kapitałem regionalnych funduszy, szukają swoich „targetów” za oceanem. Z czego to wynika? Główną przyczyną jest dystans amerykańskiego klienta do korzystania z produktów lub usług firm, które nie mają tzw. presence w USA. Kolejnym argumentem jest zwyczajnie potencjalny rozwój, który polscy i regionalni przedsiębiorcy widzą we współpracy z podmiotami z USA i możliwości, jakie daje wykorzystanie amerykańskiego rynku do sprzedaży swoich produktów lub usług. Polska przestała być krajem z tanimi deweloperami, a stała się znaczącym graczem w obszarze IT. Ta polityka sprawia, że inwestorzy coraz częściej patrzą na takie kraje jak Rumunia celem „outsourcingu” swoich usług.
„W ostatnich latach rynek VC nie „wypuścił” spod swoich skrzydeł wielu nowych podmiotów”
K.C.: Czy rynek M&A w IT w tym regionie różni się od reszty Europy?
Ch.P.: Wydaje się, że różnice powoli zanikają. W kontekście wyżej wspomnianych trendów, podmioty wywodzące się z regionu CEE coraz częściej uznawane są za graczy globalnych, stąd przyciągają zainteresowanie zagranicznych inwestorów. Jeśli spojrzeć na rynek europejski, podmiotów do kupienia jest niewiele, a chętnych kupujących coraz więcej. Świetnie obrazuje to wejście do regionu w ostatnich latach funduszy, które skupiają się wyłącznie na technologii. Coraz częściej widzi się jednak, że nie mogą one znaleźć dogodnego „targetu”, który uzasadniałby ryzyko inwestora z Europy Zachodniej do inwestycji w naszym regionie. To, co słyszymy na rynku, to również problem wyceny wartości, która nierzadko opiera się wyłącznie o składniki niematerialne. W ostatnich latach rynek VC nie „wypuścił” spod swoich skrzydeł wielu nowych podmiotów, a trend przenosi się szczególnie w Polsce na inwestycje graczy strategicznych, budujących swoje portfele i rozszerzających zakres świadczonych usług poprzez dokupowanie biznesów kompatybilnych do ich obecnej działalności. Taki inwestor jest jednak bardziej konserwatywny i ostrożny.
K.C.: Jakie czynniki najczęściej wpływają na decyzje o fuzjach i przejęciach w branży technologicznej?
Ch.P.: Jest ich kilka. Przede wszystkim to, czy technologię można skalować, tzn. nie tylko, czy technologia sama w sobie ma potencjał, ale czy została ona od początku stworzona z taką myślą i system pozwala na jej realne skalowanie. Inwestorzy patrzą w tym momencie bardziej niż kiedykolwiek na własność intelektualną. Projekt nie może być już tylko innowacyjny przy wykorzystaniu publicznie dostępnych kodów źródłowych. Inwestorzy oczekują, że będą mogli w przyszłości nie tylko sprzedawać sam produkt będący wynikową technologii, ale również licencjonować samą technologię i z tego czerpać największe zyski. Warto też, żeby produkt dawało się sprzedać w modelu B2B.
K.C.: Pracował Pan przy wielu transakcjach w różnych sektorach. Czy fuzje i przejęcia w IT mają jakieś specyficzne wyzwania, których nie ma w innych branżach?
Ch.P.: Jeszcze do niedawna można byłoby wskazać chociażby na aspekty związane z cyberbezpieczeństwem, które inwestorzy widzieli głównie w sektorze IT. Co ciekawe, ten trend również się zmienia, a to za sprawą coraz większej automatyzacji przedsiębiorstw i procesów. Już nie tylko spółka technologiczna narażona jest na potencjalny cyberatak. Ubezpieczyciele, którzy oferują polisy chroniące kupujących w ramach transakcji fuzji i przejęć, zaczęli zwracać uwagę na elementy cyberbezpieczeństwa również w przypadku spółek produkcyjnych. Z kolei niegdyś to w branży produkcyjnej szukaliśmy potencjalnych ryzyk w jakości używanych materiałów czy stanie maszyn i urządzeń wykorzystywanych do produkcji. Wraz z rozwojem technologii, sprzęt komputerowy, serwery i ich zabezpieczenie stały się istotnym czynnikiem przy analizie ryzyka, co sprawia, że coraz częściej wymagane jest badanie „due-diligence” nie tylko kodu źródłowego, ale również oprogramowania i sprzętu. Branża IT cechuje się własnym podejściem także do kwestii pracowniczych – rynek opiera się o zupełnie inny rodzaj umów, który w innych branżach byłby nieakceptowalny.
„Zaczynamy się obwarowywać zakazami i regulacjami, zamiast tworzyć środowiska przyjazne do rozwoju”
K.C.: Czy w nadchodzących latach możemy spodziewać się większej liczby fuzji i przejęć w segmencie startupów IT w Europie Środkowo-Wschodniej?
Ch.P.: Odpowiedź na to pytanie niestety bardzo zależy od tego, jak obecne startupy poradzą sobie w najbliższych latach. Jeśli spojrzeć na transakcje z obszaru IT, poza ostatnio modnym obszarem AI, to widzimy wyłącznie duże transakcje dotyczące spółek z ugruntowaną historią i pokaźną bazą klientów. Rynek startupów w ciągu ostatnich 18-24 miesięcy bardzo zmalał, co teraz próbuje odbudować, wykorzystując poniekąd kapitał z PFR. Problem jest jednak taki, że te fundusze, które prężnie funkcjonują na naszym rynku, obecnie szukają głównie za granicą. Nasz region niestety wciąż nie stworzył środowiska, w którym byłoby dużo przestrzeni na rozwój. Mamy pomysły, ale o pieniądze w tym momencie bardzo ciężko. Co więcej, jeśli rynek widzi jakikolwiek podmiot z potencjałem, to o dziwo nie tylko patrzą na niego fundusze VC, ale coraz częściej po te mniejsze spółki zaczynają sięgać fundusze PE, dla których brakuje spółek średniego rozmiaru. W ostatnich latach liczba transakcji z sektora IT raczej malała, co jednak zupełnie nie oddaje apetytu inwestorów, a podkreśla słabości regionalnych ekosystemów.
„Kraje Europy dążą do „wypchnięcia” technologii chińskiej, ale (…) niestety wyprzedza nas ona często o lata świetlne”
K.C.: Jakie technologie i innowacje mogą stać się głównymi motorami napędzającymi fuzje i przejęcia w IT w nadchodzącej dekadzie?
Ch.P.: Inwestorzy coraz rzadziej zainteresowani są technologiami, które kierowane są do konsumentów. Problem ten wynika poniekąd również z regulacji wokół konsumenckich, w tym chociażby z obszaru ochrony danych osobowych i innych, które zaczęły znacząco obciążać podmioty działające w tym obszarze. Mowa tu nawet bardziej o ogólnoeuropejskich regulacjach niż tylko stricte polskich. Teoretycznie kraje Europy dążą do „wypchnięcia” technologii chińskiej, ale co by nie mówić, niestety wyprzedza nas ona często o lata świetlne. Zaczynamy się obwarowywać zakazami i regulacjami, zamiast tworzyć środowiska przyjazne do rozwoju. Wydaje się, że technologia wokół małych baterii jądrowych i komputerów kwantowych może być czymś, co zrewolucjonizuje rynek. Technologia dzisiejszych czasów to już nie tylko platforma na stronie internetowej, a coraz częściej robotyka połączona właśnie ze sztuczną inteligencją. Rynek zaczął również dostrzegać, że społeczeństwo się starzeje, a co za tym idzie mamy coraz więcej chorych ludzi. Przekłada się to chociażby na ciekawe inwestycje w obszarze nowoczesnych aparatów czy chipów, które mają wspomagać czy to pracę mózgu, czy nawet pomagać niewidomym, mapując dla nich obszar, po którym się poruszają. Na znaczeniu zyskuje także technologia biometryczna. Największym rozczarowaniem wydaje się chyba wirtualna rzeczywistość, która nie przyciągnęła tak wielu użytkowników, jak rynek pierwotnie się spodziewał.
„Technologia wokół małych baterii jądrowych i komputerów kwantowych może być czymś, co zrewolucjonizuje rynek”
K. C.: Jakie rady miałby Pan dla przedsiębiorców IT, którzy chcą przygotować swoją firmę do potencjalnej sprzedaży?
Ch.P.: Nie zakładajcie z góry, że wszystko w spółce działa, tylko dlatego, że działa Wasza technologia. Inwestorzy będą patrzyli na wiele innych obszarów i szkoda pozwolić im na obniżenie wartości Waszej spółki tylko dlatego, że pozostałe obszary zostały „zapomniane”. Oczywiście, że łatwiej jest powiedzieć niż zrobić, ale dlatego też zachęcamy, żeby możliwie wcześnie omawiać potencjalną transakcję z doradcami i przygotować swoją firmę do tego procesu.
dr Chrystian Poszwiński specjalizuje się w rozwoju biznesów międzynarodowych w krajach Europy Środkowo-Wschodniej i promocji regionalnych inwestycji. Jest doktorem nauk prawnych i praktykującym radcą prawnym z 10-letnim doświadczeniem w transakcjach fuzji i przejęć (M&A). Na co dzień zarządza regionem Europy Środkowo-Wschodniej w brytyjskiej firmie doradczej HWF Partners. Jest ekspertem od ubezpieczeń transakcyjnych (W&I), świadcząc usługi w funduszom Private Equity oraz lokalnym i międzynarodowym klientom korporacyjnym. Przed dołączeniem do zespołu HWF przez prawie 8 lat jego domeną były transakcje M&A w międzynarodowej kancelarii BakerMcKenzie, gdzie zdobywał doświadczenie w zagranicznych oddziałach (Wiedeń, Zurych) oraz wspierając zespół Nokia w Polsce z poziomu wewnętrznego działu prawnego. Jest autorem publikacji naukowych z pogranicza transakcji M&A i ochrony danych osobowych. Regularnie występuje w roli prelegenta w ramach licznych paneli dyskusyjnych o tematyce związanej z transakcjami, rynkami zagranicznymi, w tym w szczególności regionem Europy Środkowo-Wschodniej.
Zarządzaj swoją prywatnością
Żeby zapewnić najlepsze wrażenia, my oraz nasi partnerzy używamy technologii takich jak pliki cookies do przechowywania i/lub uzyskiwania informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam oraz naszym partnerom na przetwarzanie danych osobowych, takich jak zachowanie podczas przeglądania lub unikalny identyfikator ID w tej witrynie. Brak zgody lub jej wycofanie może niekorzystnie wpłynąć na niektóre funkcje.
Kliknij poniżej, aby wyrazić zgodę na powyższe lub dokonać szczegółowych wyborów. Twoje wybory zostaną zastosowane tylko do tej witryny. Możesz zmienić swoje ustawienia w dowolnym momencie, w tym wycofać swoją zgodę, korzystając z przełączników w polityce plików cookie lub klikając przycisk zarządzaj zgodą u dołu ekranu.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.