Kategoria: Opinie

Opinie to przestrzeń ekspertów, liderów branży i redakcji, którzy komentują najważniejsze zjawiska i trendy w sektorze IT i kanale sprzedaży. Publikujemy felietony, analizy i wywiady dotyczące technologii, rynku, regulacji oraz strategii vendorów, integratorów i dystrybutorów.

  • Zrównoważony rozwój w IT? Tylko wtedy, gdy nie stracisz danych w ataku – Dariusz Szwed, Canon

    Zrównoważony rozwój w IT? Tylko wtedy, gdy nie stracisz danych w ataku – Dariusz Szwed, Canon

    W ostatnich latach obserwuje się gwałtowny wzrost zagrożeń w cyberprzestrzeni, a jednym z najbardziej dotkliwych jest ransomware. Dariusz Szwed – ekspert Canon Polska zajmujący się problematyką cyfryzacji biur oraz cyberbezpieczeństwa wskazuje, że problem ten nie dotyczy już wyłącznie globalnych korporacji, ale również małych i średnich przedsiębiorstw, które często nie dysponują odpowiednimi zasobami, aby skutecznie przeciwdziałać cyberatakom.

    „Nie ma już dolnej granicy wielkości firm, w przypadku których ransomware może być zastosowany. Czasami okazuje się, że hakerom łatwiej jest przejąć kontrolę nad mniejszą firmą, zablokować ją i żądać zapłaty, niż ryzykować atak na dużego gracza, który dysponuje znacznie większymi zasobami.” 

    Dariusz Szwed, Canon Polska

    W kontekście ochrony danych coraz częściej wskazuje się na rolę nowoczesnych technologii, takich jak chmura obliczeniowa. Rozwiązanie to umożliwia nie tylko szybsze odzyskiwanie zasobów po ataku, ale również poprawia bezpieczeństwo dzięki wbudowanym mechanizmom zabezpieczeń. Jednak w Polsce nadal brakuje pełnego zaufania do chmury, co, jak wskazuje Szwed, generuje konieczność podnoszenia świadomości w tym zakresie.

    Chmura jako klucz do bezpieczeństwa 

    Jednym z kluczowych atutów chmury jest możliwość szybkiego odzyskiwania danych po ataku, co znacząco minimalizuje przestoje w działalności firmy. Dariusz Szwed wskazuje, że dzięki rozwiązaniom chmurowym firmy mogą nie tylko szybko przywrócić dane po ataku, ale również zyskać pewność, że są one stale monitorowane i chronione przez najlepsze dostępne technologie.

    Jednak w Polsce wciąż zauważalna jest ostrożność w przyjmowaniu technologii chmurowych, co wynika głównie z obaw związanych z bezpieczeństwem i zaufaniem do dostawców.

    „Polskie organizacje, zarówno z sektora prywatnego, jak i publicznego, zdecydowanie mniej ufają środowisku chmurowemu niż ma to miejsce w innych krajach Europy. U nas największe instytucje wciąż są przywiązane do rozwiązań on-premise, co wiąże się z koniecznością budowania dodatkowych serwerowni i zarządzania nimi przy pomocy własnych zasobów.” 

    Dariusz Szwed, Canon Polska

    Tymczasem globalne dane jasno pokazują, że organizacje korzystające z rozwiązań chmurowych są lepiej przygotowane na cyberataki niż te, które polegają wyłącznie na tradycyjnej infrastrukturze IT. Kolejnym istotnym aspektem jest skalowalność i elastyczność chmury. Pozwala ona firmom dostosowywać zasoby IT do zmieniających się potrzeb, co jest szczególnie ważne w kontekście pracy zdalnej i rozproszonych zespołów. 

    Edukacja w zakresie cyberbezpieczeństwa 

    Edukacja w zakresie cyberbezpieczeństwa staje się jednym z najważniejszych elementów skutecznej strategii ochrony danych. Dariusz Szwed zwraca uwagę, że największym zagrożeniem dla firm nie są same technologie, ale brak odpowiedniej wiedzy i świadomości wśród pracowników. To właśnie ludzki błąd, wynikający z niewiedzy lub ignorancji, jest najczęstszą przyczyną sukcesu ataków socjotechnicznych, takich jak phishing. Współczesne ataki coraz częściej opierają się na manipulacji ludzką psychiką, a nie na technicznych lukach w systemach. Edukacja w tym zakresie nie powinna ograniczać się jedynie do podstawowych szkoleń, ale powinna obejmować również regularne przypomnienia i symulacje, które pomagają utrwalić prawidłowe nawyki i reakcje na zagrożenia. Szwed zauważa, że tradycyjne szkolenia, które odbywają się raz na jakiś czas, są już niewystarczające. Cyberbezpieczeństwo powinno być włączone w codzienne funkcjonowanie firmy i stanowić integralną część kultury organizacyjnej. To podejście, które w dłuższym czasie pozwala na minimalizowanie ryzyka związanego z atakami. Edukacja powinna dotyczyć nie tylko pracowników, ale także kadry zarządzającej, której odpowiedzialność za bezpieczeństwo danych jest szczególnie istotna w kontekście przepisów takich jak dyrektywa NIS 2.

    Dyrektywa NIS 2: Nowe wyzwania i odpowiedzialność 

    Dyrektywa NIS 2, która weszła w życie w 2023 roku, stanowi istotny krok w kierunku zwiększenia poziomu cyberbezpieczeństwa w Unii Europejskiej. Wprowadza ona nowe wymagania dotyczące zabezpieczeń w różnych sektorach, w tym w zakresie infrastruktury krytycznej, technologii informacyjno-komunikacyjnych oraz usług cyfrowych. Jednym z kluczowych aspektów tej dyrektywy jest przyjęcie zasady odpowiedzialności na wszystkich poziomach organizacji, co oznacza, że menedżerowie i właściciele firm muszą osobiście angażować się w kwestie związane z bezpieczeństwem cyfrowym. Ekspert Canon Polska podkreśla, że dyrektywa NIS 2 ma istotny wpływ na sposób zarządzania cyberbezpieczeństwem w firmach, szczególnie w kontekście odpowiedzialności osób na stanowiskach kierowniczych. To zmienia podejście do zarządzania ryzykiem, ponieważ dyrektywa wyraźnie nakłada na osoby zarządzające obowiązek reagowania na zagrożenia oraz monitorowania sytuacji cyberbezpieczeństwa w firmie. Dariusz Szwed zauważa również, że choć dyrektywa NIS 2 nakłada obowiązki na firmy, to jest to również dobra okazja, by zacząć traktować cyberbezpieczeństwo jako integralny element strategii rozwoju.

    Praca zdalna a bezpieczeństwo cyfrowe 

    Pandemia COVID-19 znacząco przyspieszyła proces przejścia na pracę zdalną, co wprowadziło nowe wyzwania w zakresie bezpieczeństwa cyfrowego. Wiele firm zmuszonych było do błyskawicznego dostosowania swoich struktur do nowego trybu pracy, a to oznaczało konieczność wdrożenia nowych rozwiązań technologicznych i procedur ochrony danych. W odpowiedzi na te zmiany, cyberzagrożenia związane z pracą zdalną stały się istotnym tematem w obszarze zarządzania ryzykiem. Dariusz Szwed zauważa, że choć praca zdalna sama w sobie nie stanowi zagrożenia, to jej wdrożenie bez odpowiednich procedur ochrony może prowadzić do poważnych luk w bezpieczeństwie. Jednak zdalny dostęp do firmowych zasobów, bez odpowiednich środków ochrony, stwarza okazję dla cyberprzestępców, którzy mogą wykorzystać te luki, by przeprowadzić ataki, np. phishingowe, na słabo zabezpieczone urządzenia i konta użytkowników. Aby przeciwdziałać zagrożeniom związanym z pracą zdalną, Szwed podkreśla znaczenie inwestycji w technologie zabezpieczające.

    Ekologia i zrównoważony rozwój w technologiach druku 

    Dariusz Szwed wskazuje, że ekologia staje się istotnym czynnikiem w doborze technologii, również w kontekście urządzeń biurowych. Ekspert zauważa, że firmy coraz częściej zwracają uwagę na kwestie ekologiczne przy wyborze technologii, w tym urządzeń do druku. Zrównoważony rozwój staje się jednym z kryteriów, które wpływają na decyzje zakupowe. W tym kontekście szczególną uwagę zwraca się na efektywność energetyczną, zużycie materiałów eksploatacyjnych, a także na długość cyklu życia urządzeń, co pozwala na zmniejszenie odpadów i ograniczenie negatywnego wpływu na środowisko. Wraz z rosnącą świadomością ekologiczną, wielu producentów urządzeń drukujących, w tym firma Canon, stawia na zrównoważony rozwój i proekologiczne innowacje. 

    „Podejście ekologiczne to bardzo istotny element strategii Canon. Jako japońska organizacja funkcjonujemy w myśl Kyosei, czyli pracujemy, budujemy biznes dla dobra wspólnego. Canon od lat podejmuje działania mające na celu minimalizowanie wpływu swojej produkcji na środowisko. To nie tylko dbałość o materiały eksploatacyjne, ale także projektowanie urządzeń w taki sposób, by miały one jak najdłuższy cykl życia i minimalizowały zużycie energii”

    Dariusz Szwed z Canon Polska.

    Działania te obejmują m.in. produkcję urządzeń energooszczędnych, a także wdrażanie programów recyklingowych, które pozwalają na ponowne wykorzystanie części zamiennych oraz materiałów eksploatacyjnych. Warto również zauważyć, że zrównoważony rozwój w kontekście druku nie kończy się na samej produkcji urządzeń i materiałów eksploatacyjnych. Canon wdraża już rozwiązania, które umożliwiają optymalizację procesów druku w biurach, co przekłada się na mniejsze zużycie papieru, tuszów oraz energii. Tego rodzaju rozwiązania pozwalają firmom na bieżąco monitorować swoje działania i wprowadzać usprawnienia, które są korzystne zarówno z perspektywy ekologicznej, jak i ekonomicznej.

    Zaufanie i innowacje w technologii sprzętu drukującego 

    Zaufanie do technologii sprzętu drukującego stanowi fundament podejmowanych przez firmy decyzji zakupowych. Współczesny rynek druku stawia przed producentami urządzeń coraz bardziej wymagające oczekiwania, zarówno w zakresie wydajności, jak i bezpieczeństwa. Klienci, decydując się na wybór konkretnego sprzętu, kierują się nie tylko ceną, ale także jakością, niezawodnością oraz innowacyjnością oferowanych rozwiązań. Zaufanie do sprzętu jest bezpośrednio powiązane z jego trwałością, efektywnością energetyczną, a także wciąż rosnącymi wymaganiami dotyczącymi ochrony danych i bezpieczeństwa cyfrowego. Dariusz Szwed zauważa, że zaufanie do urządzeń drukujących ma kluczowe znaczenie dla procesu decyzyjnego w firmach. 

    „Zaufanie do sprzętu drukującego jest niezbędne, ponieważ w przypadku jego awarii czy problemów z jakością druku, firma może ponieść poważne straty. Firmy oczekują nie tylko funkcjonalności, ale także długowieczności urządzeń, które będą niezawodne przez wiele lat”. 

    Dariusz Szwed z Canon Polska.

    Z tego powodu kluczowe staje się projektowanie urządzeń z myślą o ich trwałości i stabilności pracy, co wpływa na długofalową satysfakcję użytkowników. Innowacje w technologii druku odgrywają również istotną rolę w podnoszeniu jakości sprzętu i zwiększaniu zaufania do urządzeń.

  • Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Technologie pamięciowe na przełomie dekady: Maciej Kamiński z Samsung o kluczowych innowacjach

    Rozwój technologii pamięci masowych odgrywa kluczową rolę w kształtowaniu przyszłości branży IT, wpływając na wydajność, bezpieczeństwo i energooszczędność systemów informatycznych. O najnowszych innowacjach, trendach oraz wyzwaniach rynkowych rozmawiamy z Maciejem Kamińskim, Dyrektorem dywizji Memory w Samsung Electronics Polska i regionie CEE.

    Bartosz Martyka, BrandsIT: Jakie innowacje w technologii pamięci mają największy wpływ na całą branżę IT?

    Maciej Kamiński, Samsung: Każde novum dotyczące pamięci masowych napędza rozwój branży IT, wpływając na wydajność, energooszczędność oraz przetwarzanie i przechowywanie danych. W ostatnich latach kilka przełomowych technologii znacząco ukształtowało przyszłość centrów danych, urządzeń konsumenckich i AI.

    Jednym z największych postępów jest pamięć NVMe, która zastąpiła starsze interfejsy SATA. Dyski NVMe oferują wielokrotnie wyższą prędkość odczytu i zapisu, co znacząco skraca czas ładowania systemów, aplikacji i baz danych. Wykorzystanie NVMe w centrach danych, gamingowych PC i AI przyspiesza obliczenia, zwiększa efektywność operacyjną i redukuje opóźnienia. Technologia ta jest kluczowa dla nowoczesnych serwerów, gdzie każda milisekunda ma znaczenie. Firmy mogą przetwarzać ogromne ilości danych w czasie rzeczywistym, co ma istotne znaczenie dla machine learning i chmury. Dzięki wysokiej przepustowości NVMe stopniowo wypiera SSD oparte na SATA, które nie spełniają już współczesnych wymagań wydajnościowych.

    Kolejną istotną innowacją jest rozwój pamięci 3D NAND, w której komórki są układane warstwowo, co pozwala na zwiększenie gęstości zapisu i pojemności dysków SSD bez zmiany ich rozmiaru. Producenci mogą dostarczać bardziej wydajne i tańsze nośniki, co ma ogromne znaczenie dla chmury i użytkowników indywidualnych. Wzrost popularności przechowywania danych w chmurze i modelu subskrypcyjnego napędza popyt na szybkie, pojemne pamięci.

    Nowoczesne algorytmy zarządzania pamięcią wydłużają jej żywotność, co jest kluczowe dla biznesu i centrów danych. Samsung jako lider w tej dziedzinie stale rozwija 3D NAND, zwiększając liczbę warstw nawet do planowanych 430. Takie innowacje zwiększają pojemność i optymalizują zużycie energii. Jest to istotne dla zrównoważonego rozwoju IT. Technologia Samsung V-NAND poprawia wydajność i trwałość dzięki pionowemu układaniu komórek, redukując zakłócenia między-poziomowe i zwiększając niezawodność pamięci w długim okresie.

    B.M.: Jakie są kluczowe elementy skutecznego partnerstwa w sektorze rozwiązań pamięciowych?

    M.K.: Efektywna współpraca nie tylko w sektorze pamięci masowych, a w sadzie w każdej branży, opiera się na kilku kluczowych elementach, które umożliwiają długoterminową współpracę i budowanie przewagi konkurencyjnej.

    1. Wspólna wartość biznesowa
      Współpracujące firmy muszą mieć jasno określone cele oraz strategie, które pozwalają na rozwój innowacyjnych rozwiązań odpowiadających na realne potrzeby klientów. W dywizji Memory w Samsung nie stawiamy na wielką liczbę partnerów, a na jakość współpracy – kluczowe jest dla nas budowanie długofalowych relacji, w których partnerzy dostarczają wartość dodaną do sektora technologii pamięciowych.
    2. Elastyczność i adaptacja do zmian rynkowych
      Sektor IT charakteryzuje się szybką zmiennością, dlatego elastyczność i zdolność adaptacji do nowych wyzwań jest niezbędna. Współpraca z partnerami musi uwzględniać zmieniające się potrzeby klientów, rozwój sztucznej inteligencji, wzrost znaczenia chmury obliczeniowej oraz potrzeby sektora data center. Samsung, wspierając swoich partnerów, dostarcza nie tylko najnowsze rozwiązania sprzętowe, ale także edukację i wsparcie techniczne, co ułatwia ich skuteczne wdrażanie.
    3. Transparentność i zaufanie
      Współpraca w sektorze pamięci masowej wymaga transparentności i partnerstwa opartego na zaufaniu. Kluczowe jest dzielenie się wiedzą, analizowanie trendów rynkowych oraz dostosowywanie strategii sprzedażowych do potrzeb klientów. Realizujemy to m.in. poprzez cykliczne szkolenia dla partnerów oraz współpracę w zakresie tworzenia materiałów case study, które pokazują praktyczne zastosowanie rozwiązań pamięciowych w rzeczywistych projektach.
    4. Wsparcie operacyjne i marketingowe
      Skuteczne partnerstwo nie kończy się na dostarczeniu produktu – istotne jest wsparcie operacyjne, po-sprzedażowe, serwisowe oraz marketingowe. Samsung wdraża model 360°, w którym oprócz innowacyjnych produktów oferuje showroomy technologiczne, szkolenia i materiały edukacyjne, które pomagają partnerom w skutecznej promocji i sprzedaży pamięci masowych.

    B.M.: Jak współpraca z producentami sprzętu, dystrybutorami oraz dostawcami chmury wpływa na rozwój rozwiązań pamięciowych?

    M.K.: Wymiana doświadczeń z firmami tworzącymi sprzęt IT pozwala na optymalizację wydajności, kompatybilności i trwałości produktów. Integracja technologii NVMe z nowoczesnymi urządzeniami przyspiesza przetwarzanie danych. Stanowi to nieocenioną wartośćdla klientów indywidualnych, centrów danych i branży AI.

    Współpracujemy z producentami sprzętu, by dostosować firmware i kontrolery pamięci do konkretnych zastosowań. Przykładem jest rozwój dysków SSD zoptymalizowanych pod kątem gier, które minimalizują opóźnienia i zwiększają prędkość ładowania.

    Dystrybutorzy natomiast odgrywają kluczową rolę w łańcuchu dostaw, zapewniając dostępność najnowszych technologii pamięciowych. Współpraca z nimi przyspiesza wdrażanie innowacji i zwiększa skalę dystrybucji. Jako dywizja Memory stawiamy na bliskie relacje z partnerami, oferując im nie tylko produkty, ale także szkolenia, które pomagają skutecznie sprzedawać nowoczesne rozwiązania. Dzięki temu możliwe jest dostosowanie oferty do lokalnych rynków – w Europie rośnie zapotrzebowanie na dyski enterprise, podczas gdy w krajach rozwijających się dominują podstawowe nośniki danych.

    Dynamiczny rozwój usług chmurowych znacząco wpływa na innowacje w pamięciach masowych. Samsung współpracuje z dostawcami chmury, by tworzyć rozwiązania zoptymalizowane pod kątem centrów danych. W nich to priorytetowymi są szybkość dostępu, energooszczędność i skalowalność. Przykładem jest rosnące zapotrzebowanie na dyski SSD NVMe dla serwerów cloudowych. Samsung inwestuje w rozwój pamięci o dużej gęstości zapisu, co zwiększa efektywność przechowywania i przetwarzania informacji w chmurze.

    B.M.: Jakie wyzwania technologiczne i rynkowe przewidujecie, a które mogą zostać złagodzone dzięki strategicznym partnerstwom?

    M.K.: Niestabilność łańcucha dostaw półprzewodników, nasilona przez pandemię i napięcia geopolityczne, pokazała, jak duży wpływ na branżę mają niedobory surowców i zakłócenia logistyczne. Producenci pamięci mierzyli się z ograniczoną dostępnością kluczowych komponentów, co wpłynęło na tempo produkcji i terminowość dostaw. Rosnący popyt na elektronikę, napędzany rozwojem AI, big data i chmury, dodatkowo uwypuklił znaczenie niezachwianego łańcucha wartości.

    Samsung Memory, dzięki partnerstwom z dystrybutorami i dostawcami surowców, minimalizuje ryzyko braków i optymalizuje logistykę. Długoterminowa współpraca pozwala skuteczniej zarządzać zasobami i przewidywać problemy z dostępnością komponentów. Inwestycje w lokalne centra produkcyjne i magazynowe zmniejszają zależność od odległych dostawców, a globalna współpraca ułatwia monitorowanie sytuacji rynkowej i zapewnia ciągłość produkcji.

    W dobie cyfryzacji rosną zagrożenia cybernetyczne. Ataki ransomware i kradzież danych stały się codziennością, a firmy potrzebują zaawansowanych zabezpieczeń. Sektory finansowy, zdrowotny i infrastruktura krytyczna wymagają najwyższego poziomu ochrony, co wymusza stosowanie technologii szyfrowania i odporności na manipulacje.

    Samsung wdraża szyfrowanie sprzętowe w pamięciach SSD oraz systemy odporne na ataki. Dzięki temu firmy skuteczniej chronią dane, a użytkownicy indywidualni zyskują większe bezpieczeństwo. Rozwój technologii Hardware-Based Encryption i unikalnych identyfikatorów sprzętowych wzmacnia ochronę informacji. Samsung Memory nie tylko dostarcza sprzęt, ale także edukuje partnerów w zakresie najlepszych praktyk cyberbezpieczeństwa, pomagając firmom skutecznie przeciwdziałać zagrożeniom.


    Maciej Kamiński pełni funkcję Dyrektora Dywizji Memory w Samsung Electronics na Polskę i region Europy Środkowo-Wschodniej (CEE). Posiada szerokie doświadczenie w zakresie marketingu, sprzedaży oraz zarządzaniu produktami i usługami technologicznymi. W swojej roli odpowiada za rozwój i skalowanie biznesu pamięci masowych Samsung w regionie, kładąc nacisk na budowanie stabilnych relacji z partnerami oraz wspieranie ich w rozwoju oferty. Pod jego kierownictwem dywizja Memory została zbudowana od podstaw i obecnie dynamicznie rozwija się.

  • Kontrola e-commerce – UOKiK będzie sprawdzał e-sklepy bez uprzedzenia i zgody przedsiębiorców

    Kontrola e-commerce – UOKiK będzie sprawdzał e-sklepy bez uprzedzenia i zgody przedsiębiorców

    Od 13 grudnia 2024 r. przedsiębiorcy muszą stosować się do nowych wymogów dotyczących bezpieczeństwa produktów, które wprowadziło unijne Rozporządzenie w sprawie ogólnego bezpieczeństwa produktów [1] nazywane w skrócie GPSR. GPSR określa obowiązki m.in. producentów, importerów i dystrybutorów produktów, które mają stanowić gwarancję bezpieczeństwa produktów wprowadzanych na rynek unijny. W zakresie nadzoru nad wykonywaniem obowiązków wynikających z GPSR przewiduje ono, że odpowiednie przepisy w tym zakresie przyjmą państwa członkowskie w swoim krajowym ustawodawstwie. Prace na projektem ustawy określającej zasady kontroli stosowania GPSR nadal trwają, ale wydaje się, że powoli dobiegają końca. Czas więc przyjrzeć się, jakie nowe zasady kontroli e-sklepów proponuje UOKiK.

    Projekt ustawy zakłada, że organem właściwym w sprawie nadzoru nad ogólnym bezpieczeństwem produktów będzie Prezes Urzędu Ochrony Konkurencji i Konsumentów. Kontrolę produktów mają natomiast przeprowadzać wojewódzcy inspektorzy Inspekcji Handlowej.

    Tekst projektu ustawy określającej zasady stosowania GPSR jest publicznie dostępny od końca lipca 2024 r. Do połowy lutego 2025 r. trwało jednak zbieranie opinii na jego temat i uzgadnianie jego ostatecznej treści. Jak wynika z dokumentacji udostępnionej na stronie Rządowego Centrum Legislacji, uwagi dotyczące zasad kontroli stosowania GPSR, które zaproponował UOKiK, zgłaszało w szczególności Ministerstwo Rozwoju i Technologii. Dotyczyły one Rozdziału 2 projektu ustawy, który w Oddziale 3 reguluje zasady kontroli produktów oferowanych do sprzedaży na odległość.

    Projekt ustawy przewiduje, że w przypadku produktów oferowanych do sprzedaży na odległość (produkty oferowane w sklepie internetowym czy poprzez platformę allegro.pl) kontrola może zostać przeprowadzona w sposób zdalny. W ramach takiej formy kontroli wojewódzcy inspektorzy Inspekcji Handlowej mieliby być upoważnieni do zażądania od kontrolowanego przedsiębiorcy nieodpłatnego dostarczenia oferowanego przez niego produktu w ilościach niezbędnych do przeprowadzenia badań, ale też do przeprowadzenia tzw. zakupu kontrolowanego. Zakup kontrolowany ma polegać na złożeniu zamówienia przez inspektora przy użyciu danych nieujawniających tożsamości inspektora oraz uniemożliwiających ustalenie adresu organu dokonującego zakupu. W takim wypadku kontrolę miałoby rozpoczynać właśnie dokonanie zakupu przez inspektora.

    Przeprowadzenie kontroli zdalnej – z siedziby organu – jest możliwe już teraz na podstawie przepisów Prawa przedsiębiorców. Przeprowadzenie kontroli w takim trybie jest jednak dopuszczalne za zgodą lub na wniosek przedsiębiorcy. Zgodnie z projektem ustawy o nadzorze nad GPSR do Prawa przedsiębiorców miałoby zostać dodane nowe postanowienie, według którego zgoda przedsiębiorcy na kontrolę zdalną nie będzie wymagana w przypadku, gdy kontrola jest prowadzona właśnie na podstawie projektowanej ustawy. MRiT podnosiło jednak, że zwolnienie od obowiązku uzyskania zgody przedsiębiorcy powinno dotyczyć wyłącznie zakupu kontrolowanego.

    Ostatecznie UOKiK wskazał, że jednym z celów GPSR jest uporządkowanie handlu elektronicznego i nadanie organom nadzoru rynku uprawnień do skutecznego wykrywania i eliminowania niebezpiecznych produktów oferowanych tym kanałem. Z przeprowadzonych przez UOKiK konsultacji z przedstawicielami przedsiębiorców wynika wręcz, że oczekują oni efektywnej kontroli wobec produktów oferowanych za pośrednictwem platform handlowych z państw trzecich (zwłaszcza platform azjatyckich). Temu celowi ma właśnie służyć kontrola zdalna dopuszczona w szerszym stopniu niż tylko w przypadku zakupu kontrolowanego.

    MRiT ostatecznie zgodziło się na przeprowadzenie obu rodzajów kontroli zdalnej produktów oferowanych na odległość bez zgody przedsiębiorcy. Zaproponowało jednak zmianę umiejscowienia przepisu zawierającego zwolnienie od obowiązku uzyskania zgody przedsiębiorcy na kontrolę zdalną. Należy więc spodziewać, że projekt ustawy będzie procedowany przez Sejm właśnie w takim kształcie.


    [1] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2023/988 z dnia 10 maja 2023 r. w sprawie ogólnego bezpieczeństwa produktów, zmieniające rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 1025/2012 i dyrektywę Parlamentu Europejskiego i Rady (UE) 2020/1828 oraz uchylające dyrektywę 2001/95/WE Parlamentu Europejskiego i Rady i dyrektywę Rady 87/357/EWG (Tekst mający znaczenie dla EOG), Dz.U. L 135 z 23.5.2023, p. 1–51

    GFP_Legal
     

  • Aby uwolnić moc AI, zacznij od małych kroków, ale myśl na dużą skalę – Howard Boville, wiceprezes DXC Technology

    Aby uwolnić moc AI, zacznij od małych kroków, ale myśl na dużą skalę – Howard Boville, wiceprezes DXC Technology

    Sztuczna inteligencja jest gorącym tematem od lat, a u progu 2025 roku jest wykorzystywana coraz intensywniej w branżach takich jak motoryzacja, opieka zdrowotna i nauki przyrodnicze, usługi finansowe, czy transport i sektor publiczny. Jak przekonują eksperci DXC, w tym roku możemy spodziewać się, że dużo więcej organizacji rozpocznie projekty wykorzystujące AI według recepty: zacznij od małych kroków, ale myśl na dużą skalę i szybko uzyskuj efekty.

    Projekty te obejmą wdrażanie małych, dziedzinowych aplikacji, które będą rozwiązywały specyficzne problemy w firmie, zamiast kompleksowych systemów sztucznej inteligencji od razu na wielką skalę. Takie podejście pozwala na wdrażanie stopniowe, łatwiejszą integrację z już działającymi rozwiązaniami oraz daje sposobność uczenia się i zwiększania stopnia wykorzystania AI w miarę postępów prac.

    Trend ten ma odzwierciedlenie również w podejściu dostawców technologii do wdrożeń projektów AI. Dla przykładu, DXC nadaje priorytet tym rozwiązaniom, które można wykorzystać szybko i skutecznie, przy pełnym zaangażowaniu w relacje z klientami na platformie technologicznej nazywanej DXC AI Impact.

    Adaptacja do wielu różnych zadań

    Sztuczna inteligencja staje się potężną siłą pomagającą organizacjom w lepszym podejmowaniu decyzji, świadczeniu usług i wykonywaniu codziennych zadań. Aplikacje zwane agentami AI są wykorzystywane w różnych branżach do analizowania ogromnych zbiorów danych z niewiarygodną szybkością, automatyzowania setek procesów i dostarczania cennych analiz, gotowych do natychmiastowego wykorzystania.

    Wkrótce pojawią się systemy składające się z wielu współdziałających ze sobą inteligentnych agentów, które jeszcze bardziej ułatwią ludzką pracę, wykorzystując nowe podejście zwane Agentic AI. Uzyskają ten efekt poprzez zrozumienie i właściwą interpretację założonych celów, a następnie podejmowanie działań w oparciu o ciągłe uczenie się i analizy obszernych zbiorów danych. Ten model zaczyna być wykorzystywany przez instytucje sektora publicznego zmagające się z ogromną liczbą czasochłonnych zadań, stosami dokumentów krążących w urzędach oraz nieefektywnymi procesami, które wyczerpują zasoby i obniżają produktywność.

    Przyszłość opieki nad pacjentem

    Innowacje przekształcają dzisiaj wiele sektorów gospodarki, jednak niewiele z nich odczuwa transformacyjną moc AI tak intensywnie, jak opieka zdrowotna. Zdolność sztucznej inteligencji do automatyzacji złożonych procesów i kierowania uwagi na nowe sposoby myślenia daje pracownikom służby zdrowia nowe metody diagnozowania i leczenia pacjentów. Na przykład, lekarze będą mogli wkrótce wykorzystać sztuczną inteligencję do personalizacji recept na antybiotyki za pomocą zaledwie kilku kliknięć, używając innowacyjnego narzędzia opracowanego przez DXC we współpracy z Singapore General Hospital. Rozwiązanie analizuje dane kliniczne pacjentów w celu ustalenia jakie antybiotyki są potrzebne, zaleca odpowiednie modele i schematy dawkowania.

    Wspomagamy rozwój transportu

    W miarę jak świat staje się coraz bardziej połączony i sterowany cyfrowo, przemysł motoryzacyjny doświadcza radykalnej transformacji, ponieważ nowe technologie (takie jak sztuczna inteligencja), umożliwiają bardziej płynny przepływ danych i informacji pomiędzy pojazdami, kierowcami i otaczającą je infrastrukturą. Narzędzia diagnostyczne oparte na sztucznej inteligencji ułatwiają producentom i dostawcom usług identyfikację potencjalnych problemów, zanim staną się one krytyczne. Narzędzia te analizują dane z czujników pojazdu i wykorzystują algorytmy uczenia maszynowego do przewidywania prawdopodobieństwa awarii podzespołów, ograniczając czas przestojów i koszty konserwacji.

    Sztuczna inteligencja rewolucjonizuje również sposób, w jaki pojazdy dostosowują się do indywidualnych potrzeb, umożliwiając producentom personalizację każdego detalu wytwarzanych samochodów w celu zaspokojenia specyficznych preferencji kierowców i pasażerów.

    Stymulowanie innowacji AI poprzez współpracę

    W epoce sztucznej inteligencji żadna firma nie może działać w pojedynkę – organizacje, które działają w izolacji, ryzykują pozostanie w tyle. Wspólne przedsięwzięcia, partnerstwa strategiczne i nieformalna współpraca umożliwiają łączenie zasobów i baz specjalistycznej wiedzy, zdobywanie nowych rynków i szybsze przechodzenie od eksperymentowania ze sztuczną inteligencją do etapu, w którym staje się ona podstawowym elementem strategii biznesowej.

    Dzięki branżowym ośrodkom innowacji AI i centrom kompetencji (jak w przypadku ogłoszonego niedawno partnerstwa DXC Technology z ServiceNow), firmy mogą przeprowadzać zaawansowane wdrożenia AI, łącząc zasoby, umiejętności i wiedzę na zasadzie swoistego multidyscyplinarnego spotkania umysłów. Współpraca daje podstawy do wykonywania projektów na szerszą skalę oraz coraz bardziej przesuwa granice przyszłych zastosowań sztucznej inteligencji.


    Autor: Howard Boville, wiceprezes DXC Technology ds. usług konsultingowych i inżynieryjnych wspomaganych przez AI.

  • Nie idź sam! Współpraca partnerska motorem wzrostu firmy

    Nie idź sam! Współpraca partnerska motorem wzrostu firmy

    Gdyby ktoś mnie zapytał, gdzie dziś byłoby SaldeoSMART, gdybyśmy kiedyś nie zdecydowali się na zbudowanie sieci partnerskiej i integracje z innymi produktami – nie umiałbym odpowiedzieć. Na pewno w innym miejscu. Z perspektywy czasu mogę jednak z całą odpowiedzialnością przyznać, że współpraca z innymi pchnęła naszą firmę na nowe tory i wpłynęła pozytywnie na jej rozwój.

    Partnerstwo – niemożliwe staje się możliwe

    Sieć partnerów lub inaczej – dystrybutorów – może stać się dla firmy kamieniem milowym w rozwoju sprzedaży. Nie mówię nawet o wychodzeniu na rynki międzynarodowe. Także w kraju bardzo ważna jest znajomość lokalnego rynku, jego głównych graczy, uwarunkowań. Ważne są relacje. I oczywiście – jeśli firmę stać na zatrudnianie dobrych, lokalnych handlowców z dużą siecią kontaktów – realizowanie sprzedaży własnym sumptem może mieć największy sens.

    Jednak przedsiębiorstwa, które dopiero się rozwijają, nie działają jeszcze na wielką skalę lub te, które borykają się z problemami z kadrą – mogą bardzo skorzystać na współpracy z dystrybutorem. Dlaczego? Dystrybutor zna rynek. Zwykle już ma dość rozbudowane portfolio klientów, którzy korzystają z oferowanych przez niego rozwiązań. Dosprzedaż jest zatem dla niego łatwiejsza niż sprzedaż ‘od zera’ dla firmy, która dopiero zdobywa rozpoznawalność.

    Co więcej – dystrybutor nie tylko sprzedaje. On także przejmuje opiekę nad klientem. Wdraża rozwiązanie, szkoli zespół, rozwiązuje problemy. Staje się ważnym punktem kontaktu dla użytkowników programu. Producent zyskuje zatem czas i zasoby, które może wykorzystać do rozwoju produktu czy do pozyskiwania nowych klientów.

    Dywersyfikacja sprzedaży

    No właśnie. Warto sobie jeszcze zadać pytanie, czy chcemy sprzedawać tylko przez partnerów, czy też także za pośrednictwem własnych handlowców. My w SaldeoSMART zdecydowaliśmy się na połączenie sił partnerów i handlowców. I przyznaję, że niejednokrotnie zastanawialiśmy się, czy nie lepiej postawić na jedno z tych rozwiązań – tylko na dystrybutorów lub tylko na bezpośrednią sprzedaż. Dla nas jednak ta dwutorowość jest ważna. Przede wszystkim dlatego że oba rodzaje sprzedaży produktu mają swoje dobre i złe strony. Mają swoje ryzyka, które warto brać pod uwagę.

    Sieć partnerów – wyzwania

    A największym wyzwaniem pracy z siecią partnerską jest to, że dystrybutor samodzielnie decyduje, które rozwiązania poleci swoim klientom. Producent może dodatkowo zachęcać, np. różnymi promocjami, akcjami, szkoleniami, ale to partner ostatecznie decyduje, które rozwiązanie ze swojego portfolio zaprezentuje potencjalnemu klientowi.

    Dodatkowo producent nie ma też kontroli nad tym, co i jak dystrybutor komunikuje firmom zainteresowanym kupnem narzędzia. Oczywiście może przygotowywać i udostępniać materiały, organizować webinary, sesje pytań i odpowiedzi – ale ani nie może wymagać, aby dystrybutorzy brali w nich udział, ani nie wie, co ostatecznie przekazują potencjalnym klientom.

    Prowadząc sprzedaż bezpośrednią, firma ma większą kontrolę nad komunikacją. Samodzielnie ustawia swoje priorytety sprzedażowe, może z dużą dokładnością określić swoją grupę docelową i realizować swoje cele. A to staje się coraz łatwiejsze, gdy producent i jego rozwiązanie są już rozpoznawalni na rynku.

    Integracje – niezbędny krok w obszarze technologii

    Kiedy mówimy o rozwoju firm technologicznych, nie można pominąć także rozwoju samego produktu. A on – w moim przekonaniu – nie jest możliwy bez integracji z innymi narzędziami dostępnymi na rynku.

    Oczywiście można by stworzyć samowystarczalny produkt, który nie wymieniałby żadnych danych z innymi narzędziami. Tylko pytanie, czy ktokolwiek chciałby z niego korzystać? Nasz cyfrowy świat jest coraz bardziej zintegrowany. Wymieniamy i przetwarzamy tyle różnych danych z bardzo różnych źródeł. Tworzenie barier w przepływie informacji nie ma dziś racji bytu.

    Jak to działa? Wróćmy do tematu sprzedaży. Handlowiec sprzedaje towar. Musi wystawić fakturę, wygenerować zamówienie, zaksięgować płatność. W cały ten proces zaangażowanych jest kilka różnych systemów. Naturalnym kierunkiem rozwoju jest właśnie to, żeby te systemy w maksymalny sposób wymieniały te informacje. W ostatnich latach duża część pracy człowieka koncentrowała się na przepisywaniu danych z jednego systemu do drugiego. Dziś jesteśmy otwarci na to, żeby się komunikować z tymi systemami, szczególnie kiedy mamy rozwiązania chmurowe.

    Prawo sprzyja integracjom

    Integracje są coraz łatwiejsze także dzięki prawu. Obowiązująca w Unii Europejskiej dyrektywa PSD2 dotycząca usług płatniczych zmieniła zasady funkcjonowania firm operujących w świecie finansów. Przekształciła sposób, w jaki działają instytucje finansowe. Wpłynęła też na codzienne funkcjonowanie przedsiębiorstw. Jej głównym celem było właśnie stworzenie lepiej zintegrowanego rynku płatności elektronicznych w Unii Europejskiej.

    W praktyce dyrektywa zobowiązała banki do dzielenia się dostępem do danych swoich klientów za pomocą interfejsów API. Natomiast fintechy zyskały możliwość dostępu do danych bankowych klientów za ich zgodą, dzięki czemu są w stanie oferować nowe usługi płatnicze, np. innowacyjne aplikacje mobilne do zarządzania finansami.

    Jak to przełożyło się na codzienne korzystanie z technologii? Mogę powiedzieć na przykładzie SaldeoSMART. Dzięki integracji z usługą Unified Post mogliśmy połączyć nasze rozwiązanie z bankowością. Dzięki temu wprowadziliśmy automatyzację rozrachunków. System automatycznie łączy się z bankiem i pobiera listę transakcji, które później rozlicza. Bez integracji i bez odpowiedniego prawa nie byłoby to możliwe.

    Kto jest odpowiedzialny za integracje?

    Integracje leżą w interesie większości producentów. W naszej firmie na początku samodzielnie próbowaliśmy zintegrować SaldeoSMART z popularnymi programami księgowymi. Te systemy musiały się wymieniać danymi. Następnie wystawiliśmy dostęp do SaldeoSMART poprzez API. Z czasem postawiliśmy na współpracę z integratorami. A czasem nawet z producentami, którzy jednocześnie byli integratorami. Dlaczego? Bo lepiej znali te programy, mieli łatwiejszy dostęp do dokumentacji, zmian czy nietypowej technologii. Nasi programiści mieli wystraczająco dużo pracy nad rozwojem naszego narzędzia, dlatego każda pomoc była niezwykle wartościowa.

    Warto też wspomnieć, że integrator może być również dystrybutorem – w takim przypadku łączymy rozwój produktu z rozwojem sprzedaży.

    Wypłynąć na błękitny ocean

    Na koniec rozważań o integracji z innymi rozwiązaniami chciałbym jeszcze poruszyć jeden aspekt. Ktoś mógłby się obawiać, że integracja z innymi odbierze mu unikalność, możliwość zagarnięcia większej części rynku. Przecież zamiast się integrować, można by było stworzyć własne, bardziej rozbudowane rozwiązanie i być może zdobyć nowy kawałek rynku. Przekładając tę sytuację na doświadczenia SaldeoSMART – zamiast integrować się z systemami księgowymi i umożliwiać tym samym ich użytkownikom OCR-owanie dokumentów czy komunikację na linii biuro rachunkowe-klient lub obieg dokumentów mogliśmy zbudować własny system księgowy. Mogliśmy, ale nie to było naszym celem.

    Moją odpowiedzią na takie obawy jest błękitny ocean. Ważne jest, by znajdować się po tej części rynku, który jest tak nazywany. Czyli konstruować taki produkt oraz taką ofertę, których praktycznie nie da się porównać z innymi. I które są bardzo trudne do skopiowania. Warunkiem koniecznym jest oczywiście potrzeba rynkowa. Jeśli jej nie ma – nikt nie kupi takiego produktu. Ale warunkiem drugim jest unikatowość. Czyli zagospodarowanie rynkowej niszy. W takim przypadku integracje będą szansą na ulepszenie produktu, a nie zagrożeniem.

    Podsumowując – współprace z innymi firmami – z dystrybutorami, integratorami, producentami – dają przedsiębiorstwom szansę na szybszy rozwój, na dodatkowe akcje marketingowe, na dotarcie do nieosiągalnych dotąd klientów i regionów. Ważne jest jednak to, by zachować równowagę i unikalny charakter swojego produktu. Dzięki temu jego pozycja wzrośnie nawet w konkurencyjnym otoczeniu.

  • Ochrona małoletnich w sieci. Ministerstwo Cyfryzacji zapowiada nowe obowiązki dostawców stron internetowych

    Ochrona małoletnich w sieci. Ministerstwo Cyfryzacji zapowiada nowe obowiązki dostawców stron internetowych

    W założeniach projektu przywołano badania przeprowadzone przez NASK, z których wynika, że prawie co piąty (18,5%) z ankietowanych miał mniej niż 10 lat, kiedy po raz pierwszy zetknął się w Internecie z treściami o charakterze seksualnym a średnia wieku, w którym ankietowani pierwszy raz widzieli treści pornograficzne, wynosi niespełna 11 lat w przypadku dzieci a wśród starszej młodzieży – 12 lat. Ministerstwo Cyfryzacji za pomocą nowych przepisów zamierza więc ograniczyć małoletnim dostęp do treści uznawanych powszechnie za szkodliwe, w tym w szczególności do pornografii.

    Łatwość dostępu do treści pornograficznych pokazuje, że stosowane dotychczas rozwiązania nie chronią małoletnich w wystarczający sposób przed materiałami, które są szkodliwe dla ich prawidłowego rozwoju emocjonalnego, poznawczego i społecznego. W związki z tym Ministerstwo Cyfryzacji postanowiło włączyć do walki z problemem również dostawców usług świadczonych drogą elektroniczną, w tym zwłaszcza stron internetowych i ogłosiło, że ich odpowiedzialności za zamieszczane treści zostanie zwiększona.

    Przede wszystkim, zgodnie z zapowiedzią Ministerstwa, dostawcy mają zostać zobowiązani do przeprowadzenia analizy ryzyka, jakie wiąże się z uzyskiwaniem przez małoletnich dostępu do szkodliwych treści w ramach świadczonej przez nich usługi. Szczegóły dotyczące sposobu wykonania tego obowiązku nie są jeszcze znane. Założenia przewidują jednak, że dostawcy będą musieli udokumentować należycie fakt przeprowadzenia takiej analizy a kontrolę nad spełnieniem obowiązku jej przeprowadzenia będą sprawować organy administracji publicznej.

    Bardziej rygorystyczne obowiązki mają zostać natomiast nałożone na dostawców oferujących treści pornograficzne. Dostawcy usług pornograficznych będą musieli przeprowadzić obowiązkową weryfikację wieku w celu uniemożliwienia małoletnim dostępu do swoich usług, przy czym wyłączona ma zostać możliwość weryfikacji wieku polegająca wyłącznie na złożeniu przez użytkownika deklaracji, że jest on pełnoletni. Szczegółowe wytyczne w zakresie mechanizmów stosowanych do weryfikacji wieku mają zostać wydane przez Ministra Cyfryzacji i Prezesa Urzędu Komunikacji Elektronicznej.

    Ministerstwo Cyfryzacji przewiduje również wprowadzenie rejestru domen zawierających treści pornograficzne, które nie posiadają dostępu zabezpieczonego weryfikacją wieku. Rejestr ma być prowadzony przez NASK-PIB. Przedsiębiorcy telekomunikacyjni mają natomiast zostać zobowiązani do blokowania dostępu do domen znajdujących się w tym rejestrze.


    Autorka jest aplikantką radcowską w Kancelarii GFP_Legal.

  • Cyberbezpieczeństwo urządzeń NAS: Jak Synology upraszcza ochronę danych

    Cyberbezpieczeństwo urządzeń NAS: Jak Synology upraszcza ochronę danych

    Podczas gdy ryzyko cyberataków wzrasta, ochrona danych stała się priorytetem zarówno dla firm, jak i użytkowników indywidualnych. Szczególnie urządzenia NAS, będące nieodłącznym elementem strategii przechowywania i tworzenia kopii zapasowych, stanowią atrakcyjny cel dla cyberprzestępców. Igor Cejkovský, Sales & Marketing Director CEE w Synology, dzieli się swoją wiedzą na temat najważniejszych zagrożeń w obszarze bezpieczeństwa urządzeń NAS oraz innowacyjnych rozwiązań, które pomagają użytkownikom chronić swoje dane.

    Bartosz Martyka, Brandsit: Jakie są główne zagrożenia dla użytkowników urządzeń NAS w kontekście rosnącego ryzyka cyberataków?

    Igor Cejkovský, Synology: Urządzenia NAS (Network-Attached Storage) są niezbędne dla osób prywatnych, a przede wszystkim dla firm do przechowywania, uzyskiwania dostępu i udostępniania danych, co czyni je atrakcyjnymi celami dla cyberprzestępców. Wynika to z wrażliwego charakteru przechowywanych przez nie danych i ich kluczowej roli w strategiach tworzenia kopii zapasowych. Dzięki ponad 20-letniemu doświadczeniu i członkostwu w znanych organizacjach zajmujących się cyberbezpieczeństwem, Synology opracowało strategię, która pomaga użytkownikom zwiększyć ochronę przed rosnącym zagrożeniem cyberatakami.

    B.M.: W ostatnich latach obserwuje się tendencję do wykorzystywania sztucznej inteligencji w celu poprawy bezpieczeństwa urządzeń IT. Jakie zastosowania sztucznej inteligencji w kontekście NAS mogą pomóc w wykrywaniu zagrożeń i zapobieganiu atakom?

    I.C.: Synology skutecznie integruje sztuczną inteligencję w różnych obszarach swojego ekosystemu. Sztuczna inteligencja pomaga naszym inżynierom technicznym przyspieszyć wstępną obsługę zgłoszeń technicznych i skutecznie rozwiązywać dużą liczbę spraw. Jest również aktywnie wykorzystywana w rozwiązaniach Synology do monitoringu wideo, zapewniając zaawansowaną analitykę w celu uzyskania głębszego wglądu. Ponadto sztuczna inteligencja została włączona do narzędzi zwiększających produktywność, takich jak MailPlus, gdzie pomaga w podsumowywaniu i redagowaniu wiadomości e-mail. Kolejna faza integracji AI jest już w toku, a wiele nadchodzących lub zaktualizowanych aplikacji ma zawierać obsługę AI.

    B.M.: W jaki sposób tworzenie kopii zapasowych na urządzeniach NAS pomaga chronić przed cyberatakami, takimi jak ransomware, i jakie mechanizmy zapewniają bezpieczeństwo kopii zapasowych?

    I.C.: Rozwiązania do tworzenia kopii zapasowych na urządzeniach Synology NAS odgrywają istotną rolę w ochronie przed cyberatakami, w tym oprogramowaniem ransomware, zapewniając możliwość przywrócenia krytycznych danych w przypadku ataku. NAS to nie tylko miejsce docelowe kopii zapasowych, ale kompleksowe rozwiązanie do tworzenia kopii zapasowych, które umożliwia użytkownikom wdrożenie strategii tworzenia kopii zapasowych 3-2-1: Przechowuj trzy kopie danych (oryginał i dwie kopie zapasowe), przechowuj kopie zapasowe na dwóch różnych typach nośników (np. NAS i zewnętrzne dyski twarde) i utrzymuj co najmniej jedną kopię poza siedzibą firmy (np. w chmurze lub na odłączonym urządzeniu w innej lokalizacji). Takie podejście gwarantuje bezpieczeństwo kopii zapasowych. Zaawansowane rozwiązania do tworzenia kopii zapasowych, takie jak Synology ActiveProtect, oferują różne mechanizmy ochrony przed oprogramowaniem ransomware, takie jak technologia WORM lub Air-gaping.

    B.M.: Synology ActiveProtect to zupełnie nowa oferta w ekosystemie produktów Synology. Co skłoniło firmę do wprowadzenia takiego rozwiązania i czym różni się ono od poprzednich produktów Synology, takich jak Active Backup?

    I.C.: Dzięki ponad 20-letniemu doświadczeniu w zarządzaniu danymi, Synology dostarcza ponad 1 milion urządzeń NAS rocznie, z których każde jest zazwyczaj wyposażone w sześć dysków o pojemności 8 TB. Skutkuje to wdrażaniem i zarządzaniem 48 eksabajtami (EB) prywatnej pamięci masowej w chmurze każdego roku, co plasuje nas jako jednego z największych dostawców prywatnej pamięci masowej w chmurze. Zdecydowaliśmy się połączyć to rozległe doświadczenie w zarządzaniu danymi z udowodnionym sukcesem naszego pakietu Active Backup Suite.

    B.M.: NAS to technologia, która stała się standardem w wielu firmach. Jakie są korzyści z połączenia urządzeń NAS z funkcjami ochrony oferowanymi przez ActiveProtect?

    I.C.: NAS może płynnie integrować się z urządzeniem Synology ActiveProtect. To rozszerzenie ekosystemu umożliwia klientom korzystanie ze znanego, intuicyjnego interfejsu i bezpiecznego zarządzania danymi Synology NAS, wraz z potężnym, kompleksowym, centralnie zarządzanym rozwiązaniem do tworzenia kopii zapasowych.  

    B.M.: Jakie są kluczowe innowacje linii ActiveProtect w porównaniu z poprzednimi rozwiązaniami Synology?

    I.C.: ActiveProtect to kolejna ewolucja pakietu Active Backup Suite. Zachowując niski całkowity koszt posiadania, wprowadza dodatkowe funkcje, które ulepszają zasadę tworzenia kopii zapasowych 3-2-1, podnosząc ją do standardu 3-2-1-1-0. Ta nowa struktura dodaje dodatkowe warstwy bezpieczeństwa i niezawodności: **1 kopia offline** (nowy dodatek) – upewnij się, że jedna kopia zapasowa jest offline lub air-gapped (odłączona od sieci) oraz 0 błędów – regularnie testuj kopie zapasowe, aby zweryfikować integralność danych i niezawodność scenariuszy odzyskiwania.

    B.M.: Czym różni się nowe oprogramowanie Active Protect Manager od DSM, oprogramowania używanego wcześniej na serwerach Synology NAS?

    I.C.: Active Protect Manager (APM) to system operacyjny jednego przeznaczenia, podczas gdy DSM jest bardziej wszechstronnym i solidnym systemem operacyjnym, który można dodatkowo rozszerzyć za pomocą dowolnego z ponad 100 dostępnych pakietów. Dzięki swojej architekturze APM zwiększa i tak już wysoką wydajność, łatwość obsługi i bezpieczeństwo, które są cechami charakterystycznymi systemu operacyjnego DSM firmy Synology.

    B.M.: Czy możesz wyjaśnić, czym ActiveProtect różni się od innych wiodących rozwiązań, takich jak Veeam, Veritas czy CommVault?

    I.C.: Synology ActiveProtect jest w pełni wyposażony w solidny zestaw funkcji, które zostały opracowane i z powodzeniem wykorzystane przez miliony użytkowników pakietu Active Backup Suite. Małe i średnie firmy, banki, liderzy technologiczni i branże produkcyjne na całym świecie z powodzeniem wdrożyły i korzystają z Active Backup w celu ochrony swoich danych. W przeciwieństwie do niektórych konkurentów, ActiveProtect jest oferowany jako urządzenie do tworzenia kopii zapasowych – połączenie sprzętu i oprogramowania. Urządzenia są wstępnie skonfigurowane, co eliminuje konieczność poświęcania przez klientów czasu na wybór liczby i pojemności dysków, decydowanie, czy dyski SSD są potrzebne do buforowania lub określanie, ile pamięci RAM jest wymagane do płynnego tworzenia kopii zapasowych; wszystkie te decyzje podjęliśmy za nich. Dzięki naszemu podejściu ActiveProtect łączy zaawansowane funkcje zaufanych rozwiązań z konkurencyjnymi cenami, co czyni go atrakcyjnym wyborem dla każdego małego i średniego przedsiębiorstwa.

    Igor Cejkovský, Synology
    Igor Cejkovský, Synology

    B.M.: Jakie cechy ActiveProtect sprawiają, że jest to przełomowe rozwiązanie do ochrony danych, szczególnie dla małych i średnich firm, które dopiero zaczynają korzystać z zaawansowanych systemów tworzenia kopii zapasowych?

    I.C.: Prostota i łatwość obsługi naszego rozwiązania sprawiają, że stworzenie kompleksowej strategii tworzenia kopii zapasowych 3-2-1-1-0 jest łatwiejsze niż kiedykolwiek. Dzięki naszym silnym podstawom w zakresie NAS i produktów konsumenckich, rozumiemy znaczenie tworzenia intuicyjnych rozwiązań, które są łatwe w instalacji i utrzymaniu. Dla konsumentów przekłada się to na wygodę, a dla firm oznacza niższe koszty posiadania. Nie ma potrzeby zatrudniania wysoko wykwalifikowanego zespołu specjalistów do konfiguracji, konserwacji lub przywracania danych w razie potrzeby.

    B.M.: Jakie korzyści oferuje firmom model płatności Synology ActiveProtect, który obejmuje roczną opłatę opartą na wykorzystywanej pojemności?

    I.C.: Urządzenia Synology ActiveProtect są w pełni funkcjonalne jako samodzielne rozwiązania do tworzenia kopii zapasowych bez konieczności posiadania licencji. Urządzenia te można zintegrować w klaster lub utworzyć klaster, łącząc urządzenia ActiveProtect z NAS przy użyciu ActiveBackup. Tylko większe wdrożenia z więcej niż trzema urządzeniami będą wymagały licencji, która jest przystępna cenowo. Ta struktura cenowa może pomóc użytkownikom zaoszczędzić ponad 90% kosztów w porównaniu z innymi popularnymi rozwiązaniami.

    B.M.: Czy ActiveProtect jest przeznaczony tylko dla nowych urządzeń Synology NAS, czy można go wdrożyć na starszych modelach?

    I.C.: ActiveProtect to zupełnie nowa linia produktów Synology, a APM nie można zainstalować na Synology NAS. Sprzęt i oprogramowanie zostały zaprojektowane jako zintegrowane urządzenie zapewniające optymalną wydajność, niezawodność i bezpieczeństwo. Urządzenia ActiveProtect można łączyć z Synology NAS w klastry, co pozwala na scentralizowane zarządzanie wieloma urządzeniami NAS z jednego urządzenia ActiveProtect lub używanie NAS jako zewnętrznej pamięci masowej do tworzenia kopii zapasowych.

    B.M.: W jaki sposób Synology ActiveProtect może poprawić wydajność zarządzania urządzeniami NAS w firmach z rozproszonymi zasobami IT lub wieloma lokalizacjami?

    I.C.: Scentralizowane zarządzanie jest kluczową funkcją urządzenia ActiveProtect. W większych instalacjach z wieloma urządzeniami NAS w różnych lokalizacjach pakiet Active Backup Suite może wiązać się z wyższymi kosztami utrzymania. Dostosowanie zasad tworzenia kopii zapasowych, harmonogramów i innych ustawień może wymagać znacznego czasu na aktualizację wszystkich urządzeń NAS w każdej lokalizacji. Dzięki ActiveProtect i jego scentralizowanemu zarządzaniu to wyzwanie nie jest już problemem.

    B.M.: Jakie są zalety korzystania z kopii przyrostowej i wersjonowania danych w ActiveProtect? Jakie wyzwania rozwiązują te funkcje w codziennej administracji IT?

    I.C.: Kopia przyrostowa i wersjonowanie danych to podstawowe funkcje pakietu Active Backup Suite. Jednak ActiveProtect przenosi wydajność na wyższy poziom, skracając nie tylko czas potrzebny na tworzenie kopii zapasowych, ale także zużycie przepustowości poprzez znaczne zminimalizowanie ilości danych potrzebnych do tego procesu. Według naszych testów, w porównaniu do tradycyjnych metod tworzenia kopii zapasowych, urządzenie ActiveProtect może wyeliminować 99% zduplikowanej transmisji danych podczas tworzenia kopii zapasowych urządzeń. Dodatkowo, tworzenie kopii zapasowych wiadomości e-mail jest siedmiokrotnie szybsze, a szybkość kopiowania kopii zapasowych jest teraz dwukrotnie wyższa.

    B.M.: Przywracanie na poziomie plików, bare-metal i natychmiastowe przywracanie do maszyny wirtualnej to zaawansowane funkcje dostępne w ActiveProtect. Jakie scenariusze biznesowe najprawdopodobniej skorzystają z tych możliwości?

    I.C.: Jest takie powiedzenie, że istnieją dwa rodzaje ludzi – ci, którzy tworzą kopie zapasowe swoich danych i ci, którzy w końcu zaczną to robić. Innymi słowy, każda firma potrzebuje kopii zapasowej. Chociaż strategie takie jak zasada tworzenia kopii zapasowych 3-2-1-1-0 mają szerokie zastosowanie w różnych branżach, specyficzne potrzeby jednej firmy mogą znacznie różnić się od innych, nawet jeśli wydają się podobne. Zaletą Synology ActiveProtect jest to, że umożliwia integratorom systemów i administratorom IT łatwe konfigurowanie kopii zapasowych w celu spełnienia unikalnych potrzeb ich organizacji.

    B.M.: Jakie są Twoje przewidywania na przyszłość, jeśli chodzi o integrację sztucznej inteligencji i bezpieczeństwa w urządzeniach NAS? Jakie innowacje mogą pojawić się w nadchodzących latach?

    I.C.: Sztuczna inteligencja stała się integralną częścią naszego codziennego życia, czyniąc wiele zadań szybszymi i łatwiejszymi, niż mogliśmy sobie wyobrazić zaledwie kilka lat temu. Wygoda ta wiąże się jednak z szeregiem wyzwań. Firmy są coraz bardziej zaniepokojone danymi, które ich pracownicy mogą kopiować i wklejać na różne platformy czatu AI, aby przyspieszyć swoją pracę, ponieważ dane te stają się narażone i podatne na zagrożenia. Aby rozwiązać ten problem, nadchodzące rozwiązania Synology w zakresie produktywności, które mają zostać wydane jeszcze w tym roku, będą wyposażone w zaawansowane funkcje zaprojektowane w celu ochrony danych firmowych, jednocześnie umożliwiając pracownikom korzystanie z generatywnej sztucznej inteligencji.

    B.M.: Jak Synology planuje rozwijać ActiveProtect w przyszłości? Czy można spodziewać się nowych funkcji, które jeszcze bardziej wzmocnią ochronę danych?

    I.C.: Koncentrujemy się na zwiększeniu szybkości i wydajności tworzenia kopii zapasowych, jednocześnie rozszerzając obsługę dodatkowych platform, których kopie zapasowe można tworzyć za pomocą urządzeń Synology ActiveProtect. Ponadto opracowujemy funkcje, które umożliwią naszym MSP oferowanie Synology jako rozwiązania Backup-as-a-Service dla swoich klientów. Wreszcie, planujemy poszerzyć gamę urządzeń ActiveProtect, aby zaspokoić potrzeby wdrożeń każdej wielkości.


    Jesteś zainteresowany dalszymi informacjami? Dołącz do bezpłatnego webinaru Synology na ten temat: Uproszczenie ochrony danych z Active Protect Manager

    Data: 27 lutego 2025 
    Godz.: 10:00

    Dowiedz się, jak Active Protect Manager upraszcza i usprawnia tworzenie kopii zapasowych.

    Zarejestruj się dzisiaj i nie przegap okazji! ?  Link do rejstracji

  • Dzisiejsi CEO są ostatnimi, którzy pracują tylko z ludźmi – twierdzi dyrektor generalny Salesforce

    Dzisiejsi CEO są ostatnimi, którzy pracują tylko z ludźmi – twierdzi dyrektor generalny Salesforce

    Marc Benioff, dyrektor generalny Salesforce, podczas Światowego Forum Ekonomicznego w Davos zapowiedział nadchodzącą transformację w świecie pracy, w której sztuczna inteligencja odegra kluczową rolę. Jak podkreślił, obecni liderzy są prawdopodobnie ostatnimi, którzy zarządzają wyłącznie ludźmi. W przyszłości zarządzanie obejmie zarówno zespoły ludzkie, jak i agentów AI.

    Salesforce, jako lider rynku CRM, już teraz wdraża swoje innowacyjne rozwiązania AI. Przykładem jest wprowadzony we wrześniu 2023 roku system Agentforce, który ma zmienić sposób funkcjonowania zespołów wsparcia i sprzedaży. Narzędzie to umożliwia tworzenie konfigurowalnych agentów automatyzacji, wspierających zarówno pracowników, jak i działających w pełni autonomicznie. Agentforce przetwarza dane CRM oraz dane zewnętrzne, znacząco zwiększając produktywność.

    Nowa rola AI w organizacjach

    Zgodnie z prognozami Benioffa oraz Marco Argentiego, CIO Goldman Sachs, systemy AI będą wkrótce traktowane jak pełnoprawni „pracownicy”. Argenti przewiduje, że do 2025 roku zdolności AI w zakresie planowania i realizacji złożonych zadań osiągną znacznie wyższy poziom dojrzałości, co umożliwi ich bardziej autonomiczne działanie w firmach.

    Rozwiązania takie jak Agentforce otwierają nowe możliwości, ale też wywołują wyzwania. Według Benioffa, należy uważać na potencjalne ryzyko związane z autonomią AI oraz zadbać o odpowiednie „zakotwiczenie danych”. Bez właściwego kontekstu i jakości danych sztuczna inteligencja może działać w sposób nieprzewidywalny.

    Krytyka konkurencji i wyzwania etyczne

    Podczas wystąpienia w Davos Benioff odniósł się także do rywalizacji na rynku AI. Krytycznie ocenił rozwiązanie Microsoftu – Copilot – uznając je za rozczarowujące. Zapowiedział jednocześnie, że Salesforce będzie dążył do ochrony swoich pracowników przed potencjalną dyskryminacją, nawiązując do kontrowersji wokół polityki różnorodności wprowadzanej w USA.

    Sztuczna inteligencja redefiniuje rolę pracowników i systemów w organizacjach. Rozwiązania takie jak Agentforce pokazują, jak duży potencjał niesie ze sobą integracja AI w codziennych operacjach biznesowych. Jednocześnie wyzwania etyczne i techniczne pozostają kluczowe dla skutecznego i odpowiedzialnego wdrażania tej technologii w praktyce. Przyszłość pracy, jaką rysują liderzy branży, z pewnością będzie wymagała nowych umiejętności zarówno od ludzi, jak i od maszyn.

  • Czas wziąć większą odpowiedzialność i zwiększyć wiedzę o AI – Jennifer Belissent, Snowflake

    Czas wziąć większą odpowiedzialność i zwiększyć wiedzę o AI – Jennifer Belissent, Snowflake

    Wyobraź sobie jazdę samochodem bez zasad ruchu drogowego. Przerażające, prawda? Im więcej samochodów na drodze, tym większe ryzyko wypadków lub całkowitego zablokowania ruchu. W zasadzie wszystko, co może potencjalnie zagrażać ludziom, wymaga jasno określonych zasad, aby zapewnić bezpieczeństwo. To samo dotyczy sztucznej inteligencji. W miarę jak AI znajduje coraz większe zastosowanie wśród konsumentów, firm i rządów, rośnie potrzeba ustalenia zasad odpowiedzialnego korzystania z tej technologii. Tak, jak zwiększyła się świadomość dotycząca wpływu samochodów na środowisko i wprowadzono działania mające na celu jego ograniczenie, podobnie jest z AI – potrzebne są mniej energochłonne rozwiązania.

    Do tej pory wiele rozmów o AI skupiało się na egzystencjalnych tematach, takich jak moment, w którym AI może przewyższyć inteligencją ludzi lub obawach, czy AI nas zastąpi. Ale ten etap mamy już za sobą. Agenci AI zaczną przejmować wiele ról – od pisania wiadomości czy kodu oprogramowania, po podejmowanie decyzji praktycznie w każdej dziedzinie naszego życia, niezależnie od tego, czy jesteśmy tego świadomi, czy nie.

    Na szczęście, teraz, gdy przyszłość jest teraźniejszością, dyskusja stała się mniej dramatyczna, a bardziej praktyczna pod względem proponowanych rozwiązań. W większości przypadków nie chodzi o zakazywanie sztucznej inteligencji, a o tworzenie polityk zmniejszających ryzyko i wdrażanie mechanizmów edukacyjnych oraz egzekwujących odpowiednie zasady. Posługując się analogią do prowadzenia samochodu, mówimy o ograniczeniach prędkości, pasach bezpieczeństwa, a także o edukacji kierowców. Zwolennicy odpowiedzialnego rozwoju AI przyjmują podobne podejście: nie zakazujmy technologii AI. Stwórzmy ramy i zasady, które zapewnią odpowiedzialne korzystanie i minimalizację ryzyka.

    Odpowiednie zasady na swoim miejscu

    Mimo szumu medialnego i licznych niepokojących informacji, nie wszystko jest tak ponure, jak się wydaje. Modele sztucznej inteligencji znacząco usprawniły procesy i zwiększyły produktywność w różnych dziedzinach – od wykrywania raka piersi po redukcję odpadów i wiele innych obszarów. Aby przeciwdziałać bardziej szkodliwym skutkom, organizacje na całym świecie publikują wytyczne, a rządy wprowadzają nowe regulacje, takie jak unijne rozporządzenie regulujące sztuczną inteligencję (AI Act). Dostawcy technologii rozwijają narzędzia zwiększające przejrzystość i możliwość wyjaśniania działania AI. To pierwszy krok nie tylko w kierunku identyfikacji i potencjalnego zniwelowania ryzyk, ale także edukacji użytkowników, by byli bardziej świadomi oraz programistów, aby zwracali większą uwagę na potencjalne skutki tych technologii.

    Kolejnym pozytywnym aspektem jest międzynarodowa współpraca. Podejścia do AI różnią się w zależności od regionu: w Chinach wprowadza się bardziej rygorystyczną kontrolę, w USA stosuje się podejście oparte na samoregulacji, a wytyczne UE w ramach AI Act opierają się na ocenie ryzyka, stanowiąc kompromis. Poza tym, podpisana w Wielkiej Brytanii rok temu Deklaracja z Bletchley stanowi dowód wspólnego uznania ryzyka oraz zainteresowania i zaangażowania we współpracę na rzecz zwiększenia świadomości i bezpieczeństwa w zakresie AI.

    Oprócz regulacji rządowych i branżowych, kluczowe znaczenie ma zarządzanie sztuczną inteligencją i danymi w ramach organizacji. Aby lepiej zrozumieć i ograniczyć ryzyka związane z AI, każdy – od najniższego do najwyższego szczebla – powinien posiadać wiedzę na temat danych i AI. Powinni wiedzieć, w jaki sposób dane są wykorzystywane, jaką wartość przynoszą, jakie potencjalne zagrożenia mogą się pojawić oraz jaka jest ich rola w tym procesie. W bardziej technicznych lub praktycznych obszarach firmy potrzebują szczegółowych polityk dotyczących dostępu i użytkowania danych, aby zapewnić ich odpowiednią ochronę i właściwe wykorzystanie. Każdy w organizacji odgrywa rolę w łańcuchu wartości – od dokładnego zbierania danych, przez ich ochronę, po tworzenie algorytmów i aplikacji analizujących oraz podejmowanie decyzji na podstawie uzyskanych wniosków.

    Solidna baza danych dla osiągnięcia celów związanych z AI

    Jak wiadomo, nie da się zrealizować strategii AI bez strategii danych, a przede wszystkim – bez odpowiednich danych. Większa ilość i różnorodność zasobów, nie tylko zasilają modele AI, ale również zmniejszają ryzyko tzw. halucynacji, czyli sytuacji, gdy systemy sztucznej inteligencji dostarczają nieprawdziwe odpowiedzi, lub uprzedzeń, gdzie wyniki nie są obiektywne czy neutralne. Modele AI zazwyczaj nie „zmyślają” odpowiedzi, ale mogą korzystać z niezaufanych źródeł. W szczególnie wymagającym środowisku biznesowym zróżnicowane, odpowiednie i wysokiej jakości dane są kluczowym elementem.

    Na szczęście AI sama zaczyna rozwiązywać problemy związane z jakością danych. Automatyzacje oparte na AI mogą wykrywać anomalie, naprawiać dane na etapie ich wprowadzania, eliminować niespójności i generować dane syntetyczne. AI pomaga również w zapewnieniu bezpieczeństwa, identyfikując potencjalne luki w zabezpieczeniach. Jednak odpowiedzialne podejście do danych i AI wymaga czegoś więcej. Kluczową rolę odgrywa tu solidne zarządzanie danymi oraz wykorzystanie rozwiązań chroniących prywatność.

    Dane powinny być dostosowane do konkretnego przypadku. To właśnie pod tym względem AI dla firm różni się od standardowych narzędzi sztucznej inteligencji. Model AI do użytku w organizacji jest wybierany, aby sprostać konkretnym wyzwaniom, takim jak przewidywanie sprzedaży, rekomendowanie produktów lub usług, wykrywanie wad w produkcji, czy opóźnień w łańcuchu dostaw. Decyzja o wyborze modelu AI, czy to poprzez jego stworzenie, zakup, czy dostosowanie, pomaga ograniczyć ryzyko błędnych wyników lub uprzedzeń. AI dla biznesu jest zaprojektowana w celu realizacji określonych zadań, dzięki czemu jest bardziej wydajna pod względem wykorzystania zasobów.

    W kierunku bardziej zrównoważonej sztucznej inteligencji

    AI ma potencjał, aby znacząco wpłynąć na obszary związane z klimatem, optymalizując wykorzystanie paliw kopalnych i przyspieszając transformację w kierunku odnawialnych źródeł. Jednak sama sztuczna inteligencja zużywa ogromne ilości energii. Badania wskazują, że ChatGPT obecnie wykorzystuje ponad pół miliona kilowatogodzin energii elektrycznej dziennie, co odpowiada zużyciu w niemal 180 000 amerykańskich gospodarstw domowych. Nadszedł czas, by wykorzystać sztuczną inteligencję do opracowania rozwiązań, które zmniejszą jej własne zapotrzebowanie na energię.

    Z punktu widzenia najlepszych praktyk, firmy muszą znaleźć równowagę między eksplorowaniem nowych zastosowań AI a ich odpowiedzialnym i celowym wykorzystaniem, które przynosi rzeczywisty zwrot z inwestycji. Wdrożenie AI w przedsiębiorstwach za pomocą wyspecjalizowanych, efektywnie wytrenowanych agentów to pierwszy krok, a przejrzystość w całym łańcuchu wartości – od wejściowych zasobów, poprzez procesy, aż po rezultaty – pozwala lepiej zrozumieć wpływ na środowisko i kompromisy podejmowane w dążeniu do wartości biznesowej.

    Bezpieczniejsza przyszłość AI zaczyna się teraz

    Promowanie otwartego dialogu i postępów w zakresie transparentności sztucznej inteligencji, a w przyszłości dokładnego jej zrozumienia, to kluczowe kroki w ograniczaniu związanego z nią ryzyka. Obiecujące są już inicjatywy, takie jak globalny szczyt poświęcony AI, którego efektem jest Deklaracja z Bletchley. Zwiększanie świadomości w firmach na wszystkich szczeblach oraz wśród konsumentów poszerza grupę potencjalnych „strażników” i wyposaża ich w narzędzia do rozpoznawania zagrożeń oraz zadawania właściwych pytań. Jak to mówią, najlepszym nauczycielem jest doświadczenie.

    Te doświadczenia można wykorzystać do lepszego zrozumienia i określenia wymagań wobec platform danych i AI przyszłości. Wymagania te obejmą kwestie, takie jak różnorodność danych, bezpieczeństwo, zarządzanie i zrównoważony rozwój. Jednak prawdziwym kluczem do bardziej bezpiecznej sztucznej inteligencji będzie głębsze zrozumienie – zarówno jej pozytywnego, jak i negatywnego potencjału, wynikające z większej świadomości społecznej na temat danych i AI.

    Autorka: Jennifer Belissent, główna strateg ds. danych w Snowflake

  • Efektywna współpraca w administracji rządowej przy budowie systemu IT: hierarchia, partnerstwo i KPI

    Efektywna współpraca w administracji rządowej przy budowie systemu IT: hierarchia, partnerstwo i KPI

    Realizacja systemów teleinformatycznych w administracji rządowej to proces wymagający uwzględnienia specyfiki pracy i funkcjonowania tejże administracji. W przypadku, kiedy zarówno zamawiający, jak i wykonawca wywodzą się z tego samego środowiska, zadania są realizowane według hierarchicznej struktury organizacyjnej.

    Odpowiedzialność zamawiającego jest tym bardziej złożona, gdyż zamawiając nowe rozwiązanie teleinformatyczne musi działać w ramach określonych przepisów prawnych i odpowiadać potrzebom szerokiego grona użytkowników. Budżet, którym dysponuje musi być ściśle kontrolowany, a każde jego przekroczenie może skutkować naruszeniem dyscypliny finansów publicznych.

    Warto nadmienić, że obecnie branża teleinformatyczna jest jednym z najszybciej rozwijających się sektorów naszej gospodarki. Według raportu „CEE region is an IT innovation hub – NATEK CEE IT Market Report 2024” wartość sektora ICT w Polsce w 2023 roku wyniosła 22,6 mld euro.

    W celu osiągnięcia sukcesu w realizacji projektów IT w administracji rządowej, należy kierować się wspólnie ustalonymi zasadami współpracy, partnerstwem oraz transparentną komunikacją, biorąc wskaźniki jako narzędzie do monitorowania postępów, oceny efektywności oraz wczesnego wykrywania potencjalnych ryzyk i obszarów wymagających poprawy.

    Hierarchia a efektywność projektowa

    Administracja rządowa opiera się na strukturach hierarchicznych, w których każdy poziom ma jasno określone kompetencje i zakres odpowiedzialności. Struktura ta jest niezbędna w zapewnieniu kontroli wynikającej z przepisów prawa. Zderzając zasady obowiązujące w administracji z realizacją projektów IT często bywa źródłem opóźnień i nieefektywności. Przykładowo, nawet niewielkie zmiany w projekcie, często wymagają uzyskania zgód na wielu poziomach zarządzania. Dodatkowo, osoby zarządzające lub odpowiadające za projekt w hierarchii, nie zawsze są bezpośrednio zaangażowane w codzienną realizację zadań, co może powodować podjęcie niekorzystnych decyzji dla projektu.

    Hierarchiczne struktury mogą wpływać także na motywację wszystkich członków zespołu projektowego zarówno po stronie zlecającego jak i wykonawcy. Pracownicy niższego szczebla, którzy mają ograniczony wpływ na decyzje, mogą czuć się mniej zaangażowani w realizację projektu. W efekcie ich motywacja może spadać, co negatywnie odbija się na efektywności całego zespołu. Wprowadzenie płaskiej struktury zarządzania, w której większy nacisk kładzie się na bezpośrednią współpracę i zaangażowanie wszystkich uczestników, może pomóc w uniknięciu takich problemów. 

    Partnerstwo przy realizacji projektu IT. Jak budować zaufanie w projekcie

    Partnerstwo zamawiającego z wykonawcą ma ogromne znaczenie i jest kluczowe dla powodzenia projektu. Oznacza ono, że wszyscy uczestnicy, niezależnie od tego, czy są to urzędnicy, specjaliści IT, konsultanci, czy dostawcy, współpracują na zasadach równorzędności. Każdy wnosi swoją wiedzę i doświadczenie, a jednocześnie dąży do osiągnięcia wspólnego celu, biorąc odpowiedzialność za efekt finalny. W kontekście projektów IT w administracji rządowej, partnerstwo oznacza, że zaangażowane podmioty muszą dzielić się informacjami i otwarcie komunikować o wyzwaniach i zagrożeniach. W celu zachowania jak najwyższej jakości produktu i współpracy, obie strony powinny kierować się następującymi zasadami:

    • zrozumienie potrzeb klienta i oczekiwań wykonawcy. Należy przeprowadzić gruntowną analizę potrzeb i oczekiwań klienta, biorąc pod uwagę możliwości i sposób pracy wykonawcy. Upewnienie się, że wszyscy interesariusze mają jasność co do celów projektu,
    • otwartość i transparentność komunikacji. Regularna i otwarta komunikacja na każdym etapie projektu, tworzenie środowiska w którym klient czuje się bezpiecznie, dzieląc się swoimi obawami i uwagami,
    • regularne aktualizacje i raportowanie klientowi o postępach, etapach realizacji oraz potencjalnych ryzykach. Tworzenie raportów, które jasno pokazują zaawansowanie i pozwalają na szybkie wykrycie potencjalnych problemów,
    • ustalanie realnych oczekiwań i zakresu projektu w początkowej fazie budowania współpracy, w szczególności w określeniu zakresu prac, kamieni milowych oraz harmonogramu projektu. Wyraźne również  określenie tego, co jest możliwe do osiągnięcia w ustalonym czasie i budżecie,
    • proaktywność i szybkie reagowanie na zmiany, polegające na monitorowaniu potencjalnych zagrożeń i zmian w otoczeniu klienta. Gotowość partnerów do wprowadzenia zmian, aby projekt mógł dostosować się do nowych potrzeb,
    • angażowanie klienta w procesy decyzyjne, ma kluczowe znaczenie w osiągnięciu sukcesu. Należy zaangażować etapy podejmowania decyzji w formie konsultacji czy na przykład podczas testów kolejnych iteracji.
    • kultura feedbacku to regularne zebrania i przekazywanie informacji zwrotnej, zarówno od klienta, jak i od zespołu po stronie wykonawcy. Przykładem narzędzia do ciągłego usprawniania współpracy jest regularna ankieta satysfakcji klienta.
    • zarządzanie konfliktami i rozwiązywanie problemów jest kluczowe dla budowania zaufania i współpracy. Należy identyfikować i rozwiązywać konflikty na etapie ich początków, następnie wspólnie ustalić standardy ich rozwiązywania.

    Wszystkie powyżej opisane zasady są fundamentem do sprawnej realizacji projektów i do budowania długoterminowych relacji.

    Wskaźniki KPI a efektywna współpraca

    Wymienione poniżej wskaźniki KPI (Key Performance Indicators) są niezbędnymi elementami monitorowania efektywności w realizacji projektu w ramach dwóch instytucji z sektora finansów publicznych. Dzięki nim można nie tylko ocenić bieżący stan projektu, ale także szybko zidentyfikować obszary wymagające poprawy. Pięć kluczowych wskaźników, które mogą pomóc w usystematyzowaniu współpracy:

    • satysfakcja klienta (Customer Satisfaction Score – CSAT), podstawowy wskaźnik mierzący, jak zadowolony jest klient z postępów projektu, jakości dostarczanych produktów i komunikacji z zespołem projektowym. Satysfakcję klienta można regularnie monitorować za pomocą ankiet po zakończeniu poszczególnych etapów projektu. Wysoki poziom CSAT wskazuje na efektywną współpracę i zrozumienie potrzeb klienta,
    • dostosowanie do harmonogramu (Schedule Adherence), czyli monitorowanie realizacji projektu zgodnie z ustalonym harmonogramem. Jest ono kluczowe dla zarządzania czasem i zasobami. Wskaźnik ten pokazuje procent zakończonych zadań na czas i pozwala na szybkie identyfikowanie opóźnień. Regularna kontrola harmonogramu i szybkie reakcje na odchylenia pomagają zachować zaufanie klienta i utrzymać projekt na właściwych torach.
    • liczba zmian zakresu (Scope Changes), identyfikuje ilość zmian w zakresie projektu, które mogą mieć istotny wpływ na harmonogram, koszty i zasoby. Monitorowanie liczby i skali wprowadzanych zmian jest niezbędne, aby zrozumieć, czy dobrze projekt jest zarządzany i jak efektywnie są ustalane oczekiwania klienta. Wysoka liczba zmian może również wskazywać na niedokładne określenie wymagań na początku projektu lub na potrzebę lepszej komunikacji między stronami, 
    • wskaźnik rozwiązywania problemów/błędów (Issue Resolution Rate), pokazuje szybkość i skuteczność rozwiązywania problemów, która jest kluczowa dla utrzymania tempa projektu i satysfakcji klienta. Wskaźnik ten mierzy, jak szybko zespół projektowy rozwiązuje zgłoszone problemy i reaguje na zgłoszenia klienta. Regularne raportowanie tej metryki umożliwia szybką identyfikację obszarów, które wymagają dodatkowych zasobów lub zmian w podejściu,
    • wskaźnik efektywności komunikacji (Communication Effectiveness Index) wskazuje efektywność komunikacji, która jest fundamentem każdej udanej współpracy. Wskaźnik ten ocenia, jak skuteczna jest wymiana informacji między zespołem projektowym a klientem, np. poprzez analizę regularności i jakości spotkań, aktualizacji projektowych i feedbacku. Regularna ocena tej metryki pomaga w optymalizacji sposobu, w jaki komunikowane są postępy i wyzwania projektu.

    Wnioski

    Realizacja projektów IT w administracji rządowej jest wyzwaniem, które wymaga precyzyjnej współpracy, skutecznej komunikacji oraz odpowiedzialnego zarządzania zasobami. Hierarchiczne struktury organizacyjne, specyficzne dla instytucji rządowych, mogą wprowadzać wyzwania, które należy zrównoważyć podejściem partnerskim, otwartością oraz proaktywnym reagowaniem na zmiany. Wprowadzenie wskaźników KPI, takich jak satysfakcja klienta, dostosowanie do harmonogramu, liczba zmian zakresu, wskaźnik rozwiązywania problemów/błędów i efektywność komunikacji, pozwala na lepsze monitorowanie współpracy i jej usprawnienie oraz co najważniejsze, dążyć do jak najwyższej jakości produktu i budować pozytywny wizerunek instytucji zaangażowanych w ten proces.


    Źródła do artykułu:

    1. Kowalski, J. (2021). Zarządzanie projektami IT w administracji publicznej. Warszawa: Wydawnictwo Naukowe.
    2. Nowak, M., & Zieliński, P. (2022). Administracja i innowacje teleinformatyczne. Kraków: Instytut Technologii Publicznej.
    3. Raport GovTech (2019). Analiza zamówień publicznych w sektorze ICT.
    4. NATEK. (2024). CEE IT Market Report 2024.
    5. Malinowski, R. (2020). Hierarchia w administracji – wyzwania projektowe.
    6. Dąbrowska, A. (2023). Komunikacja i zarządzanie w sektorze publicznym.
    7. Jankowski, L. (2021). Projektowanie systemów IT w administracji – problemy i rozwiązania.
    8. Smith, T. (2018). Motywacja w zespołach projektowych.
    9. Michalski, Z. (2022). Efektywność struktur płaskich w organizacjach publicznych.
    10. Rutkowski, P. (2021). Współpraca i partnerstwo w projektach IT.
    11. Nowicka, E. (2020). Zarządzanie projektami z elementami partnerstwa.
    12. Lewandowski, K. (2023). Otwartość i transparentność w projektach administracyjnych.
    13. Sikorska, J. (2021). Słuchanie klienta – klucz do sukcesu projektowego.
    14. Raport NBP (2022). Wskaźniki efektywności projektowej.
    15. Grabowski, S. (2019). Proces decyzyjny w projektach IT.
    16. Johnson, A. (2021). KPI i ich zastosowanie w zarządzaniu projektami.
    17. Wiśniewski, M. (2023). Analiza wskaźników KPI w projektach publicznych.
    18. Tomaszewska, B. (2022). Monitorowanie efektywności projektowej.
    19. Piotrowski, R. (2021). Zarządzanie projektami – praktyki i wyniki.

    O autorce:

    Grażyna Murawska-Adamek – doświadczona specjalistka z ponad 15 letnim stażem w budowaniu efektywnych zespołów projektowych, opartych na ściśle zdefiniowanych zasadach, komunikacji i partnerstwie. Ostatnie 8 lat w branży IT w dziale rozwoju oprogramowania. Obecnie pełni funkcję zastępczyni kierownika ds. analiz i jakości w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym w Warszawie, gdzie nadzoruje procesy związane z analizą wymagań i zapewnianiem jakości rozwiązań programistycznych. 

  • AI, chmura i komputery kwantowe: Trio napędzające rewolucję w gospodarce

    AI, chmura i komputery kwantowe: Trio napędzające rewolucję w gospodarce

    Dynamiczne zmiany technologiczne, które obserwujemy w ostatnich latach, otwierają nowe możliwości dla biznesu i gospodarki. Wzrost znaczenia sztucznej inteligencji, komputerów kwantowych oraz technologii chmurowych nie tylko zmienia sposób działania firm, ale również wyznacza nowe kierunki rozwoju dla wielu sektorów. Komentarz na ten temat przygotował Mariusz Jurak, Wiceprezes Zarządu Sygnity S.A.

    „Sztuczna inteligencja z impetem wkroczyła do świata biznesu. W przyszłym roku będziemy mogli obserwować wzrost liczby projektów z wykorzystaniem elementów sztucznej inteligencji. Zarówno w sektorze finansowym, jak również w mediach i przemyśle. Co ciekawe, sektor zbrojeniowy również stoi przed wyzwaniem wykorzystania tej technologii. Pomimo wielu wątpliwości zarówno natury prawnej, jak i tej związanej z ewentualnym wpływem AI na rynek pracy, technologia ta jest w stanie zwiększyć efektywność organizacji w wielu wymiarach. Automatyzacja oraz optymalizacja procesów to kluczowe obszary, w których AI jest w stanie uzasadnić nakłady na inwestycje zapewniając szybką transformację organizacji, a w efekcie redukcję kosztów operacyjnych uwzględniających koszty dotychczas wykorzystywanej technologii, która po wdrożeniu AI przestanie być przydatna. Wzrost efektywności przedsiębiorstw to także ogromne korzyści dla gospodarki. Szacuje się, że komputery kwantowe w perspektywie 10 lat staną się powszechnie dostępne dla biznesu, co wpłynie na dynamiczny rozwój gospodarki praktycznie w każdej dziedzinie. Technologie kwantowe z pewnością usprawnią sektor energetyki zarówno w zakresie wytwarzania, jak i dystrybucji energii a także doskonale wpłyną na jakość i dostępność danych cyfrowych gromadzonych dzisiaj w rozproszonej sieci serwerów. 

    Dynamiczny rozwój rynku usług w chmurze, a także ogólny rozwój technologii sprawił, że w ostatnich latach mieliśmy możliwość obserwowania dynamicznych zmian związanych z bezpieczeństwem i sposobem zarządzanych danymi. Postępujący rozwój technologii cloud zapewni jeszcze większą łatwość wdrożenia i wykorzystania, a także wpłynie na lepszą skalowalność usług przy zachowaniu wysokiego poziomu ich dostępności oraz bezpieczeństwa. Szacuje się, że technologia cloud wspólnie z AI oraz komputerami kwantowymi stanowić będzie faktyczny impuls do rozwoju nowych usług i modeli biznesowych w wielu przedsiębiorstwach i stanie się motorem napędowym dla gospodarki.”

  • „Polska jest dla nas kluczowym rynkiem z potencjałem do stania się technologicznym hubem regionu CEE.” – Ilona Tomaszewska, Microsoft

    „Polska jest dla nas kluczowym rynkiem z potencjałem do stania się technologicznym hubem regionu CEE.” – Ilona Tomaszewska, Microsoft

    Sztuczna inteligencja rozwija się w błyskawicznym tempie, a jej wpływ na różne sektory gospodarki staje się coraz bardziej odczuwalny, także w Polsce. Z Iloną Tomaszewską, Public Sector Lead w Microsoft Polska skupimy się na najważniejszych globalnych trendach w AI, wyzwaniach związanych z jej wdrażaniem oraz roli, jaką sztuczna inteligencja odgrywa w transformacji cyfrowej polskich firm i instytucji. 

    Brandsit: Jakie są najważniejsze globalne trendy w rozwoju sztucznej inteligencji, które wpływają na rynek polski?

    Ilona Tomaszewska, Microsoft: Sztuczna inteligencja rozwija się w bezprecedensowym tempie. Świadczy o tym chociażby fakt, że tylko podczas ostatniej konferencji Microsoft Ignite ogłosiliśmy około 80 nowych produktów i funkcji skupionych wokół tej technologii. Jednak tak szybki rozwój AI rodzi obawy o jej bezpieczeństwo. Dlatego też zadaniem firm i organizacji dostarczających inteligentne algorytmy jest zapewnienie, że będą one odpowiednio chronione i zaufane. W tym celu Microsoft już rok temu uruchomił inicjatywę Secure Future Initiative, która stawia silne zabezpieczenia w centrum każdej naszej usługi i każdego naszego produktu. Zaangażowaliśmy w to aż 34 000 inżynierów, których zadaniem jest zadbanie o to, aby nasze rozwiązania były odpowiednio chronione i jesteśmy przekonani, że to właśnie bezpieczeństwo będzie najważniejszym trendem wyznaczającym rozwój sztucznej inteligencji na świecie. 

    „Bezpieczeństwo będzie najważniejszym trendem wyznaczającym rozwój sztucznej inteligencji na świecie.”

    Brandsit: Jak Microsoft postrzega rolę sztucznej inteligencji w transformacji cyfrowej polskich firm i instytucji?

    Ilona Tomaszewska, Microsoft: Sztuczna inteligencja jest rewolucyjnym narzędziem, które pozwala firmom zwiększać efektywność, obniżać koszty, wzbogacać doświadczenia pracowników i klientów, przekształcać procesy biznesowe czy tworzyć innowacje. Słowem – pozwala ludziom osiągać więcej. Dzięki zastosowaniu AI polskie firmy mogą automatyzować rutynowe zadania, tworzyć spersonalizowane oferty dla potencjalnych klientów, czy po prostu podejmować lepsze decyzje. A jest to niezwykle potrzebne, zwłaszcza w dobie ogromnej luki kompetencyjnej, z którą cały czas się zmagamy w Europie. Tylko w Polsce, według wyliczeń Polskiego Instytutu Ekonomicznego brakuje co najmniej 25 tysięcy specjalistów IT. Sztuczna inteligencja może zapełnić tę lukę poprzez przejęcie od pracowników rutynowych, powtarzalnych czynności, uwalniając ich czas i potencjał na bardziej strategiczne zadania. 

    Brandsit: Jakie są największe wyzwania związane z wdrażaniem AI w polskim biznesie?

    Ilona Tomaszewska, Microsoft: Myślę, że głównym wyzwaniem związanym z wdrażaniem AI w polskim biznesie jest brak odpowiednich kompetencji i kwalifikacji pracowników. Według ostatniego raportu Digital Economy and Society Index (DESI), tylko 44,3 proc. obywateli Polski posiada podstawowe kompetencje cyfrowe, co jest wynikiem znacznie poniżej średniej dla państw członkowskich Unii Europejskiej, który wynosi 56 proc. W czasie dynamicznego rozwoju technologii i AI, tego typu umiejętności nabierają szczególnego znaczenia. My jako Microsoft chcemy tę lukę wypełniać i podnosić kompetencje Polaków. Dlatego też ogłosiliśmy niedawno inicjatywę, w ramach której chcemy przeszkolić milion obywateli naszego kraju z AI. Chodzi tutaj zarówno o podstawowe umiejętności, takie jak pisanie promptów, jak i bardziej zaawansowane, takie jak kodowanie z użyciem AI. Wierzymy, że upowszechnienie tej wiedzy przyspieszy wdrażanie AI w biznesie i sektorze publicznym, a także przyniesie korzyści ludziom i całym organizacjom.

    „Chcemy przeszkolić milion obywateli naszego kraju z AI. Chodzi tutaj zarówno o podstawowe umiejętności, takie jak pisanie promptów, jak i bardziej zaawansowane, takie jak kodowanie z użyciem AI.”

    Brandsit: Microsoft ogłosił ostatnio inicjatywę, w ramach której milion osób w Polsce zdobędzie kompetencje AI do 2025 roku w ramach platformy Microsoft AI Skills Navigator. Co sprawia, że Polska jest tak ważnym rynkiem w kontekście edukacji w AI?

    Ilona Tomaszewska, Microsoft: Polska jest dla nas kluczowym rynkiem o ogromnym potencjale do stania się technologicznym hubem Europy Środkowo-Wschodniej. To tutaj pracuje aż ¼ developerów z całego regionu. To również tutaj zainwestowaliśmy w powstanie infrastruktury przetwarzania danych – Azure Poland Central oraz w program zwiększania kompetencji, w wyniku którego przeszkoliliśmy już 430 tys. specjalistów IT, przedstawicieli biznesu, partnerów i studentów. Jednak zdajemy sobie sprawę, że jest to ciągle niewystarczające. Zmieniają się warunki rynkowe, technologia ewoluuje, firmy przyjmują nowe rozwiązania. Jak wskazuje Microsoft Work Trend Index ponad połowa (53 proc.) liderów biznesowych w Polsce nie zatrudniłaby już osoby bez umiejętności AI, a 55 proc. z nich woli zatrudnić mniej doświadczonego kandydata z umiejętnościami AI niż bardziej doświadczoną osobę bez takich kwalifikacji. Według tego samego badania już 61 proc. pracowników w Polsce korzysta z AI w swojej pracy, podczas gdy globalnie jest to aż 75 proc. Nowe zobowiązanie Microsoft w Polsce odpowiada na pilną potrzebę rozwijania umiejętności z zakresu sztucznej inteligencji, wspierających wzrost biznesu, sektora publicznego oraz społeczeństwa. AI Skills Navigator oferuje ponad 200 kursów z LinkedIn Learning, Microsoft Learn, GitHub i partnerów w jednym miejscu, które są dostępne dla wszystkich za darmo. Odpowiednie szkolenie znajdzie tam każdy, niezależnie od poziom zaawansowania w wykorzystaniu sztucznej inteligencji. 

    „Już 61 proc. pracowników w Polsce korzysta z AI w swojej pracy, podczas gdy globalnie jest to aż 75 proc.”

    Brandsit: Jakie zastosowania sztucznej inteligencji Microsoft widzi w sektorze publicznym w Polsce? Czy możemy spodziewać się większej digitalizacji usług publicznych z wykorzystaniem AI?

    Ilona Tomaszewska, Microsoft: Sztuczna inteligencja jest narzędziem uniwersalnym, które może znaleźć swoje zastosowanie w każdym obszarze gospodarki. Jednak planując jej wdrożenie w sektorach wysoko regulowanych czy w sektorze publicznym, trzeba mieć na uwadze bezpieczeństwo stosowanych technologii. Microsoft kładzie na ten aspekt szczególny nacisk. Bezpieczeństwo to nasz najwyższy priorytet, a rozwijana przez nas inicjatywa Secure Future Initiative (SFI) podkreśla zobowiązania całej firmy i odpowiedzialność, jaką czujemy, by chronić naszych klientów. Dążymy również do zapewnienia godnej zaufania sztucznej inteligencji i tworzymy czołowe w tej dziedzinie wsparcie technologiczne. Dlatego nasze rozwiązania i technologie mogą być ze spokojem wdrażane w sektorze publicznym, finansowym czy w opiece zdrowotnej. Przykładem może być PKO Faktoring, który jako pierwszy faktor w Polsce zastosował sztuczną inteligencję w edukacji na temat faktoringu. Wirtualny Ekspert, oparty na technologii Azure OpenAI, udziela natychmiastowych odpowiedzi na pytania dotyczące faktoringu, podstawowych wymagań, jakie należy spełnić, aby z tej usługi skorzystać oraz jej wpływu na działalność przedsiębiorstwa. Dzięki temu zainteresowani klienci otrzymają propozycje rozwiązań, które będą odpowiadały na ich potrzeby w czasie rzeczywistym i z dostępnością 24/7. 

    Innym zastosowaniem sztucznej inteligencji w sektorze publicznym jest współpraca Microsoft z Instytutem Matki i Dziecka w Warszawie. To pierwszy na świecie tego typu projekt wykorzystujący sztuczną inteligencję do wczesnego wykrywania genetycznych wad nerek u płodów. Rozwiązanie to wpływa na poprawę skuteczności badań prenatalnych, pokazując lekarzom zmiany na zdjęciach USG płodów wskazujące potencjalne choroby genetyczne. 

    Brandsit: Jakie są korzyści z zastosowania sztucznej inteligencji w administracji publicznej i jakie projekty Microsoft już realizuje w tym obszarze w Polsce?

    Ilona Tomaszewska, Microsoft: Dane Indeksu Cyfrowej Przyszłości Microsoft wskazują, że poziom cyfryzacji sektora publicznego jest wprost proporcjonalny do innowacyjności kraju. Im więcej cyfryzacji w usługach dla obywateli, tym bardziej w życie każdego mieszkańca wkracza nowoczesność i wszelkie dobrodziejstwa z nią związane. Ponadto, kraje, które wykorzystują cyfrowe rozwiązania są bardziej zwinne, odporne na kryzysy oraz są lepiej przygotowane do budowania nowych zdolności i innowacyjnych rozwiązań. Zdajemy sobie jednak sprawę, że administracja publiczna musi w sposób szczególny brać pod uwagę aspekty związane z bezpieczeństwem, prywatnością danych, czy rygorystycznymi przepisami prawnymi. Z tego powodu w skali kraju wykorzystanie AI w administracji publicznej jest mniejsze niż w biznesie, co prawdopodobnie ograniczyło zdolność departamentów rządowych do pracy na takim samym poziome zwinności i innowacyjności, jak sektor prywatny.

    „Poziom cyfryzacji sektora publicznego jest wprost proporcjonalny do innowacyjności kraju.”

    Jednak rozwiązania takie jak Microsoft 365 Copilot dają gwarancję bezpieczeństwa, najlepszych zabezpieczeń i ochrony prywatności danych. Ich wykorzystanie przez pracowników administracji publicznej może zautomatyzować powtarzalne czynności i uprościć wiele zadań, co w efekcie przyczyni się do poprawy ich produktywności i większego zadowolenia z wykonywanej pracy. 

    „W skali kraju wykorzystanie AI w administracji publicznej jest mniejsze niż w biznesie, co prawdopodobnie ograniczyło zdolność departamentów rządowych do pracy na takim samym poziomie zwinności i innowacyjności, jak sektor prywatny.”

    Brandsit: Jak Microsoft zapewnia, że technologie AI są rozwijane i wdrażane w sposób odpowiedzialny, bezpieczny i zgodny z etyką?

    Ilona Tomaszewska, Microsoft: Bezpieczeństwo to nasz najwyższy priorytet, a rozwijana przez nas inicjatywa Secure Future Initiative (SFI) podkreśla zobowiązania całej firmy i odpowiedzialność, jaką czujemy, by chronić naszych klientów. Zobowiązujemy się do traktowania bezpieczeństwa priorytetowo, a budując nasze rozwiązania kierujemy się trzema zasadami: ochrona w fazie projektowania, ochrona domyślna i chronione operacje. Oprócz naszych własnych produktów, Microsoft Defender czy Purview, również nasze usługi AI są wyposażone w podstawowe mechanizmy kontroli bezpieczeństwa, tj. posiadają wbudowane funkcje mające pomóc w przeciwdziałaniu szybkim atakom i naruszeniom praw autorskich. Przyjęliśmy również zasady odpowiedzialnej AI, które wskazują, w jaki sposób bezpieczne tworzyć i wdrażać AI w całej firmie. W praktyce oznacza to odpowiednie budowanie, testowanie i monitorowanie systemów w celu uniknięcia niepożądanych zachowań, tj. szkodliwych treści, stronniczości, niewłaściwego użycia i innych potencjalnych zagrożeń. Przez lata zainwestowaliśmy znaczne środki w budowanie niezbędnej struktury zarządzania, polityk, narzędzi i procesów, które pozwalają nam przestrzegać tych zasad oraz bezpiecznie tworzyć i wdrażać sztuczną inteligencję. Ponadto, jesteśmy zobowiązani do dzielenia się z naszymi klientami wiedzą zdobytą na drodze do przestrzegania zasad odpowiedzialnej AI. Korzystamy z naszych najlepszych praktyk i wiedzy, by dostarczyć ludziom i organizacjom możliwości oraz narzędzia do tworzenia aplikacji AI, spełniających te same wysokie standardy, do których dążymy.

  • Shadow AI – nieoficjalne systemy rządowe błogosławieństwem czy przekleństwem?

    Shadow AI – nieoficjalne systemy rządowe błogosławieństwem czy przekleństwem?

    W obliczu dynamicznego rozwoju sztucznej inteligencji oraz coraz większych napięć geopolitycznych, organizacje na całym świecie stają przed nowymi zagrożeniami i wyzwaniami. Chuck Herrin, Chief Information Security Officer, z firmy F5 przedstawia kluczowe trendy, które zdominują rok 2025 w zakresie zarządzania cyberbezpieczeństem. 

    Ataki napędzane przez AI 

    Rok 2024 oznaczał systematyczną automatyzację i masowe wdrażanie AI w atakach – cyberprzestępcy przeszli od eksperymentowania do wykorzystywania tej technologii w praktyce. 

    Zauważyliśmy, że AI nie tylko umożliwia łatwiejsze przeprowadzanie znanych nam wcześniej ataków, ale także sprawia, że zaawansowane techniki, takie jak hakowanie sprzętu, które wcześniej były dostępne jedynie dla wyselekcjonowanych grup cyberprzestępców, stają się dostępne dla przeciętnej osoby. W 2025 roku prawdopodobnie zobaczymy eskalację tego problemu, gdy przeciwnicy będą wykorzystywać AI do penetracji systemów rządowych w czasach globalnych zawirowań.

    mówi Chuck Herrin, CISO, F5

    Skuteczność wykorzystania algorytmów AI nie byłaby możliwa bez kluczowego elementu: API, które stanowią kręgosłup współczesnej komunikacji systemów informatycznych. To właśnie API są narzędziem, które umożliwia nie tylko rozwój AI, ale również jej atakowanie i wykorzystywanie w praktyce, co podkreśla ich kluczowe znaczenie w kontekście rosnącej liczby cyberzagrożeń.

    Świat AI to świat API

    Patrząc na przyszły rok, ekspert zauważa, że możemy spodziewać się kontynuacji wyścigu w obszarze AI, gdzie zarówno małe firmy, jak i całe kraje będą wdrażać w zawrotnym tempie rozwiązania AI. Często przyświeca temu idea: „jeśli my tego nie zrobimy, zrobią to oni”. Przez „oni” należy rozumieć cyberprzestępców.

    Pomimo szeregu korzyści wynikających z AI, szybkość wdrażania tej technologii tworzy niebezpieczną pętlę sprzężenia zwrotnego. Powstająca presja sprawia, że stajemy się coraz bardziej zależni od AI. Spodziewam się nacisku na efektywność wdrażanych rozwiązań AI – zarówno zarządów spółek, jak i rządów poszczególnych państw – co może doprowadzić do istotnych luk w bezpieczeństwie.

    Chuck Herrin

    W wielu aspektach można to porównać do pośpiesznego wdrażania chmury w latach 2010-2015. Ekspert F5 zauważa jednak, że tym razem stawka jest znacznie wyższa. Wynika to z faktu, że organizacje muszą skupić się na architekturze AI oraz bezpieczeństwie infrastruktury, włącznie z API jako kluczowym punktem kontrolnym. 

    Każda interakcja z AI odbywa się przez API, co czyni je zarówno kluczowym elementem transformacji, jak i potencjalnym piętą achillesową. Dzisiejsze organizacje mają bardzo ograniczoną świadomość swojego ekosystemu API i tzw. powierzchni ataku. Często powtarzam: „świat AI to świat API”. API to sposób, w jaki modele AI są szkolone, używane i atakowane, a nasze szacunki wskazują, że około 50% API pozostaje niekontrolowanych i niezarządzanych.

    zaznacza Chuck Herrin

    API odgrywają kluczową rolę w globalnym kontekście gospodarczym, szczególnie w obszarach takich jak architektura cyfrowa i zarządzanie łańcuchami dostaw. Umożliwiają integrację systemów logistycznych, wymianę danych między partnerami handlowymi oraz automatyzację procesów. W dobie globalnych napięć geopolitycznych ich znaczenie rośnie, ponieważ wspierają decentralizację krytycznych operacji i budowę bardziej odpornych ekosystemów technologicznych. Wraz z wprowadzeniem suwerennych rozwiązań chmurowych API stały się fundamentem zapewnienia elastyczności operacyjnej i ochrony danych w coraz bardziej wymagającym środowisku biznesowym.

    Suwerenność łańcucha dostaw

    Wyzwania związane z łańcuchami dostaw to nie tylko reshoring, czyli przenoszenie produkcji z powrotem do kraju, ale także fundamentalna zmiana w architekturze cyfrowej. Wraz z rosnącymi napięciami geopolitycznymi i możliwym wprowadzeniem nowych ceł, organizacje balansujące między wymogami efektywności a ograniczeniami łańcucha dostaw prawdopodobnie stworzą nowe klasy ryzyka systemowego, próbując zrobić więcej za mniej.

    Przewiduję przyspieszenie wdrażania geofencingu i suwerennych rozwiązań chmurowych. Z kolei krytyczne łańcuchy dostaw, których nie można szybko przenieść na rynek lokalny, prawdopodobnie doprowadzą do niedoborów komponentów i opóźnień w realizacji kluczowych projektów. Jednocześnie dążenie zarządów firm do efektywności może osłabić skuteczność weryfikacji dostawców i nadzoru, zwiększając ryzyko związane z dostawcami trzeciego i czwartego rzędu.

    zaznacza ekspert z F5

    Aby zarządzać tymi ryzykami i zmniejszyć liczbę dostawców wymagających kontroli w warunkach ograniczonego zatrudnienia, można spodziewać się wzrostu zainteresowania wdrażaniem AI i konsolidacją platform. W efekcie powinno to pomóc zredukować ryzyko w łańcuchu dostaw i zapewnić, że krytyczne systemy będą pochodzić od zaufanych dostawców.

    Chociaż suwerenność łańcuchów dostaw wynika z dążenia do minimalizacji ryzyk geopolitycznych, paradoksalnie może przyczynić się do wzrostu scentralizowanego ryzyka, szczególnie w kontekście zaufania do ograniczonej liczby dostawców AI. To zjawisko podkreśla, jak ryzyka systemowe wynikające z decyzji ekonomicznych mogą przenikać do obszaru technologii, zwiększając zagrożenia związane z monokulturą systemów i ograniczeniem różnorodności rozwiązań.

    Burza scentralizowanego ryzyka

    Jak wskazuje Chuck Herrin obecnie obserwujemy zbieżność trzech niebezpiecznych trendów: centralizacja ryzyka związanego z kluczowymi platformami AI, proliferacji niezarządzanych API łączących te systemy oraz redukcja nadzoru ludzkiego dokładnie wtedy, gdy jest najbardziej potrzebny. Może to prowadzić do powstawania zarówno podatności technicznych, jak i instytucjonalnej kruchości.

    Cięcia budżetowe i wymogi dotyczące efektywności, szczególnie widoczne w niektórych państwach zachodnich, przyspieszą przejście agencji rządowych na nieoficjalne rozwiązania AI (shadow AI). W sposób niezamierzony skoncentruje to podatności wokół niewielkiej liczby dostawców AI. To z kolei stworzy idealne cele typu 'watering hole’ – kompromitacja jednego modelu może mieć kaskadowy wpływ na wiele agencji. Prowadzi to do zjawiska budowania monokultury systemów AI połączonych niezarządzanymi API, jednocześnie zmniejszając nadzór i zarządzanie.

    Nadmierna ufność stanowi kolejny problem – kombinacja nadmiernej ufności wobec ograniczonego nadzoru może wpłynąć na wszystko – od decyzji politycznych, przez analizy wywiadowcze, aż po reakcje kryzysowe. Ta idealna burza scentralizowanego ryzyka nadchodzi dokładnie wtedy, gdy napięcia geopolityczne rosną w związku z eskalacją konfliktów regionalnych, a rywale coraz śmielej szukają słabości w systemach. 

    Krajobraz wyzwań i strategii na przyszłość

    Dynamiczny rozwój AI, wyzwania związane z łańcuchami dostaw oraz brak kontroli nad API stawiają organizacje przed nieznanymi dotąd wyzwaniami. Każdy z tych trendów z osobna niesie ryzyko, ale ich połączenie potęguje zagrożenia, tworząc złożony krajobraz cyberbezpieczeństwa. Jak zauważa Chuck Herrin, skuteczna odpowiedź wymaga wielopłaszczyznowego podejścia: inwestycji w architekturę AI, wzmocnienia ochrony API oraz budowy odpornych ekosystemów technologicznych, które uwzględniają zarówno lokalne, jak i globalne ryzyka. Tylko zintegrowane strategie mogą zapewnić stabilność i bezpieczeństwo w nadchodzących latach.

  • Boty kontra firmy – Artur Cyganek z BotGuard o realnych kosztach złych botów dla przedsiębiorstw

    Boty kontra firmy – Artur Cyganek z BotGuard o realnych kosztach złych botów dla przedsiębiorstw

    Współczesny internet zmaga się z rosnącą falą niechcianego ruchu generowanego przez boty. Według raportu Imperva „Bad Bot 2024” już niemal połowa ruchu w sieci pochodzi od botów, z czego aż 32% stanowią tzw. „złe” boty, które wprowadzają chaos i generują poważne zagrożenia dla użytkowników oraz firm.  W rozmowie z Arturem Cygankiem, BotGuard Regional Director, Eastern Europe, przyjrzymy się ewolucji botów, ich wpływowi na działalność przedsiębiorstw oraz najnowszym metodom ochrony przed tym coraz bardziej wyrafinowanym zagrożeniem.

    Brandsit: Według danych z raportu Imperva „Bad Bot 2024”, już niemalże 50% ruchu w sieci generują boty. Od 2018 roku udział tzw. „złych” botów w ruchu internetowym sukcesywnie rośnie, obecnie wynosząc około 32% całego ruchu w sieci. Jakie są najnowsze zagrożenia ze strony botów w internecie?

    Artur Cyganek, BotGuard: Obecnie boty potrafią w mniejszym lub większym stopniu emulować ruch generowany przez człowieka. Dzięki temu omijają podstawowe zabezpieczenia, które w przeszłości były skuteczne, lecz obecnie niestety już takie nie są. Generalnie zagrożenia pozostają podobne, jednak sposoby i techniki działania botów ulegają zmianom. Obszarem, w którym dynamika zmian jest szczególnie duża, są szeroko rozumiane reklamy cyfrowe, a konkretnie problem odsetka reklam „wyklikiwanych” przez boty, co sprawia, że nie trafiają one do docelowych odbiorców.

    Brandsit: W jaki sposób rozwiązania BotGuard pomagają firmom w ochronie przed tymi zagrożeniami?

    Artur Cyganek, BotGuard: BotGuard w czasie rzeczywistym analizuje ruch przychodzący na serwery WWW i zgodnie z przyjętymi regułami (firmy mogą samodzielnie określać, który ruch uznają za niepożądany) blokuje ruch zdefiniowany jako niechciany lub generowany przez szkodliwe boty. W efekcie „dobry” ruch dociera do serwerów WWW, a „zły” ruch jest blokowany, zanim zdąży na nie trafić.

    Brandsit: Jak rozwój technologii, takich jak AI, wpływa na ewolucję botów?

    Artur Cyganek, BotGuard: Dzięki AI średnio zaawansowany użytkownik internetu może samodzielnie wygenerować niepożądany ruch za pomocą stworzonych botów. Niestety, obecna technologia w łatwy sposób umożliwia tworzenie szkodliwych botów oraz prowadzenie nieetycznych, a nawet przestępczych działań w sieci.

    Brandsit: Czy w Pana opinii, przedsiębiorstwa są świadome ryzyka związanego z niechcianym ruchem generowanym przez boty?

    Artur Cyganek, BotGuard: Niestety, wiele organizacji i przedsiębiorstw nie analizuje ruchu na swoich serwerach WWW, a co za tym idzie, nie posiada wiedzy na temat tego, jaki ruch tam występuje. Największe przedsiębiorstwa i organizacje mają większą świadomość oraz wiedzę, jednak średnie i mniejsze często nie zdają sobie sprawy ze skali zagrożeń i ryzyka związanego z ruchem generowanym przez złośliwe boty w ich środowisku WWW.

    Brandsit: Według wspomnianego już raportu, branże najczęściej atakowane przez bad bots to retail, branża turystyczna i finanse. W jakiś sposób boty wpływają na wydajność i koszty operacyjne firm? Jakie cechy rozwiązań BotGuard są kluczowe z perspektywy klientów?

    Artur Cyganek, BotGuard: Boty mogą nadmiernie obciążać infrastrukturę, generując niechciany, a nawet szkodliwy ruch – mówimy tutaj o około 30% całego ruchu przychodzącego. Może to znacząco wpływać na wydajność infrastruktury lub prowadzić do wyższych kosztów związanych ze sprzętem, zasilaniem, klimatyzacją i administracją (niezależnie od tego, czy korzystamy z wynajmowanego środowiska WWW, czy posiadamy je we własnym centrum danych). BotGuard koncentruje się na analizie ruchu przychodzącego na serwery WWW i blokowaniu niechcianego ruchu generowanego przez boty. Klient ma możliwość zdefiniowania, jaki ruch uważa za dobry/chciany, a jaki za zły/niechciany, ponieważ w różnych sektorach gospodarki i administracji taka definicja może się różnić w zależności od poziomu ryzyka akceptowanego w tych organizacjach.


    Artur Cyganek
    Regional Director, Eastern Europe, BotGuard

    Artur Cyganek to ekspert z ponad dwudziestoletnim doświadczeniem w branży IT, specjalizujący się w obszarze cyberbezpieczeństwa. Przez 15 lat zarządzał zespołami w międzynarodowych firmach IT, w tym w Acronis, AppSense i Citrix, gdzie pełnił funkcję Country Managera w Polsce. Obecnie, jako Regional Director w BotGuard, odpowiada za rozwój rynku, budowanie kanałów partnerskich oraz relacji z kluczowymi klientami w Europie Wschodniej i Turcji. Ukończył Politechnikę Wrocławską oraz Uniwersytet Ekonomiczny we Wrocławiu, a także uzyskał tytuł MBA w Akademii Leona Koźmińskiego w Warszawie.

  • Jak nie przegrać przyszłości? Integratorzy IT wobec wyzwań GenAI

    Jak nie przegrać przyszłości? Integratorzy IT wobec wyzwań GenAI

    Generatywna sztuczna inteligencja przekształca krajobraz technologiczny w sposób, który znacząco wpływa na działalność dostawców usług IT. Dostawcy usług IT odgrywają kluczową rolę w adaptacji tej technologii, pomagając przedsiębiorstwom eksperymentować z nowymi modelami oraz wdrażać je w codziennej działalności. Generatywna sztuczna inteligencja, choć wciąż w fazie rozwoju, ma ogromny potencjał, by zrewolucjonizować różne aspekty działalności firm, a integratorzy znajdują się na pierwszej linii tej zmiany.

    Generatywna sztuczna inteligencja a rynek IT

    Rosnące zainteresowanie GenAI spowodowało znaczące zmiany na rynku IT. Modele AI, rozwój infrastruktury technologicznej i nowe aplikacje stają się kluczowymi obszarami działalności firm technologicznych. Integratorzy IT muszą szybko adaptować się do tego ewoluującego środowiska, aby skutecznie wspierać swoich klientów. Jak wskazuje raport „Generative AI Watch: IT Services Providers Invest to Help Customers Implement GenAI, 2024 Update”,  pojawienie się nowych modeli językowych – od małych modeli, które specjalizują się w konkretnych zadaniach, po bardziej ogólne modele – sprawia, że firmy coraz częściej potrzebują wsparcia w wyborze odpowiednich rozwiązań. Kluczowym wyzwaniem staje się również obawa przed uzależnieniem się od jednego dostawcy technologii, co mogłoby ograniczyć elastyczność biznesową.

    Jednak GenAI nie tylko zwiększa wymagania względem dostawców IT, ale również otwiera przed nimi nowe możliwości. Oferowanie zróżnicowanych, gotowych rozwiązań opartych na sztucznej inteligencji pozwala integratorom na głębsze włączenie się w działalność swoich klientów, czyniąc ich partnerów biznesowych bardziej strategicznymi w procesie podejmowania decyzji.

    Korzyści i wyzwania dla integratorów

    Dla dostawców usług IT GenAI jest zarówno wyzwaniem, jak i szansą na rozwój. Z jednej strony umożliwia im to skalowanie usług, co pozwala na zwiększenie efektywności bez konieczności proporcjonalnego zwiększania zasobów ludzkich. Automatyzacja procesów, poprawa wydajności i wsparcie dla innowacji stają się kluczowymi aspektami ich działalności. Z drugiej strony, wdrożenie GenAI może przyczynić się do głębszego zaangażowania w branżowe rozwiązania klientów, co sprawia, że ich współpraca nabiera bardziej strategicznego charakteru.

    Aby sprostać rosnącym wymaganiom związanym z GenAI, wielu integratorów inwestuje w tworzenie gotowych frameworków i platform wspierających wdrażanie tej technologii. Co więcej, firmy te odgrywają kluczową rolę w zapewnianiu odpowiedzialnego i bezpiecznego wdrażania sztucznej inteligencji. Rozwiązania te są dostosowane do specyfiki różnych branż, co umożliwia lepsze dopasowanie do unikalnych potrzeb każdego klienta.

    Zapytałam Jacka Gralaka, AI Portfolio Director w TT PSC o to, jaką rolę pełnią integratorzy IT w procesie wdrażania rozwiązań opartych na sztucznej inteligencji (AI) w firmach?


    Jacek Gralak, TT PSC

    „Integratorzy IT pomagają w pełni wykorzystać potencjał nowoczesnych technologii dostosowując rozwiązania do specyficznych potrzeb firmy. Przykładowo w branży produkcyjnej integratorzy implementują systemy predictive maintenance, by przewidywać awarie maszyn, w logistyce automatyzują magazyny czy zaawansowane systemy śledzenia łańcuchów dostaw, a w energetyce integrują IoT do monitorowania i optymalizacji zużycia energii. Integratorzy identyfikują też zagrożenia w trakcie wdrożeń i pomagają unikać błędów, opóźnień czy przekroczenia budżetów będących często efektem braku doświadczenia lub wiedzy przedsiębiorstw implementujących rozwiązania. Integratorzy wspierają firmy również w  łączeniu systemów informatycznych umożliwiając płynny przepływ danych i eliminując problemy z kompatybilnością czy wspierają przedsiębiorstwa w długoterminowym zarządzaniu i rozwijaniu systemów technologicznych.”

    Jacek Gralak, AI Portfolio Director w TT PSC.

    Rola zarządzania danymi

    Chociaż generatywna sztuczna inteligencja oferuje szeroki zakres korzyści, jej skuteczne wdrożenie jest ściśle związane z zarządzaniem danymi. Wiele firm, jak wskazuje raport GlobalData, nie przykłada dostatecznej wagi do zarządzania danymi, co utrudnia realizację projektów opartych na GenAI. Skuteczne strategie zarządzania danymi, w połączeniu z odpowiednią infrastrukturą chmurową, stanowią fundament dla pełnego wykorzystania potencjału sztucznej inteligencji.

    Integratorzy, oprócz oferowania wsparcia przy wdrażaniu technologii AI, odgrywają kluczową rolę w pomaganiu klientom w zarządzaniu danymi. To właśnie efektywne zarządzanie tym zasobem umożliwia skalowanie rozwiązań GenAI na większą skalę, co przekłada się na sukces całej inicjatywy.

    Jakie kluczowe kompetencje i umiejętności są niezbędne dla integratora IT, aby skutecznie wspierać organizacje w implementacji AI?


    Jacek Gralak, TT PSC

    „Są to dogłębna wiedza technologiczna z umiejętnością zrozumienia potrzeb biznesowych, zarządzania projektami i skutecznej komunikacji. Kluczowe jest, aby integrator potrafił oszacować i uzasadnić korzyści finansowe danego rozwiązania IT. Doświadczony integrator powinien przeprowadzić studium wykonalności, które pozwoli ocenić, czy zastosowanie AI rzeczywiście dostarczy oczekiwanej wartości, zanim firma zainwestuje w zaawansowany system produkcyjny. Ponadto, wdrożenie AI wymaga jednorodnej i ustandaryzowanej platformy danych, dlatego przed implementacją kluczowym etapem powinna być weryfikacja zarządzania danymi w firmie, ocena ich źródła, dostępności, jakości. To pozwoli na stworzenie solidnych podstaw dla wdrażanego rozwiązania. Firmy preferują integratorów, którzy mają udokumentowane doświadczenie w ich sektorze, potrafią dokładnie zrozumieć potrzeby i cele firm, by móc dostosować wdrożenie do specyfiki przedsiębiorstwa, są biegli w aktualnych trendach AI i technologiach. Ważna jest też zdolność integratora do identyfikacji i minimalizacji ryzyk technologicznych i organizacyjnych. Oczekiwany jest profesjonalizm, doświadczenie i elastyczność. Decyzja o wyborze konkretnego integratora często zależy od tego, czy firma potrafi dostarczyć rozwiązania odpowiadające na konkretne wyzwania i cele organizacji.”

    Jacek Gralak, AI Portfolio Director w TT PSC.

    Przyszłość GenAI i dostawców usług IT

    Patrząc w przyszłość, wiele firm będzie musiało zrewidować swoje podejście do strategii chmurowych, aby umożliwić współpracę z wieloma modelami sztucznej inteligencji i różnorodnymi dostawcami. Oczekuje się, że środowiska wielomodelowe staną się standardem, a odpowiednie zarządzanie danymi będzie kluczem do skutecznego wdrożenia tej technologii.

    Dostawcy usług IT są w unikalnej pozycji, aby wspierać przedsiębiorstwa w tej transformacji. Ich rola w rozwoju i wdrażaniu generatywnej sztucznej inteligencji staje się coraz bardziej kluczowa, a firmy, które skutecznie wykorzystają tę współpracę, będą mogły osiągnąć przewagę konkurencyjną w dynamicznie zmieniającym się krajobrazie technologicznym.

    Sukces wdrożeń GenAI będzie w dużej mierze zależał od efektywnego zarządzania danymi i elastycznych strategii chmurowych, co stanowi wyzwanie, ale i szansę na rozwój zarówno dla firm, jak i ich technologicznych partnerów.


    Ewa Zborowska, IDC

    „Prognoza rozwoju generatywnej sztucznej inteligencji zapowiada się niezwykle dynamicznie. Według IDC, rynek ten ma osiągnąć imponujący 66% średnioroczny wzrost do 2028 roku, choć obecnie stanowi zaledwie 10% całego rynku AI. Do 2028 roku udział ten ma przekroczyć 30%. Warto jednak pamiętać, że klasyczne rozwiązania deep i machine learning nadal pozostaną kluczowe.

    Integratorzy IT stoją przed podwójnym wyzwaniem. Po pierwsze, muszą sami skutecznie implementować generatywną AI we własnych procesach – automatyzować zadania, zwiększać wydajność i innowacyjność. Po drugie, kluczowa będzie ich rola we wspieraniu klientów: zamykanie luki kompetencyjnej, przyśpieszanie realizacji projektów oraz pomoc w identyfikacji najbardziej wartościowych zastosowań GenAI.

    Badania IDC wskazują, że dostawcy usług IT – obok dostawców chmury – staną się preferowanymi strategicznymi partnerami w transformacji AI. Ich przewaga będzie polegać na kompleksowym podejściu: od analizy potencjału, przez wybór odpowiednich modeli, po bezpieczne i odpowiedzialne wdrożenie.”

    Ewa Zborowska, analityczka IDC odpowiadająca za AI w Europie, IDC

  • Współpraca medyków i naukowców STEM

    Współpraca medyków i naukowców STEM

    Rozwój w nauce, biznesie i społeczeństwie wymaga mistrzowskich zdolności współpracy i adaptacji. Wiele optymalnych wzorców możemy odnaleźć w przyrodzie. Jednym z najbardziej zaawansowanych przykładów współpracy i adaptacji jest ten, który widzimy, gdy w jesiennym lesie zbieramy grzyby.

    W Polsce, tak jak w naturze, współpraca jest niezbędna do dalszego rozwoju w szybko zmieniającym się środowisku technologicznym i biznesowym. W ostatnich latach wielu polskich ekspertów okazało się kluczowymi postaciami w obszarze innowacji, szczególnie w sektorze sztucznej inteligencji (AI). Jak pokazują liczne raporty, w tym „State of Polish AI”, globalne korporacje wyławiają polskich specjalistów z tej dziedziny. Dla Polski korzystniejszą sytuacją jest, gdy korporacje lokują swoje centra badawczo-rozwojowe (B+R) na terenie naszego kraju.

    Dalszy rozwój i sukces polskiej gospodarki wymaga nie tylko zaawansowanych technologii, ale także ścisłej współpracy pomiędzy IT, biznesem i naukami społecznymi. Wzrost automatyzacji i cyfryzacji jest kluczowy w obliczu wyzwań demograficznych, takich jak starzenie się społeczeństwa. Zjawisko „srebrnego tsunami” wskazuje na konieczność adaptacji rynku pracy poprzez wdrażanie nowych technologii oraz efektywną współpracę na poziomie przedsiębiorstw, instytucji naukowych i społecznych.

    Jak pokazują raporty, polska gospodarka wyczerpała już proste rezerwy rozwojowe i stoi przed nowymi wyzwaniami. Przedsiębiorczość i pomysłowość Polaków, choć są istotnym kapitałem, potrzebują wsparcia w postaci lepszych warunków dla innowacji, większych inwestycji w badania i rozwój oraz odpowiednich ram prawnych. Przyszły rozwój będzie możliwy tylko dzięki współpracy między – biznesem, nauką i technologią. Teraz już tylko takie podejście może stanowić fundament długofalowego wzrostu.

    Najbardziej palącym celem rozwoju w oczach Polaków są kwestie związane ze złym stanem systemu ochrony zdrowia. Według ostatnich badań, aż 81% respondentów wskazuje zbyt długie kolejki do lekarza i szpitala jako jedno z wyzwań, przed którymi stoi Polska.

    Sektor ochrony zdrowia jak w soczewce ukazuje zarówno potrzeby jak i potencjał współpracy praktyków i naukowców. Powstało wiele artykułów, raportów, strategii, „koalicji na rzecz”, grup roboczych, odbyło się dużo konferencji, paneli i debat. Można uznać, że stan obecny sektora ochrony zdrowia w Polsce jest dobrze zdiagnozowany. Jedną z najnowszych analiz ukazującą konsens środowiska medycznego opublikowano po debacie „VIII Kongresu Wizja Zdrowia – Diagnoza i Przyszłość – Foresight Medyczny” – kluczowe wnioski ujęto w tabeli poniżej. 

    Stan obecnyStan docelowy
    Niska dostępność zasobów ludzkich i nadmierne obciążenie pracą.Optymalizacja zatrudnienia i obciążenia pracą, z większym wsparciem kadrowym.
    Brak odpowiedniego wsparcia psychologicznego, mobbing.Stałe wsparcie psychologiczne dla medyków i skuteczne mechanizmy zapobiegania mobbingowi.
    Niedoskonałości systemowe, np. nieefektywna organizacja pracy.Zautomatyzowane systemy zarządzania pracą i koordynacji działań w placówkach medycznych.
    Zła organizacja dyżurów, która wpływa na jakość pracy i zdrowie lekarzy.Elastyczne i bardziej racjonalne planowanie dyżurów, zapewniające odpowiedni odpoczynek.
    Niewystarczające wynagrodzenia w stosunku do wykonywanej pracy.Odpowiednie wynagrodzenia i świadczenia adekwatne do obciążenia pracą i odpowiedzialności.
    Brak inwestycji w nowe technologie, które mogłyby wspierać codzienną pracę.Wprowadzenie nowoczesnych narzędzi cyfrowych, automatyzacji i technologii wspierających medycynę.

    Elementarne pytanie: jak ze stanu obecnego przejść do docelowego?, dotąd nie znajduje praktycznej i skutecznej odpowiedzi. Obserwujemy to oczekując na badania u specjalisty.

    W wielu obszarach gospodarki zadania pracochłonne opłaca się automatyzować. Fala transformacji cyfrowej przetoczyła się przez różnorodne dziedziny biznesu i ostatnio dociera także do ochrony zdrowia. Główną wytyczną w przypadku medycyny jest bezpieczeństwo pacjentów. Stawia to bardzo wysoko wymagania dotyczące jakości proponowanych rozwiązań. Wymaganiom takim sprostać mogą rozwiązania wypracowane przez polskich naukowców.

    Kolejne etapy jakie trzeba przejść na drodze do komercjalizacji dobrze identyfikuje skala TRL (Technology Readiness Level). Ten dziewięciostopniowy system oceny dojrzałości technologicznej produktu lub rozwiązania został opracowany przez NASA i jest szeroko stosowany w różnych branżach, w tym w medycynie cyfrowej. Zaczynając od wstępnych badań koncepcyjnych (TRL 1-3), przez walidację i prototypowanie (TRL 4-6), aż po pełną implementację w środowisku operacyjnym (TRL 7-9). Każde innowacyjne rozwiązanie w medycynie musi przejść skomplikowaną i wieloetapową drogę. W przypadku ochrony zdrowia ta ścieżka wymaga współpracy pomiędzy środowiskiem medycznym a naukowcami STEM.

    Podobnie jak mikoryza w ekosystemie leśnym, współpraca między różnymi środowiskami – medycznym, akademickim i technologicznym – jest kluczowa dla rozwoju innowacji w medycynie cyfrowej. John Nash, noblista z 1994 roku, podkreśla, że najlepsze wyniki osiąga się wtedy, gdy każda ze stron działa zarówno w swoim własnym interesie, jak i w interesie grupy. Właśnie takie podejście, nazywane równowagą Nasha, jest konieczne, aby osiągnąć sukces w obszarze medycyny cyfrowej.

    Centrum Innowacji dla Medycyny Cyfrowej (CIMC) w OPI, prowadzi obecnie badanie, które ma na celu zidentyfikowanie potrzeb i potencjału współpracy między środowiskiem medycznym a naukowcami z dziedzin STEM (Science, Technology, Engineering, Mathematics). Badanie to jest realizowane we współpracy z Agencją Badań Medycznych (ABM) i obejmie Regionalne Centra Medycyny Cyfrowej w Polsce. Celem badania jest odpowiedź na kluczowe pytania: jakie są realne potrzeby współpracy?, jakie bariery napotykają obie strony? i jak można je skutecznie przezwyciężyć?

    Dzięki tej współpracy możliwe będzie lepsze zrozumienie, jakie obszary medycyny cyfrowej wymagają szczególnego wsparcia technologicznego oraz które rozwiązania mogą najszybciej przejść przez wszystkie etapy rozwoju – od koncepcji (TRL 1-3), aż po implementację w codziennej praktyce klinicznej (TRL 7-9). Proces ten, podobnie jak w przyrodzie, wymaga wzajemnego wsparcia, ujednoliconych standardów i ciągłej wymiany wiedzy między ekspertami z różnych dziedzin.

    Wyniki tego badania będą miały wpływ na kształtowanie przyszłych innowacji w ochronie zdrowia, pomagając wypracować modele współpracy, które w sposób efektywny będą wspierać wprowadzanie nowych technologii medycznych, przy jednoczesnym zapewnieniu bezpieczeństwa pacjentów i wysokich standardów opieki zdrowotnej. 

    Spacerując po jesiennym lesie warto pomyśleć o potencjale współpracy, spoglądając na majestatyczne sylwetki drzew i dorodne grzyby oraz ich wzajemną współzależność od siebie.


    Przeczytaj więcej artykułów ekspertów Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego:
    – „Cyfrowe technologie w humanistyce” autorstwa Sylwii Banaszkiewicz
    – „Naukowcy w centrum uwagi. Jak UX wspiera sektor nauki i szkolnictwa wyższego” autorstwa Waldemara Więckowskiego
    – „W pogoni za rynkiem pracy – mikropoświadczenia nowym kierunkiem w szkolnictwie wyższym” autorstwa dr Anny Łobodzińskiej
    – „Rewolucja AI ma twarz LLM-ów” autorstwa dr inż. Marka Kozłowskiego
    – „IT w sektorze publicznym. Wyzwania i możliwości” oraz „Lean IT drogą do efektywności w erze cyfrowej?” autorstwa Anny Piry

  • Sukces na wymagającym rynku wymaga bliskiej współpracy partnerskiej – Mirosław Pisaniec, Schneider Electric

    Sukces na wymagającym rynku wymaga bliskiej współpracy partnerskiej – Mirosław Pisaniec, Schneider Electric

    Rynek technologiczny rozwija się w zawrotnym tempie, co stawia przed jego uczestnikami wiele wyzwań, zwłaszcza w kontekście nowych modeli biznesowych i zmieniających się oczekiwań klientów. O tym, jak Schneider Electric wspiera swoich partnerów w radzeniu sobie z tymi zmianami, opowiada Mirosław Pisaniec, Channel Sales Manager w Schneider Electric, odpowiedzialny z pion Secure Power na obszar Europy Środkowo-Wschodniej.

    Klaudia Ciesielska, Brandsit: Rynek technologiczny ulega bardzo dynamicznym zmianom. Jakie są największe wyzwania dla partnerów Schneider Electric w kontekście tej dynamiki?

    Mirosław Pisaniec, Schneider Electric:
    Myślę, że dynamika zmian jest wielopłaszczyznowa. Pozwolę sobie to rozłożyć na trzy główne płaszczyzny, których dotykają te zmiany. Po pierwsze, wpływają one znacząco na kondycję rynku i modele biznesowe, które są obecnie redefiniowane. Jednym z głównych obszarów jest oczywiście szeroko pojęta gospodarka, która boryka się z niestabilnością i zmiennością, także w kontekście sytuacji geopolitycznej. To wpływa również na rynek lokalny. Co więcej, prawodawstwo stwarza możliwości związane z inwestycjami oraz prowadzeniem badań i rozwoju na różnych szczeblach łańcucha dostaw. Łańcuch dostaw sam w sobie jest niestabilny, co jest również pogłębiane przez sytuację geopolityczną.


    Dynamika zmian jest wielopłaszczyznowa. Wpływa ona znacząco na kondycję rynku i modele biznesowe, które są obecnie redefiniowane.


    Drugim aspektem dynamicznych zmian są zasoby. W najszybciej rosnących segmentach rynku, takich jak cyberbezpieczeństwo, chmura obliczeniowa, przetwarzanie brzegowe, czy technologie związane ze sztuczną inteligencją, mamy do czynienia z niewystarczającą liczbą ekspertów w tych dziedzinach. To wpływa również na ograniczenie wzrostu, co dotyczy także partnerów i doradców klientów końcowych.

    Trzecim obszarem są zachowania i polityka klientów korporacyjnych. Obserwujemy rozwój nowych modeli konsumpcji. Na popularności zyskują choćby modele subskrypcyjne czy licencjonowania nie tylko oprogramowania, ale również różnych usług związanych z dzierżawieniem platform sprzętowych czy usługowych. Klienci korporacyjni coraz częściej przechodzą na nowe formy platformy zakupowe, co prowadzi do dużych modyfikacji procesów sprzedaży. Nasza organizacja partnerska stoi przed wyzwaniem profesjonalnego zarządzania całym cyklem sprzedażowym.

    Partnerzy biznesowi muszą tworzyć skuteczne modele świadczenia usług zarządzanych, co jest już wyraźnie widoczne na rynku polskim. Przechodzą na model usługowy, co obejmuje szeroki zakres zarządzania strukturą IT.

    Wreszcie, obserwujemy zrównoważony rozwój jako jeden z wyraźnych trendów zmian tej dynamiki rynku. Polityki ESG, zwłaszcza w odniesieniu do dużych organizacji klienckich, stają się kluczowe w różnego rodzaju postępowaniach przetargowych i nie tylko. To są główne obszary i wyzwania związane z rozwojem technologii oraz współczesnym ekosystemem, w którym żyjemy.

    Klaudia Ciesielska, Brandsit: W jaki sposób Schneider Electric wspiera partnerów, zwłaszcza w zakresie polityki klientów końcowych, w sprostaniu tym wyzwaniom rynkowym?

    Mirosław Pisaniec, Schneider Electric: Dla nas jako organizacji kluczowe jest, aby klient końcowy otrzymał produkt lub rozwiązanie z wartością dodaną. To jest nasz nadrzędny cel i dążenie, które obejmuje różne formy wsparcia dla partnerów biznesowych. Dzięki temu partnerzy mogą oferować wartość dodaną klientom końcowym w ramach naszej szerokiej oferty produktowo-technologicznej.

    Klaudia Ciesielska, Brandsit: Jakie działania podejmujecie, aby edukować i wspierać waszych partnerów w oferowaniu tych wartości dodanych klientom?

    Mirosław Pisaniec, Schneider Electric: To złożony proces, jednak bierzemy w nim bezpośredni udział, edukując naszych partnerów i wspierając ich w zdobyciu certyfikacji. W ten sposób promujemy ich także wśród klientów końcowych, dopasowując projekty, z jakimi zgłaszają się klienci, do kompetencji poszczególnych partnerów. Wspieramy również profesjonalny dialog na etapie tworzenia koncepcji, co pozwala zidentyfikować rzeczywiste potrzeby i wyzwania klientów.

    Klaudia Ciesielska, Brandsit: Jakie aspekty technologiczne są kluczowe w Waszych rozwiązaniach dla klientów końcowych?

    Mirosław Pisaniec, Schneider Electric: Specyfika naszych rozwiązań obejmuje elementy związane z elektryką, elektroniką, internetem rzeczy, mechatroniką i innymi zaawansowanymi technologiami. Wsparcie naszych partnerów przez ekspertów Schneider Electric jest zatem niezmiernie istotne na każdym etapie procesu sprzedaży.

    Klaudia Ciesielska, Brandsit: Jak monitorujecie i oceniacie satysfakcję klientów końcowych, aby ulepszać swoje usługi?

    Mirosław Pisaniec, Schneider Electric: Prowadzimy dialog konsultacyjny z klientem końcowym, którego efektem końcowym jest  dostarczenie wartości dodanej. Równie ważny jest dla nas wskaźnik satysfakcji klientów końcowych, który skrupulatnie badamy poprzez systematycznie prowadzone ankiety i wywiady. Te badania pozwalają nam wyciągnąć konkretne wnioski i identyfikować obszary wymagające ciągłej poprawy.

    Klaudia Ciesielska, Brandsit: Czy możesz opowiedzieć coś więcej o genezie programu mySchneider IT? Jak powstał i jakie cele ma realizować?

    Mirosław Pisaniec, Schneider Electric: Musimy cofnąć się do początków historii marki APC, obecnie należącej do Schneider Electric. Historia ta jest również związana z ewolucją naszego programu partnerskiego, a także modelu współpracy z kanałem dystrybucyjnym i partnerskim. W tym roku obchodzimy czterdziestolecie UPS-ów APC. Od początku, czyli od 1984 roku, gdy marka ta jeszcze funkcjonowała jako niezależna firma, wyznaczono cel i model biznesowy oparty na sprzedaży pośredniej przez dystrybutorów i partnerów biznesowych. Szczegóły, jeśli chodzi o te procesy, zmieniały się przez lata, ale skupmy się na ostatnich latach.

    W 2022 roku ogłosiliśmy istotną zmianę w naszym programie partnerskim, wprowadzając mySchneider IT Partner Program, który jest bardzo elastyczny i pozwala dostosowywać się do nowych modeli biznesowych naszej sieci partnerskiej. W ramach tego programu wprowadziliśmy moduły specjalizacji i certyfikacji, które odpowiadają na potrzeby naszych partnerów. To na przykład IT Solution Provider, specjalizacja która jest dedykowana dostawcom rozwiązań IT działających w modelu system-integratora czy Software & Service Provider obejmująca dostawców różnego typu usług i oprogramowania do zarządzania infrastrukturą IT. Dostępny jest również moduł e-commerce’owy dla partnerów specjalizujących się w sprzedaży online. Co więcej, kilka miesięcy temu uruchomiliśmy globalnie, w tym także w Polsce, Schneider Electric EcoXpert Partner Program, skierowany do firm, które chcą specjalizować się w obsłudze klientów w zakresie centrów danych. Jest on częścią większego programu EcoXpert, działającego już od dłuższego czasu w innych jednostkach biznesowych Schneider Electric. Dzięki temu partnerzy biznesu Secure Power mają możliwość rozwijania swoich kompetencji także w innych obszarach. W ostatnich dwóch latach zaszło bardzo dużo zmian, a oba programy będą się dalej rozwijać.

    Klaudia Ciesielska, Brandsit: EcoXpert to program skupiający się na zrównoważonym rozwoju i zielonej energii. Jakie korzyści konkurencyjne na rynku przynosi to podejście?

    Mirosław Pisaniec, Schneider Electric: Program EcoXpert rzeczywiście kładzie nacisk na zrównoważony rozwój, szczególnie w obszarze centrów przetwarzania danych. Szacuje się, że ośrodki te zużywają 2% globalnej energii elektrycznej, a ich zapotrzebowanie na energię będzie rosło, szczególnie z powodu rozwoju sztucznej inteligencji. Zrównoważony rozwój jest jednak dla Schneider Electric kwestią znacznie szerszą, nie ograniczającą się tylko do programu EcoXpert. Prowadzimy różne inicjatywy edukacyjne, jak Szkoła Zrównoważonego Rozwoju, oferująca cykl szkoleń online, gdzie uczestnicy mogą rozwijać swoje kompetencje w zakresie zrównoważonego rozwoju. Zapewniamy także usługi konsultingowe w tej dziedzinie. Ponadto, prowadzimy na rynku działania edukacyjne dotyczące znaczenia zrównoważonego rozwoju dla obecnych i przyszłych pokoleń. Nasz prosty model, oparty na cyfryzacji i elektryfikacji, pomaga organizacjom efektywnie osiągać cele zrównoważonego rozwoju. Wprowadziliśmy również nowe programy, jak Schneider Sustainability Impact, które skupiają się na wdrażaniu zrównoważonych praktyk wewnętrznie i w całym łańcuchu dostaw. Nasze krótkoterminowe cele na lata 2021-2025 mają pomóc w realizacji długoterminowych celów, takich jak osiągnięcie zerowej emisji szkodliwych gazów cieplarnianych netto w całym łańcuchu dostaw do 2050 roku.

    Chciałbym też wspomnieć o inicjatywie Schneider Electric Sustainability Impact Awards. Jest to konkurs, w którym nagradzamy inicjatywy naszych partnerów i klientów końcowych, które przyczyniają się do poprawy parametrów ESG. Konkurs ten ma trzy etapy: lokalny, europejski i globalny. W ubiegłorocznej edycji jeden z naszych polskich partnerów biznesowych zdobył nagrodę na poziomie globalnym, co jest dla nas ogromnym sukcesem.

    Klaudia Ciesielska, Brandsit: Czy możesz zdradzić, kim jest ten partner?

    Mirosław Pisaniec, Schneider Electric: Chodzi o firmę Markit, która działając globalnie dostarcza pełne portfolio IT do klientów biznesowych. Firma ta promuje interesujący projekt, który w dużym uproszczeniu polega na udostępnieniu klientom oferty, która jest zgodna z normami branżowymi i dodatkowo umożliwia zoptymalizowanie łańcucha dostaw dla zamawianego sprzętu. Pozwala to na zmniejszenie zużycia paliwa i obniżenie emisji dwutlenku węgla, co jest kluczowym aspektem w realizacji strategii ESG. Firma Markit we współpracy ze Schneider Electric wdrożyła również u jednego ze swoich klientów oprogramowanie EcoStruxure IT, które służy do monitorowania urządzeń IT. Oprogramowanie dostarcza dane, które można wykorzystać w poprawie zużycia energii i optymalizacji cyklu życia urządzeń.

    Klaudia Ciesielska, Brandsit: Za co partnerzy najbardziej cenią Schneider Electric i Wasze programy współpracy?

    Miroslaw Pisaniec, Schneider Electric: Odpowiedź na to pytanie jest wielowymiarowa, ponieważ partnerzy cenią nas za różnorodne aspekty współpracy. Przede wszystkim, nasze działania odpowiadają na realne potrzeby partnerów, a współpraca ma charakter długoterminowy, co jest możliwe dzięki silnemu zaangażowaniu obu stron. W Polsce współpracujemy z ponad dwoma tysiącami firmam, co świadczy o szerokim i różnorodnym kanale dystrybucyjnym. Programy, które oferujemy, są ciągle aktualizowane, aby odpowiadać na zmieniające się warunki rynkowe i modele biznesowe partnerów. Kładziemy duży nacisk na wspieranie partnerów tam, gdzie mogą mieć luki np. kompetencyjne, współdziałając z nimi bezpośrednio u klientów. Dbamy o transparentność procesów, na przykład w systemie rejestracji projektów. Profesjonalne wsparcie i szybkość reakcji w odpowiedzi na złożone projekty są dla nas równie ważne.

    Klaudia Ciesielska, Brandsit: Jakie cechy waszego zespołu są kluczowe dla utrzymania silnych relacji z partnerami?

    Mirosław Pisaniec, Schneider Electric: Nasz zespół Secure Power składa się z młodych, ale już bardzo doświadczonych i kompetentnych entuzjaztów, którzy są zaangażowani w tworzenie pakietu korzyści dla klientów, wspólnie z partnerami. Jestem dumny z naszej organizacji partnerskiej, która jest kluczowa dla budowania długoterminowej współpracy i lojalności, co jest niezwykle istotne w biznesie.

    Klaudia Ciesielska, Brandsit: Oprócz wiedzy eksperckiej, jaką zapewnia Schneider Electric, programy partnerskie zakładają także wymagania certyfikacyjne dla partnerów.

    Mirosław Pisaniec, Schneider Electric: Tak, rozmawialiśmy już o naszych dwóch równolegle działających platformach programów partnerskich. Zacznę od programu, który jest na rynku od dłuższego czasu, czyli mySchneider IT Partner Program. W ramach tego programu, oprócz podziału na specjalizacje, mamy trzy poziomy certyfikacji – poziom Select Partner, następnie Premier, a najwyższy to poziom Elite.

    Klaudia Ciesielska, Brandsit: Jakie są konkretne kryteria dla tych poziomów certyfikacji i jakie benefity z nich wynikają?

    Mirosław Pisaniec, Schneider Electric: Każdy z tych poziomów wiąże się z określonymi kryteriami, które partner musi spełnić, ale oferujemy też konkretne benefity za bycie autoryzowanym i certyfikowanym partnerem.

    Co do kryteriów, kluczowym jest kryterium szkoleniowe. Dzięki ciągłemu szkoleniu i aktualizacji wiedzy przez partnerów, możemy doradzać klientom końcowym, z którymi partnerami warto współpracować, by zapewnić najwyższą jakość wsparcia. Na poziomie Premier i Elite wymagamy dodatkowo spełnienia kilku innych elementów, takich jak opracowanie wspólnego długoterminowego biznesplanu, który stanowi punkt wyjścia do współpracy opartej na zdefiniowanych obszarach wzrostu.

    Najnowszy program EcoXpert w obszarze Secure Power przewiduje dwa poziomy certyfikacji i specjalizacje w zupełnie innych obszarach niż mySchneider IT, co sprawia, że oba programy się uzupełniają, a nie dublują. EcoXpert skupia się na czterech głównych specjalizacjach: infrastruktura krytyczna, klimatyzacja precyzyjna, zarządzanie infrastrukturą IT i ciągłość zasilania. To pokazuje, jak elastycznie odpowiadamy na rynkowe trendy i jesteśmy przygotowani na dodawanie nowych modułów technologii czy zastosowań w miarę ich pojawiania się na rynku.

    Chciałbym zaprosić wszystkich partnerów, którzy jeszcze nie współpracują z nami, do wypróbowania naszych usług, zwłaszcza w obszarze zasilania gwarantowanego. Ten segment może stanowić interesujący, nowy model biznesowy dla firm, które jeszcze nie działają w tej dziedzinie. Dajemy wiele wsparcia, aby ułatwić wejście w tę technologię i te rozwiązania razem z nami.

    To jest jedno z naszych zaproszeń, a drugie kieruję do klientów. Zachęcamy do sprawdzenia, jak współpracuje się z nami, gwarantując przy tym najwyższą jakość obsługi.

    Zachęcam do przekonania się o tym osobiście. Uważam, że ten temat jest szczególnie interesujący w dzisiejszych, złożonych czasach, gdzie ciągłość dostaw energii elektrycznej jest kwestią kluczową. Jest to istotne nie tylko dla bezpieczeństwa klientów końcowych, ale również dla ciągłości ich procesów biznesowych.

    Klaudia Ciesielska, Brandsit: Dziękuję za rozmowę.


    Materiał powstał w ramach współpracy z firmą Schneider Electric. Dowiedz się więcej o programie partnerskim – mySchneider IT

  • „Dane krytyczne dla naszego państwa powinny podlegać wyłącznie prawu unijnemu” – Piotr Mieczkowski, Fundacja Digital Poland

    „Dane krytyczne dla naszego państwa powinny podlegać wyłącznie prawu unijnemu” – Piotr Mieczkowski, Fundacja Digital Poland

    EUCS (EU Cybersecurity Certification Scheme for Cloud Services) to unijny system certyfikacji usług chmurowych, który ma na celu zwiększenie bezpieczeństwa danych i wspieranie cyfrowej suwerenności Europy. Kontrowersje budzi fakt, że pierwotne założenia systemu, takie jak obowiązek posiadania przez globalnych dostawców chmury oddziałów w UE i podleganie unijnym przepisom, zostały złagodzone, co niektóre uważą się za zbyt duże ustępstwo wobec amerykańskich gigantów technologicznych. Dlaczego EUCS budzi takie kontrowersje? O tym oraz o transparentności gigantów technologicznych, suwerenności w rozmowie z Piotrem Mieczkowskim, Dyrektorem Zarządzającym w Fundacji Digital Poland.

    Bartosz Martyka, Brandsit: Dlaczego Fundacja Digital Poland sprzeciwia się zapisom dotyczącym systemu certyfikacji usług chmurowych EUCS?

    Piotr Mieczkowski, Fundacja Digital Poland: Opracowanie zaleceń dla tego systemu zostało powierzone ENISA – europejskiej agencji zajmującej się kwestiami cyberbezpieczeństwa. Dodatkowo, cały proces wspierany jest przez komitet z udziałem krajów członkowskich. Głównym punktem spornym jest to, w jakim stopniu możemy korzystać z usług chmurowych dostawców spoza Europy, czyli z tzw. państw trzecich. Zastanawiamy się, czy powinniśmy przechowywać najbardziej wrażliwe dane, takie jak informacje z polskich rejestrów państwowych czy dane medyczne, u dostawców spoza Unii Europejskiej. Mam na myśli dostawców, którzy nie podlegają europejskiemu prawu, co może oznaczać, że inne służby, na przykład z Azji czy Stanów Zjednoczonych, mogłyby mieć dostęp do tych danych.

    To właśnie wywołało różnice zdań z naszymi sojusznikami, głównie Stanami Zjednoczonymi, gdzie swoją siedzibę mają tzw. hiperskalerzy, czyli duzi dostawcy usług chmurowych. Oni twierdzą, że każda usługa w administracji państwowej powinna mieć możliwość bycia outsourcowaną do chmury publicznej, niezależnie od tego, że do tych danych, na podstawie odpowiednich przepisów, mogą mieć dostęp służby amerykańskie, a także chińskie, gdyż niektórzy duzi dostawcy chmury pochodzą również z Chin.

    Nasz sprzeciw polega na tym, że uważamy, iż żadne państwo spoza Unii Europejskiej, niezależnie od tego, czy jest naszym sojusznikiem, nie powinno mieć dostępu do wrażliwych danych. Uważamy, że dane krytyczne dla naszego państwa powinny być przechowywane w Europie i podlegać wyłącznie prawu unijnemu.


    „Uważamy, że dane krytyczne dla naszego państwa powinny być przechowywane w Europie i podlegać wyłącznie prawu unijnemu.”


    Stąd też zrodziła się propozycja Francji, którą uważamy za rozsądną, a która zakłada, że jeśli dostawca z Chin czy Stanów Zjednoczonych chciałby świadczyć usługi w Europie lub w Polsce, musiałby założyć spółkę z lokalnym partnerem. Dzięki temu można by uniknąć podlegania prawu kraju pochodzenia dostawcy. Kluczowe jest tutaj, kto może mieć dostęp do naszych danych. Zależy nam na tym, aby żadne obce mocarstwo nie miało takiego dostępu. Obecne przepisy pozwalają firmom z Azji czy Ameryki Północnej na podleganie swoim krajowym służbom, co stwarza ryzyko. Dlatego dążymy do tego, aby nasze państwo i cała Unia Europejska były bezpieczne i suwerenne. Suwerenność osiągniemy wtedy, kiedy obce służby nie będą miały dostępu do naszych danych, niezależnie od zobowiązań sojuszniczych.

    Bartosz Martyka, Brandsit: Może lepszym rozwiązaniem byłoby budowanie własnej infrastruktury rządowej zamiast korzystania z chmury publicznej? Przecież nie wynajmujemy armii ani służby zdrowia.

    Piotr Mieczkowski, Fundacja Digital Poland: Ma Pan redaktor rację w tym sensie, że są kraje, które starają się budować własną infrastrukturę. Problem polega na tym, że o ile budowa serwerowni jest stosunkowo prosta, to w obliczu rozwoju sztucznej inteligencji i rosnącego zapotrzebowania na moc obliczeniową i energetyczną sprawa staje się bardziej skomplikowana. Serwery, a zwłaszcza karty GPU używane do zaawansowanych obliczeń, wymagają znacznie większej ilości energii. Oznacza to, że zarówno poziom przyłącza, jak i ilość energii potrzebnej do ich zasilania, są znacznie większe. Kraje takie jak Polska napotykają trudności w tworzeniu wydajnych usług chmurowych.


    „Są kraje, które starają się budować własną infrastrukturę… jednak budowa wszystkiego samodzielnie przez państwo jest po prostu kosztowna.”


    Jeśli mówimy tylko o pojemności, czyli przechowywaniu plików, to oczywiście można mieć własne serwerownie i stworzyć gradację usług, które ewentualnie można przenieść do chmury publicznej. To nazywamy chmurą hybrydową – część danych trzymamy lokalnie, a część na zewnątrz. Jednak kiedy mówimy o bardziej zaawansowanych usługach chmurowych, związanych z przetwarzaniem danych, sztuczną inteligencją, czy szerokim portfolio usług oferowanych przez największych hiperskalerów, takich jak budowanie API dla aplikacji, trudno to odtworzyć na własną rękę. Obecnie niektóre kraje, w tym Japonia, wymuszają na największych dostawcach, by kopiowali swoją infrastrukturę i umieszczali ją w danym kraju. Dlatego właśnie pojawiła się koncepcja certyfikacji oraz współpracy z lokalnymi spółkami, aby uniknąć podlegania zagranicznemu prawu.

    Uważam, że proste usługi możemy mieć u siebie w 100% – w tym zakresie zgadzam się z Panem. Większym wyzwaniem jest budowanie usług opartych na API, gdzie różne elementy są ze sobą połączone, na przykład dane pochodzą z jednego miejsca, obliczenia z drugiego itp. Im bardziej skomplikowane są te usługi, tym trudniej je realizować na poziomie administracji państwowej, zwłaszcza w Polsce.


    „Kluczowe jest tutaj, kto może mieć dostęp do naszych danych. Zależy nam na tym, aby żadne obce mocarstwo nie miało takiego dostępu.”


    Współpraca z sektorem prywatnym jest kluczowa. W Polsce, na przykład, MicrosoftGoogle Cloud są aktywnie zaangażowani we współpracę z rządem. Nawet kraje takie jak Francja, które starają się budować własną infrastrukturę, współpracują z sektorem prywatnym. Przyznam, że nawet w przypadku infrastruktury dla służb, którą uważam za konieczną do stworzenia w Polsce, warto to robić we współpracy z sektorem prywatnym. Powinniśmy rozważyć, jak włączyć polski sektor, a przynajmniej europejski, w budowę takich usług.

    Budowa wszystkiego samodzielnie przez państwo jest po prostu kosztowna, co jest jednym z problemów. Drugi problem to powielanie infrastruktury i brak kompetencji wśród kadr. To są dwa kluczowe czynniki, które należy brać pod uwagę. O ile w przypadku prostej serwerowni zgadzam się, że jest to możliwe, o tyle przy bardziej zaawansowanych usługach państwo polskie, podobnie jak inne państwa, nie dysponuje wystarczającą wiedzą ani zasobami.


    „Obecne przepisy pozwalają firmom z Azji czy Ameryki Północnej na podleganie swoim krajowym służbom, co stwarza ryzyko.”


    Bartosz Martyka, Brandsit: Dlaczego to tak ważne, żeby Big Techy musiały mieć siedzibę na terenie Unii Europejskiej? Rozumiem, że chodzi o kwestie prawne, ale o jakie dokładnie przepisy?

    Piotr Mieczkowski, Fundacja Digital Poland: Dokładnie tak, chodzi przede wszystkim o przepisy w Stanach Zjednoczonych, które pozwalają służbom, takim jak NSA, na uzyskiwanie dostępu do danych. Niedawno przedłużono akt prawny, który umożliwia amerykańskim służbom, a podobne przepisy obowiązują również w Chinach, zmuszanie dostawców usług, w tym chmurowych, do udostępniania danych nie należących do obywateli amerykańskich czy chińskich. Kluczowe jest to, że obywatele USA są chronieni przed inwigilacją przez pewne przepisy, natomiast my, jako obywatele Polski czy innych krajów, nie jesteśmy. W związku z tym Amerykanie mają swobodę w zakresie składania zapytań do największych firm technologicznych.

    Dla jasności: mówię tu o Big Techach, czyli hiperskalerach, takich jak Amazon (AWS), Microsoft, czy Google. Jednak zapytania mogą dotyczyć również innych platform, takich jak Meta (w tym WhatsApp), X (dawniej Twitter), czy infrastruktury sieciowej, jak Cisco. „Big Tech” to skrót myślowy, ponieważ służby korzystają z różnych metod. Przykład: niedawno mieliśmy przypadek zamachowca, który próbował zaatakować byłego prezydenta USA. Służby szybko uzyskały dostęp do jego telefonu, ponieważ mają do tego odpowiednie narzędzia. Google doskonale wie, co się dzieje w ich systemach. Mówimy tu o kwestiach bezpieczeństwa narodowego.

    Są jednak firmy, takie jak Signal, które deklarują, że wycofają się z danego kraju, zanim zainstalują tzw. backdoory. Signal oferuje tylko komunikator, natomiast duże korporacje, oferujące różnorodne usługi i sprzęt, współpracują z rządami, co jest faktem.

    Aby uniknąć sytuacji, w których sojusznicy mogą nas podsłuchiwać, uważam, że Europa musi dążyć do suwerenności. Powinniśmy mieć własną, bezpieczną komunikację, nawet jeśli dotyczy to naszych sojuszników. To jest pierwszy punkt. Drugi punkt to cyfrowa suwerenność. Oczywiście, nie można popadać w skrajności i wykluczać wszystkich, bo globalizacja opiera się na współpracy tam, gdzie jest to korzystne. Musimy jednak unikać sytuacji, w których zostajemy zmuszeni do działań, jak to miało miejsce z Iranem, kiedy Europa miała inne podejście do sankcji niż Stany Zjednoczone. Wtedy USA zablokowały możliwość przetwarzania płatności przez system SWIFT, co uniemożliwiło Europejczykom płacenie za surowce. Dlatego powstała idea budowy własnego systemu płatniczego.


    „Uważamy, że Europa musi dążyć do suwerenności.”


    Chodzi o to, by nie dopuścić do sytuacji, że nagle nowy prezydent USA czy przywódca innego regionu, jak Azja, ogłosi, że od jutra nie możemy korzystać z pewnych usług, bo rozpoczęła się wojna handlowa. Obecnie, w kontekście bezpieczeństwa narodowego, politycy często wykorzystują te argumenty do budowania barier, twierdząc, że wszystko, łącznie z samochodami, jest kwestią bezpieczeństwa narodowego. Nawet urządzenia domowe, jak roboty odkurzające czy telewizory z kamerami, mogą teoretycznie służyć do szpiegowania. Dlatego Europa powinna być przygotowana na niespodziewane sytuacje.

    Powinniśmy dążyć do suwerenności, a przynajmniej budować podwójną infrastrukturę, aby nie polegać wyłącznie na jednym czy dwóch dostawcach. Musimy mieć możliwość szybkiego zbudowania własnych zdolności, gdyby okazały się potrzebne, zamiast polegać wyłącznie na outsourcingu.

    Bartosz Martyka, Brandsit: Czy nie jest przypadkiem tak, że w Unii powstaje teraz frakcja, która, delikatnie mówiąc, zagraża prywatności, dążąc do zablokowania szyfrowania end-to-end.

    Piotr Mieczkowski, Fundacja Digital Poland: Tak, rozumiem, że mówi Pan o kwestiach związanych z ochroną przed pedofilią. Cyfryzacja sprawia, że gdy przenosimy pewne zagadnienia, takie jak ochrona przed pedofilią, do świata cyfrowego, pojawia się presja ze strony służb, by rozszyfrowywać komunikatory w imię bezpieczeństwa narodowego. Wystarczy, że jeden czy dwóch terrorystów coś zrobi, i nagle wszyscy są podejrzani, co prowadzi do prób podsłuchiwania każdego. To jest główny argument w kontekście komunikatorów i walki z terroryzmem.

    Drugi aspekt dotyczy ochrony przed pedofilią i zwalczania siatek pedofilskich. Narracja jest taka, że pedofile używają kryptowalut i innych systemów płatności, oraz przesyłają zdjęcia czy inne materiały poza tradycyjnymi kanałami komunikacji, jak e-maile. Stąd pomysł na rozkodowanie komunikacji end-to-end albo przeprowadzanie pewnych operacji na danych.

    Innym pomysłem jest przeniesienie części przetwarzania na tzw. edge, czyli na skraj sieci, na przykład na nasze smartfony. Obecnie nasze telefony potrafią rozpoznać, że robimy zdjęcie zachodu słońca czy innych scen. W przyszłości sztuczna inteligencja mogłaby rozpoznawać zdjęcia nagich dzieci i automatycznie zgłaszać to odpowiednim służbom, nawet bez naszej wiedzy. To oznaczałoby zgodę na przetwarzanie wszystkich naszych danych, co stanowi poważne zagrożenie dla prywatności.

    Piotr Mieczkowski

    To kwestia polityczna, na co zgadzają się społeczeństwa, ponieważ nawet Europa nie jest tu jednolita. Są kraje, takie jak Szwecja czy Norwegia, gdzie można łatwo uzyskać informacje o zarobkach, posiadanych samochodach, czy o właścicielach mieszkań. W Szwecji na klatkach schodowych widnieją nazwiska mieszkańców, a także informacja, kto jest właścicielem mieszkania, a kto najemcą. W Polsce jest odwrotnie – cenimy prywatność i takie informacje nie są publicznie dostępne.

    Z drugiej strony mamy Austrię i Niemcy, gdzie obawy o prywatność są większe, co wpływa na wolniejsze tempo cyfryzacji. Niemcy, na przykład, są ostrożniejsi w kwestiach cyfrowych, takich jak e-recepty, a liczba kamer w Warszawie budzi zdziwienie wśród niemieckich dziennikarzy, którzy obawiają się inwigilacji. Podobnie jest w USA, gdzie podejście do cyfryzacji różni się między stanami.

    W Europie mamy różne frakcje i podejścia do tych samych zagadnień. Kształtują się tu różne frakcje: jedni uważają, że wszystko powinno być dostępne publicznie, bo kto nie ma nic do ukrycia, ten nie jest przestępcą, a inni twierdzą, że to zagraża prywatności. To również pożywka dla skrajnej prawicy, która jest przeciwna cyfryzacji. Skrajna prawica często sprzeciwia się bezgotówkowym płatnościom, argumentując, że gotówka to dobro narodowe. Są przeciwni 5G, obawiając się śledzenia przez internet rzeczy.

    Te dyskusje nie są nowe, ale teraz przenoszą się na grunt cyfrowy, bo cyfryzacja dotyka każdej dziedziny życia: od liczników energii, przez internet, po płatności. Nic dziwnego, że istnieją różne podejścia. Pytanie tylko, która grupa wygra – obywatele wspierani przez polityków reprezentujących ich interesy, czy zwolennicy większej kontroli i nadzoru.


    „Cyfryzacja dotyka każdej dziedziny życia: od liczników energii, przez internet, po płatności.”


    Bartosz Martyka, Brandsit: Brakuje transparentności, jeśli chodzi o duże firmy technologiczne. Skandale związane z przetwarzaniem danych przez gigantów technologicznych nie budują zaufania do tych firm wśród ludzi. A biorąc pod uwagę, np. pieniądz elektroniczny, w ramach którego każda transakcja jest rejestrowana i który wciąż jest droższy, niż tradycyjna gotówka, trudno dziwić się temu, że sporo osób jednak skłania się ku teoriom spiskowym i tradycyjnej gotówce.

    Piotr Mieczkowski, Fundacja Digital Poland: Słyszałem tę argumentację, że skoro prowizje od transakcji są naliczane w mikroskali, to sklep nie odczuwa dużych kosztów. Jednak to nie do końca prawda. Miałem przyjemność współpracować z dostawcami płatności i z doświadczenia wiem, że koszty związane z gotówką również są znaczące. Kiedy w rodzinie prowadziliśmy sklepy, zauważyliśmy, że przy dużych utargach, zwłaszcza w większych sklepach, pieniądze muszą być transportowane konwojem, co generuje koszty.

    Mikroprzedsiębiorcy mogą nie być w pełni świadomi tych kosztów, ale im większe sklepy, zwłaszcza w galeriach handlowych, gdzie dzienne obroty wynoszą 50-100 tysięcy złotych i więcej, tym bardziej pojawia się problem z transportem gotówki, co wiąże się z dodatkowymi wydatkami. Innym problemem jest brak drobnych nominałów – sprzedawcy, w tym mikroprzedsiębiorcy, tracą czas, jeżdżąc do różnych miejsc, czasami nawet do Narodowego Banku Polskiego w Warszawie, żeby rozmienić bilon na resztę. To również generuje koszty, które na pierwszy rzut oka nie są widoczne, takie jak koszty paliwa, komunikacji miejskiej, a także czas poświęcony na te czynności. W biznesie każda godzina ma swoją wartość, co można łatwo policzyć, zwłaszcza gdy oferuje się zaawansowane usługi.

    Gotówka, choć jej koszty są mniej widoczne, również generuje wydatki. W krajach, gdzie dominuje bezgotówkowy obrót, jak w Szwecji, trwają dyskusje na temat zapewnienia dostępu do bankomatów i gotówki, szczególnie dla osób starszych, które nie potrafią korzystać z bankowości online. Dyskutuje się o kosztach utrzymania tej sieci i o tym, kto powinien za to płacić. W Polsce również pojawiają się głosy, że bankomaty stają się nierentowne, ponieważ coraz mniej osób wypłaca z nich pieniądze, co zwiększa koszty ich utrzymania. Jeśli za te koszty płacą banki, to w efekcie my wszyscy płacimy, choćby przez gorsze oprocentowanie lokat czy inne opłaty.

    Faktycznie, gotówka ma swoje koszty. Jedyne, co można przyznać, to fakt, że gotówkę trudniej śledzić. Jeśli ktoś ma 5-10 tysięcy złotych i chce je przekazać, to nikt nie wie o tej transakcji, jeśli pieniądze nie trafiają na konto bankowe. To zapewnia pewien poziom prywatności. Przykładem może być Kanada, gdzie podczas strajku kierowców ciężarówek rząd Trudeau, według doniesień, odciął protestujących od płatności.

    To jest argument, który często się pojawia: jeśli wszystko będzie cyfrowe, to w przyszłości ktoś u władzy może zdecydować o blokowaniu kont i płatności osób protestujących przeciwko rządowi. Jestem zwolennikiem, aby trzeci sektor, media i inni aktorzy procesu demokratycznego mieli wpływ na decyzje. Nie zgadzam się, by władza mogła podejmować dowolne decyzje bez konsultacji, co mogłoby prowadzić do nadużyć i większej kontroli nad obywatelami. W takiej sytuacji pojawiają się obawy, że politycy kontrolują wszystko, co budzi nieufność.

    To wiąże się również z innymi tematami, jak posiadanie broni czy gotówki, które kojarzone są z wolnością i brakiem kontroli rządu. Czasami są to słuszne obawy, które warto rozważyć, zamiast je lekceważyć, zwłaszcza gdy myślimy o grupach takich jak seniorzy. Nie da się wszystkich skłonić do płatności cyfrowych. Zawsze będzie jakaś mała grupa ludzi, którzy po prostu wolą korzystać z gotówki.


    „Zawsze będzie jakaś mała grupa ludzi, którzy po prostu wolą korzystać z gotówki.”


    Bartosz Martyka, Brandsit: Jak inne kraje podchodzą do kwestii suwerenności?

    Piotr Mieczkowski, Fundacja Digital Poland: W Europie widzimy pełne spektrum podejść do suwerenności. Najsilniejszym orędownikiem suwerenności jest Francja. Uważnie śledzę ten temat, czytając francuską prasę i branżowe publikacje, aby być na bieżąco. Następnie mamy kraje z bardziej neutralnym podejściem, jak te w Skandynawii. Niemcy, ze względu na swoją silną pozycję w globalizacji, opowiadają się za certyfikacją, niezależnie od pochodzenia dostawców.

    Wspomniane już Niemcy nie popierają wykluczania dostawców sieci 5G jedynie ze względu na kraj pochodzenia, jak miało to miejsce w przypadku chińskich firm. Niemcy preferują certyfikację i wykluczanie jedynie krytycznych elementów sieci, bardzo precyzyjnie i punktowo, na przykład w przypadku rdzenia sieci, podczas gdy anteny od azjatyckich dostawców mogą pozostać.

    Mniejsze kraje, takie jak Litwa, Łotwa, Estonia, Czechy czy Słowacja, nie mogą sobie pozwolić na budowanie wszystkich systemów samodzielnie, bo po prostu ich na to nie stać. W związku z tym częściej korzystają z globalnych rozwiązań i rzadziej opowiadają się za pełną suwerennością. Koncentrują się na strategicznych punktach, mając świadomość ograniczeń w zakresie własnych możliwości.

    Jeśli mówimy o potęgach takich jak Stany Zjednoczone czy Chiny, to te kraje dążą do pełnej suwerenności. Są to największe gospodarki, które mogą oferować superskalowalne rozwiązania technologiczne i jednocześnie budować własne ekosystemy. Co do Rosji, mam poważne wątpliwości w kwestii zaawansowanych technologii, ze względu na problemy z prawodawstwem, korupcją, wpływami oligarchów i sposób zarządzania.

    A zatem – Stany Zjednoczone i Chiny stawiają na pełną suwerenność. Przykładem może być sytuacja, gdy Amerykanie odcięli Rosję od systemów płatności, a Chiny natychmiast zareagowały, tworząc własną kartę płatniczą i system płatności. Im większy kraj, tym bardziej dąży do pełnej suwerenności.

    Bartosz Martyka, Brandsit: Czy istnieje jeszcze możliwość kompromisu?

    Piotr Mieczkowski, Fundacja Digital Poland: Moim zdaniem, tak. Osobiście jestem zwolennikiem budowania standardów i certyfikacji. Nie popieram wykluczania kogokolwiek z rynku ani twierdzenia, że możemy wszystko zbudować sami. Mam szerokie doświadczenie – pracowałem w administracji, dla organizacji pozarządowych, fundacji i w biznesie, więc znam różne argumenty za i przeciw. Zdaję sobie sprawę, że w pewnych obszarach nigdy nie zbudujemy wszystkiego samodzielnie. Trudno sobie wyobrazić, żeby Polska czy mniejsze kraje, takie jak Czechy, stały się największymi producentami kart GPU, takich jak te oferowane przez Nvidię.
    Powinniśmy raczej szukać nisz, takich jak mikroelektronika, budowa dronów czy produkcja mniejszych układów scalonych, niekoniecznie tych najmniejszych, 2-3 nanometrowych, ale np. 9-12 nanometrowych. Standaryzacja i certyfikacja to sposób na zmniejszenie barier. Przypomnę, że to dzięki decyzjom podjętym po II wojnie światowej o stawianiu na certyfikację i standardy osiągnęliśmy taki poziom dobrobytu. Gdyby każdy kraj budował własny system nadawania telewizji, nie moglibyśmy korzystać z urządzeń w różnych krajach. Standardy powstały po to, by tworzyć skalę, obniżać koszty produkcji i zwiększać dostępność produktów.


    „Standaryzacja i certyfikacja to sposób na zmniejszenie barier.”


    Koszt produkcji dla miliona osób jest inny niż dla 100 milionów, a jeszcze inny dla miliarda. Wykluczanie podmiotów, brak standaryzacji, tworzenie sztucznych barier – to wszystko prowadzi do wyższych kosztów produkcji. Może to skutkować większą inflacją, mniejszą dostępnością produktów i rosnącą agresją. Jednak nie sądzę, aby groziła nam trzecia wojna światowa, mimo różnych katastroficznych prognoz. Wojny nie leżą w interesie większości; są wynikiem desperacji dyktatorów lub szaleńców.

    Ale nawet w kontekście największego konfliktu geopolitycznego, jakim jest rywalizacja USA z Chinami, żadne z tych państw nie posunie się do użycia broni nuklearnej. Amerykanie ograniczają dostęp do najnowszych technologii, takich jak najnowocześniejsze chipy, ale pozwalają na dostęp do starszych, 9-12 nanometrowych, które są używane np. w samochodach. Nadal mamy globalne powiązania i współpracę w ramach różnych organizacji standaryzacyjnych, od ITU po instytucje europejskie.

    Według mnie dialog trwa. W jakim kierunku to pójdzie, zobaczymy, zwłaszcza po wyborach w Stanach Zjednoczonych pod koniec tego roku.

    Bartosz Martyka, Brandsit: Jakie jest podejście naszego Ministerstwa Cyfryzacji i ogólnie rządu? Czy starają się chronić naszą suwerenność?

    Piotr Mieczkowski, Fundacja Digital Poland: Sytuacja w Polsce przypomina trochę to, co dzieje się w Niemczech z ich „koalicją semaforową” – żółty, czerwony, zielony. U nas jest podobnie, chociaż nasza koalicja składa się nie z trzech, ale z około 19 partii, jeśli liczyć wszystkie frakcje. W każdym resorcie mamy przedstawicieli głównych koalicjantów, co dodatkowo komplikuje sytuację.

    W Ministerstwie Cyfryzacji na przykład mamy wiceministra Michała Gramatykę z Polski 2050 oraz wiceministra Pawła Olszewskiego z Koalicji Obywatelskiej. Każdy resort ma swoich przedstawicieli z różnych partii koalicyjnych, co prowadzi do różnorodności podejść. Jeśli jednak spojrzeć na konkretne akty prawne, podejście do suwerenności bywa różne. W niektórych obszarach stawiamy na suwerenność, wspierając open source i lokalny przemysł, ale w innych dopuszczamy korzystanie z rozwiązań globalnych.

    Na przykład nie słyszałem, żeby obecny rząd, niezależnie od resortu, planował zakaz korzystania z chmury dostarczanej przez największych dostawców spoza Europy. Nie było takich oficjalnych zapowiedzi. Jestem ciekaw, co stanie się z Operatorem Chmury Krajowej. Słyszałem różne wersje, ale myślę, że decyzje jeszcze nie zapadły. Nadal poszukiwany jest kompromis między standaryzacją a korzystaniem z globalnych rozwiązań.

    Bartosz Martyka, Brandsit: Bardzo dziękuję za rozmowę.


    Piotr Mieczkowski – Kieruje pracami fundacji Digital Poland, której misją jest uczynienie z Polski centrum innowacji. Jest członkiem zarządu European AI Forum – największej organizacji europejskich spółek AI (ponad 2000 podmiotów) z siedzibą w Belgii oraz wspiera tworzenie polityk cyfrowych i strategii przy Ministerstwie Cyfryzacji.
    Posiada blisko 20-letnie doświadczenie zdobyte w sektorze TMT, obejmujące transformację cyfrową, modelowanie procesów biznesowych, tworzenie programów wspierających innowacyjność, wdrażanie strategii biznesowych, analizę rynków i usług, a także opracowywanie polityk publicznych w sektorze nowych technologii. Pracował m.in. dla Cyfrowego Polsatu, EY, NCBiR, Polkomtel, Orange Polska, Shell Polska.

  • Problemy Intela: co dalej z budową fabryk w Miękni i Magdeburgu?

    Problemy Intela: co dalej z budową fabryk w Miękni i Magdeburgu?

    Intel stoi przed trudnym wyzwaniem, próbując utrzymać swoją pozycję w obliczu narastającej konkurencji i zmieniających się realiów rynkowych. Spadek wartości rynkowej, niskie wyniki finansowe i silna konkurencja ze strony firm takich jak Nvidia w obszarze sztucznej inteligencji zmuszają firmę do podejmowania drastycznych kroków. Plany budowy nowych fabryk, w tym w Miękni koło Wrocławia oraz w Magdeburgu w Niemczech, stoją pod znakiem zapytania.

    Drastyczne środki zaradcze

    Dyrektor generalny Intela, Pat Gelsinger, zapowiedział zdecydowane kroki w celu poprawy sytuacji finansowej firmy. W odpowiedzi na rosnące wyzwania, Intel planuje sprzedaż nierentownych jednostek biznesowych oraz znaczne cięcia wydatków. Wśród omawianych opcji znajduje się sprzedaż działu chipów programowalnych Altera. Zgodnie z raportem Reutersa, ten krok ma na celu zmniejszenie obciążeń finansowych, które obecnie utrudniają firmie inwestowanie w rozwój kluczowych obszarów.

    Przyszłość inwestycji w Europie

    Szczególnym wyzwaniem dla Intela jest realizacja planów związanych z nowymi fabrykami w Europie. Rodzi to pytania o fabrykę w Miękini pod Wrocławiem, dla której pozwolenie na budowę już zostało udzielone. Jednak niepewność co do dalszych kroków Intela budzi wątpliwości, czy ta inwestycja o wartości 4,6 mld dolarów, dojdzie do skutku. Podobnie niepewna jest sytuacja fabryki w Magdeburgu, której budowa również może zostać wstrzymana z powodu problemów finansowych firmy.

    Doradztwo inwestycyjne

    Intel współpracuje z bankami inwestycyjnymi Morgan Stanley i Goldman Sachs, aby dokładnie przeanalizować, które jednostki biznesowe powinny zostać sprzedane, a które zachowane jako strategicznie ważne. Te decyzje mają kluczowe znaczenie dla przyszłości Intela i jego zdolności do konkurowania na globalnym rynku.

    Restrukturyzacja i redukcja zatrudnienia

    W obliczu spadających przychodów i gwałtownego spadku wartości akcji, Intel ogłosił plan restrukturyzacji, który obejmuje zwolnienie około 15% pracowników. Wstrzymano również wypłaty dywidend, co pokazuje, jak poważna jest sytuacja finansowa firmy. W drugim kwartale bieżącego roku Intel zanotował stratę netto w wysokości 1,61 miliarda dolarów, co kontrastuje z zyskiem netto wynoszącym 1,48 miliarda dolarów rok wcześniej.

    Zmiany na horyzoncie

    Intel, kiedyś lider rynku układów scalonych, teraz musi mierzyć się z wyzwaniami wynikającymi z konkurencji i zmieniających się trendów rynkowych. Plany związane z budową nowych fabryk w Miękni i Magdeburgu mogą zostać zmodyfikowane lub całkowicie anulowane, jeśli Intel nie znajdzie sposobu na poprawę swojej sytuacji finansowej. Firma musi nie tylko skoncentrować się na optymalizacji swojego portfela produktowego, ale także na utrzymaniu konkurencyjności w obszarze nowoczesnych technologii, takich jak sztuczna inteligencja.

    Najbliższe tygodnie będą kluczowe dla przyszłości Intela. Decyzje podjęte przez zarząd mogą zadecydować o losie nie tylko planowanych fabryk, ale także całej strategii firmy na najbliższe lata. Intel musi teraz znaleźć sposób na odbudowę zaufania inwestorów i odzyskanie pozycji na rynku, aby przetrwać w erze dynamicznych zmian technologicznych. Jakiekolwiek decyzje zostaną podjęte, jedno jest pewne: Intel stoi przed wyzwaniem, które może zdefiniować przyszłość tej ikonicznej firmy na rynku półprzewodników.

  • Chiny nie chcą zostać w tyle w wyścigu AI. GPU zamiast CPU to pierwszy krok

    Chiny nie chcą zostać w tyle w wyścigu AI. GPU zamiast CPU to pierwszy krok

    Jak pisałam w poprzednim artykule, wzrost zapotrzebowania na GPU w Chinach, przy jednoczesnej stagnacji popytu na tradycyjne procesory, wskazuje na istotną transformację w sposobie, w jaki chińskie firmy postrzegają przyszłość technologii obliczeniowych. Przechodzenie od CPU do GPU w kontekście usług chmurowych jest nie tylko wyrazem dostosowywania się do globalnych trendów w zakresie sztucznej inteligencji, ale również próbą uniezależnienia się od zachodnich dostawców technologii.

    To, co jednak budzi największe zainteresowanie, to różnice w skali tej transformacji między Chinami a Stanami Zjednoczonymi. Skromniejsze budżety chińskich firm w porównaniu z ich amerykańskimi odpowiednikami mogą sugerować, że Chiny będą miały trudności w szybkim dogonieniu Zachodu w dziedzinie AI. Jednak chińska pragmatyczność i zdolność do adaptacji są dobrze znane. Zamiast próbować konkurować bezpośrednio na każdym polu, chińskie firmy mogą skoncentrować się na bardziej niszowych zastosowaniach, które będą dostosowane do lokalnych potrzeb i ograniczeń.

    Niewątpliwie jednym z kluczowych wyzwań dla Chin jest dostępność nowoczesnych technologii chipowych. Amerykańskie ograniczenia handlowe mogą hamować rozwój sektora AI w krótkim okresie, ale jednocześnie zmuszają chińskie firmy do intensyfikacji prac nad rodzimymi rozwiązaniami. Historia pokazuje, że ograniczenia zewnętrzne często stymulują innowacyjność i samowystarczalność. Chiński przemysł technologiczny, w tym sektor chipów, może w przyszłości zyskać na tej przymusowej autonomii, rozwijając technologie, które będą nie tylko konkurencyjne, ale również dostosowane do specyficznych potrzeb chińskiego rynku.

    Nie można jednak zapominać, że globalna przewaga w dziedzinie AI i technologii obliczeniowych nie zależy wyłącznie od zasobów finansowych. Kreatywność, innowacyjność i zdolność do szybkiego wdrażania nowych rozwiązań są równie ważne. Chińskie firmy, takie jak Alibaba i Tencent, mają ogromny potencjał, by wyznaczać nowe kierunki rozwoju AI, zwłaszcza gdy będą w stanie połączyć swoje zasoby z unikalnym podejściem do problemów, które napotykają.

    Chociaż chińskie firmy technologiczne działają w trudniejszych warunkach niż ich amerykańskie odpowiedniki, nie należy ich lekceważyć. W dłuższej perspektywie mogą one stać się liderami innowacji, tworząc technologie, które zdefiniują przyszłość AI na skalę globalną. Warto zatem śledzić rozwój tego sektora z uwagą, bo może on przynieść niespodziewane i rewolucyjne zmiany na światowym rynku technologicznym.

  • Strach miał wielkie oczy. Księgowi przekonują się do AI

    Strach miał wielkie oczy. Księgowi przekonują się do AI

    Mam wrażenie, że opadł już kurz po burzy, jaką wywołało pojawienie się ChatGPT. I okazuje się, że była to burza w szklance wody. Blady strach, który padł na wiele branż, także księgową, ustąpił. Widmo utraty pracy rozmyło się. Co pozostało? Przekonanie, że sztuczna inteligencja może nam pomóc, a nie nas zastąpić.

    Zapewne pamiętacie pełne grozy nagłówki, które straszyły tym, że AI zabierze nam pracę. Tak było jeszcze rok temu. Dziś sytuacja wygląda zgoła inaczej. Owszem, sztuczna inteligencja zajmuje wiele miejsca w medialnych doniesieniach, ale wydźwięk tych materiałów jest zupełnie inny. Dziennikarze coraz częściej pochylają się nad ograniczeniami AI oraz nad obszarami, w których możemy tę technologię skutecznie wykorzystać.

    Ta zmiana narracji wynika z lepszego zrozumienia, czym jest sztuczna inteligencja i jakie ma możliwości. W naszym postrzeganiu AI w końcu jest więcej racjonalności niż emocji. A dzięki temu jesteśmy w stanie obiektywnie ocenić szanse i zagrożenia.

    Księgowi są optymistami

    Podczas webinaru na temat sztucznej inteligencji w księgowości, który zorganizowaliśmy w SaldeoSMART, przeprowadziliśmy wśród księgowych ankietę. Zapytaliśmy ich o to, czy uważają sztuczną inteligencję za zagrożenie, czy szansę? 57% uczestników badania przyznało, że dostrzega w AI potencjał do poprawy efektywności i jakości pracy. Tylko 5 proc. odpowiedzi wskazywało na to, że księgowi obawiają się wprowadzenia AI do swojej branży.

    5%

    księgowych obawia się wprowadzenia AI do swojej branży

    Chcieliśmy też zbadać poziom zaufania do tej technologii. Okazuje się, że jest on dość wysoki. Księgowi są gotowi na wprowadzenie sztucznej inteligencji do swojej pracy, ale nie chcą oddać pełnej kontroli nad newralgicznymi procesami. 53% księgowych ma potrzebę kontrolowania wybranych procesów wykonanych przez AI, 14% chciałoby sprawdzać każdy proces, a tylko 2% jest gotowych oddać AI pełną kontrolę nad procesami.

    Co to oznacza? Przede wszystkim to, że księgowi widzą potencjał sztucznej inteligencji. Co więcej, mają świadomość, że w ciągłym niedoczasie, w świecie ciągłych zmian przepisów, w obliczu braków kadrowych pomoc tego narzędzia staje się nieodzowna. Z drugiej strony – przedstawiciele branży są racjonalni. Wiedzą, że o ile można oddać AI wiele zadań powtarzających się, prostych, żmudnych, o tyle w bardziej skomplikowanych warto kontrolować to, co robi. Bo sztuczna inteligencja ma swoje ograniczenia.

    Ufaj, ale kontroluj. AI konfabuluje

    Sztuczna inteligencja nie jest alfą i omegą. To wciąż tylko i wyłącznie algorytm, który bazuje na danych, jakie do niego wprowadzamy. Tak, jest w stanie niezwykle szybko przeanalizować ogromną ilość danych – ilość niedostępną dla człowieka. AI analizuje, widzi anomalie, błędy, łączy fakty, podpowiada kolejne kroki w oparciu o kroki podejmowane przez użytkownika w przeszłości. Ale nadal wciąż jest tak mądra, jak mądry jest człowiek, który dostarcza jej dane.

    Co więcej – na razie komputery nie są w stanie odwzorować ludzkich zachowań opartych na emocjach, intuicji i analizie kontekstowej. Są na to za słabe. To dlatego producenci z branży automotive wycofują się dziś z samochodów autonomicznych. Sztuczna inteligencja nie zastąpi nas tam, gdzie wymagane są relacje, odczytywanie emocji, empatia, zrozumienie. I odpowiedzialność. Ostatecznie to człowiek ponosi konsekwencje działań, także tych wspartych AI.

    A AI potrafi konfabulować. Mówi się o tym, że sztuczna inteligencja halucynuje, czyli łata luki w swojej wiedzy, dodając najbardziej prawdopodobne odpowiedzi. AI jest tak stworzona, by dawać odpowiedzi, zatem jeśli w jej bazie nie ma danych, z których może skorzystać, buduje odpowiedź prawdopodobną, ale niekoniecznie prawdziwą. Naukowcy pracują dziś nad tym problemem, na razie jednak po prostu musimy mieć ograniczone zaufanie do informacji, które podaje nam sztuczna inteligencja.

    Korzystać czy nie korzystać?

    Wydaje mi się, że coraz mniej osób zadaje sobie takie pytanie. Dziś już wiemy, że AI to pożyteczne narzędzie. Kolejne, które usprawni pracę księgowych. Jak każde nowe narzędzie – na początku budziło wątpliwości. Kiedy w latach 30 XX wieku wchodziły maszyny liczące, a później pierwsze programy księgowe – mówiło się, że to oznacza koniec pracy dla księgowych. Nic takiego nie nastąpiło.

    AI

    to tylko narzędzie.

    Więcej – kiedy wchodziliśmy do chmury, również firmy miały wiele wątpliwości. Co to jest ta chmura, czy jest bezpieczna, jak się do niej przenieść, jak oddać swoje dane? Dziś każdy z nas korzysta z usług chmurowych, nawet się nie zastanawiając, czy to ma sens. Przez ten sam proces przechodzimy w kontekście sztucznej inteligencji.

    Tym bardziej że korzystamy z niej od dawna. Choćby w SaldeoSMART. Już jakiś czas temu wprowadziliśmy do naszego rozwiązania wspierającego pracę księgowych i biur rachunkowych sztuczną inteligencję. Wszystko po to, by ułatwiać pracę księgowych i automatyzować rutynowe działania. I pozwalać ekspertom skupiać się na bardziej złożonych i strategicznych aspektach pracy.

    Jak efektywnie współpracować z AI?

    Skoro już jesteśmy w erze AI – jak najlepiej wykorzystać jej możliwości? Przede wszystkim warto monitorować to, co dzieje się na rynku. Uważam, że w każdym dziale księgowym czy biurze rachunkowym powinna być osoba, która raz na jakiś czas w ramach etatu zrobi przegląd nowych narzędzi na rynku i trendów związanych z AI. Świat sztucznej inteligencji bardzo szybko ewoluuje, warto więc monitorować rynek, by być na bieżąco.

    Po drugie – każdy księgowy powinien po prostu korzystać z AI na co dzień. Choćby po to, aby sprawdzać, jak działa, aby uczyć się, jak zadawać jej odpowiednie pytania. Nie brakuje bezpłatnych narzędzi, które pozwalają poznać możliwości AI. Jest wspomniany już przeze mnie na wstępie ChatGPT, jest Gemini, jest Copilot. Warto z nimi pracować.

    Po trzecie – trzeba się ciągle uczyć. Wiele rozwiązań dla księgowych korzysta już ze sztucznej inteligencji. Wiele księgowych używa tych narzędzi w swojej pracy. Dobrze jest dzielić się doświadczeniami na forach, grupach w social mediach. Rozmawiać o tym, jak inni wykorzystują potencjał tej technologii. Warto brać udział w webinarach, słuchać ekspertów i zadawać pytania. Warto czytać ebooki i inne materiały wyjaśniające, jak AI pomaga w pracy księgowych. Wiele takich materiałów znajdziecie na stronie i blogu SaldeoSMART.

    I w końcu – trzeba weryfikować. Sztuczna inteligencja to tylko narzędzie. Ale to księgowi są ekspertami w branży i to oni odpowiadają za efekt swoich działań. Zatem – traktujmy AI jako pomoc, ale sprawdzajmy efekty jej pracy. Niekoniecznie każde zadanie, bo w prostych rzeczach AI jest niezastąpiona. Niemniej – weryfikacja faktów jest konieczna.

    Cieszę się, że oswajamy się ze sztuczną inteligencją. Dzięki połączeniu jej możliwości z naszą ekspertyzą możemy pracować szybciej i bardziej efektywnie. I tym samym zyskiwać więcej czasu na inne zadania oraz na odpoczynek. A zwłaszcza o ten ostatni warto dbać, nie tylko w wakacje.


    Dowiedz się więcej o SaldeoSMART