Tag: Analityka

  • DataWalk cementuje pozycję w departamencie sprawiedliwości USA

    DataWalk cementuje pozycję w departamencie sprawiedliwości USA

    W świecie technologii nadzorczych i analitycznych, gdzie walka o kontrakty rządowe bywa równie brutalna co same dochodzenia, polski DataWalk udowadnia, że potrafi utrzymać się przy stole z największymi graczami. Przedłużenie współpracy z Departamentem Sprawiedliwości Stanów Zjednoczonych (DoJ) to nie tylko kolejny komunikat giełdowy, ale sygnał, że bezkodowa analiza grafów staje się standardem w najbardziej prestiżowych śledztwach federalnych.

    W ramach wieloletniego kontraktu przyznanego Research Innovations Incorporated (RII), platforma DataWalk pozostanie sercem systemu SIFT (Search and Investigative Flexible Toolkit). To właśnie to środowisko wspiera program MNF, odpowiedzialny za zwalczanie prania brudnych pieniędzy, handlu narkotykami oraz konfiskatę mienia. Dla inwestorów i obserwatorów sektora GovTech kluczowy jest fakt, że nie mamy do czynienia z nowym, niepewnym wdrożeniem, lecz z kontynuacją relacji zapoczątkowanej w 2019 roku.

    Siła DataWalk tkwi w eliminowaniu wąskich gardeł, które od lat paraliżują agencje wywiadowcze: silosów danych. Tradycyjne metody śledcze często wymagają miesięcy pracy analityków przy ręcznym łączeniu informacji z różnych jurysdykcji. Rozwiązanie DataWalk pozwala na integrację miliardów obiektów z rozproszonych źródeł, oferując wyniki w czasie liczonym w minutach. Jak zauważa prezes Paweł Wieczyński, technologia ta została zaprojektowana tak, by przekształcać fragmentaryczne dane w czytelne dla decydentów raporty, co w strukturach federalnych USA jest wartością nie do przecenienia.

    Z biznesowego punktu widzenia, umowa ta osadzona jest w szerszym kontekście ramowym (Blanket Purchase Agreement) o wartości 500 milionów dolarów na technologie śledcze. Dla spółki notowanej na GPW, regularna obecność w ekosystemie DoJ to certyfikat wiarygodności, który otwiera drzwi do kolejnych agencji bezpieczeństwa narodowego w Europie i USA. W dobie rosnącej złożoności przestępstw finansowych, zdolność do szybkiego „łączenia kropek” bez konieczności angażowania armii programistów staje się przewagą konkurencyjną, która pozwala DataWalk rzucać wyzwanie gigantom takim jak Palantir.

    Wrocławska spółka, przechodząc drogę od NewConnect do głównego parkietu GPW, skutecznie monetyzuje unikalną technologię w sektorze, w którym bariery wejścia są ekstremalnie wysokie, a wymagania dotyczące bezpieczeństwa – najwyższe z możliwych.

  • Czy branża IT się starzeje? Struktura wiekowa specjalistów ICT w Polsce i UE

    Czy branża IT się starzeje? Struktura wiekowa specjalistów ICT w Polsce i UE

    W narracji biznesowej branża technologiczna jest synonimem młodości, dynamizmu i nieustannego napływu nowych talentów. Powszechne przekonanie o sektorze IT jako domenie ludzi przed trzydziestką jest tak silne, że pytanie o jego starzenie się brzmi niemal jak herezja. Jednak najnowsze dane Eurostat rzucają na ten obraz zupełnie nowe światło, ujawniając fundamentalny paradoks, który ma bezpośrednie implikacje dla polskich przedsiębiorstw, zwłaszcza z sektora MŚP.

    Analiza danych z ostatniej dekady (2014-2024) przynosi zaskakujący wniosek: europejski sektor IT jako całość wcale się nie starzeje. Wręcz przeciwnie, wykazuje niezwykłą stabilność demograficzną. W 2024 roku udział specjalistów ICT (technologii informacyjno-komunikacyjnych) w wieku 35 lat i więcej w całej Unii Europejskiej wynosił 62,8%. Dekadę wcześniej wskaźnik ten był minimalnie wyższy i wynosił 62,9%. Ta niemal zerowa zmiana (-0,1 punktu procentowego) nie jest jednak oznaką stagnacji, lecz dynamicznej równowagi.   

    Ta stabilność jest wynikiem ścierania się dwóch potężnych sił. Z jednej strony, branża ICT rośnie w tempie nieporównywalnym z resztą gospodarki. W latach 2014-2024 liczba zatrudnionych specjalistów ICT w UE wzrosła aż o 62,2%, podczas gdy całkowite zatrudnienie w UE wzrosło zaledwie o 10,6%. Tak masowy wzrost generuje stały popyt na nowe kadry, zaspokajany głównie przez absolwentów, co naturalnie odmładza sektor. Z drugiej strony, potężna baza specjalistów zatrudnionych dekadę lub dwie temu naturalnie dojrzewa, przechodząc do starszych grup wiekowych. Na poziomie całej UE te dwa trendy niemal idealnie się równoważą. Sektor IT w Europie jest więc rynkiem dojrzałym – gdzie prawie dwie trzecie pracowników ma ponad 35 lat – ale dzięki ekspansji, jako całość, nie starzeje się.   

    Jednak ta ogólnoeuropejska równowaga maskuje „kontrastujące trendy krajowe”, a Polska jest jednym z najbardziej jaskrawych przykładów tej rozbieżności. Podczas gdy w UE udział specjalistów ICT w wieku 35+ zmalał, w Polsce w tym samym okresie wzrósł aż o 10,4 punktu procentowego. Plasuje to Polskę w ścisłej czołówce państw o najszybciej dojrzewających kadrach technologicznych, obok Słowacji (+18,6 p.p.) czy Rumunii (+13,4 p.p.).   

    Nie oznacza to, że polski sektor jest „stary”, ale że dojrzewa w błyskawicznym tempie. Przyczyn tego zjawiska należy upatrywać w kilku czynnikach. Po pierwsze, to efekt dojrzewania rynku. Pokolenia, które masowo zasilały branżę podczas boomu rekrutacyjnego lat 2000. i 2010., teraz gremialnie przekraczają próg 35. i 45. roku życia. Po drugie, trend ten wzmacnia ogólna, niekorzystna sytuacja demograficzna w kraju. Polska jest społeczeństwem starzejącym się w szybkim tempie , co przekłada się na kurczącą się pulę młodych talentów na całym rynku pracy. Wreszcie, sam rynek zaczął faworyzować doświadczenie – obserwowane spowolnienie rekrutacji juniorów idzie w parze z rosnącym popytem na ekspertów, m.in. w kontekście rozwoju AI.   

    W rezultacie polski sektor IT traci swój dawny atut „młodości”. Struktura wiekowa branży, wizualizowana w formie piramidy, pokazałaby wyraźną „wypukłość” w kohortach 25-34 i 35-44 lata, co kontrastuje ze znacznie starszą i bardziej płaską strukturą ogółu zatrudnionych w polskiej gospodarce.

    Dla polskich firm z sektora MŚP ten gwałtowny zwrot demograficzny tworzy fundamentalny konflikt: zderzenie kulturowych stereotypów z rynkową rzeczywistością. Kultura organizacyjna wielu firm technologicznych, zarówno globalnie, jak i w Polsce, jest przesiąknięta ageizmem, czyli dyskryminacją ze względu na wiek. Stereotypy postrzegające starszych pracowników jako „mniej adaptacyjnych” czy „niechętnych do nauki”  są wciąż powszechne. Polskie badania wskazują na rażące dysproporcje: kandydaci w wieku 28 lat otrzymują dwukrotnie więcej zaproszeń na rozmowy niż osoby po 50. roku życia, przy identycznych kwalifikacjach.   

    W sytuacji, gdy demografia wymusza zależność od starszych kadr, ten kulturowy ageizm staje się strategicznym błędem. Firmy, które w komunikacji rekrutacyjnej wciąż posługują się frazesami o „młodym, dynamicznym zespole” , aktywnie odstraszają największą i najbardziej doświadczoną pulę talentów na rynku. W erze, gdy ponad połowa przedsiębiorstw w UE zgłasza trudności z obsadzeniem wakatów ICT , jest to bariera biznesowa, która podnosi koszty rekrutacji i zwiększa rotację.   

    Adaptacja do tej nowej rzeczywistości wymaga od MŚP natychmiastowej rewizji strategii. Konkurowanie o rosnącą grupę doświadczonych ekspertów  nie może opierać się wyłącznie na wynagrodzeniu. Konieczne staje się wdrożenie świadomych strategii Zarządzania Wiekiem (Age Management). Oznacza to skupienie się na obszarach krytycznych dla dojrzałej kadry. Po pierwsze, na strategicznym transferze wiedzy. Doświadczeni specjaliści (50+) to często „pierwsze pokolenie” polskiego IT, posiadające bezcenną wiedzę o kluczowych systemach. Ich odejście bez planu sukcesji, np. poprzez mentoring czy warsztaty, oznacza bezpowrotną utratę krytycznego „know-how”. Po drugie, MŚP mogą zyskać przewagę, oferując wartości cenione przez seniorów: stabilność zatrudnienia , realną elastyczność i dbałość o równowagę między życiem prywatnym a zawodowym.   

    Równie istotna staje się redefinicja rozwoju i upskilling. Inwestowanie w rozwój seniora wygląda inaczej niż w przypadku juniora. Nie chodzi już tylko o naukę nowego frameworka, ale o rozwój kompetencji, które multiplikują wartość ich doświadczenia. Firmy muszą tworzyć formalne ścieżki rozwoju technicznego (np. Staff/Principal Engineer), pozwalające na awans i wzrost płacy bez konieczności przechodzenia na ścieżkę menedżerską. To rozwój w kierunku przywództwa technicznego , architektury systemów  i brania pełnej odpowiedzialności za dany obszar produktu.   

    Wreszcie, ta wewnętrzna strategia musi znaleźć odzwierciedlenie w komunikacji zewnętrznej firmy, czyli w jej Employer Brandingu. Nadszedł czas na audyt języka rekrutacyjnego i wyeliminowanie z niego ageistowskich sformułowań. Zamiast tego, komunikacja powinna świadomie pokazywać i celebrować doświadczonych pracowników jako mentorów i liderów innowacji.   

    Pytanie „czy branża IT się starzeje?” ma złożoną odpowiedź: w skali Europy – nie, w Polsce – tak, i to gwałtownie. Polski sektor IT przestał być „młodą branżą”, a stał się rynkiem dojrzałym. Konkurencyjność MŚP w nadchodzącej dekadzie nie będzie zależeć od zdolności do przyciągania najmłodszych, lecz od umiejętności strategicznego zatrzymania, efektywnego rozwoju i pełnego wykorzystania potencjału rosnącej rzeszy specjalistów po 35. roku życia. Największą przewagę konkurencyjną zdobędą te firmy, które jako pierwsze porzucą stereotypy i dostosują swoją kulturę do demograficznej rzeczywistości.

  • Silniki inteligencji danych – jak Data Fabric, Hiperautomatyzacja i MLOps przekształcają teorię w praktykę

    Silniki inteligencji danych – jak Data Fabric, Hiperautomatyzacja i MLOps przekształcają teorię w praktykę

    Przez lata inteligencja danych pozostawała ambitną koncepcją, hamowaną przez chaos w danych i trudności z wdrożeniem analityki na skalę produkcyjną. Dziś, dzięki synergii trzech technologicznych filarów, budowa prawdziwie inteligentnych systemów staje się inżynierską rzeczywistością. Analizujemy architekturę tej zmiany, która pozwala wreszcie przekuć dane w zautomatyzowane, wartościowe działania.

    Od koncepcji do architektury

    Ewolucja od Business Intelligence – analizy danych historycznych w celu zrozumienia przeszłości – do Inteligencji Danych, czyli wykorzystania danych do automatyzacji decyzji w czasie rzeczywistym, była obietnicą od dawna. Jednak jej realizację blokowały dwie fundamentalne bariery. Pierwszą był wszechobecny chaos: dane uwięzione w silosach, rozproszone w niezintegrowanych systemach, niespójne i trudne do pozyskania w odpowiednim czasie. Drugą, równie istotną, była luka produkcyjna, czyli przepaść między modelem analitycznym działającym w odizolowanym środowisku a niezawodnym, skalowalnym systemem zintegrowanym z procesami biznesowymi.

    Dziś te bariery zaczynają kruszeć. Trzy współczesne podejścia technologiczne – Data Fabric, Hiperautomatyzacja i MLOps – nie są oddzielnymi trendami, lecz komplementarnymi elementami jednej, spójnej architektury, która systemowo adresuje powyższe problemy.

    Filar I: Data Fabric – system nerwowy dla danych

    Podstawowym wyzwaniem w każdej organizacji data-driven jest dostęp do danych. Tradycyjne podejścia oparte na budowie scentralizowanych hurtowni i powolnych procesach ETL stają się niewydolne w świecie, gdzie dane generowane są w czasie rzeczywistym w dziesiątkach różnych systemów. Data Fabric oferuje radykalnie inne rozwiązanie.

    Zamiast fizycznie przenosić i kopiować dane, Data Fabric tworzy nad nimi logiczną warstwę integracji. Działa jak wirtualna siatka lub uniwersalne API dla wszystkich danych w firmie, niezależnie od ich fizycznej lokalizacji – czy to w chmurze, na serwerach on-premise, czy w starszych systemach typu legacy. Dzięki wirtualizacji dostępu, inżynierowie mogą odpytywać i łączyć dane z różnych źródeł tak, jakby znajdowały się w jednym miejscu.

    Nowoczesne platformy Data Fabric idą o krok dalej, wykorzystując sztuczną inteligencję do zarządzania aktywnymi metadanymi. System automatycznie odkrywa nowe źródła, kataloguje je, profiluje i rozumie ich semantykę, tworząc dynamiczną mapę zasobów danych. Dla inżyniera oznacza to rewolucję: koniec z ręcznym poszukiwaniem i przygotowywaniem danych. Otrzymuje on dostęp do czystego, spójnego i gotowego do użycia „paliwa” dla swoich modeli, co drastycznie skraca czas i wysiłek potrzebny na dostarczenie wartości.

    Filar II: Hiperautomatyzacja – silnik decyzyjny

    Gdy Data Fabric dostarczy stały dopływ wysokiej jakości danych, pojawia się pytanie: co dalej? Tu do gry wchodzi Hiperautomatyzacja. To nie jest zwykła automatyzacja powtarzalnych zadań znana z RPA. Hiperautomatyzacja to strategiczne połączenie AI, uczenia maszynowego i innych technologii w celu automatyzacji całych, złożonych procesów biznesowych, które wymagają podejmowania decyzji.

    W praktyce Hiperautomatyzacja zamyka pętlę między wglądem a działaniem. Rozważmy dynamiczny system cenowy w e-commerce. W architekturze opartej na Inteligencji Danych proces ten przebiega płynnie i autonomicznie. Najpierw system w czasie rzeczywistym pobiera z Data Fabric strumień danych o stanach magazynowych, cenach konkurencji czy zachowaniu użytkowników. Następnie, zasilany tymi informacjami rdzeń analityczny, czyli model predykcyjny, na bieżąco ocenia optymalną cenę dla danego produktu i kontekstu. Na końcu, bez interwencji człowieka, system wykonuje akcję, automatycznie aktualizując ceny w sklepie poprzez wywołanie odpowiedniego API. Dla architekta systemów oznacza to możliwość projektowania rozwiązań, które nie tylko generują rekomendacje, ale autonomicznie i natychmiastowo je wdrażają.

    Filar III: MLOps – gwarancja niezawodności i skalowalności

    Wdrożenie zautomatyzowanego modelu AI na produkcji to nie koniec, a początek cyklu życia. Modele nie są statyczne – ich wydajność degraduje w czasie w miarę zmian w otoczeniu biznesowym. Zmieniają się dane wejściowe, co określa się jako dryf danych, a sam system musi działać niezawodnie 24/7. Zarządzanie tym procesem „ręcznie” jest niemożliwe na dużą skalę.

    MLOps (Machine Learning Operations) wprowadza dyscyplinę inżynierską do świata uczenia maszynowego. Jest tym, czym DevOps stał się dla rozwoju oprogramowania: zbiorem praktyk i narzędzi zapewniających powtarzalność, niezawodność i skalowalność. Kluczowe praktyki MLOps obejmują zautomatyzowane potoki CI/CD do ciągłego trenowania, testowania i wdrażania nowych wersji modeli, a także zaawansowany monitoring, który śledzi nie tylko parametry techniczne, ale przede wszystkim jakość predykcji i wykrywa dryf modelu. Równie istotne jest wersjonowanie kodu, danych oraz samych modeli, aby zapewnić pełną odtwarzalność i audytowalność. Dla specjalisty AI/ML, MLOps przekształca projekty badawcze z ryzykownych eksperymentów w zarządzalne, solidne i skalowalne komponenty architektury korporacyjnej.

    Synteza: kompletna architektura inteligencji

    Te trzy filary nie działają w izolacji, lecz tworzą synergiczny, kompletny stos technologiczny. W tej architekturze Data Fabric pełni rolę nowoczesnej rafinerii i sieci rurociągów, która dostarcza wysokooktanowe paliwo w postaci czystych, zintegrowanych danych. Hiperautomatyzacja jest wysokowydajnym silnikiem, który to paliwo spala, generując moc w postaci zautomatyzowanych decyzji i działań. Z kolei MLOps to zaawansowany warsztat i komputer pokładowy, który dba o to, by silnik działał z maksymalną wydajnością, był niezawodny i nie uległ awarii.

  • DataWalk stawia na ekspansję. Francuski kapitał i ambicje europejskiej alternatywy

    DataWalk stawia na ekspansję. Francuski kapitał i ambicje europejskiej alternatywy

    DataWalk, polska spółka technologiczna specjalizująca się w platformach analitycznych, ogłosiła ambitne plany ekspansji, wspierane przez znaczące inwestycje. Firma, która zyskała uznanie dzięki rozwiązaniom wykorzystywanym przez klientów z listy Fortune 500 i instytucje bezpieczeństwa narodowego państw NATO, zamierza wykorzystać rosnący popyt na alternatywne technologie analityczne, szczególnie w Europie.

    Inwestycja z Francji sygnałem zaufania

    Kluczowym elementem strategii DataWalk jest pozyskanie kapitału od inwestora z Francji. Co istotne, propozycja inwestycji wyszła z inicjatywy zagranicznej, a cena objęcia akcji (77,76 zł) przewyższa bieżący kurs giełdowy. To wyraźny sygnał zaufania do potencjału spółki i jej technologii. Pozyskane środki, pochodzące z emisji do 750 000 akcji, mają zostać przeznaczone na przyspieszenie rozwoju sprzedaży, produktu i marketingu, a także na ekspansję na rynkach zagranicznych.

    Ambitne cele wzrostu na dynamicznym rynku

    DataWalk celuje w rozwój sprzedaży z dynamiką wyraźnie przewyższającą rynek, który według prognoz ma rosnąć w tempie 30-40% rocznie (CAGR) w perspektywie najbliższych 3-5 lat. To odważne założenie, biorąc pod uwagę konkurencyjność sektora analityki i sztucznej inteligencji. Niemniej, spółka argumentuje, że jej platforma, zdolna do łączenia miliardów obiektów z wielu źródeł, oferuje unikalne możliwości w obszarach takich jak analityka śledcza, wykrywanie wyłudzeń i identyfikacja nadużyć.

    Europejska alternatywa w cieniu dominacji USA

    W komunikacie prasowym DataWalk podkreśla rosnące zapotrzebowanie na europejską alternatywę dla amerykańskich technologii w obszarze analityki i AI. To istotny kontekst, zważywszy na dominującą pozycję amerykańskich gigantów w tym sektorze. DataWalk upatruje w tym szansę na zdobycie znaczącej pozycji na rynku, oferując rozwiązania dostosowane do specyficznych potrzeb i regulacji europejskich. Współpraca z francuskim inwestorem może dodatkowo wzmocnić tę pozycję, otwierając drzwi do nowych rynków i partnerstw.

    Decyzja DataWalk o znaczącym zwiększeniu inwestycji i ekspansji jest odważnym krokiem, który może przynieść znaczące korzyści. Pozyskanie kapitału od zagranicznego inwestora, który aktywnie zabiegał o transakcję, potwierdza potencjał spółki i jej technologii.

    Jednak realizacja ambitnych celów wzrostu będzie wymagała skutecznego skalowania biznesu, pozyskania i utrzymania talentów oraz efektywnego konkurowania z ugruntowanymi graczami na rynku. Kluczowe będzie również udowodnienie, że DataWalk jest w stanie realnie zaoferować konkurencyjną i atrakcyjną alternatywę dla dominujących amerykańskich rozwiązań.

  • Top 20 – SAS Institute

    Top 20 – SAS Institute

    W epoce, gdzie dane są nowym złotem, SAS Institute Inc. wyznacza nowe standardy w branży analityki. W 2023 roku firma ta nie tylko potwierdziła swoją pozycję jako globalny lider w dziedzinie analityki, ale także kontynuowała swoje długoterminowe zaangażowanie w rozwijanie i kształtowanie przyszłości rynku analityki biznesowej.

    Innowacje i rozwój produktów

    Jednym z najbardziej znaczących kroków SAS w 2023 roku było wprowadzenie SAS 9.4 Maintenance 8, aktualizacji skoncentrowanej na zwiększeniu bezpieczeństwa i wydajności. Wraz z nowymi produktami, takimi jak Viya Workbench i SAS App Factory, SAS demonstruje swoje zaangażowanie w dostarczanie narzędzi, które upraszczają i przyspieszają pracę analityków danych i programistów. Te nowe środowiska programistyczne, umożliwiające szybkie kodowanie w chmurze oraz rozwój aplikacji napędzanych przez AI, są dowodem na to, że SAS nieustannie poszukuje sposobów na ulepszanie procesów analitycznych i zarządzania danymi.

    Edukacja i społeczność

    Zaangażowanie SAS w edukację i rozwój społeczności jest równie imponujące. The Batting Lab, projekt łączący sport i analizę danych, ma na celu wprowadzenie młodych ludzi w świat danych i analityki. Ten projekt pokazuje, jak SAS wykorzystuje innowacyjne podejścia do edukacji, inspirując kolejne pokolenia do zainteresowania się analityką.

    Rynek analityki

    SAS nie tylko dostarcza narzędzia i rozwiązania, ale także aktywnie kształtuje przyszłość analityki. Wprowadzając innowacyjne produkty i rozwiązania, SAS umożliwia firmom lepsze zrozumienie i wykorzystanie danych, co przekłada się na lepsze decyzje biznesowe i strategie. Generatywna sztuczna inteligencja (GAI) i inne inicjatywy SAS pokazują, jak firma wyprzedza rynkowe trendy, wprowadzając nowe standardy w analizie danych.

    SAS nie tylko dostarcza zaawansowane narzędzia analityczne, ale również przyczynia się do rozwoju całego rynku, inspirując do ciągłego poszukiwania nowych, lepszych sposobów na wykorzystanie danych w biznesie.

  • W jaki sposób AI i analityka zapewnią ludziom zdrowie, bezpieczeństwo i rozwój w 2024 roku? – prognozy ekspertów SAS 

    W jaki sposób AI i analityka zapewnią ludziom zdrowie, bezpieczeństwo i rozwój w 2024 roku? – prognozy ekspertów SAS 

    W idealnym państwie, instytucje finansowane z budżetu państwa mają znaczący wpływ na wzrost dobrobytu, bezpieczeństwo i ochronę zdrowia obywateli. Podmioty z sektora publicznego coraz częściej sięgają po sztuczną inteligencję oraz zaawansowaną analitykę, aby zwiększać wydajność oraz świadczyć lepsze usługi dla obywateli. Eksperci SAS są przekonani, że trend wdrażania najnowszych rozwiązań przyspieszy w bieżącym roku i jednocześnie nawołują instytucje ochrony zdrowia i administrację publiczną do szczególnej dbałości o odpowiedzialne korzystanie z tych zaawansowanych technologii. Gdzie wdrożenie sztucznej inteligencji będzie najprostsze, a w których sektorach będzie miało największy wpływ na życie obywateli? Eksperci SAS, globalnego lidera AI i analityki, podzielili się swoimi przemyśleniami. 

    Cyberbezpieczeństwo

    „Sztuczna inteligencja jest coraz częściej wykorzystywana przez cyberprzestępców do planowania ataków i tworzenia wiarygodnych treści wykorzystywanych przy próbach kradzieży, szantażu czy niszczenia reputacji ofiar. Jednakże technologia ta będzie również kluczowym narzędziem dla organów ścigania przy śledzeniu ruchu internetowego i weryfikowaniu cyfrowych poszlak w celu wykrycia sprawców, szczególnie w przypadku zorganizowanych grup przestępczych.” – mówi Ashley Beck, starszy konsultant ds. egzekwowania prawa, SAS; członek zarządu, Scotland Women in Technology 

    „Rozwój sztucznej inteligencji i analityki będzie nadal wpływał na pracowników sektora publicznego, w tym w zakresie bezpieczeństwa. W 2024 r. organy ścigania dostrzegą wartość w zatrudnianiu młodych ekspertów, dla których Internet jest naturalnym środowiskiem (ang. digital natives), potrafiących wykorzystać najnowsze narzędzia i techniki do skutecznej ochrony i wsparcia obywateli.”  mówi Shaun Barry, globalny dyrektor ds. ryzyka, oszustw i zgodności, SAS 

    „W miarę pojawiania się coraz bardziej wyrafinowanych zagrożeń związanych z nadużyciami, rządy przyjmą strategie analityczne i AI, które pomogą skutecznie przeciwdziałać oszustwom w sieci, jednocześnie poprawiając jakość obsługi obywateli.” mówi Jeremy Ray, ekspert ds. oszustw w sektorze publicznym i starszy konsultant branżowy, SAS 

    “Temat bezpieczeństwa zaczyna wykraczać poza granice naszej planety. Agencje kosmiczne, zarządzające wielkimi zbiorami danych z radarów i sieci czujników, zintensyfikują wykorzystanie analityki IoT [Internet of Things] i sztucznej inteligencji do ich analizy, włączając najnowsze innowacje w obszarze danych syntetycznych, cyfrowych bliźniaków i edge analytics. To kompleksowe podejście ma na celu ulepszenie usług z zakresu Space Domain Awereness, aby zwiększyć gotowość operacyjną w kosmosie.”  – mówi Bobby Shkolnikov, Head of IoT Federal and Global Principal in IoT Commercialization, SAS 

    „Rządy przyspieszają wysiłki na rzecz uruchomienia programów identyfikacji cyfrowej, aby ułatwić i zwiększyć bezpieczeństwo korzystania z dokumentów tożsamości w różnych okolicznościach – od punktów kontroli bezpieczeństwa na lotniskach po weryfikację w handlu detalicznym. W 2024 r. zaczniemy obserwować większą spójność komercyjnych i rządowych identyfikatorów cyfrowych. Kładąc nacisk na równy dostęp, bezpieczeństwo i wygodę użytkownika, w ciągu najbliższych dwóch lat identyfikatory cyfrowe będą miały szersze zastosowanie, akceptację i interoperacyjność.” – mówi Carl Hammersburg, Senior Manager, Government and Health Care Risk and Fraud, SAS 

    Edukacja i praca

    „Wpływ AI na rynek pracy zacznie być odczuwalny w sektorze publicznym. Administracja ma trudności z przyciągnięciem i zatrzymaniem specjalistów od AI, z uwagi na ich wysokie wymagania finansowe. Jednak, aby wspierać działania regulacyjne, rekrutowanie ekspertów będzie niezbędne. Podobnie jak przedsiębiorstwa, sektor publiczny również będzie coraz częściej sięgać po sztuczną inteligencję i analitykę, aby zwiększyć produktywność, zautomatyzować proste zadania i ograniczyć skutki niedoboru wykwalifikowanych pracowników. Jestem przekonany również, że w dyskursie na temat AI będziemy świadkami rosnącego zapotrzebowania na specjalistów „nietechnicznych”. Obecnie kierunek rozwoju technologii wymaga włączenia innych grup ekspertów, aby zapewnić, że rozwiązania AI działają sprawiedliwie, z zachowaniem zasad etyki i równości. Potrzebujemy nietechnicznych ekspertów dziedzinowych, którzy już na etapie tworzenia rozwiązań odkryją potencjalne zagrożenia i problemy.” mówi Reggie Townsend, wiceprezes ds. etyki danych, SAS 

    „Sztuczna inteligencja odegra kluczową rolę w optymalizowaniu wydajności pracy. Pomoże w tym automatyzacja rutynowych zadań administracyjnych, analiza ogromnych ilości danych w celu podejmowania lepszych decyzji, rozszerzanie cyfrowych usług dla obywateli i zwiększanie bezpieczeństwa publicznego.” – mówi Kay Meyer, dyrektor, Government Industry Consulting, SAS 

    System opieki zdrowotnej i zmiany demograficzne

    „Prognozowanie i modelowanie stają się kluczowym narzędziem w zakresie systemu opieki zdrowotnej, ale państwo potrzebuje wsparcia. Z pomocą przychodzi środowisko akademickie. Będziemy świadkami wzrostu liczby pracowników naukowych zajmujących się modelowaniem i prognozowaniem opartym na sztucznej inteligencji na zlecenie instytucji rządowych. Po pandemii COVID-19 stało się jasne, że ochrona społeczeństwa będzie wymagać wykorzystania zaawansowanej technologii i szeroko zakrojonej współpracy.”mówi Meghan Schaeffer, krajowy doradca ds. zdrowia publicznego i epidemiolog, SAS 

    „Organizacje będą dalej rozwijać narzędzia oparte na generatywnej sztucznej inteligencji na potrzeby spersonalizowania oferty, aby poprawić stan zdrowia pacjentów oraz satysfakcję pracowników. Przykłady obejmują tworzenie awatarów specyficznych dla pacjenta do wykorzystania w badaniach klinicznych i generowanie zindywidualizowanych planów leczenia.”  – mówi Steve Kearney, Globalny Dyrektor Medyczny, SAS 

    „Duże modele językowe będą wykorzystywane do generowania jasnych i zwięzłych podsumowań złożonych informacji medycznych, ułatwiając pacjentom zrozumienie ich diagnoz i planów leczenia.” –  mówi Greg Wujek, globalny konsultant ds. branży nauk przyrodniczych, SAS 

    „Według Światowej Organizacji Zdrowia do 2030 roku, co szósta osoba na świecie będzie miała więcej niż 60 lat. Rok 2024 zapoczątkuje zastosowanie generatywnej sztucznej inteligencji w celu promowania zdrowego starzenia się i zmniejszenia obaw związanych z deficytem personelu. Przykłady mogą obejmować zdalne monitorowanie i zwiększone wykorzystanie inteligentnych technologii w celu zapewnienia zgodności z przepisami, zarządzania ryzykiem i poprawy jakości życia.” – mówi John Maynard, główny architekt rozwiązań, opieka zdrowotna i administracja, SAS 

    Odpowiedzialne innowacje i godna zaufania sztuczna inteligencja

    „Będziemy świadkami rosnącego zaawansowania sposobów mierzenia wydajności sztucznej inteligencji oraz monitorowania realizacji celów odpowiedzialnej AI. Organizacje sektora publicznego będą korzystać z funkcji takich jak karty modeli, które zasadniczo służą do określenia czy system osiągnął zadowalające wyniki.”mówi Reggie Townsend, wiceprezes ds. etyki danych, SAS 

    „Organizacje rządowe zwiększą wykorzystanie dużych modeli językowych do analizowania ogromnych zbiorów nieustrukturyzowanych danych. Będzie temu towarzyszyć większe wykorzystanie godnej zaufania sztucznej inteligencji i analityki, aby pomóc w opracowywaniu i dostosowywaniu ich aplikacji.” – mówi Tom Sabo, Solutions Architect, Cognitive/Computer Scientist, SAS 

    „Szybki rozwój i zastosowanie sztucznej inteligencji w coraz większej liczbie obszarów społecznych i komercyjnych stwarza zarówno znaczące możliwości, jak i zagrożenia. W 2024 roku będziemy świadkami powstawania międzynarodowych koalicji i współpracy z przemysłem, aby ustanowić i egzekwować reguły dotyczące rozwoju i wdrażania sztucznej inteligencji. Celem jest zapewnienie bezpiecznego wykorzystania nowych technologii.” mówi Caroline Barnett, główny konsultant ds. sektora obronnego i wywiadowczego, SAS 

  • SAS poszerza współpracę z AWS w zakresie AI i analityki

    SAS poszerza współpracę z AWS w zakresie AI i analityki

    Ostatnia strategiczna umowa między SAS, a Amazon Web Services (AWS), gigantem usług chmurowych, stanowi przełomowy moment w świecie analityki biznesowej i sztucznej inteligencji. Umieszczenie SAS Customer Intelligence 360 na AWS Marketplace nie jest tylko formalnością, lecz ważnym krokiem w kierunku przyszłości analityki w chmurze.

    SAS i AWS – znaczenie współpracy

    SAS, ze swoim głębokim doświadczeniem analitycznym, łączy siły z AWS, liderem w dziedzinie infrastruktury chmurowej, tworząc unikalne możliwości dla przedsiębiorstw. 

    SAS Customer Intelligence 360 to dynamiczny „pakiet zaangażowania klienta”, który obejmuje całą podróż klienta, dostarczając spostrzeżenia i raporty oparte na danych. Umieszczenie tego rozwiązania na AWS Marketplace to nie tylko kwestia dostępności, ale także symbolizuje łatwość i elastyczność w korzystaniu z narzędzi analitycznych w chmurze.

    Wspólne inicjatywy i ich wpływ

    Partnerstwo to obejmuje wprowadzanie na rynek rozwiązań analitycznych i sektorowych natywnych dla chmury, które są kluczowe dla adaptacji w dynamicznie zmieniającym się środowisku biznesowym. Opracowanie i integracja rozwiązań, które optymalizują wydajność chmury, mają na celu zapewnienie firmom konkretne wyniki biznesowe.

    Włączenie SAS Customer Intelligence 360 do AWS Marketplace to także krok w kierunku uproszczenia procesu zakupu i zwiększenia elastyczności korzystania z narzędzi analitycznych. To z kolei może zachęcić więcej firm do eksploracji i inwestycji w analitykę zaawansowaną.

    Wizja przyszłości: SAS Viya i Amazon Bedrock

    Najbardziej ekscytującym aspektem tej umowy jest plan udostępnienia SAS Customer Intelligence 360 w Amazon Bedrock w 2024 roku. Ta inicjatywa ma na celu umożliwienie łatwego dostępu do modeli AI i skalowania generatywnych aplikacji AI. Dodatkowo, perspektywa dostępności SAS Viya na AWS Marketplace sugeruje jeszcze głębszą integrację i innowacje w przyszłości.

    Partnerstwo SAS i AWS ma potencjał, by znacząco przekształcić sposób, w jaki firmy korzystają z analityki i AI, dostarczając rozwiązania, które są zarówno zaawansowane, jak i łatwe w użyciu. Wprowadzenie SAS Customer Intelligence 360 na AWS Marketplace to tylko początek drogi, która może zmienić oblicze analityki biznesowej.

  • SAS rozszerza Viya. Chce przyspieszyć rozwój modeli AI

    SAS rozszerza Viya. Chce przyspieszyć rozwój modeli AI

    Viya Workbench to nowe, „szczupłe” środowisko programistyczne, które umożliwia szybkie, wydajne i bezpieczne generowanie oraz wykonywanie kodu w chmurze. Co ważne, platforma ta jest niezwykle elastyczna, pozwalając programistom na pracę w ich preferowanym języku programowania, czy to Python, R, czy SAS.

    Dodatkowo, SAS wprowadza integrację z popularnymi środowiskami programistycznymi, takimi jak Jupyter Notebook, Visual Studio Code i SAS Enterprise Guide. To kluczowy krok w kierunku ułatwienia dostępu i rozpoczęcia pracy z Viya, co może znacząco przyspieszyć procesy deweloperskie.

    Drugą nowością jest App Factory, środowisko zaprojektowane do przyspieszonego rozwoju konkretnych aplikacji AI. Co ciekawe, App Factory automatyzuje konfigurację i integrację natywnego dla chmury stosu technologii opartego na React, TypeScript i Postgres. Dzięki temu programiści mogą skupić się na tym, co najważniejsze: tworzeniu modeli i aplikacji AI gotowych do produktywnego użytkowania.

    Te nowe funkcje w SAS Viya i App Factory mają potencjał do zrewolucjonizowania sposobu, w jaki przedsiębiorstwa i deweloperzy podchodzą do tworzenia i wdrażania modeli AI. Automatyzacja i elastyczność są tu kluczowe, umożliwiając szybsze innowacje i skracając czas wprowadzenia produktu na rynek.

    Co więcej, obie platformy mają być dostępne od początku 2024 roku, co sugeruje, że SAS jest zdecydowany na utrzymanie swojej pozycji jako lidera w dziedzinie analityki i danych.

    W erze, gdzie tempo rozwoju technologicznego jest zawrotne, takie inicjatywy jak te wprowadzone przez SAS są nie tylko mile widziane, ale i niezbędne. Ostatecznie, mogą one znacząco wpłynąć na to, jak przedsiębiorstwa będą w stanie wykorzystać moc danych i AI w najbliższej przyszłości.

  • Jak efektywnie wykorzystywać dane w biznesie?

    Jak efektywnie wykorzystywać dane w biznesie?

    Jak zachować pewność w niepewnych czasach? Rozwój cyfryzacji w ostatnim dziesięcioleciu zmienił sposób funkcjonowania wielu przedsiębiorstw. Nowoczesne technologie oparte na sztucznej inteligencji wspomagają zarządzanie, dostarczając prognoz, dzięki którym firmy mogą minimalizować ryzyka i przygotować się na nadchodzące zmiany. Jednym ze sposobów na zachowanie stabilności staje się więc wykorzystywanie możliwości, jakie daje analiza predykcyjna Big Data.

    Zawirowania na rynku, będące wynikiem pandemii, doprowadziły do zachwiania wielu gospodarek. Zaburzenia w produkcji i dostawach komponentów uderzyły niemal we wszystkie branże i doprowadziły do sytuacji, w której na światowych rynkach notujemy rekordowe poziomy inflacji. Z danych Eurostatu wynika, że inflacja HICP w strefie euro wyniesie w sierpniu 2022 r. rekordowe 9,1 proc. Rosnący poziom inflacji wpływa bezpośrednio na działalność wszystkich przedsiębiorstw, zmuszając je do podejmowania działań minimalizujących straty, ale również do szukania rozwiązań, które zapewnią stabilny rozwój, niezależnie od gwałtownych zmian rynkowych.

    Większość firm podjęła już działania zmierzające do obniżenia kosztów. Wymagająca sytuacja koncentruje uwagę menedżerów także na inwestycjach w narzędzia wspomagające rozwiązywanie problemu strat i na działaniach zmierzających do zwiększania przewagi konkurencyjnej, np. za pomocą polepszenia jakości produktów, czy poprawy transparentności w kontakcie z klientami.

    Analityka Big Data – oręż w kryzysie

    W czasach gwałtownych zmian rynkowych z pomocą przychodzą przebojem zdobywające rynek rozwiązania oparte na Big Data. To dzięki możliwości generowania i gromadzenia dużych zbiorów danych analityka predykcyjna zmieniła swoje oblicze. W analizach, których celem jest przewidywanie przyszłych sekwencji zdarzeń, wykorzystywane są dane historyczne, ale także dane generowane w czasie rzeczywistym. Poddawane są one analizie przez sztuczną inteligencję (artificial intelligence, AI), która wykorzystuje w tym celu odpowiednie algorytmy. W wyniku analizy powstają prognozy, czy propozycje najbardziej optymalnych rozwiązań. Doskonalenie sztucznej inteligencji (poprzez uczenie maszynowe) pozwala na uzyskiwanie coraz bardziej precyzyjnych prognoz – umożliwia to tworzenie drzew decyzyjnych określających koszty i korzyści płynące z każdej opcji. Dzięki prognozowaniu opartemu na dużych zbiorach rzetelnych danych zarządzanie przedsiębiorstwami uzyskało inną jakość.

    Big Data – przykłady wykorzystania danych

    Analiza predykcyjna wykorzystywana jest w różnych obszarach i rozwijana coraz intensywniej, między innymi w handlu, gdzie służy optymalizowaniu procesów i poziomu zapasów. Wyniki analiz przygotowanych z wykorzystaniem odpowiednich algorytmów służą do przewidywania tendencji, nawyków konsumentów, ale także wydajności maszyn, zapotrzebowania na dane produkty, czy komponenty w produkcji.

    Sztuczna inteligencja potrzebuje danych, a one zbierane są na bieżąco na przykład przez sensory, czyli czujniki zamieszczane na transportowanych produktach, które wymagają specjalnych warunków, np. zachowania odpowiedniej temperatury i wilgotności. Dzięki nim minimalizujemy ryzyko strat powstałych na skutek przerwania łańcucha chłodniczego. Rejestratory pozwalają na bieżące reagowanie w razie pojawienia się anomalii. Dają też klientom gwarancję transportu produktów z zachowaniem ich jakości. Rozwiązania takie, dostarczając wiarygodne dane, zwiększają także transparentność relacji z klientami, co wpływa na wzmocnienie zaufania do firmy transportowej.

    Analiza danych Big Data a ubezpieczenie

    Zastosowanie predykcji w przedsiębiorstwach stanowi także wsparcie dla ubezpieczenia firm. Analiza danych pomocna jest w określaniu ryzyka i szacowaniu wysokości składek. Dane udostępniane przez czujniki monitorujące przewożony i magazynowany towar pozwalają ubezpieczycielom na szybszą wycenę, i wpływają także na cenę ubezpieczenia.

    Jak wskazuje Daria Roszczyk-Krowicka, Sales and Marketing Director w Blulog, firmie dostarczającej nowoczesne rozwiązania monitoringu łańcucha dostaw oraz magazynów: – Predykcja jest wsparciem dla ubezpieczenia. Pozwala obniżyć ryzyko związane nie tylko z sytuacją awaryjną, ale także czas spędzony na całej procedurze zwrotu z ubezpieczeń. Dodatkowo obniża koszty, które musi wypłacać ubezpieczyciel.

    Wyzwaniem dla współczesnych firm jest już nie tylko gromadzenie danych, lecz także ich umiejętne wykorzystanie, czyli przekształcenie w przydatne, korzystne dla organizacji informacje. Zainteresowanie prognozowaniem opartym na analityce Big Data nie słabnie. Coraz więcej przedsiębiorstw decyduje się na rozwiązania wykorzystujące sztuczną inteligencję. W najbliższym czasie z najnowszymi technologiami opartymi o duże zbiory danych będzie można zapoznać się w ofercie wystawców podczas targów IoT Tech Expo Europe (20-21 września) w Amsterdamie.

  • Analityka w handlu detalicznym – więcej cennych informacji niż można się spodziewać

    Analityka w handlu detalicznym – więcej cennych informacji niż można się spodziewać

    Przez długi czas systemy dozoru wizyjnego były gwarantem bezpieczeństwa w sklepie. To się nie zmieniło – jednakże spektrum zastosowań tego typu rozwiązań jest znacznie większe. Co, jeśli systemy dozoru mogą się stać przydatnym narzędziem biznesowym, zwiększającym wydajność i wyniki finansowe firmy? Z pomocą mogą przybyć kompleksowe rozwiązania oparte na monitoringu wizyjnym i analityce.

    W minionych latach można było zauważyć znaczący spadek ruchu w sklepach stacjonarnych. Wpływ na to miało kilka czynników, zwłaszcza zwiększająca się popularność sklepów internetowych, a także globalna pandemia. W samym 2020 roku w Polsce, według raportu ExpertSender, przybyło aż 11,8 tysiąca nowych sklepów internetowych. Równocześnie, w ostatnich miesiącach w handlu detalicznym zauważalne są znaczne wzrosty – w grudniu 2021 roku według raportu GUS zauważono ośmioprocentowy wzrost sprzedaży w porównaniu z grudniem 2020 roku.

    Powoli zaczynamy wracać do sklepów stacjonarnych – przed przedsiębiorcami stoi jednak nie lada wyzwanie związane z powrotem do wyników sprzedażowych sprzed pandemii. Do tego celu niezbędne będą szczegółowe dane analityczne, które mogą zostać pozyskane… wprost ze sklepu. Inteligentne systemy monitoringu wizyjnego, oparte na analityce i rozwiązaniach end-to-end mogą nie tylko dostarczyć aktualnych informacji wpływających na sprzedaż, ale także znacznie przyczynić się do poprawy doświadczenia klienta podczas robienia zakupów.

    Liczenie osób i monitorowanie kolejek

    Dzięki analityce właściciel sklepu jest w stanie wprowadzić do swojego sklepu wiele udogodnień, nie tylko tych skierowanych do klientów, ale także znacznie ułatwiających pracę personelu. Rozwiązania analityczne połączone z monitoringiem wizyjnym można wykorzystać do zliczania osób przechodzących pod kamerą w czasie rzeczywistym. Uzyskane dane będą przydatne do podejmowania kluczowych decyzji biznesowych, np. o poziomie zatrudnienia w godzinach szczytu. Natomiast monitorowanie kolejek może znacznie zwiększyć poziom zadowolenia klientów dokonujących zakupy w sklepie. Dzięki wykorzystaniu tej funkcji, pracownicy zostaną powiadomieni o narastającej kolejce w danym miejscu. Dodatkowo informacje o średnim czasie oczekiwania i wskaźnikach rezygnacji pozwalają na szybkie wprowadzenie zmian.

    Identyfikacja demograficzna i mapy ciepła

    W celu gromadzenia statystyk przydatna będzie funkcja identyfikacji demograficznej, polegająca na zbieraniu informacji na temat wieku i płci odwiedzających sklep. Pomoże to właścicielowi zdefiniować grupy docelowej firmy, a także dostosować komunikaty marketingowe kierowane do odwiedzających. Ponadto informacje statystyczne pozyskiwane z map ciepła, identyfikujących gorące punkty i martwe obszary umożliwiają wizualizację wzorców ruchu w czasie.

    „Zastosowanie analityki w monitoringu wizyjnym dostarcza przedsiębiorcom garść cennych statystyk, pomocnych w przygotowaniu strategii działania firmy, a także ustalania celów przekładających się na poprawę zysków i doświadczeń klientów. Przykładowo, dzięki mapom ciepła można zoptymalizować układ całego sklepu, czyniąc go miejscem bardziej przejrzystym dla klientów”mówi Dagmara Pomirska z Axis Communications.

    Rozległe możliwości sieciowych rozwiązań audio

    Systemy audio mogą zostać wykorzystane na dwa sposoby – z jednej strony wspierać personel sklepu, z drugiej sprawiać, że pobyt w sklepie będzie dla klienta jeszcze przyjemniejszy. Dzięki wykorzystaniu innych rozwiązań analitycznych wiemy już, że istnieją w sklepie obszary wymagające większego wsparcia. Systemy audio umożliwiają wysyłanie odpowiednich komunikatów głosowych, które informują pracowników o aktualnym obłożeniu sklepu, pozwalając na natychmiastowe podjęcie odpowiednich działań. Odpowiednia atmosfera w sklepie to kolejny kluczowy składnik budowania pozytywnych doświadczeń klientów. Składają się na nią, m.in. dobór odpowiedniego tła muzycznego, a także emitowanie komunikatów głosowych, np. o aktualnych promocjach.

    Kompleksowe rozwiązania end-to-end

    Rozwiązania analityczne najlepiej działają w kompleksowych, zintegrowanych systemach dozoru wizyjnego, łączących ze sobą kamery oraz inne sieciowe urządzenia zabezpieczające i analityczne. Ważne jest także dobranie właściwego oprogramowania do zarządzania materiałem wizyjnym, które nie tylko integruje się z wszystkimi elementami monitoringu, takimi jak kamery, systemy audio, aplikacje analityczne i czujniki, ale także jest nieskomplikowane w obsłudze. Pomaga to w gromadzeniu wszystkich niezbędnych informacji w jednym miejscu i prostym zarządzaniu nimi.

    „Systemu dozoru muszą być skrojone na miarę, co znaczy, że powinny z łatwością odpowiadać na specyficzne potrzeby danej branży – począwszy od wyboru kamer, po oprogramowanie zarządzające całym ekosystemem. Istotne jest także to, aby wybrane rozwiązanie nie sprawiało problemów w obsłudze, a interfejs był przejrzysty i dostosowany do potrzeb klienta. Tak kompleksowe rozwiązanie może być pomocne także w innych obszarach, często niezauważalnych. Przykładowo: dzięki odpowiedniemu oprogramowaniu możliwy jest szybki dostęp do dokumentacji montażowej, co pozwala na uniknięcie błędów podczas montażu” dodaje Dagmara Pomirska z Axis Communications.

  • Narzędzia analityczne odpowiedzią na wyzwania logistyki

    Narzędzia analityczne odpowiedzią na wyzwania logistyki

    Wzrost rynku e-commerce to większe zapotrzebowanie na usługi logistyki miejskiej – według szacunków Światowego Forum Ekonomicznego (WEF) globalny popyt na tego typu usługi dla handlu online może wzrosnąć aż o 78 proc. do 2030 roku. Jak wskazuje AutoMapa Enterprise jeden kurier ma do zrealizowania nawet 150 doręczeń w ciągu dnia. To rodzi szereg wyzwań – zarówno w kontekście optymalizacji czasu i kosztów pracy, jak i zrównoważonego rozwoju branży logistycznej. Odpowiedzią na te potrzeby są narzędzia analityczne, dzięki którym optymalizacja łańcucha dostaw ostatniej mili może sięgać od 8 proc. w obszarze miejskim do nawet 15 proc. poza miastem.

    E-commerce katalizatorem zmian

    Dwa ostatnie pandemiczne lata pokazały, jak szybko jako konsumenci potrafimy dostosować się do panujących warunków ekonomicznych. Obostrzenia, ograniczona mobilność i przejście na system pracy zdalnej przyspieszyły rozwój kanału e-commerce i zwiększyły popyt na usługi kurierskie. W wyniku tych zmian e-zakupy na stałe wpisały się w profil dzisiejszego konsumenta. Zgodnie z raportem “Mr&Mrs e-Commerce” zrealizowanym przez e-Izbę, już 90 proc. użytkowników Internetu dokonuje zakupów online. Wartość rynku B2C dla sektora e-commerce jest szacowana na ponad 100 mld zł, natomiast B2B – 647 mld złotych.

    Wzrostowi popularności e-commerce towarzyszy zwiększony popyt doręczeń żywności czy cateringów dietetycznych. Jak wynika z szacunkowych danych SuperMenu, obecnie na rynku działa już ok. 850 firm z tego sektora, które rocznie realizują niemal 50 mln dostaw. Jednocześnie rosną oczekiwania konsumentów, którzy chcą dostawać swoje produkty szybko, sprawnie i bez potrzeby wychodzenia z domu, co w obliczu natężonego ruchu pojazdów w miastach stawia wymienione branże przed wyzwaniami związanymi z optymalizacją działań.

    Optymalizacja logistyki ostatniej mili

    Współcześni konsumenci oczekują od usługodawców skutecznych rozwiązań. Szybkość realizacji zamówienia i sprawna dostawa – w przypadku e-commerce już nawet tego samego dnia – to najważniejsze z czynników, które biorą pod uwagę e-kupujący. W przypadku branży e-commerce konieczna jest także skuteczna logistyka zwrotów. Według danych CBRE aż 74 proc. e-nabywców wskazuje, że odsyła 1 na 10 zamówionych produktów, co wpływa na liczbę operacji logistycznych dokonywanych przez firmy kurierskie.

    Zarówno branża logistyczna, w tym przede wszystkim kurierska, jak i firmy, których struktura opiera się na pracownikach terenowych (m.in. cateringi dietetyczne, branża farmaceutyczna i meblarska), mają do dyspozycji szereg narzędzi analitycznych pozwalających na optymalizację procesu dostawy do wielu klientów jednego dnia. To dzięki możliwości wglądu do bieżących analiz i danych drogowych, które zapewniają im narzędzia takie jak AutoMapa Enterprise, klienci biznesowi mogą realizować dzienne plany, które sięgają nawet 150 dostaw kurierskich oraz do 80 kursów cateringowych wykonywanych przez jednego pracownika.

    AutoMapa Enterprise posiada rozbudowaną sieć narzędzi analitycznych i logistycznych, których celem jest uproszczenie procesów logistycznych właścicieli firm, logistyków czy dyspozytorów. System AutoMapa Enterprise Last Mile, który działa w trybie real time, zapewnia oszczędność czasu klientów biznesowych na poziomie planowania oraz samej realizacji zleceń. W zależności od obszaru działań kurierskich, optymalizacja łańcucha dostaw ostatniej mili może sięgać od 8 proc. w obszarze miejskim do nawet 15 proc. poza miastem.

    Dzięki możliwości zaplanowania pracy dla wszystkich pracowników jednocześnie i obliczenia zoptymalizowanej trasy skutecznie obniżamy koszty logistyki. Dyspozytor jest poinformowany o błędach w adresach zleceń, co niweluje pomyłki w procesie logistycznym już na poziomie jego planowania. Co więcej – optymalizowanie tras pomaga skrócić ich długość, co pozwala na zmniejszenie emisji zanieczyszczeń, a tym samym przyczynia się do ochrony środowiska komentuje Patryk Osęka, dyrektor operacyjny firmy AutoMapa. 

    Rosnąca z roku na rok liczba e-kupujących pokazuje, że od e-commerce nie ma już odwrotu. Popyt na usługi logistyczne skłania firmy do korzystania z usług analitycznych, które skutecznie usprawniają procesy logistyki ostatniej mili, optymalizując tym samym czas i koszty pracy.

  • Oszczędność czasu i spokój ducha. Jakie są zalety monitoringu wideo dla sektora MŚP?

    Oszczędność czasu i spokój ducha. Jakie są zalety monitoringu wideo dla sektora MŚP?

    Na właścicielach małych i średnich firm spoczywa wielka odpowiedzialność. Zapewnienie ciągłości działania biznesu, kontrola stanu faktycznego i ryzyko zajścia niechcianego incydentu to jedne z wielu elementów zarządzania przedsiębiorstwem. Wprowadzenie inteligentnych rozwiązań może w pewien sposób przyczynić się do zachowania ciągłości rozwoju firmy. Przykładem są wszechstronne systemy monitoringu wideo, które pozwolą na zwiększenie poziomu bezpieczeństwa w całej firmie oraz stały dozór.

    Małe i średnie firmy są kluczowym sektorem dla polskiej gospodarki. Według raportu PARP jest to aż 99,8% wszystkich przedsiębiorstw w Polsce. Ponad 70% z nich to przedstawiciele branży usługowej i handlowej. Istotne więc jest dbanie o bezpieczeństwo tych biznesów. W dużej mierze to głównie na właścicielu ciąży ogromna odpowiedzialność za funkcjonowanie firmy, która naznaczona jest stałą obawą o to, czy wszystko jest na „swoim miejscu”. Ewentualna kradzież może mieć katastrofalne skutki dla przedstawicieli, zwłaszcza handlu detalicznego, którzy mogą bezpowrotnie stracić część źródła swoich dochodów. Inwestycja w dobrej jakości system monitoringu może zapewnić właścicielom „spokojną głowę”, nawet jeżeli nie są w danym momencie w firmie, a np. na długo wyczekiwanych wakacjach.

    Analiza incydentów

    Wysokiej jakości system monitoringu wideo pozwala na dokładny przegląd zarejestrowanego wcześniej materiału wizyjnego celem sprawdzenia, jaki incydent zaistniał na terenie firmy. Przykładowo, jeżeli zauważymy nagłe braki w sklepie, przejrzenie nagrania może dostarczyć odpowiedzi czy doszło do kradzieży i kto jej dokonał. Takie rozwiązanie jest cenne także z punktu oceny odpowiedzialności i rozwiązywania sporów. 

    „Istnieje wiele sytuacji, które mogą wzbudzić potencjalny konflikt. Na przykład, klient, który twierdzi, że został źle obsłużony i nienależycie potraktowany lub dostawca, mówiący, że dostarczył planowaną ilość towaru, a w magazynie jest go znacznie mniej. Zamiast tracić czas na przeliczanie kasy, bądź sprawdzanie co dokładnie zostało dostarczone, właściciel może obejrzeć nagrania z monitoringu, by dowieść prawdy” – mówi Dagmara Pomirska z Axis Communications.

    Takie rozwiązanie ważne jest także w kontekście pandemii i związanych z nią obostrzeń. Dzięki systemowi kamer monitoringu można na bieżąco kontrolować liczbę osób w sklepie bądź restauracji oraz to czy klienci przestrzegają aktualnych wytycznych, np. obowiązku noszenia maseczek. 

    Stały dozór bez względu na to, gdzie się znajdujesz

    Wakacje naznaczone stałą obawą o stan przedsiębiorstwa to nie najlepszy sposób na wypoczynek. Aby móc się cieszyć urlopem w pełni i zachować spokój ducha, właściciel firmy może zdalnie, z poziomu swojego smartfona, skorzystać z podglądu na żywo lub przejrzeć nagrania z kamer, by mieć pewność, że wszystko znajduje się na swoim miejscu. Nawet jeśli miałby miejsce jakikolwiek incydent, możliwe jest skonfigurowanie określonych alertów.

    Szczególnie istotne jest to w przypadku firm zajmujących się handlem detalicznym. Możliwe jest ustawienie odpowiedniej funkcji w godzinach, gdy sklep jest zamknięty i nikt nie powinien przebywać na miejscu. Podejrzana obecność spowodowałaby wysłanie specjalnego powiadomienia na urządzenie mobilne właściciela firmy, który mógłby natychmiast sprawdzić, czy faktycznie doszło do naruszenia i w porę zareagować. Co więcej, osób upoważnionych do otrzymywania alertów może być więcej, np. kierownicy wyższego szczebla. 

    W przypadku małych sieci biznesowych, gdzie jedna firma posiada kilka lokalizacji, przydatnym rozwiązaniem może być możliwość przyznawania uprawnień dostępu do kamer wielu użytkownikom. Dzięki temu, zwiększenie poziomu ochrony, bezpieczeństwa i wydajności może być dużo łatwiejsze. Oprócz właścicieli i managerów sklepów, punktów usługowych czy restauracji, dostęp do urządzeń mogą mieć także instalatorzy, aby w odpowiednim czasie przeprowadzić prace konserwacyjne, takie jak aktualizacja systemu. Jest to cenna oszczędność czasu i pieniędzy, ponieważ nie ma konieczności wysyłania na miejsce technika – tego typu prace mogą zostać wykonane zdalnie. 

    Szerokie możliwości audio i analityki IoT

    Kamery sieciowe, oprócz dbania o bezpieczeństwo w firmie, mają wpływ na kształtowanie doświadczeń klientów wykorzystując inteligentne rozwiązania audio i analityki IoT. Systemy audio mogą nie tylko wspierać personel sprzedaży, wysyłając alerty głosowe,  np. o aktualnym obłożeniu sklepu i obszarach wymagających większego wsparcia, ale także może być to świetne rozwiązane skierowane doklientów. Muzyka w tle i głosowe komunikaty o okazjach, budują atmosferę pomagającą w podejmowaniu decyzji zakupowych. Analityka IoT natomiast stwarza całe spektrum inteligentnych możliwości wykorzystywanych do precyzyjnej identyfikacji osób przychodzących do sklepu czy zapewniania optymalnych warunków do zakupów, takich jak odpowiednie oświetlenie danej części sklepu czy ustawienia temperatury. 

    ”Rozwój technologii audio i IoT z pewnością przyspieszy zmiany w całej branży retail, zwłaszcza w sektorze małych i średnich przedsiębiorstw. Optymalizacja pracy na wielu polach, począwszy od monitorowania ruchu w sklepie, kończąc na kształtowaniu doświadczeń klienta, może zwiększyć konkurencyjność przedsiębiorstwa. To też rozwiązanie perspektywiczne i przyszłościowe – to właśnie analityka IoT może być ważnym komponentem furturystycznych sklepów bezobsługowych” – dodaje Dagmara Pomirska z Axis Communications.

    Trwałe i elastyczne rozwiązanie

    Wymienione możliwości są efektywne kosztowo, łatwe w użyciu oraz pozwalają na dużą elastyczność w dostępie do obrazu z monitoringu z dowolnego miejsca, w dowolnym czasie. 

    Wszechstronne systemy monitoringu dają właścicielom małych i średnich firm możliwość inteligentniejszej i spokojniejszej pracy, co może przełożyć się na zwiększone zyski przedsiębiorstwa. Tak elastyczne rozwiązania umożliwiają zachowanie ciągłości rozwoju i bezpieczeństwa firmy, bez względu na zmieniające się potrzeby biznesowe. Elastyczne dostosowanie liczby kamer, wieloosobowy dostęp, możliwości audio i analityki IoT oraz duża przestrzeń dyskowa to ułatwienia pozwalające właścicielom firm skupienie się na podstawowej działalności” – podkreśla Dagmara Pomirska z Axis Communications.

  • Pandemia wyznacza nowe kierunki cyfrowej transformacji biznesu

    Pandemia wyznacza nowe kierunki cyfrowej transformacji biznesu

    Bezpośrednio po wybuchu pandemii wiele organizacji wykonało pierwszy krok na ścieżce digitalizacji biznesu, a w przypadku blisko 90% firm cyfrowa transformacja wyraźnie nabrała tempa[1]. Nowa rzeczywistość obnażyła przede wszystkim braki w zakresie elastyczności i sprawnej adaptacji, co wymagało kształtowania na nowo kultury organizacyjnej. Chociaż pandemia jest z nami już blisko 2 lata, wciąż ma istotny wpływ na obraz cyfryzacji w Polsce.

    Głównym kierunkiem rozwoju technologicznego organizacji w czasie pandemii było utrzymanie ciągłości funkcjonowania. Potwierdza to wysoki odsetek firm, które deklarują, że w tym czasie ich cyfrowa transformacja przyspieszyła na największą dotychczas skalę. Również przedsiębiorstwa, które wkroczyły na ścieżkę cyfryzacji znacznie wcześniej, podeszły do tematu kolejnych inwestycji zachowawczo, skupiając się głównie na przystosowaniu do nowych okoliczności. Wyniki badań przygotowanych przez Fellowmind wskazują, że najczęściej inwestowano wtedy w rozwiązania chmurowe (46%), narzędzia do zdalnej współpracy (46%), a także w cybernetyczne bezpieczeństwo danych (37%).

    Nowe kierunki cyfrowej transformacji

    Rozwiązania niezbędne do zachowania ciągłości w funkcjonowaniu pomogły zaspokoić pierwsze cyfrowe potrzeby biznesu. Ogólnokrajowe obostrzenia, konieczność pracy zdalnej czy utrudniony obieg dokumentów w tradycyjnej postaci wymusiły śmiałe kroki, na których jednak nie poprzestano. Zmiany społeczne i rynkowe wynikające z trwającej pandemii wciąż mają wpływ na strategiczne decyzje, m.in. w obszarze planów inwestycyjnych.

    Chociaż blisko 35% firm wdrożyło już narzędzia do komunikacji online, kolejne 34% organizacji planuje taką inwestycję w ciągu 3-5 lat[2]. Ciężko uwierzyć, że taka deklaracja dotyczy podstawowych platform do współpracy zdalnej. Mając świadomość, jak duże znaczenie we współczesnym świecie odgrywa elastyczność, przedsiębiorstwa dokonują rewizji swoich dotychczasowych systemów i w przyszłości będą robić to regularnie. Wyrobienie nawyku nieustannej optymalizacji funkcjonowania prowadzi do zbudowania konkurencyjności rynkowej, a także jej utrzymania w świecie dynamicznych zmian.

    Drugim obszarem, który znacząco rozwinie się w najbliższych latach, jest analityka danych. Zainwestuje w nią 38% firm[3]. W czasie pandemii średni, dzienny czas spędzany w Internecie wzrósł do 5,5 godziny[4]. W związku z tym zwiększyła się również ilość generowanych przez Polaków danych, które pozostawiono w wirtualnej rzeczywistości. Aby wykorzystać w pełni ich potencjał, należy sięgnąć po odpowiednie narzędzia. Biznes dotychczas nie korzystał z nich w Polsce na szeroką skalę, choć umożliwiają efektywną indywidualizację oferty, budowanie relacji z klientami, a także poprawę customer experience.

    Prognozując kierunki rozwoju organizacji w Polsce, nie sposób odejść od aspektu klientocentryczności. W mojej opinii kształtowanie pozytywnych doświadczeń klientów stanowi jeden z kluczowych trendów w obszarze technologii. Powołując się na dane z badania Fellowmind, ponad 40% firm zapowiada wdrożenie nowych rozwiązań CRM w najbliższych latach. Jest to odpowiedź na bezprecedensowe okoliczności zarządzania relacjami z klientami, tj. rosnące znaczenie bezpieczeństwa, nowe formy komunikacji czy też konieczność efektywnej personalizacji ofertymówi Tomasz Kozłowski, Fellowmind Poland.

    Innowacyjność rynku w najbliższej przyszłości

    W pierwszym etapie pandemii zastanawiano się głównie, kiedy kryzys dobiegnie końca, myśląc jednocześnie o tym, jak uporać się z niespodziewanymi wyzwaniami biznesowymi. Blisko 2 lata później nikt nie ma już wątpliwości, że nowa rzeczywistość powoli staje się normalnością. W wielu przypadkach po nowoczesne rozwiązania technologiczne sięgano doraźnie, jednak pandemia bezsprzecznie odcisnęła piętno na cyfrowej transformacji w Polsce i Europie, a także potwierdziła potencjał digitalizacji danych. Choć biznes przywykł już do obecności wirusa COVID-19, 22% firm deklaruje, że to pandemia nieustannie stanowi główny motor napędowy innowacji[5].

    W ostatnich miesiącach świadomość technologiczna biznesu wzrosła – bez względu na to, czy organizacje sięgały po nieznane dotąd rozwiązania technologiczne w wyniku nagłej potrzeby, czy konsekwentnie realizowały swoją strategię transformacji. Nie chodzi wyłącznie o wiedzę dotyczącą zastosowania nowych narzędzi, a dogłębne zmiany w kulturze organizacyjnej. Technologia stała się naszym partnerem, z pomocą którego stawiamy czoła wyzwaniom biznesowymmówi Tomasz Kozłowski, Fellowmind Poland.

    Z raportu zrealizowanego przez Fellowmind wynika, że w przyszłości na technologiczną dojrzałość rynku wpłyną przede wszystkim zrównoważony rozwój (27%) i cyberbezpieczeństwo (27%). Jedna czwarta organizacji upatruje szansę na przyspieszenie innowacyjność w rozwoju sieci 5G[6].


    [1] Fellowmind People & Technology Report 2022
    [2] Jw.
    [3] Jw.
    [4] https://www.wirtualnemedia.pl/artykul/dzienny-czas-korzystania-z-internetu-w-czasie-pandemii-koronawirusa-wydluzyl-sie-w-polsce-o-1-5-godz
    [5] Jw.
    [6] Jw.


    źródło: Fellowmind

  • Nowy CEO w SER Group

    Nowy CEO w SER Group

    SERgroup Holding International GmbH (SER Group) ma przyjemność ogłosić, że na stanowisko CEO, ze skutkiem natychmiastowym, powołano doktora Johna Batesa. Firma wzmocniła także swój zespół zarządzający: nowe osoby pojawiły się w działach odpowiadających za finanse, sprzedaż, zarządzanie produktem oraz satysfakcję klienta. Nowo powołani menedżerowie będą wspierać ambitne plany rozwoju SER Group.

    Obejmujący funkcję CEO Bates to ekspert z ponad 20-letnim doświadczeniem w zakładaniu i prowadzeniu innowacyjnych firm IT, działających w obszarach takich jak: handel algorytmiczny, analityka w czasie rzeczywistym czy IoT. Pełnił on również funkcje kierownicze w wielu wysoko notowanych na giełdzie spółkach technologicznych. Wcześniej pracował jako CEO firmy Eggplant, wiodącego dostawcy i pioniera w obszarze inteligentnej automatyzacji testów oprogramowania z wykorzystaniem AI. Obecnie piastuje pozycję Non-Executive Directora w Sage, spółce będącej liderem listy FTSE100 (100 największych spółek notowanych na Financial Times Stock Exchange) w dziedzinie aplikacji biznesowych w chmurze. Obejmując stanowisko CEO, dr Bates zwolnił dotychczas zajmowaną funkcję Executive Chairmana w SER Group.

    – Potencjał SER jest ogromny, a zawdzięczamy go oferowanym przez nas innowacyjnym produktom oraz światowej klasy zespołowi. Zarówno analitycy, jak i klienci potwierdzają, że nasza technologia jest najlepsza na rynku. Nadszedł czas, by za pomocą strategii opartej na rozwiązaniach wprowadzać system Doxis na nowe rynki. Pozwoli to budować pozycję SER jako lidera w ujęciu strategicznym oraz geograficznymmówi dr John Bates.

    Grupa Ser, ser group

    Nowo powołani liderzy zapewnią rozwój i większe zyski

    Johna Batesa wesprze doświadczona kadra nowo mianowanych liderów, którzy będą wspierać osiąganie jeszcze lepszych wskaźników rentowności, wzrostów i innowacyjności we wszystkich obszarach działalności firmy. Wśród menedżerów znajdują się m.in.:

    • Holger Kliebe, Chief Financial Officer, ekspert w dziedzinie finansów z międzynarodowym doświadczeniem w zakresie fuzji i przejęć (M&A) oraz znajomością rynku oprogramowania i cyfryzacji
    • Sven Oliver Behrendt, Chief Customer Success Officer, mający ponad 25 lat doświadczenia na stanowiskach kierowniczych w SER Group, specjalizujący się w satysfakcji klienta
    • Fraser Herrick, Managing Director Northern Europe, doświadczony lider w dziedzinie oprogramowania i usług dla przedsiębiorstw, odpowiedzialny za rynki Wielkiej Brytanii, Irlandii i Europy Północnej
    • Nabil Ben Abdallah, Vice President of Sales, ekspert w dziedzinie digitalizacji i automatyzacji, specjalista z dużym doświadczeniem w kierowaniu sprzedażą globalną, odpowiedzialny za region Bliskiego Wschodu i Afryki
    • Douglas Cardoso, Director of Product Management, lider w zakresie innowacyjnego zarządzania produktem, ekspert w dziedzinie usług chmurowych związanych z udostępnianiem zasobów

    Firma wskazuje, że z takim zespołem, kierownictwo SER jest gotowe do przyspieszonego wzrostu firmy, opartego na na ekspansji międzynarodowej, także poprzez fuzje i przejęcia, rozszerzonie portfolio SaaS/chmury obliczeniowej oraz strategię produktową opartą na inteligentnych pakietach rozwiązań i usług.

  • Cyberbezpieczeństwo coraz bardziej istotne. Canon przypomina o tym, co czyni druk bezpiecznym

    Cyberbezpieczeństwo coraz bardziej istotne. Canon przypomina o tym, co czyni druk bezpiecznym

    Wielostopniowa autoryzacja dostępu, wykorzystanie nowoczesnego protokołu szyfrowania TLS 1.3, a przede wszystkim urządzenia i oprogramowanie od sprawdzonego dostawcy – to zdaniem Canon Polska jedne z najważniejszych reguł cyfrowego bezpieczeństwa w obszarze druku. Warto pamiętać o tych zasadach zwłaszcza, że część z nas wciąż pracuje z domu.

    Cyberbezpieczeństwo podczas pracy zdalnej to temat, który nie znika od początku pandemii Covid-19. Wiele firm wciąż nie powróciło do normalnego funkcjonowania i stosuje model pracy zdalnej bądź hybrydowej. A to, jak przekonuje Michał Kanownik, prezes Związku Cyfrowa Polska, reprezentującego polską branżę cyfrową, niesie za sobą potencjalne zagrożenia: – W ciągu ostatnich lat znacznie zmienił się tryb naszej pracy, a wraz z nim zasady bezpiecznego funkcjonowania w sieci. Coraz więcej firm stawia na pracę zdalną lub hybrydową, a wyrażenie home office przeszło do naszego codziennego słownika. To szansa zarówno dla pracowników, jak i pracodawców, ale też niestety i cyberprzestępców.

    Prezes Cyfrowej Polski wyjaśnia, że przeniesienie sporej części pracy poza biura stworzyło spore luki w systemach zabezpieczających. – Firmowe sieci coraz częściej tworzone są zgodnie z obecnymi standardami cyberbezpieczeństwa, czego nie można powiedzieć o konfiguracji naszych domowych sieci i komputerów zauważa Michał Kanownik.

    Druk jednym z kluczowych zagadnień bezpieczeństwa cyfrowego

    Tematyka cyberbezpieczeństwa będzie znaczyła coraz więcej nie tylko w kontekście pracy zdalnej. Przekonują o tym badania rynku. Jak wynika z raportu „Quocirca Print Security Landscape 2020” autorstwa agencji analitycznej Quocirca, w dziedzinie cybersecurity wyraźnie wzrasta świadomość firm. Rosną również wydatki na cyberochronę oraz zainteresowanie nowoczesnymi technologiami (na przykład chmurowymi). Aż 67 proc. osób podejmujących decyzje w dużych przedsiębiorstwach twierdzi, że cyfrowe bezpieczeństwo firmy w sieci znajduje się wśród trzech priorytetów inwestycyjnych na najbliższe lata. Zagadnienia ochrony cyfrowej wyprzedziły takie obszary inwestycyjne jak transformacja cyfrowa, automatyzacja procesów biznesowych, analityka danych czy sztuczna inteligencja. A jedną z najważniejszych ról odgrywa bezpieczeństwo procesów druku – 77 proc. firm określa je jako kluczowe lub ogromnie istotne.

    To o tyle ważne, że urządzenie drukujące lub wielofunkcyjne podpięte do firmowej sieci ma możliwość komunikacji z wieloma innymi sprzętami w firmie. Źle zabezpieczona drukarka czy skaner może zatem stać się potencjalną bramą dostępu do firmowych komputerów. A to już niebezpieczna sytuacja, mogąca skutkować profesjonalnie przeprowadzonym cyberatakiem.

    Kilka prostych zasad skutecznej ochrony

    Czy istnieją zatem sposoby, aby w prosty sposób zwiększyć poziom naszego bezpieczeństwa w sieci, zwłaszcza podczas pracy zdalnej? Dariusz Szwed, MPS Business Development Manager w Canon Polska, udowadnia, że tak. – Nowoczesne urządzenia i oprogramowanie posiadają wiele wbudowanych zabezpieczeń. Co jednak ważne dla przeciętnego użytkownika, większość technicznych kwestii biorą dziś na siebie producencimówi przedstawiciel Canon Polska. I wymienia te najważniejsze, które zapewniają bezpieczeństwo druku:

    • technologie autoryzacji użytkownika, zapobiegające uzyskaniu nieuprawnionego dostępu do urządzenia i danych na nim przetwarzanych
    • możliwość usuwania wrażliwych danych z dysku, zarówno po zakończeniu konkretnego zadania, jak i na końcu cyklu życia urządzenia,
    • opcja bezpiecznego druku („secure printing”), umożliwiająca zatrzymanie druku do chwili autoryzacji właściciela drukowanego dokumentu na urządzeniu,
    • szybkie i bezpieczne drukowanie dla gości odwiedzających firmę, bez konieczności przekazywania dokumentów zalogowanym użytkownikom
    • szyfrowanie plików PDF,
    • technologia znaku wodnego, uniemożliwiająca tworzenie nierejestrowanych kopii istotnych dokumentów.

    W ocenie przedstawiciela Canon, dzisiejszym standardem powinno być także stosowanie protokołu szyfrowania TLS 1.3. – To technologia, która gwarantuje, że współczesne mechanizmy ochrony komunikacji są zweryfikowane pod kątem aktualnych zagrożeń oraz wykorzystują aktualną architekturę sprzętowąwyjaśnia Dariusz Szwed.

    Dlatego kluczowy jest wybór przez użytkownika odpowiedniego urządzenia i oprogramowania. Te powinny pochodzić od sprawdzonych dostawców, wykorzystujących w swoich produktach nowoczesne systemy zabezpieczeń. A następny krok to regularna aktualizacja oprogramowania. Także o to zadbali producenci – zazwyczaj (zwłaszcza w przypadku oprogramowania chmurowego) dzieje się to automatycznie, bez konieczności manualnej aktualizacji przez użytkownika.

    Rozmowy o bezpieczeństwie

    Cyberbezpieczeństwo jest niezwykle szerokim i wielowątkowym zagadnieniem. Aby móc opowiedzieć o nim więcej, Canon Polska opublikował na swoich stronach internetowych podcast poświęcony tematowi firmowego i osobistego bezpieczeństwa w sieci. Słuchacze mogą dowiedzieć się m.in. o obecnych możliwościach cyberochrony firmy, rozwiać mity związane z wykorzystaniem środowiska chmurowego, a także posłuchać o standardach bezpieczeństwa dokumentów w kontekście RODO.

    O tych wszystkich kwestiach wspólnie rozmawiali Dariusz Szwed ze strony Canon Polska oraz dziennikarz, redaktor naczelny portalu BrandsIT – Bartosz Martyka. Nagranie pt. „Technologie – nasza szansa przed cyberzagrożeniami” zostało przygotowane w ramach cyklu „Rozmowy o druku”. Całość podcastu dostępna jest bezpłatnie tutaj.

  • Jak modeluje się epidemie. Sprawdzamy na przykładzie grypy

    Jak modeluje się epidemie. Sprawdzamy na przykładzie grypy

    W 2020 r. świat zapomniał o sezonowej grypie przez pandemię koronawirusa. Według danych CDC[1] (amerykańskiego stowarzyszenia Ośrodków Kontroli i Zapobiegania Chorób) zachorowalność na grypę w USA od 1 marca do 16 maja 2020 r. spadła o 98% w porównaniu z sezonem 2019-2020. Jest to najniższy poziom międzysezonowej cyrkulacji wirusa. Zgodnie ze światowymi danymi WHO, w sierpniu 2021 r. globalna aktywność grypy pozostaje na niższym poziomie niż oczekiwano, co, według organizacji, może być związane z przestrzeganiem dystansu społecznego i noszeniem masek.

    Jednakże grypa nie powiedziała ostatniego słowa. Niektórzy epidemiolodzy oczekują zwiększenia zachorowalności już w sezonie 2021-2022. Może ona być bardziej agresywna, ponieważ nasz system immunologiczny, przyzwyczajony do corocznej epidemii, stracił czujność. Do tego, jak mówią eksperci, przez deficyt informacji w sezonie 2020-2021, trudniej jest przewidzieć sytuację i określić, jakie odmiany wirusa będą się rozprzestrzeniały.

    Czy rzeczywiście tak trudno jest przewidzieć epidemię grypy? Przecież towarzyszy nam ona już wiele dekad w odróżnieniu od COVID-19 i wszyscy o niej wiedzą. Dowiedzmy się, o co w tym chodzi – z użyciem minimalnej liczby potrzebnych równań i trudnych terminów.

    Czym jest epidemia z naukowego punktu widzenia

    Kiedy słyszymy słowo „epidemia”, zwykle wyobrażamy sobie zjawisko z bardzo poważnymi skutkami. Najczęstsze skojarzenia to: codzienne komunikaty w wiadomościach, karetki z włączonymi syrenami na ulicach, rygorystyczne środki ochrony. Z punktu widzenia nauki, epidemia to jednak o wiele mniej drastyczne zjawisko.

    Wśród wielu definicji epidemii najpopularniejszą w środowisku naukowym jest ta, którą stosuje CDC. Według niej, epidemia to zwiększenie, często nagłe, liczby przypadków zachorowania w porównaniu z tym, które zwykle jest przewidywane dla danej populacji na danym terenie.

    Wielka zaraza w Londynie, która w latach 1665-1666 odebrała życie 100 tysięcy mieszczan (20% ludności), była epidemią. Intensywny atak grypy w 1978 r.[2] w zamkniętej szkole dla chłopców na północy Anglii, w wyniku którego zachorowało 512 z 763 uczniów, również była epidemią. Stosunkowo niedawny przypadek we Francji[3], kiedy 7 gości na weselu zaraziło się wirusowym zapaleniem wątroby typu E, zjadłszy tradycyjną korsykańską kiełbasę ze świńskiej wątroby (figatellu), również uważa się za epidemię.

    Ogromną część epidemii większość z nas przechodzi niezauważalnie. Według danych WHO od 2011 r. do 2017 r. na świecie zanotowano od 164 do 213 epidemii: dżumy, cholery, dengi, wirusa Zika i innych.

    Pic 1 number of epidemic events

    Ogólnie mówiąc, epidemii jest tak dużo, że logiczne jest do nich podejście systemowe. Takie, które będzie wykorzystywało modelowanie matematyczne, aby zniwelować jej skutki.

    Wirus grypy i pierwsza trudność w modelowaniu

    Grypa to wirus, dla którego naturalnym środowiskiem są zwierzęta: ptaki, świnie, konie, a także ludzie. Istnieją cztery typy grypy: A, B, C i D, z których u ludzi spotyka się pierwsze trzy, przy czym typ C jest bardzo rzadki i zwykle bezobjawowy. Najniebezpieczniejszym, prowadzącym do pandemii, jest wirus z grupy A. Dzieli się on na podtypy w zależności od połączenia białek (antygenów) na swojej powierzchni, które zapewniają przenikanie do komórki ludzkiej hemaglutyniny (HA) i neuraminidazy (NA).

    dataart

    Cząstka wirusa (wirion) grypy typu A i B[4]

    Na pewno znacie te kombinacje: H1N1, H3N2, H5N7. Litera „H” oznacza tu hemaglutyninę, a „N” – neuraminidazę. Obecnie znanych jest 18 typów hemaglutyniny i 11 neuraminidazy, możliwa jest np. wariacja H18N11.

    Warto odnotować, że grypa to wirus RNA, co oznacza wysokie prawdopodobieństwo mutacji. W procesie replikacji (kopiowania) RNA, przy przenikaniu do komórki, dochodzi do większej liczby pomyłek przez zmiany w strukturze hemaglutyniny i neuraminidazy. Mówiąc prościej, w komórce gromadzi się nie ten wirus, który oczekuje na spotkanie z organizmem. To nowa odmiana, przed którą nie ma się odporności, nawet jeśli organizm przeszedł grypę miesiąc wcześniej. Zapamiętajmy tę ważną dla modelowania cechę.

    Najpopularniejszy model i inne trudności przy modelowaniu

    Przy modelowaniu z reguły patrzy się na następujące charakterystyki, które pomagają dokonać obliczeń dotyczących obciążenia służby zdrowia:
    ●     początek epidemii;
    ●     czas do wystąpienia szczytu epidemii;
    ●     intensywność szczytu;
    ●     liczba ludzi, którzy zachorują w czasie epidemii.

    W 1927 r. szkoccy uczeni, William Kermack i Anderson McKendrick zaproponowali model SIR, który do dziś uważa się za bazowy. Zgodnie z nim, cała populacja podzielona jest na trzy grupy: podatnych na infekcję (Susceptible), zainfekowanych (Infectious) i ozdrowieńców z nabytą odpornością (Recovered).

    Od razu można powiedzieć, że przy grypie czynnik ozdrowieńców (Recovered) nie zawsze jest miarodajny. Przypuśćmy, że chory się wyleczył, zyskał antyciała, a następnie, pewny swego zdrowia, pojechał do biura metrem. Po dwóch dniach musiał ponownie położyć się do łóżka, z temperaturą, bólem głowy i innymi objawami grypy. Dlaczego? Ponieważ w jego otoczeniu krążyły dwie odmiany, różniące się kombinacją hemaglutyniny i neuraminidazy. Jednej z nich system immunologiczny w porę nie rozpoznał. Do tego organizm osłabł po walce z wcześniejszą odmianą – możliwe, że ta okoliczność doprowadzi do cięższego przebiegu choroby, wezwaniu pogotowia i hospitalizacji.

    Model SIR opisuje się układem trzech zróżnicowanych równań:

    dataart

    Z punktu widzenia matematyki to, co oznaczono na czerwono, oznacza, że mamy do czynienia z nieliniowością. Nie będziemy mogli znaleźć rozwiązania w sposób analityczny, tworząc formuły dzięki znanym nam funkcjom. Trzeba stosować rozwiązanie liczbowe. Współczynniki, które tu występują, określają szybkość przejścia z jednej grupy do drugiej: β– ze zdrowych do chorych, γ – z chorych do wyzdrowiałych.

    W ostatecznym rachunku otrzymamy tożsamość:

    Pic 4 R0

    S(0) to liczba ludzi, którzy mogą zachorować przed początkiem epidemii. Jest to również indeks reprodukcji R0, znany dobrze wszystkim, którzy obserwowali rozwój pandemii COVID-19. Oznacza on, ilu ludzi może zarazić jeden chory. Przy R0 powyżej jedynki rozwija się epidemia. Jeśli indeks jest mniejszy niż jedynka, to epidemia wygasa.

    W modelu SIR zakłada się, że ludzie tworzą nieprzerwane, jednorodne środowisko. Jak gaz lub ciecz. Populację uważa się za stałą, nie bierze się pod uwagę ubytku ludności – naturalnego bądź przez wirusa – i jej przyrostu. W praktyce prowadzi to do poważnego błędu w obliczeniach.

    Pamiętacie przykład z grypą w zamkniętej szkole dla chłopców? Nawet jeśli przy pomocy matematyki stworzy się model sytuacji w szkole z przedziałem ufności (95%), to okaże się, że zachorowało przykładowo 750 uczniów. Wiemy jednak dokładnie, że chorych było 512. R0 jest przykładowo równy 16, a tak naprawdę był równy 1,69. Jeśli w ten sam sposób stworzylibyśmy model sytuacji nie dla jednej szkoły, a, powiedzmy, dla miasta czy kraju, to nasze prognozy wywołałyby tysiące pytań. Jak to w końcu jest?

    Trzeba wiedzieć, że grypa nie rozwija się błyskawicznie. Istnieje okres utajony i okres inkubacyjny. Od początku zarażenia się do pojawienia się objawów klinicznych mijają średnio 2 dni (przy COVID-19, jak wiecie, do 14 dni). Do tego okres inkubacyjny częściowo nakłada się z okresem zarażania: chory jeszcze nie wie o swojej infekcji i zaraża innych.

    dataart

    W celu uwzględnienia zarażonych w okresie inkubacyjnym w modelu SIR wprowadza się grupę E (Exposed). Modyfikowany model SEIR to nowy układ równań, nowy współczynnik, lecz R0 tak jak poprzednio wynosi 16.

    dataart

    dataart

    Modelowanie SEIR z 2-dniowym okresem inkubacyjnym [5]

    Można jeszcze uwzględnić tych, którzy znajdują się na kwarantannie, i stworzyć model SEIQR, gdzie Q oznacza kwarantannę. Wtedy otrzymamy R0 równy 6-8, który, tak jak poprzednio, daleki jest od realnego 1,69.

    Podobnych wariacji modelu SIR jest wiele. Jeśli, np., wziąć pod uwagę liczbę zmarłych, lecz bez kwarantanny, otrzymamy model SEIRD itd. Jednak czegokolwiek byśmy nie uwzględnili, modelowanie SIR nie daje akceptowalnej dokładności. Rzecz w tym, że dowolna modyfikacja modelu jest deterministyczna: nie istnieją dla niej przypadkowe przyczyny. Grypa stanowi masę przypadkowości na każdym etapie, od połączenia się wirusa z komórką do przechodzenia licznych pułapek układu immunologicznego. Zatrzymanie się w naszym organizmie to prawdziwe wyzwanie dla każdego wirionu.

    Modele, które uwzględniają przypadkowości

    Jeśli liczba podatnych na infekcję i chorych to przypadkowe współczynniki, to model nosi miano stochastycznego. Stara się on odpowiedzieć na pytanie: jeśli w tygodniu „k” wskaźnik „x” to liczba zdrowych, to jakie jest prawdopodobieństwo, że w tygodniu „k+1” wskaźnik ten będzie oznaczał liczbę chorych? I oprócz tego, jakie jest prawdopodobieństwo uniknięcia infekcji (u)?

    Kiedy „u” zależy od liczby chorych (w tym sensie, że im więcej chorych, tym mniejsze prawdopodobieństwo uniknięcia zarażenia), otrzymujemy model Reeda-Frosta. Jeśli zakładamy, że prawdopodobieństwo zachorowania nie zależy od liczby[6] chorych, to otrzymujemy model Greenwooda.

    dataart

    Są to już bardziej elastyczne modele, nieciągłe – nazywa się je jeszcze modelami rozgałęzień (branching model). Liczba ozdrowieńców spada, prawdopodobieństwo zachorowania w najbliższym tygodniu zmienia się w zależności od sytuacji w poprzednim. Modele stochastyczne zastosowano na szeroką skalę w latach 70. XX w., stale rozwijano je i obecnie ogólnie odnotowują one wysoką zgodność z prognozami różnych infekcji.

    Co jeszcze można uwzględnić? Np. to, że ludzie różnie funkcjonują w społeczeństwie. Jedni pięć dni w tygodniu kontaktują się z dziesiątkami kolegów z pracy i ciągle spotykają się z przyjaciółmi, inni w ogóle nie mają przyjaciół i pracują w domu. Istnieje prawdopodobieństwo, że mają oni różne szanse na zachorowanie na grypę, dlatego można rozpatrywać rozprzestrzenianie się infekcji na grafie społecznym. Wygląda on przykładowo tak:

    dataart

    Z takim modelowaniem również są problemy, dlatego że w praktyce nie można stworzyć grafu z wszystkimi kontaktami społecznymi.

    Jeszcze jedną trudność przy modelowaniu stanowi wiarygodność danych. Tworzymy prognozy na podstawie obserwacji: pewna liczba osób w pewnym okresie zachorowała, trzeba to uwzględnić. Co jednak oznacza, że zachorowali? Pacjent z symptomami grypy musi iść do lekarza, a lekarz musi przekazać informacje organom nadzorującym:

    temperatura powyżej 38 stopni, kaszel, objawy pojawiły się w ciągu 10 dni. Nazywa się to chorobą grypopodobną (ILI, Influenza-like illness).

    Aby wykryć przypadki „czystej grypy”, wykorzystuje się termin ILI+[7], oznaczający, że do diagnozy potrzebny jest test, który w wymazie z jamy nosowo-gardłowej ujawni hemaglutyninę, neuraminidazę lub RNA grypy. Później określana jest część przetestowanych osób z wynikiem pozytywnym spośród wszystkich zgłaszających się z objawami grypy. Oczywiście dane te pozwalają tworzyć dokładniejsze modele.

    Co jeszcze należy uwzględniać?

    Wróćmy do procesu zarażenia. Przy oddychaniu, kichaniu i kaszlu zarażonego do powietrza trafiają cząstki, które dzieli się według rozmiaru: powyżej 5 mikrometrów (Droplet, kropla) i mniej niż 5 mikrometrów (Airborne, kropelka). Jeśli kaszel wydala przykładowo 10 tysięcy cząstek, to kichanie milion. Dlatego należy unikać kontaktu przede wszystkim z kichającymi.

    Cząstki poniżej 5 mikrometrów stanowią większość. Prawie bez przeszkód przechodzą przez górne drogi oddechowe i dostają się do płuc. Nie ma tam już nabłonka rzęskowego, gęsto pokrytego śluzem, który jest poważną barierą dla większych cząstek. Są natomiast alweolarne makrofagi neutrofile, gotowe do ataku na dowolny patogen, co prawda, nie zawsze z dobrym skutkiem. Kropelki łatwo przenoszą się w powietrzu i długo osiadają, 4 razy wolniej niż cząstki o rozmiarze 10 mikrometrów.

    Poważne znaczenie dla rozprzestrzenienia się wirusa ma szybkość parowania cząstek. Aby wyparowały połowicznie, potrzeba od 0,01 do 10 sekund. Różnica jest związana bezpośrednio z wilgocią: im jest ona niższa, tym szybciej paruje cząstka. Chory w windzie kichnął, wilgoć była niska – cząstka, nie zdążywszy osiąść, wyparowała do rozmiaru kropelki i krąży w powietrzu, póki nie trafi do nosa zdrowego człowieka.

    Przypomnijmy sobie, kiedy wilgoć w pomieszczeniach jest minimalna. Np. w Niemczech w lutym i w grudniu jest taka w szczycie sezonu grzewczego. Właśnie dlatego grypa ma wyraźną sezonowość (czego nie ma np. gruźlica). W ten sposób, znajomość dynamiki cząstek aerozolowych pozwala wyjaśnić, dlaczego epidemie powstają w określonych porach roku. Po drugie, pomaga ocenić ryzyko zarażenia.

    Zamiast zakończenia

    Wiemy wiele o grypie, nawet możemy policzyć, jak „zarażone” cząstki latają w powietrzu i jak parują. Wiemy także jednak, że procesy te mają charakter losowy. Nie można ich wszystkich uwzględnić nawet przy pomocy doskonałych metod matematycznych lub uczenia maszynowego. Tak naprawdę nie modelujemy epidemii, lecz tworzymy prognozy. Całą serię prognoz: nastąpienia epidemii, jej szczytu i intensywności. I im dalej od szczytu, tym dokładność jest mniejsza: w ciągu jednego tygodnia wynosi 75%, a w ciągu dwóch spada do 25%.

    Prognozy te, pomimo swych wszystkich wad, są konieczne. Przy pomocy modelu SIR można określić np., że epidemia rozpocznie się w pierwszej dekadzie grudnia, będzie trwać trzy tygodnie, zachoruje milion ludzi, a w jej szczycie będzie 100 tysięcy zarażeń. Pozwoli to służbie zdrowia się przygotować, udostępnić potrzebną ilość lekarstw i miejsc w szpitalach. Dlatego też korzyścią stosowania modeli opartych na prawdopodobieństwie jest pomoc w tworzeniu prognozy uwzględnienia zaszczepionych, prawdopodobieństwa zarażenia się każdej grupy w populacji itd. Póki co, jest to optymalna praktyka, pomagająca walczyć z epidemiami wirusów, które całkiem dobrze znamy.

    Aby zrozumieć, który sposób walki z epidemią jest najlepszy, wystarczy spojrzeć na niniejszy grafik:

    dataart

    Górny wykres – liczba zarejestrowanych przypadków grypy w populacji, dolny wykres – z uwzględnieniem szczepień.

    Wypływa z tego prosta nauka: warto myć ręce, wietrzyć pomieszczenia, włączać nawilżacz, lecz bez szczepienia zwyciężyć epidemię grypy się nie da. I nieważne, który model wykorzysta się do przewidywań.

    Jeśli interesuje was, jak matematyka i uczenie maszynowe pomagają w walce z fałszywymi wiadomościami, pogłoskami i teoriami spiskowymi w czasie epidemii, polecamy wykład Presława Nakowa na bezpłatnej konferencji online IT NonStop (18-20 listopada 2021 r.). Presław Nakow to główny pracownik naukowy Katarskiego Instytutu Badawczego Techniki Informatycznej na Uniwersytecie Hamada ibn Chalify w Katarze. Nakow stoi na czele megaprojektu Tanbih, opracowanego we współpracy z Instytutem Technologii w Massachusetts, przy pomocy którego ogłaszane są w szczególności fałszywe informacje o COVID-19.

    W programie konferencji jest ponad 40 wykładów i warsztatów specjalistów z https://it-nonstop.net/ firm takich jak np.: Microsoft, AWS, Ocado, Codete, Ciklum, Eleks, SoftServe, Toloka, Yandex, DataArt.

    Autor: Anton Dołgich, kierownik oddziału AI, Healthcare and Life Sciences w DataArt

    [1] źródło: https://www.cdc.gov/mmwr/volumes/69/wr/mm6937a6.htm
    [2] Źródło: https://www.cdc.gov/mmwr/volumes/69/wr/mm6937a6.htm
    [3] Źródło: https://academic.oup.com/jid/article/202/6/825/935689
    [4] źródło: https://www.nature.com/articles/nrmicro.2017.118
    [5] Źródło: https://docs.idmod.org/projects/emod-hiv/en/latest/model-seir.html#id4
    [6] Źródło: https://en.wikipedia.org/wiki/Reed%E2%80%93Frost_model#:~:text=The%20Reed%E2%80%93Frost%20model%20is%20one%20of%20the%20simplest%20stochastic,%2C2%2C…)&text=These%20conditions%20remain%20constant%20during%20the%20epidemic.
    [7] źródło: https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1006742

  • Trzy czwarte przedstawicieli sektora medycznego za kluczowe uważa inwestycje w analitykę danych

    Trzy czwarte przedstawicieli sektora medycznego za kluczowe uważa inwestycje w analitykę danych

    Ponad 90 proc. przedstawicieli systemu opieki zdrowotnej za najbardziej oczekiwany efekt cyfrowej transformacji uznaje poprawę doświadczenia pacjentów – wynika z raportu Digital transformation. From a buzzword to an imperative for health systems, przygotowanego przez firmę doradczą Deloitte. Skupienie się na podejściu bardziej przyjaznym dla pacjentów wiąże się jednocześnie ze zmianami w bieżącej działalności operacyjnej, kulturze biznesowej oraz sposobie i zakresie wykorzystania najnowszych rozwiązań technologicznych. Największą barierą w tej cyfrowej rewolucji są jednak niewystarczające finanse.

    W ciągu ostatnich 20 lat wiele szpitali i placówek medycznych w różnych obszarach swojej codziennej działalności wprowadziło rozwiązania technologiczne. W większości przypadków było to jednak podejście fragmentaryczne, koncentrujące się przykładowo na stworzeniu aplikacji, wykorzystaniu elektronicznych rejestrów medycznych czy funkcjonalności sztucznej inteligencji. Dopiero pandemia koronawirusa zmusiła sektor zdrowotny do wprowadzenia znaczących zmian.

    – Zdalna opieka i telewizyty stały się nie tylko koniecznością, ale i w wielu okolicznościach preferowaną formą relacji z pacjentami. Ta zmiana nie wzięła się jednak znikąd – pandemia przyspieszyła adopcję trendów digitalizacyjnych już wcześniej obserwowanych w branży opieki zdrowotnej. Kluczowe dla szerszego wdrożenia takiej transformacji jest przyjęcie jasno określonej strategii w podejściu do technologii cyfrowych. Obejmuje ona nie tylko nowy model budowania relacji z pacjentami, ale również zmianę kultury organizacyjnejmówi Jan Michalski, partner, lider Deloitte Digital CE.

    Cyfryzacja kluczowa dla zmiany relacji z pacjentami

    Zdaniem ekspertów Deloitte wraz z coraz powszechniejszym przejmowaniem przez pacjentów odpowiedzialności za własne zdrowie i dobre samopoczucie, systemy opieki zdrowotnej adekwatnie dopasowują inwestycje w obszarach cyfrowych do swojej strategii biznesowej.

    Respondenci za najważniejszy efekt transformacji cyfrowej w swoich organizacjach uznają poprawę satysfakcji pacjentów i skali ich zaangażowania (92 proc.) oraz poprawę jakości opieki i osiąganych efektów (56 proc.). Koncentracja właśnie na takich efektach przyczynia się do osiągnięcia sukcesu przez jednostki medyczne zarówno w wymiarze strategicznym, jak i finansowym. W otoczeniu szybkich i złożonych zmian w opiece medycznej, które spowodował COVID-19, tradycyjne podejście do decyzji w oparciu o aspekty finansowe jest niewystarczające.

    Sukces transformacji to efekt inwestycji w konkretne rozwiązania technologiczne. Badani najczęściej, w 76 proc. przypadków, wymieniają tu analitykę danych. Z kolei 68 proc. mówi o rozwoju usług wirtualnych, a 56 proc. o wykorzystaniu chmury.

    – Podstawą efektywnego przeprowadzenia zmiany jest zbudowanie zbiorów zunifikowanych danych pacjentów, zebranych możliwie szeroko oraz budowa algorytmów, które w oparciu o te dane uruchamiają komunikację do pacjenta. Co więcej, wraz z gwałtowną cyfryzacją, kwestią wymagającą uwagi są też zagadnienia z obszaru cyberbezpieczeństwa, szczególnie w zakresie zachowania prywatności i ochrony wrażliwych danych pacjentówmówi Paweł Kuśmierowski, partner associate w zespole Life Sciences & Health Care, Deloitte Digital.

    Długa droga cyfrowej transformacji

    Choć digitalizacja oznacza trochę co innego dla każdego z systemów opieki zdrowotnej i ich interesariuszy, większość respondentów jest zgodna, że jest to coś znacznie więcej niż przeniesienie dotychczasowych papierowych procesów do środowiska cyfrowego – to całkiem nowy sposób zapewniania opieki i wyjście naprzeciw oczekiwaniom konsumentów. To więcej niż podejmowanie cyfrowych działań, to przyjęcie całkowicie cyfrowego sposobu funkcjonowania, a to wymaga czasu.

    Zdaniem większości badanych, reprezentujących organizacje znajdujące się na różnych etapach transformacji, są one jeszcze daleko od osiągnięcia zaplanowanego, idealnego poziomu cyfryzacji. 60 proc. twierdzi, że są co najwyżej w połowie tego procesu. Jednocześnie 52 proc. wskazuje, że zajmie im on nie mniej niż 3 lata, a jedna piąta dopiero planuje swoje działania w tym zakresie. Co więcej, 40 proc. respondentów uważa, że reprezentowane przez nich instytucja nie może poszczycić się posiadaniem dobrze określonej strategii transformacyjnej.

    Największe przeszkody i szanse transformacji

    W trakcie procesu dotarcia do zakładanego poziomu digitalizacji systemy opieki zdrowotnej muszą mierzyć się z szeregiem przeciwności. Ponieważ najczęściej wymienianą przeszkodą na drodze cyfrowej transformacji systemów opieki zdrowotnej są kwestie finansowe (68 proc. wskazań), kluczowym kryterium decydującym o alokacji środków budżetowych jest spodziewany stopień zwrotu z inwestycji.

    Wśród najważniejszych barier respondenci wymieniają też kwestie dotyczące jakości wykorzystywanych danych (64 proc.) oraz ich dostępność (52 proc.). Problemem do pokonania jest też pozyskanie wykwalifikowanej kadry, na co wskazuje 48 proc. badanych. Zaledwie 12 proc. z nich uważa, że ma wystarczająco dużo pracowników. Nie powinno więc dziwić, że dla jednej trzeciej to właśnie jest obszar priorytetowych inwestycji w nadchodzących 3 latach.

    Zdaniem ekspertów Deloitte istotne jest też, że na przestrzeni ostatnich lat zmieniła się np. metodyka mierzenia wydajności. Podczas, gdy kiedyś za wystarczające uznawano sprawdzenie liczby pobrań aplikacji przez pacjentów, teraz znacznie bardziej odpowiednie wydają się złożone wskaźniki, takie jak liczba aktywnych użytkowników w miesiącu czy długość trwania pojedynczej sesji.

    Wśród kluczowych czynników przyspieszających transformację badani przez Deloitte najczęściej wymieniają natomiast skuteczne przywództwo (80 proc.) i kierowanie procesem zmiany (68 proc.). Podkreślali przy tym, jak ważne jest, aby zarządzający organizacją rozumieli te wysiłki oraz wspierali je odpowiednimi środkami, delegowaniem personelu i umożliwianiem podejmowania decyzji, wpływając na zmianę kultury organizacyjnej.

    O raporcie
    Raport Digital transformation. From a buzzword to an imperative for health systems powstał w oparciu o badanie wykonane między majem a lipcem 2021 r. przez Deloitte Center for Health Solutions we współpracy z Scottsdale Institute. Składało się ono z ankiety, wywiadów oraz dyskusji panelowej przeprowadzonych wśród dyrektorów technologicznych systemów ochrony zdrowia.

    Pełny raport do pobrania znajduje się tutaj.

  • IDC: Europejskie firmy w końcu otworzą się na Big Data

    IDC: Europejskie firmy w końcu otworzą się na Big Data

    IDC prognozuje, że europejski biznes nareszcie otworzy się na analitykę Big Data, a tempo wzrostu będzie dwucyfrowe. Czas najwyższy, bo jak na razie o Wielkich Zbiorach Danych dużo się mówi, a mało się robi. Z danych Eurostatu wynika, że raptem co dziesiąta firma w Europie wykorzystuje analitykę Big Data.

    Z wykorzystaniem Big Data w euro-biznesie jest trochę jak z zorzą polarną, niby każdy zna, a jednak mało kto widział. Pozyskiwanie, magazynowanie oraz przetwarzanie danych to we współczesnym biznesie bardzo ważne procesy. Tak mówi teoria, ale z jej realizacją, bywa różnie. Chociaż rozwiązania te znane są biznesowi od dekady, a często wręcz stanowią do spółki z “cyfrową transformacją” i “Przemysłem 4.0” słowa klucze w dyskusji o rozwoju, to wielkie zbiory danych lepiej wypadają w mediach i na konferencjach branżowych niż w codzienności biznesowej. Doskonale widać to w statystykach Eurostatu, które mówiąc oględnie, nie są pocieszające.

    Big Data, czy big problem?

    87% firm w Europie nie wykorzystuje analityki Big Data – grzmią pogromcy mitów z Eurostatu. Przedsiębiorcy, którzy zbierają, przechowują i przetwarzają dane, są w mniejszości i bliżej im do ciekawostki niż znaczącej siły. – Na tego typu statystyki można patrzeć w różny sposób. Rzeczywiście na pierwszy rzut oka, wygląda to bardzo słabo, ale to jedna strona medalu.zauważa Arkadiusz Bała z firmy BPSC i dodajeDo dużego worka europejski urząd statystyczny wrzucił wszystkie firmy; te jednoosobowe i mikro, są na równi z małymi, ale też średnimi i dużymi. To właśnie ci najmniejsi zaniżają statystyki, ale nic w tym dziwnego, bo zazwyczaj nie korzystają z Big Data, bo nie potrzebują.mówi ekspert ze śląskiej spółki IT. Dogłębna analiza danych Eurostatu potwierdza słowa Arkadiusza Bały z BPSC. Co piąta (19%) średnia firma w UE wykorzystuje analitykę Biga Data. Jeszcze lepiej statystki wyglądają w przypadku największych przedsiębiorstw, które zatrudniają co najmniej 250 pracowników. Co trzecia taka firma (31%) w Unii zbiera, magazynuje i przetwarza duże zbiory danych. Polska jest odbiciem Europy i tak jak w całej Wspólnocie, także nad Wisłą najwięksi wypadają najlepiej. Średnio co czwarta (26%) duża firma w Polsce używa Big Data, współczynnik przy średnich spada do 12%, a w przypadku najmniejszych wynosi 6%. Niestety w ujęciu całościowym jesteśmy grubo poniżej średniej dla UE, nasycenie nadwiślańskiego biznesu analityką Big Data wynosi 8%.

    Zakulisowe rozgrywki

    Zdaniem IDC, Europa w nowej dekadzie będzie nie tylko mówić, ale też działać na polu Big Data. Analitycy z międzynarodowej firmy doradczej przewidują się, że europejskie wydatki na rozwiązania Big Data i analitykę biznesową w tym roku osiągną wartość 50 mld dolarów. To wzrost o 7% w stosunku do roku 2020.– Big Data daje przedsiębiorstwom przewagę konkurencyjną i pozwala na podniesienie produktywności. Jest gamechangerem, który pomaga niemal wszystkim branżom osiągnąć korzyści biznesowe. zauważa Andrea Minonne, starszy analityk w IDC. Zdaniem IDC w tym roku europejski biznes zaczyna cykl, który potrwa przynajmniej 5 lat. Według ostrożnych szacunków do 2025 roku wydatki na pozyskiwanie, magazynowanie oraz przetwarzanie danych na Starym Kontynencie będą rosły w dwucyfrowym tempie. Autorzy raportu The Worldwide Big Data and Analytics Spending Guide zapowiadają, że do połowy dekady rynek będzie rósł rok do roku w przynajmniej 11% tempie.

    Kto się lubi z danymi?

    Większość europejskich firm jest zaznajomiona z technologią Big Data, ale znać nie równa się wykorzystywać. Im większa firma, tym chętniej korzysta z dużych zbiorów danych. Big Data pozostaje kluczową technologią umożliwiającą poprawę obsługi klienta, obniżenie kosztów i usprawnienie złożonych procesów biznesowych. – Kiedy chcesz coś zrozumieć, potrzebujesz danych. Kiedy chcesz wyznaczyć strategię, potrzebujesz dowodów. A jeśli jest problem, wiesz, jak go rozwiązać. komentuje Arkadiusz Bała z BPSC i dodajeDzięki wykorzystaniu danych firma może uzyskać bogaty, szczegółowy obraz tego, co się dzieje, i zacząć rozumieć co, gdzie i dlaczego. Jednak potrzebna jest do tego odpowiednia analityka biznesowa, a także co oczywiste: oprogramowanie.wyjaśnia Sales Manager z katowickiej spółki IT. Ponosząc odpowiedzialność za jedną czwartą wszystkich wydatków na analitykę dużych zbiorów danych, sektor finansowy i przemysłowy będą największymi zwolennikami Big Data w 2021. Jednak jak zapewniają eksperci IDC, w dłuższej perspektywie, branże takie jak usługi profesjonalne i opieka zdrowotna mogą inwestować więcej niż dzisiejsi liderzy. Szczególnie służba zdrowia posiada wiele danych o pacjentach i ogromny potencjał do wykorzystywania ich.

  • Analityka SAS dostępna na platformach Amazon Web Services i Google Cloud

    Analityka SAS dostępna na platformach Amazon Web Services i Google Cloud

    Firma SAS, lider rynku analityki, potwierdziła dostępność platformy SAS Viya w środowisku Amazon Web Services i Google Cloud oraz zapowiedziała, że wsparcie dla Red Hat OpenShift pojawi się jeszcze w tym roku. W ramach strategicznego partnerstwa podpisanego w 2020 roku z firmą Microsoft, platforma SAS Viya jest też dostępna na Microsoft Azure.

    Analitycy rynku przewidują znaczny wzrost wdrożeń chmury publicznej na potrzeby oprogramowania big data i analityki (BDA). Jak wynika z raportu IDC Worldwide Big Data and Analytics Software Forecast, 2020–20241, wdrożenia z zakresu chmury publicznej miały 30,5 proc. udziału w rynku BDA w 2019 roku. Spodziewany skumulowany roczny wskaźnik wzrostu (CAGR) dla implementacji z wykorzystaniem technologii cloud computing wyniesie 23,2 proc. do 2024 roku. CAGR dla innych metod implementacji, w tym opartych na infrastrukturze własnej firmy, to -1,2 proc. Organizacje, które nie otworzą się na chmurę, już niedługo mogą mieć problem z utrzymaniem przewagi konkurencyjnej.

    Analityka w chmurze jest tym, czego oczekują dziś klienci. Jesteśmy dumni z naszych wspólnych projektów z Microsoft i efektów działania SAS Viya w środowisku Azure. Oczywiście szanujemy decyzje klientów, którzy decydują się na innych dostawców chmury. Będą oni mogli korzystać z naszych rozwiązań tam, gdzie znajdują się ich dane. Pomożemy im wykorzystać potencjał poczynionych inwestycji chmurowych, aby mogli odnieść wymierne korzyści z projektów analitycznychmówi Jay Upchurch, CIO w SAS.

    Biznes korzysta z analityki w chmurze

    Firmy, które przeszły cyfrową transformację, mogły przez ostatnie lata szybko dostosować się do zmieniających się realiów rynkowych. To wymagało decyzji podejmowanych w oparciu o dane. Rozszerzając wsparcie dla SAS Viya o kolejnych dostawców chmury, dajemy klientom wybór i kontrolę podczas wdrożeń najlepszych rozwiązań analitycznych wszędzie i w każdej skali w ramach całego przedsiębiorstwatłumaczy Bryan Harris, CTO w SAS.

    Wśród klientów SAS, którzy korzystają z analityki SAS w chmurze, są m.in. Axcess Financial, Banca Progetto, Center for Nonprofit Management, Fundacja COPD, Gavilon Group, Georgia-Pacific, drużyna NBA Orlando Magic oraz Uniwersytet Teksasu w Arlington.
    Producent dóbr konsumenckich Georgia-Pacific wykorzystuje SAS do analizy ponad biliona rekordów w ciągu jednej nocy, w zakładach produkcyjnych znajdujących się w Ameryce Północnej. Firma zwiększa potencjał analityczny, wykorzystując platformę SAS Viya działającą w środowisku Amazon Web Services.

    Szukamy informacji zawartych w danych, które pomogłyby nam zmienić zachowania i procesy, co jest kluczowe w Georgia-Pacificmówi Roshan Shah, wiceprezes Centrum Współpracy i Wsparcia w Georgia-Pacific, które pomaga wykorzystać dane i technologię do optymalizacji procesów wytwórczych. Dzięki modelom analitycznym SAS podejmujemy szybciej lepsze decyzje, wcześniej polegaliśmy głównie na wiedzy i doświadczeniu zespołu dodaje.

  • Analityka SAS dostępna na platformach Amazon Web Services i Google Cloud

    Analityka SAS dostępna na platformach Amazon Web Services i Google Cloud

    Firma SAS potwierdziła dostępność platformy SAS Viya w środowisku Amazon Web Services i Google Cloud oraz zapowiedziała, że wsparcie dla Red Hat OpenShift pojawi się jeszcze w tym roku. W ramach strategicznego partnerstwa podpisanego w 2020 roku z firmą Microsoft, platforma SAS Viya jest też dostępna na Microsoft Azure.

    Analitycy rynku przewidują znaczny wzrost wdrożeń chmury publicznej na potrzeby oprogramowania big data i analityki (BDA). Jak wynika z raportu IDC Worldwide Big Data and Analytics Software Forecast, 2020–20241, wdrożenia z zakresu chmury publicznej miały 30,5 proc. udziału w rynku BDA w 2019 roku. Spodziewany skumulowany roczny wskaźnik wzrostu (CAGR) dla implementacji z wykorzystaniem technologii cloud computing wyniesie 23,2 proc. do 2024 roku. CAGR dla innych metod implementacji, w tym opartych na infrastrukturze własnej firmy, to -1,2 proc. Organizacje, które nie otworzą się na chmurę, już niedługo mogą mieć problem z utrzymaniem przewagi konkurencyjnej.

    Analityka w chmurze jest tym, czego oczekują dziś klienci. Jesteśmy dumni z naszych wspólnych projektów z Microsoft i efektów działania SAS Viya w środowisku Azure. Oczywiście szanujemy decyzje klientów, którzy decydują się na innych dostawców chmury. Będą oni mogli korzystać z naszych rozwiązań tam, gdzie znajdują się ich dane. Pomożemy im wykorzystać potencjał poczynionych inwestycji chmurowych, aby mogli odnieść wymierne korzyści z projektów analitycznychmówi Jay Upchurch, CIO w SAS.

    Biznes korzysta z analityki w chmurze

    Firmy, które przeszły cyfrową transformację, mogły przez ostatnie lata szybko dostosować się do zmieniających się realiów rynkowych. To wymagało decyzji podejmowanych w oparciu o dane. Rozszerzając wsparcie dla SAS Viya o kolejnych dostawców chmury, dajemy klientom wybór i kontrolę podczas wdrożeń najlepszych rozwiązań analitycznych wszędzie i w każdej skali w ramach całego przedsiębiorstwatłumaczy Bryan Harris, CTO w SAS.

    Wśród klientów SAS, którzy korzystają z analityki SAS w chmurze, są m.in. Axcess Financial, Banca Progetto, Center for Nonprofit Management, Fundacja COPD, Gavilon Group, Georgia-Pacific, drużyna NBA Orlando Magic oraz Uniwersytet Teksasu w Arlington.

    Producent dóbr konsumenckich Georgia-Pacific wykorzystuje SAS do analizy ponad biliona rekordów w ciągu jednej nocy, w zakładach produkcyjnych znajdujących się w Ameryce Północnej. Firma zwiększa potencjał analityczny, wykorzystując platformę SAS Viya działającą w środowisku Amazon Web Services.

    Szukamy informacji zawartych w danych, które pomogłyby nam zmienić zachowania i procesy, co jest kluczowe w Georgia-Pacificmówi Roshan Shah, wiceprezes Centrum Współpracy i Wsparcia w Georgia-Pacific, które pomaga wykorzystać dane i technologię do optymalizacji procesów wytwórczych. Dzięki modelom analitycznym SAS podejmujemy szybciej lepsze decyzje, wcześniej polegaliśmy głównie na wiedzy i doświadczeniu zespołu dodaje.

  • Inwestycja w przyszłość – dozór wideo z analityką brzegową

    Inwestycja w przyszłość – dozór wideo z analityką brzegową

    Rosną możliwości analityki wideo na krawędzi sieci, czyli w samych kamerach. Natychmiastowy wynik pracy analityki na krawędzi sieci to duży potencjał korzyści dla biznesu, w porównaniu do analityki serwerowej. Jeśli przetwarzanie odbywa się na miejscu, w kamerze – oznacza to, że tylko niezbędna ilość danych będzie przetransferowana do operatora.

    Gdyby ten proces miał odbywać się na serwerze, oznaczałby, że wszystkie dane do analizy musza być z kamery przesłane na serwer w centrum danych, podnosząc niepotrzebnie koszty wynikające z transferu.

    Ponadto analiza obrazu bezpośrednio w kamerze gwarantuje, że uchwycone przez nią obrazy będą analizowane w ich najwyższej jakości, nie tracą bowiem w procesie kompresji – wymaganej często przy transferze, a powodowanej, o ironio, koniecznością wysyłania danych poza kamerę.

    Rozpoznawanie obiektów – precyzja na krawędzi

    Podstawę analizy brzegowej opartej na głębokim uczeniu stanowi znacznie dokładniejsze rozpoznawanie obiektów. Weźmy przykład z zarządzania ruchem drogowym, gdzie jednym z problemów związanych z tradycyjną analizą jest liczba fałszywych alarmów płynących z monitoringu, mylącego kałuże lub cienie z pojazdami biorącymi udział w ruchu.

    Większa dokładność wynikająca z przetwarzania na miejscu znacząco zredukuje podobne pomyłki, ale może też więcej. Przynosi możliwość rozróżniania typów obiektów – ciężarówek, autobusów, samochodów osobowych czy motocykli, otwierając tym samym nowe możliwości w zarządzaniu efektywnością ruchu.

    To tylko początek możliwości rozwiązań skupiających się dziś na analityce sceny w czasie rzeczywistym i odpowiedzi na przebieg sytuacji, jak emitowanie ostrzeżeń drogowych czy świateł kierujących ruchem.

    Więcej procesowania danych – więcej informacji

    Monitoring wideo dawno już nie jest tylko przeglądaniem nagrań przez operatora. Analitykę przeprowadzają procesory, które otrzymują obraz z kamer w formie danych. Inteligentna kamera rozumie obraz samochodu jako zestaw charakterystycznych danych. Nie tylko kreuje te dane, lecz także dane o danych – metadane, takie jak czas powstania obrazu, miejsce, wielkość pakietu i inne. W analityce brzegowej wykorzystuje się oba typy danych, choćby do potrzeb wyszukiwania informacji płynących z obrazu.

    Wykorzystanie tych danych w analityce może wesprzeć obsługę dużych zbiorów danych, zbieranych przez dłuższy czas. Taka analiza przyniesie odpowiedzi na pytania odnoszące się do liczby incydentów blokowania buspasów, czy liczby osób przebywających na konkretnej stacji metra w godzinach porannych – na przykład w skali roku, miesiąca, weekendu.

    Urządzenia, w szczególności inteligentne rozwiązania wykorzystujące deep learning, są niezwykle skuteczne w rozpoznawaniu wzorców i anomalii. Im więcej danych będą miały wejściowo, tym bardziej dokładne predykcje wyjściowe otrzymają użytkownicy, mogąc zareagować szybciej i dokładniej na występujący problem.

    Systemy wspierające monitoring na krawędzi

    Kamera będzie w takim przetwarzaniu inteligentnym czujnikiem dla zastosowań dochodzeniowych, badań – obliczeń demograficznych, ochrony perymetrycznej, detekcji dymu, mierzenia poziomu hałasu, zarządzania ruchem, czy monitorowania poziomu cieków wodnych.

    Kamera musi jednak być wyposażona w odpowiedni interfejs programistyczny, jak np. VAPIX firmy Axis, wykorzystywany do sterowania i wymiany danych. Istotna pozostaje też kwestia integracji z rozwiązaniami firm trzecich oraz możliwość tworzenia dedykowanego oprogramowania dla kolejnych zastosowań brzegowych – w urządzeniach Axis tę rolę spełnia ACAP, czyli Axis Camera Aplication Platform.

    Przyszłość to przetwarzanie na krawędzi

    Analityka brzegowa ciągle się rozwija. Czerpanie z niej prawdziwych korzyści będzie rosło proporcjonalnie do liczby inteligentnych urządzeń, podobnie będzie rosła adaptacja technologii brzegowej. Korzyści, które oferują rozwiązania brzegowe, to wykrywanie tego, co się dzieje, decydowanie, co z tym zrobić i podejmowanie adekwatnych działań bezpośrednio na miejscu wydarzeń.

    Mamy przekonanie, że dzięki eliminacji stratnej kompresji, redukcji kosztów sieciowych, potencjałowi skalowalności i przetwarzania w czasie rzeczywistym, rozwiązania wykorzystujące analitykę brzegową będą coraz powszechniej stosowane. Więcej o zagadnieniach analityki brzegowej i jej możliwościach wykorzystania w monitoringu znajdziecie Państwo na naszych stronach www oraz dostępnych tam webinariach.