Tag: Analityka

  • InPost korzysta z analizy danych w chmurze

    Finanse, sprzedaż i operacje. W tych obszarach firmy InPost, dane wykorzystywane są nie tylko jako źródło informacji historycznej. Służą bieżącemu podejmowaniu decyzji. Wprowadzenie rozwiązań chmurowych w firmie jest także krokiem w kierunku zaawansowanej analityki informacji, dzięki której organizacja może zapewniać jeszcze lepsze doświadczenia swoim klientom, a także zyskiwać przewagę na konkurencyjnym rynku.

    „Kluczowe jest zasilanie hurtowni właściwymi danymi, analiza ruchu w wybranych lokalizacjach oraz właściwe wzbogacanie wiedzy danymi pochodzącymi z zewnętrznych źródeł. W naszych danych tkwi ogromny potencjał biznesowy. Wykorzystanie zaawansowanych narzędzi analitycznych, takich jak Microsoft Power BI, pozwala nam jeszcze lepiej dopasować się do zmieniających się potrzeb naszych klientów i wychodzić naprzeciwko ich oczekiwaniom”mówi Andrzej Grochowalski, CIO w firmie InPost.

    Wdrożenie rozwiązań chmurowych w InPost zostało zrealizowane w partnerstwie z PwC Polska. Właściciel ogólnopolskiej sieci paczkomatów korzysta dzisiaj z Microsoft Power BI oraz chmury Azure.

    „Rolą doradcy technologicznego jest wskazanie optymalnego rozwiązania, gotowego spełnić wymagania organizacji teraz i w przyszłości. Wypracowane rozwiązania PwC oparte o technologię Microsoft oraz znajomość specyfiki branży, w której działa InPost, pozwoliły naszym ekspertom wdrożeniowym i biznesowym na szybkie dostosowanie technologii do potrzeb biznesu i wsparcie realizacji celów zakładanych przez firmę”mówi Marcin Makusak, partner PwC Polska, ekspert w obszarze Business Intelligence.

    „InPost jest przykładem organizacji, która dotrzymuje kroku innowacji. Firma świadomie rozwija biznes w kierunku chmury, a przede wszystkim realizuje szereg działań w taki sposób, by jak najlepiej odpowiedzieć na potrzeby klientów. Dane dają podstawę do tego, by szyć dzisiaj firmę skrojoną na miarę potrzeb rynku.” mówi Paweł Jakubik, członek zarządu w polskim oddziale Microsoft.

    Technologie chmurowe wykorzystywane w InPost pozwalają nie tylko na analizowanie historii, ale także na bieżące reagowanie na niepokojące tendencje, takie jak spadek przychodów w danej linii biznesowej, zmniejszenie liczby przesyłek u kluczowego klienta lub w kluczowym kanale. Analityka sięga poziomu poszczególnych przesyłek, co pozwala lepiej zrozumieć, co stoi za liczbami, raportowanymi na koniec miesiąca. Wreszcie, hurtownia danych umożliwia planowanie przyszłości poprzez dostarczanie danych do budowania modeli prognostycznych.

    „Chcieliśmy efektywnie i szybko agregować dane generowane w InPost, by wspierać bieżące decyzje biznesowe. Pomysłem na to było wdrożenie hurtowni danych – na początku sprzedażowych i wolumenowych, później – pochodzących z pozostałych działów firmy”rozpoczyna opowieść Magdalena Ociepka, dyrektor finansowy w InPost.

    Firma zdecydowała się na rozwiązanie przygotowane specjalnie dla niej, jednak oparte o gotowe elementy dostępne w chmurze, dzięki czemu implementacja narzędzia była bardzo szybka. Argumentem przemawiającym za wyborem takiej opcji był także fakt, że w swojej hurtowni danych InPost korzysta z wielu różnych źródeł informacji pochodzących z różnych systemów. Co więcej, na rynku nie było gotowego rozwiązania, które dawałoby taką elastyczność przy prezentacji wyników końcowych.

    „Było dla nas jasne, że InPost potrzebuje rozwiązania, które będzie jak najbardziej skalowalne, elastyczne i szybkie do wdrożenia. Wykorzystanie potencjału chmury jest dziś nieodzowne podczas budowanie organizacji data-driven. Kluczem do sukcesu, oprócz samej technologii, było wdrożenie spójnej polityki zarządzania jakością danych oraz praca w oparciu o metodykę agile. Dzięki temu InPost zyskał rozwiązanie analityczne, które jest szyte na miarę i które może rozwijać samodzielnie, adresując zmieniające się potrzeby organizacji” – dodaje Marcin Makusak.

    „Nasza hurtownia konsumuje dane z wielu różnych systemów. Jej wdrożenie w zakresie sprzedaży sprawiło, że inne działy dostrzegły ogromną szansę. Obecnie z hurtowni danych korzysta sprzedaż, finanse i operacje. Naszym następnym wyzwaniem będzie użycie gotowych funkcjonalności Big Data dostępnych w chmurze. W ten sposób InPost będzie mógł rozwijać się jeszcze szybciej” – podsumowuje Magdalena Ociepka.

  • Umiejętność pracy z danymi – co powinien umieć Data scientist?

    Umiejętność pracy z danymi – co powinien umieć Data scientist?

    Data scientist kojarzy się z osobą zafascynowaną naukami ścisłymi, a w sposób szczególny informatyką. W rzeczywistości oprócz kompetencji technicznych niezwykle ważne są również wiedza branżowa oraz tzw. kompetencje miękkie. Umiejętność programowania, czy tworzenia modeli jest kluczowa, ale potem trzeba zaprezentować idee stojące za projektami analitycznymi szerokiemu gronu odbiorców w ramach całej organizacji.

    Praca specjalisty od danych zaczyna się od postawienia właściwego pytania. Aby móc to zrobić niezbędna jest wiedza na temat wszystkich procesów, które mają wpływ na funkcjonowanie organizacji. Rozwiązanie danego problemu wymaga często połączenia sił działów technologii i biznesu, a data scientist musi stanowić pomost między tymi dwoma światami.

    Przyszłość data science

    Zmienia się rola i zakres odpowiedzialności specjalistów data science w organizacjach, a zainteresowanie rozwojem kariery w tym obszarze jest coraz większe. Eksperci SAS zwracają uwagę na fakt, że specjaliści data science mogą rozwijać się w różnych branżach i obszarach biznesowych, takich jak sprzedaż i marketing, finanse, bezpieczeństwo, zarządzanie ryzykiem, czy przeciwdziałanie nadużyciom i przestępstwom finansowym. Wydarzenia ostatniego roku spowodowały, że uwaga jest dziś zwrócona w sposób szczególny na wykorzystanie danych i analityki w sektorach badań klinicznych i ochrony zdrowia, które w coraz szerszym zakresie wykorzystują potencjał danych i zaawansowanych narzędzi – na przykład do analizy tekstu lub obrazu.

    Jeżeli ktoś nie lubi monotonii, jeżeli ma duszę odkrywcy i szuka, dopóki nie znajdzie, to obszar data science dostarczy wyzwań i zaspokoi potrzeby takiej osoby. A jednocześnie zapewni dostęp do szerokiego rynku pracy z wysokim poziomem gratyfikacji. Ten obszar nie jest zagrożony przez robotyzację. Przeciwnie, będzie wyznaczał trendy panujące na rynku i oferował możliwość wykonywania bardzo ważnych, strategicznych zadań, również tych ratujących ludzkie życie. Dlatego już na etapie szkoły średniej lub nawet podstawowej warto polubić królową nauk – matematykę, wytrwale pracować i rozwijać pasjemówi dr Mariusz Dzieciątko, Senior Business Solutions Manager w SAS Polska.

    Studenci chcą wspierać rozwój innowacyjnych rozwiązań analitycznych w ochronie zdrowia

    SAS wspiera programy nauczania oraz realizuje wiele inicjatyw, które mają na celu rozwój kompetencji analitycznych i budowanie kadr w obszarze data science. Dostępna bezpłatnie dla sektora akademickiego platforma SAS Viya for Learners zapewnia możliwość korzystania z najnowocześniejszych narzędzi analitycznych w środowisku chmury obliczeniowej. Studenci mają też możliwość sprawdzenia swoich umiejętności w praktyce podczas globalnych i lokalnych hackathonów.

    Najbliższa polska edycja SAS Data Science Hackathon odbędzie się już 27 lutego 2021 w formie wirtualnej i będzie to analityczny turniej z misją. Uczestnicy staną przed zadaniem stworzenia innowacyjnego projektu z wykorzystaniem dowolnych technik machine learning, deep learning, text analytics, aby pomóc Narodowemu Instytutowi Onkologii zautomatyzować proces przetwarzania notatek lekarskich.

    SAS Data Science Hackathon daje możliwość stawienia czoła prawdziwemu problemowi, korzystając z prawdziwych danych, gdzie nie ogranicza nas technologia, a jedynie własna kreatywność. Przy czym wsparcie w postaci narzędzi SAS Viya pozwala na użycie wizualnych interfejsów, które ułatwiają pracę z danymi, także nieustrukturyzowanymi, takimi jak tekst. Umożliwiają szybkie prototypowanie, a więc sprawdzenie szeregu pomysłów i rozwiązań w znacznie krótszym czasie, niż przy tradycyjnym kodowaniu. Choć należy zaznaczyć, że opcja kodowania będzie jak najbardziej dostępna i to nie tylko w języku SAS, ale również w innych językach, takich jak np. Python, R czy Java – mówi Mariusz Dzieciątko.

    Hackathon jest dobrym miejscem na poznanie nowych narzędzi i rozwój kompetencji analitycznych – częścią wydarzenia są dedykowane warsztaty na platformie SAS Viya. Turniej, który odbędzie się w formie wirtualnej, cieszy się bardzo dużym zainteresowaniem wśród studentów – rejestracje spływają z uczelni technicznych, ekonomicznych i medycznych z całej Polski. Partnerem głównym wydarzenia jest Narodowy Instytut Onkologii im. Marii Skłodowskiej-Curie – Państwowy Instytut Badawczy. Partnerami są Akademia Leona Koźmińskiego i AstraZeneca Pharma Polska. Turniej został objęty patronatem Parlamentu Studentów Rzeczypospolitej Polskiej.

    Więcej informacji na stronie wydarzenia: https://www.sas.com/pl_pl/events/2021/sas-hackathon.html

  • OVHcloud: 5 trendów IT na 2021 rok

    OVHcloud: 5 trendów IT na 2021 rok

    Rok 2020 wywrócił do góry nogami rzeczywistość, którą znaliśmy. Obowiązek zachowania fizycznego dystansu w praktyce przeniósł wiele osób do wirtualnego świata. Dlatego w czasie gdy wiele branż, takich jak gastronomia czy hotelarstwo musiało zawiesić swoją działalność, sektor IT rozwijał się w przyśpieszonym tempie, a chmura obliczeniowa, usługi w chmurze i e-commerce stały się dla wielu nową normalnością. I chociaż mijający rok zapamiętamy zapewne na długo, to z pewnością zaowocuje on wieloma ciekawymi trendami technologicznymi. Czy pozwolą one spojrzeć w nadchodzącą przyszłość z optymizmem?

    Zarówno wielbiciele technologicznych nowinek, jak i fani fantastyki naukowej od wielu lat rozmyślali nad jeszcze kiedyś futurystycznie brzmiącym rokiem 2020. Oprócz zalet życia w świecie zaawansowanej technologii, niektórzy zastanawiali się również nad jej negatywnymi konsekwencjami. Jednak, gdy pełni nadziei wchodziliśmy w bieżący rok, nikt nie przewidywał jak wyczerpujący się okaże. Ostatnie 12 miesięcy upłynęło nam pod znakiem wielu istotnych wydarzeń:

    1.     Zwarci i gotowi

    Pandemia w 2020 roku to tragedie poszczególnych ludzi i całych narodów. To jednak także seria wyzwań. Z jednej strony koncerny farmaceutyczne ruszyły do opracowania szczepionek w możliwie najkrótszym czasie, z drugiej strony Polacy przenieśli do swoich mieszkań nie tylko biura, ale także i szkoły, gabinety lekarskie, restauracje czy sale kinowe. Poziom edukacji, rzetelność telewizyt czy efektywność wykonywanej pracy pod dyktando e-testów czy zdalnych lekcji można oceniać różnie. Najważniejsze jednak, że konieczne rozwiązania były powszechnie dostępne, istniały narzędzia i niezbędna infrastruktura – aplikacje do prowadzenia spotkań i przesyłania filmów, szerokopasmowy Internet czy sprzęt komputerowy. Oczywiście, zawsze można było sprawniej i lepiej, ale wyobraźmy sobie lockdown choćby dekadę temu, przecież nasza codzienność wyglądałaby zupełnie inaczej. Mimo wszystko obecny wynik należy uznać za sukces, a z pewnoscią 2021 rok pozwoli udoskonalić wiele elementów.

    2.     Szybsza cyfryzacja

    Jedną z trudności, jakie przyniósł mijający rok, był brak stabilności. Z dnia na dzień konieczne stało się dostosowanie planów, preferencji i przyzwyczajeń do nowych warunków. Okazało się, że niemal każda potrzeba: od kontaktu z drugim człowiekiem przez zakupy po realizację recepty łączy się ze zmianą. Toteż konsumenci, jak i usługodawcy oraz sprzedawcy zaczęli szukać nowych możliwości. Konieczność zapewnienia ciągłości biznesowej zmotywowała wiele firm do działania i zrealizowania odkładanej od lat transformacji cyfrowej, spełniając przy tym restrykcyjne wymagania dotyczące bezpieczeństwa danych oraz prywatności. Ponieważ świat zamknął się niemal z dnia na dzień, a wiele sektorów nie było na to przygotowanych, innego wymiaru nabrały wzajemne wsparcie i współpraca. Przykładem są tu firmy IT, które już na początku pandemii powołały do życia organizacje pomocowe, takie jak europejska inicjatywa „Open Solidarity” czy „Tech To The Rescue”, dzięki którym potrzebujące firmy mogły skorzystać ze wsparcia narzędziowego i wiedzy eksperckiej w cyfryzacji.

    3.     Cybersuwerenność Europy

    Bez wątpienia, donośniej wybrzmiewała w 2020 roku kwestia cyfrowej suwerenności danych. Koncepcja oddania krytycznej infrastruktury informacyjnej europejskich podmiotów w ręce prywatnych firm podlegających prawu odbiegającemu znacznie od kontynentalnych standardów prowokowała pytania i dyskusje. Rozdrobnienie mapy politycznej Europy utrudniało jednak stworzenie jednolitego planu. Chcąc znaleźć rozwiązanie i celem stworzenia zaufanej oferty usług chmury publicznej na potrzeby rynków europejskich, dla których kluczowa jest suwerenność danych oraz zgodność z RODO, z inicjatywy francusko – niemieckiej powołano międzynarodowy projekt Gaia-X, gdzie OVHcloud było jednym z założycieli. Obecnie opracowywane są kolejne narzędzia, które mogą służyć europejskim firmom, a jednocześnie zapewniać standardy ochrony danych, kluczowe dla Europy.

    4.     Blockchain

    Rewolucja Blockchain wydaje się wciąż przed nami. Technologia Blockchain, która wymusiła współpracę pomiędzy konkurującymi z sobą instytucjami finansowymi i zarazem absolutny hit roku 2019 nie zmieniła świata. Niewykluczone jednak, że za czas jakiś znów usłyszymy o Blockchainie, który wciąż może zrewolucjonizować ekonomię i przyczynić się do gospodarczego boomu, zwłaszcza że jako pierwsza potencjał blochchain doceniła branża finansowa.

    5.     Wirtualnie blisko

    Przymus fizycznego dystansu obrócił o 180 stopni formę świadczenia pracy i od miesięcy otwartym pozostaje pytanie, czy wrócimy na pełen etat do biur? Obostrzenia przyśpieszyły otwieranie się biznesu na szerokie zastosowanie Wirtualnej Rzeczywistości (VR). Wyszkolenie pracownika w bezpiecznym, wirtualnym środowisku pozwala mu nie tylko przećwiczyć te mniej i bardziej typowe scenariusze wydarzeń, ale także zyskać niezbędną pamięć mięśniową. A wszystko to bez konieczności zatrzymywania działania zakładu i bez ryzyka wypadków. Co ciekawe, w 2020 roku VR współpracujący z komputerami PC wreszcie doczekał się gier AAA, ale to też rok, w którym cała Polska zobaczyła zdalne lekcje prowadzone w poznańskiej szkole, właśnie z wykorzystaniem wirtualnej rzeczywistości. To też pierwsze konferencje i spotkania biznesowe prowadzone w wirtualnej przestrzeni.

    TECHNOLOGICZNE TRENDY NA KTÓRE Z NIECIERPLIWOŚCIĄ CZEKAMY W 2021

    Oprócz symbolicznego znaczenia, Nowy Rok nie należy do przełomowych momentów. Gdy zegary wybijają północ, a my sięgamy po okazjonalną lampkę szampana, w naszym życiu przeważnie nie zmienia się nic oprócz daty w kalendarzu. Mimo to nowy rok zawsze wywołuje dreszcz ekscytacji, choć branża IT nie zmienia się z dnia na dzień. Nowe, przełomowe rozwiązania w rzeczywistości rozwijane są latami zanim przyjdzie ich czas. Jakie trendy wypłyną lub umocnią się w 2021?

    1.     Bliżej klienta

    Wczoraj off-line, dziś on-line. Boom przenoszenia biznesów do sieci oraz skokowy wręcz rozwój e-commerce skłonił nowe grupy konsumentów do zmiany swoich nawyków. Dotąd nieufni i niechętni zaczęli szukać w sieci potrzebnych produktów i usług, zmuszeni sytuacją. Jedna trzecia, według badań, deklaruje, że nadal będzie robić zakupy w e-sklepach, ale co postanowi reszta? Aby zostać w grze, nie wystarczy już tylko uruchomić e-biznes. W nadchodzącym roku konieczne będzie umiejętne zagospodarowanie klientów, którzy zaufali wirtualnej rzeczywistości, a zarazem dbanie o jakość usług, a więc w cenie będzie UX, zbieranie danych i ich analityka. Na pewno zrobi to nasza konkurencja.

    2.     Opóźniona nowa era Internetu? Wdrożenie technologii 5G

    Rośnie pula urządzeń mobilnych, mogących korzystać z nowoczesnych sieci piątej generacji. Przynajmniej od roku na rynku dostępne są rozwiązania umożliwiające działanie w sieci 5G. Okraszone kontrowersjami, przedłużające się oczekiwanie na aukcję operatorskich częstotliwości 5G już w 2020 roku odważyło głodne nowości firmy do podejmowania ograniczonych przestrzennie eksperymentów z nową siecią. W roku 2021 nie uda się już utrzymać 5G na smyczy. Tym bardziej, że media naukowe donoszą o koncepcjach sieci szóstej oraz siódmej generacji.

    3.     Sztuczna inteligencja (AI)

    Niezależnie od tego czy jesteśmy zwolennikami sztucznej inteligencji czy wręcz przeciwnie, AI już teraz towarzyszy nam w życiu codziennym i nic nie wskazuje na to, aby miało się to zmienić. Wystarczy spojrzeć na inteligentne chatboty wykorzystywane w sektorze usługowym. Wdrożenie tego rozwiązania odciążyło pracowników od mechanicznych czynności i podniosło satysfakcję klientów, którzy nie muszą już czekać na odpowiedź konsultantów. Pandemia pokazała nam też inne schematy wykorzystania algorytmów SI, takie na przykład jak zbieranie informacji na temat opieki zdrowotnej, czy wskaźników dot. Infekcji. Analizując zebrane dane i śledząc trendy AI może przyczynić się do odkrywania przed nami niewidzianych ludzkim okiem powiązań, które mogą pomóc w walce z pandemią… tą lub następną.

    4.     Kwantowi siłacze

    Coś, co jeszcze niedawno stawiane było na jednej półce z teleporterem i podbojem kosmosu, wkrada się powoli do powszechnej świadomości jako rzecz nie tyle “wykonalna”, co “oczywista”. Po takich gigantach, jak IBM, Google, czy Honeywell w końcu 2020 roku do gry weszli Chińczycy. Ich specjalnie w tym celu zaprojektowany komputer kwantowy w ciągu kilku minut rozwiązał problem, który istniejącym już komputerom opartym na mechanice kwantowej, zająłby kilka miliardów lat. Imponujące. I choć wciąż więcej w tym prężenia muskułów i marketingu, niż scenariuszy praktycznego zastosowania, rok 2021 może obfitować w pokazy siły kwantowych osiłków.

    5.     Jeszcze większa suwerenność danych?

    Eksperci nie są pewni jak zmiany w amerykańskiej administracji wpłyną na trwającą wojnę handlowo-technologiczną USA-Chiny. Szale mogą się przechylić w obie strony… i choć Europa znajduje się z boku tego konfliktu, ona także odczuwa jego skutki. Fragmentacja Starego Kontynentu, wielość języków, kultur, stopnia rozwoju i różnorodne prawodawstwo sprawiają co prawda, że Europa nie jest łatwym rynkiem. To jednak także powód braku zdolności dogadania się nawet w tych kluczowych sprawach. Zdaje się jednak, że w 2021 roku musi nastąpić przełom. Coraz silniej słychać bowiem głosy promujące zajęcie wspólnego, europejskiego stanowiska. Na sile przybierają takie inicjatywy jak Gaia-X czy Open Trusted Cloud. Istotne jest także ogłoszenie przez Komisję Europejską gotowej (po 7 latach negocjacji) umowy ekonomicznej UE-Chiny.

    – Mówi się, że covid-19 zrobił dla cyfryzacji nad Wisłą więcej niż wszystkie rekomendacje Komisji Europejskiej w tym temacie do tej pory. W ubiegłorocznych prognozach[1] na 2020 Gartner przewidywał, że do 2021 inicjatywy dotyczące transformacji cyfrowej obejmą duże tradycyjne przedsiębiorstwa, ale będą trwały średnio dwa razy dłużej i kosztować dwa razy więcej niż zakładano. – zauważa Robert Paszkiewicz, odpowiedzialny w OVHcloud za region Europy Środkowo-Wschodniej.Nikt jednak nie przewidział globalnej pandemii. A gdy wybuchła, w obliczu realnych i palących potrzeb wiele latami odkładanych decyzji i ciągnących się procesów zostało natychmiast wdrożonych. Potrzeba wymusiła działanie. Zostaliśmy wyrwani ze strefy komfortu i weszliśmy do strefy wpływów… technologii.

    O ile przed lockdownem aż 73 % firm nie inwestowało w nowe technologie, to podczas pandemii wykorzystywało je już 91 %[2] ponieważ pojawiły się wymierne, policzalne oczekiwania, a istniejąca technologia potrafiła je zaadresować. W przyszłym roku zaś te rozwiązania będą zapewne doskonalone i upowszechniane i dzięki wirusowi zrobimy spory digitalowy krok naprzód.

    [1] Gartner Top Strategic Predictions for 2020 and Beyond, październik 2019
    [2] Raport Polskiego Instytutu Ekonomicznego, czerwiec 2020
  • Strategie digital a rozwój narzędzi finansowych w czasach pandemii

    Strategie digital a rozwój narzędzi finansowych w czasach pandemii

    BIG DATA, zaawansowana analityka, uczenie maszynowe – to tylko niektóre z narzędzi wykorzystywanych przez wiodące instytucje finansowe. Ich znaczenie wzrosło szczególnie w czasach pandemii.

    Pandemia koronawirusa spowodowała, że wielu klientów przekonało się o zaletach korzystania z rozwiązań online oferowanych przez instytucje finansowe. Firmy pożyczkowe stanęły przed zupełnie nowymi wyzwaniami, a te, które odnalazły się w szeroko pojętym segmencie e-commerce, zyskały w oczach konsumentów. Pozyskiwanie klienta – onboarding – przeniosło się w pełni do kanałów cyfrowych. Obecnie, chcąc otrzymać finansowanie, nie trzeba przekazywać szeregu dokumentów, wyciągów z rachunków czy potwierdzać wysokości dochodów. Nowoczesna technologia pozwala zbierać i analizować informacje o kliencie w taki sposób, aby zaproponować mu możliwie najlepszą ofertę.

    Zaawansowana analityka pozwala przeprowadzić szybko i dokładnie scoring kredytowy, czyli ocenę zdolności kredytowej. Wszystko to odbywa się w sposób zautomatyzowany bez udziału analityka. Nowatorskie systemy są w stanie przeanalizować dane o kliencie pochodzące na przykład z mediów społecznościowych, prześledzić jego aktywność zawodową czy historię zakupów. Dzięki temu, ryzyko niewywiązania się z zaciągniętych zobowiązań jest skutecznie marginalizowane – tłumaczy Agata Lejman, Marketing Manager w AIQLAbs, właściciela marek SuperGrosz oraz „Kupuj Teraz – zapłać później”.

    Ocena ryzyka kredytowego dokonywana jest przez odpowiednio skonfigurowane algorytmy. Weryfikacja odbywa się w sposób automatyczny, co jest szczególnie istotne w czasach pandemii, gdy zmniejsza się mobilność klientów, a nakazy związane z koniecznością pozostania w domach wymagają, aby wiele spraw załatwiać online. Nie wolno zapominać więc o skutecznej prewencji wyłudzeń. Automatyczna analiza klienta, a także wsparcie procesu przez wyspecjalizowane call center znacząco ograniczają takie ryzyko. Na rynku istnieją również rozwiązania, które pomagają instytucjom finansowym pozyskać klienta bezpośrednio. Wystarczy, że potencjalny kredytobiorca jest zainteresowany konkretną usługą bankową. System monitoruje zachowanie użytkownika i w razie potrzeby wysyła automatycznie spersonalizowaną ofertę, co pozwala zaproponować odpowiednie warunki oferty kredytowej z uwzględnieniem określonego ryzyka dla instytucji finansowej.

    Procedury związane z uczeniem maszynowym pozwalają instytucjom finansowym usprawnić procesy oceny ryzyka kredytowego i zwiększyć efektywność takich działań. Niektóre z nich opierają się na zaawansowanych algorytmach, które w czasie rzeczywistym są w stanie dokonać weryfikacji klienta. Co istotne, system zapewnia pełne bezpieczeństwo przekazywania danych. Dzięki podobnym modelom, innowacyjne FinTechy proponują swoje usługi mikro, małym i średnim firmom. Jedną z nich jest mikrofaktoring, czyli ograniczanie zatorów płatniczych. To wszystko sprawia, że środki finansowe mogą być wypłacone nawet w ciągu 24 godzin w dni robocze. Takie rozwiązania sprawdzają się szczególnie teraz, gdy utrzymanie płynności finansowej jest prawdziwym wyzwaniem. Algorytmy dopasowują się elastycznie do sytuacji, realnie oceniając zdolność kredytową klientów.

    W zakresie odroczonych płatności, system może bazować na zaawansowanych modelach statystycznych, które wykorzystują algorytmy machine learning i BIG DATA. Pozwala to zwiększać wartość koszyków oraz błyskawicznie oceniać zdolność kredytową. Konsument już podczas pierwszej transakcji poznaje wysokość swojego limitu kredytowego, który wskazuje potencjał zakupowy i motywuje go do jej zakończenia.

  • Limity osób w sklepach? Często działa to tylko na papierze

    Limity osób w sklepach? Często działa to tylko na papierze

    Przed świętem 11 listopada Polacy tłumnie ruszyli do sklepów. Stojąc w kolejkach do kas można było odnieść wrażenie, że limity dozwolonej liczby klientów w sklepach istnieją czysto teoretycznie. Wśród klientów słychać było głosy „proszę się odsunąć”, „proszę zachować dystans”, „proszę się nie pchać”. Czasami atmosfera stawała się wręcz nerwowa. Tylko nieliczne placówki handlowe zadbały o to, aby przy wejściu postawić dedykowanego pracownika, który zliczał aktualną liczbę osób w sklepie i w ten sposób zezwalał kolejnym klientom na wejście do środka. W czasach, w których zachowanie społecznego dystansu ma kluczowe znaczenie dla powstrzymania pandemii, takie zachowanie placówek handlowych wydaje się skrajnie niefrasobliwe. Naraża się zarówno klientów, jak i własnych pracowników, a w konsekwencji nas wszystkich. Biorąc pod uwagę, że Polacy już niedługo tłumnie ruszą na zakupy świąteczne ma to szczególne znaczenie. Jak zatem poradzić sobie ze sprawnym zliczaniem klientów będących wewnątrz sklepu i jednoczesnym zachowaniem bezpieczeństwa?

    Mam duży sklep, mogę pomieścić nawet 600 klientów

    Jednym z argumentów, które podnoszą placówki handlowe jest fakt, że mają one ogromną powierzchnię i nawet w okresach świątecznych spełniłyby wymogi nałożone przez rząd. To co jest jednak zgodne z prawem, nie zawsze jest zgodne z bezpieczeństwem.  Hipermarket, z potężnym działem „Dom i ogród” rzeczywiście spełni takie wymogi, tylko że w dziale „Dom i ogród” będzie przebywało jednocześnie kilku klientów, a na dziale „Wędliny” czy „Pieczywo” nastąpi koncentracja kilkudziesięciu osób. Kumulacja klientów nastąpi jednak zawsze przy linii kas, gdzie w jednym miejscu stłoczeni na niewielkiej przestrzeni czekają oni na swoją kolej. Zatem niby limity się zgadzają, a jednak o bezpieczeństwie nie ma tu mowy.

    – Każdy konsument ma prawo oczekiwać, że placówka handlowa zapewni mu bezpieczeństwo robienia zakupów. Konsumenci dbają o swoje zdrowie i widać to w przypadku najmniejszych placówek handlowych. Nikogo nie dziwi fakt, że przed małymi sklepami ustawiają się kolejki, a do środka może wejść tyle osób, ile jest kas. Konsumenci chcą się czuć bezpiecznie, a nie tłoczyć się w ścisku jeden na drugim. Niestety wiele placówek handlowych tylko informuje kupujących o dozwolonej liczbie jednocześnie przebywających w obiekcie osób na kartce na drzwiach wejściowych, przerzucając odpowiedzialność na swoich klientówkomentuje Ewa Pytkowska, dyrektor ds. sprzedaży w Checkpoint Systems Polska.

    Europa z tym samym problemem

    Ten problem nie dotyczy jednak tylko Polski. Wiele krajów w Europie zdecydowało się na wprowadzenie limitów liczby klientów, a to oznacza, że sprzedawcy stają przed tym samym obowiązkiem zapewnienia odpowiedniego dystansu. Jedna z dużych europejskich sieci spożywczych borykała się z tym samym problemem, który obserwujemy w Polsce – klienci gromadzący się przy linii kas stawali się nerwowi, kiedy ktoś za bardzo zmniejszał dystans, dochodziło do kłótni, także często na miejsce wzywana była policja. Po analizach zdecydowano się wprowadzić nowoczesny system „Smart Occupancy”, który w całkowicie automatyczny sposób zarządza ruchem klientów w placówkach i komunikuje się z nimi. Dzięki zaawansowanym rozwiązaniom zapewnia się nie tylko bezpieczeństwo klientów i pracowników, ale zyskuje się dostęp do wielu przydatnych danych.
    Sklepowa analityka danych

    Dane o ruchu i przepływie klientów w placówkach detalicznych są bardzo przydatne. Wiedza o tym, w których godzinach pojawia się najwięcej klientów, w jakie dni tygodnia, pozwala sprzedawcom detalicznym precyzyjnie planować obsadzenie kas, personelu potrzebnego do dokładania towaru czy tworzenie harmonogramu dostaw. Wiele sklepów w prosty sposób zlicza ruch klientów wykorzystując przestarzałe już nieco czujniki podczerwieni. W obecnych czasach wiedza ta musi być znacznie bardziej precyzyjna. Obok oczywistych benefitów płynących z analityki danych placówki handlowe są zobowiązane do zapewnienia bezpieczeństwa klientom i pracownikom poprzez bezwzględne przestrzeganie limitów osób.  Konieczne są zatem rozwiązania nowej generacji.
     
    – System Smart Occupancy opiera się na zestawie kamer 3D oraz zaawansowanym oprogramowaniu. W połączeniu z ekranami zamontowanymi przed wejściem do sklepu pozwala on informować konsumentów o tym czy można wejść do sklepu, czy też obecnie jest na jego terenie maksymalna liczba klientów. Mogą to być dowolnie spersonalizowane komunikaty – graficzne, tekstowe, animacje etc. Co więcej, system można połączyć z drzwiami lub bramkami, które nie otworzą się i nie wpuszczą do sklepu kolejnych osób, dopóki nie zwolni się limit osóbdodaje Ewa Pytkowska z Checkpoint Systems Polska.

    Systemy typu Smart Occupancy są łatwe w rozbudowaniu i dopasowaniu do potrzeb konkretnej placówki. Na terenie największych sklepów można wydzielić odrębne strefy jak właśnie newralgiczna linia kas czy popularne stoiska i w ten sposób regulować dostęp klientów do poszczególnych stref. Możliwości jest naprawdę sporo, a dodatkową korzyścią jest szczegółowa analityka przepływów klientów. Jednak najważniejszą korzyścią jest zbudowanie wśród klientów zaufania do marki, która dba o ich bezpieczeństwo i umożliwia komfortowe zakupy. To wartość, która procentuje na długie lata.

    Czy nowoczesne systemy są drogie?

    Odpowiedź jest prosta – nie. Zdrowie i życie nie ma jednak swojej ceny, a tak łatwo i prosto o nie zadbać nawet w dużych sklepach.

  • 4 obszary istotne dla infrastruktury sieciowej

    4 obszary istotne dla infrastruktury sieciowej

    W ostatnim czasie duży wpływ na infrastrukturę sieciową wywarła globalna pandemia. Zarówno Internet, jak i firmowe sieci zostały poddane ogromnemu, nieoczekiwanemu testowi. Sytuacja pokazała, jak ważna jest infrastruktura sieciowa dla wielu firm: jeśli pracownicy nie mają dostępu do jej zasobów, nie mogą normalnie pracować, a firma nie jest w stanie utrzymać ciągłości biznesowej.

    W sytuacji kryzysowej, naturalnym jest poszukiwanie łatwych, pragmatycznych rozwiązań. Dla wielu firm było to zwiększenie licencji VPN, by szybko móc łączyć ludzi pracujących w domach z firmowym centrum danych. VPN nie jest rozwiązaniem bez wad, zatem warto zastanowić się nad bardziej efektywną alternatywą, która wspomoże pracę zdalną.

    Skuteczność pracy zdalnej jest jednak zależna od niezawodnych, bezpiecznych i wydajnych sieci. Inaczej użytkownicy będą na własną rękę szukać alternatywnych rozwiązań. To może spowodować wzrost zjawiska „shadow IT” wraz z różnymi zagrożeniami bezpieczeństwa. Skalowalność i dostępność sieci – bez negatywnego wpływu na produktywność pracowników – jest zatem kluczowa. By ją osiągnąć warto skupić się na 4 poniższych obszarach, takich jak:

    Analityka na poziomie aplikacji.

    Sieć musi być w stanie rozpoznać poszczególne aplikacje i szeregować je pod względem ważności: na aplikacje krytyczne, mniej istotne czy stricte konsumenckie. Ważne jest także wyrównywanie ruchu między serwerami aplikacji, by zapewnić wysoką dostępność i wydajność aplikacji, a także przekierowywanie ruchu do innych witryn w ramach utrzymania ciągłości biznesowej. (gdy centrum danych jest niedostępne lub pracuje z limitem pojemności)

    Sztuczna inteligencja, monitorowanie i analiza oparta na uczeniu maszynowym.

    Złożoność i dynamika działania sieci powoduje, że ręczne zarządzanie nimi, optymalizacja i zabezpieczanie są wręcz niemożliwe. Nowe technologie, takie jak AI i uczenie maszynowe, nie tylko umożliwiają ciągłe monitorowanie i analizę działania aplikacji i użytkowników, ale także zapewniają wysoką dostępność, wydajność i szybkie wykrywanie anomalii.

    Sieć WAN definiowana programowo (SD-WAN).

    SD-WAN dynamicznie łączy użytkowników bezpośrednio z wymaganymi zasobami, niezależnie od tego, czy są to wirtualne aplikacje lub desktopy hostowane w centrum danych, środowisko cyfrowej przestrzeni pracy ulokowane w chmurze, czy zasoby lokalne. Jednocześnie SD-WAN automatycznie wybiera najlepszą ścieżkę dla ruchu danych i rozdziela ruch na wiele z nich, by zapewnić optymalną wydajność aplikacji. To powoduje, że jest kluczowym komponentem dla pracy zdalnej z różnych lokalizacji.

    Bezpieczeństwo w modelu „Zero-Trust”

    Zabezpieczenie pracy zdalnej wymaga innego sposobu myślenia i architektury opartej na modelu ‘Zerowego Zaufania’, który zakłada jego brak w stosunku do każdego użytkownika, stosowanego urządzenia czy sieci. By to osiągnąć, firmy muszą połączyć zarządzanie tożsamością i dostępem specyficzne dla aplikacji z bieżącą analizą punktów końcowych i zachowań użytkowników (ulepszoną przez automatyczną reakcję na incydenty oparte na uczeniu maszynowym). Dzięki temu można szybko łatać luki w zabezpieczeniach i przeciwdziałać pojawiającym się zagrożeniom.

  • Wzrost nadużyć w cyfrowych płatnościach podczas pandemii

    Okres lockdownu i potrzeba zachowania dystansu społecznego spowodowane pandemią COVID-19 przyczyniły się do powstania wielu nowych aplikacji mobilnych i cyfrowych kanałów kontaktu, które umożliwiły funkcjonowanie w tych trudnych czasach. Usługi bankowości mobilnej w Stanach Zjednoczonych wzrosły o 50 proc. w I poł. 2020 roku, a nowe rejestracje wzrosły o 200 proc. w samym kwietniu. Rozkwit zakupów online i zbliżeniowych form płatności przyczynił się do rozwoju rynku e-commerce. Przeniesienie wielu procesów do przestrzeni cyfrowej okazało się zbawienne w czasach kryzysu, jednak, jak wynika z nowego raportu Javelin Strategy & Research i SAS, przyczyniło się również do wzrostu skali nadużyć na całym świecie.

    Potwierdzają to dane Stowarzyszenia Biegłych ds. Przestępstw i Nadużyć Gospodarczych (ang. Association of Certified Fraud Examiners – ACFE). Aż 77 proc. uczestników badania ACFE odnotowało wzrost liczby nadużyć w związku z kryzysem wywołanym COVID-19. Co więcej, 1/3 organizacji określiła je jako znaczące, a 92 proc. spodziewa się, że przestępstw finansowych będzie coraz więcej.

    Zauważyliśmy prawie 35-proc. wzrost prób nadużyć, co oznacza, że przestępcy są bardziej aktywni w kanałach cyfrowych, wykorzystując fakt, że większość procedur antyfraudowych zakłada normalne warunki działania branży finansowej, a w roku 2020 niewiele transakcji przebiega w tradycyjny sposób mówi jeden z uczestników badania Javelin Strategy & Research i SAS.

    Wpływ fali nadużyć jest odczuwany na wiele różnych sposobów, co ma związek ze wzrostem liczby cyfrowych płatności na całym świecie mówi Stu Bradley, wiceprezes działu Global Fraud and Security Intelligence Division w SAS. Efektywna walka z nadużyciami wymaga wykorzystania wielu danych cyfrowych i hybrydowego wielowarstwowego podejścia w podejmowaniu decyzji w trakcie trwania pandemii i po jej ustaniu. Zaawansowana analityka pozwala firmom przygotować się na przyszłe wyzwania.

    Kluczowe wnioski i rekomendacje z raportu:

    • Cyfrowe płatności przyczyniają się do wzrostu globalnego ryzyka. Chociaż technologie płatności różnią się w zależności od regionu, trendy w zakresie nadużyć mają wyraźne cechy wspólne na całym świecie. To oznacza, że przestępcy koordynują i dzielą się informacjami w sposób bardziej otwarty niż robią to instytucje finansowe, co daje im znaczną przewagę w obchodzeniu systemów bezpieczeństwa.
    • Cyfrowe nadużycia są coraz częstsze i bardziej wyrafinowane. Rozwiązania, którymi dysponują przestępcy, są równie zaawansowane jak technologie wykorzystywane do wykrywania ich działań. Inżynieria społeczna, phishing, kradzieże tożsamości, a także szeroki wachlarz cyfrowych form płatności stanowią broń w rękach nieuczciwych użytkowników. Organizacje powinny mieć świadomość, że nowe mechanizmy płatności są szczególnie częstym celem ataków, co wynika z faktu, że systemy odpowiadające za sprawowanie nad nimi kontroli są często nieskuteczne już w momencie ich uruchomienia.
    • Organizacje świadczące usługi finansowe potrzebują zaawansowanych rozwiązań analitycznych, aby móc identyfikować nakładające się zagrożenia w czasie rzeczywistym. Złożoność wektorów ataków sprawia, że biznes musi wdrożyć kompleksowe podejście, aby wykrywać i zapobiegać nadużyciom, jednocześnie koordynując strategie i działania śledcze. Automatyzacja i zaawansowana analityka zasilane przez sztuczną inteligencję oraz uczenie maszynowe mogą sprawić, że firma nie będzie polegała wyłącznie na analizach nadużyć dokonywanych przez członków zespołu, co przełoży się na wzrost efektywności.
    • Dane są kluczowe. Wykorzystanie danych na potrzeby analiz w czasie rzeczywistym i automatyzacja działań będą kluczowe w realiach nowej normalności. Możliwości biznesu będą różniły się w zależności od stopnia dojrzałości technologicznej. Organizacje, niezależnie od stopnia rozwoju, potrzebują danych w czasie rzeczywistym, aby podejmować efektywne decyzje. Co ważne, wdrożenie infrastruktury chmurowej na potrzeby zarządzania nadużyciami zwiększa możliwości przyswajania informacji przez system.

    Zarządzanie ryzykiem podczas zmian w sposobach płatności

    Zmiany w sposobach płatności sprawiają, że instytucje finansowe muszą dokładnie znać źródła transakcji. Ważna jest wiedza, czy pochodzą z aplikacji mobilnych, czy serwisów transakcyjnych. Ich prawidłowe zabezpieczenie przed cyfrowymi nadużyciami staje się coraz bardziej skomplikowane.

    Zrozumienie przejścia ze strategii omnichannel do multichannel, a także znajomość złożonych narzędzi, które wykorzystują przestępcy, dostarczają wskazόwek instytucjom finansowym, pomocnych w budowie krόtko- i długofalowych strategii zwalczania nadużyćmówi Krista Tedder, szefowa działu płatności w Javelin Strategy & Research. Bez wsparcia technologii i usprawnienia procesów operacyjnych, instytucje finansowe muszą liczyć się z poważnymi stratami, zarówno wizerunkowymi, jak i finansowymi. Niektóre usprawnienia mogą być wdrożone szybko, wypracowanie innych zajmuje miesiące, a nawet lata. Ważne jest, aby na początku analizować wszystkie strumienie danych w czasie rzeczywistym i połączyć zarządzanie tożsamością oraz monitoring transakcji nie tylko w celu wykrycia nadużycia, które już wystąpiło, ale także zapobiegania przyszłym tego typu zdarzeniom. Branża usług finansowych musi w szerszym zakresie wykorzystywać sztuczną inteligencję i uczenie maszynowe.

    Nadużycia problemem nie tylko branży finansowej

    Nadużycia nie dotykają jedynie branży finansowej, ale szerzej biznesu. Od czasu wystąpienia pandemii firmy wdrażają kolejne innowacje mające na celu sprostanie oczekiwaniom klientów, którzy chcą elastyczności i szybkich odpowiedzi. Teraz muszą redefiniować to, w jaki sposób dbają o bezpieczeństwo swoje i konsumentów. Jak wynika z badania „ACFE Anti-Fraud Technology Benchmarking Report” tylko 39 proc. organizacji korzysta z oprogramowania do zarządzania przypadkami nadużyć. Połowa ankietowanych używa automatycznego monitorowania alertów bezpieczeństwa lub przypadków naruszeń, a 2/3 wykorzystuje analitykę do wykrywania anomalii i podejrzanych zachowań. Eksperci ACFE i SAS przewidują, że w najbliższych dwóch latach stopień wykorzystania obu rodzajów rozwiązań wzrośnie do 72 proc. Innym sposobem walki z nadużyciami jest weryfikacja użytkowników usług finansowych na podstawie danych biometrycznych. Z tej technologii korzysta obecnie 26 proc. organizacji. Z kolei 16 proc. planuje wdrożenie rozwiązań tej kategorii na przestrzeni najbliższych dwóch lat.
    O tym, że decydenci ze świata biznesu myślą, jak skutecznie przeciwdziałać nadużyciom, świadczy fakt, że 55 proc. organizacji planuje zwiększyć, w ciągu dwóch najbliższych lat, budżet na technologie wspierające walkę z tym procederem. Zgodnie z przewidywaniami wykorzystanie sztucznej inteligencji i uczenia maszynowego w tym samym obszarze ma wzrosnąć niemal 3-krotnie.

  • Chmura z własnym IQ

    Chmura z własnym IQ

    Sztuczna inteligencja coraz mocniej przenika do świata dedykowanych biznesowi usług IT. Abstrahując od coraz bardziej inteligentnych chatbotów, przewidywania popytu na produkty i usługi a nawet automatycznego inwestowania na giełdach warto zastanowić się co jeszcze może nam zaoferować jej połączenie z chmurą obliczeniową?

    To oczywiście nie jest żadne wybieganie w przyszłość i prognozowanie możliwości jakie stoją za mariażem chmury i AI. To dzieje się już dzisiaj, a doskonałym potwierdzeniem tej tezy jest fakt istnienia dedykowanego rynku inteligentnych rozwiązań w chmurze. Cloud AI Market, gdyż tak określają go firmy analityczne, ma przed sobą wręcz imponujące perspektywy wzrostowe. Zgodnie z danymi Mordor Intelligence w ubiegłym roku był on wart 5,2 mld dolarów. Do 2025r ma jednak zwiększyć się blisko trzykrotnie, osiągając poziom 13,1 mld $, notując w tym okresie roczny przyrost o wartości 20%. To z pewnością daje do myślenia i uświadamia, że usługi chmurowe „napędzane AI” będą obszarem rozwiązań wartym śledzenia ze szczególną uwagą. Już dziś nie brakuje zresztą przykładów skuteczności tego połączenia, nie tylko w automatycznej analityce ogromnych zbiorów danychdodaje Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.

    Analityka na sterydach

    Jednym z kluczowych wniosków wynikających z opracowania McKinsey Notes from the AI frontier: Applications and value of deep learning jest ten, że potencjał wykorzystania sztucznej inteligencji w aż 19 sektorach światowej gospodarki jest o co najmniej 30% większy niż jakichkolwiek innych znanych technik automatyzacji procesów. Wśród nich, nie zabrakło takich, gdzie procent ten rósł do 80-90%, jak choćby w przypadku branży motoryzacyjnej, wydobywczej, handlowej czy transporcie i logistyce.

    Co więcej, wspomniana firma doradcza przeanalizowała aż 400 konkretnych przykładów użycia AI w poszczególnych obszarach działania firm i instytucji. Wniosek? Sztuczna inteligencja była niedościgniona w przypadku aż 70% z nich. Warto zauważyć, że doskonałym testerem prawdziwych możliwości AI jest zwykle jej zdolność do analizowania i przeszukiwania wielkich i zróżnicowanych źródeł danych, pochodzących z różnych okresów,
    i odnajdowania w nich konkretnych korelacji w błyskawicznym tempie. – Dzięki temu, nic nie przewidzi nam szybciej m.in. potencjalnej awarii na linii produkcyjnej, zainteresowania danym produktem w najbliższym czasie czy wskazaniem, które trasy dostarczania przesyłek będą szybsze i bardziej optymalne kosztowo. Biorąc pod uwagę fakt, iż firmy coraz częściej stają się przedsiębiorstwami typu Cloud Born, czyli od podstaw stawiającymi na przechowywanie danych w chmurze, ze względu na znacznie niższe koszty i pełną przewidywalność finansową, oraz rosnącą popularność AI, „związek” ten już na pierwszy rzut oka ma ogromne szanse być udanym i długotrwałym przekonuje Marcin Zmaczyński z Aruba Cloud.

    Według Gartnera, do 2022 roku usługi chmury publicznej będą naturalnym ekosystemem aż 90% globalnych danych i podstawą innowacji w analityce. Już dziś, znaczna liczba firm odchodzi od pilotażu wdrażania rozwiązań AI do ich realnego użytkowania w wielu obszarach swojego działania, oddając jej coraz więcej odpowiedzialności za często kluczowe procesy. Do końca 2024r już trzy czwarte przedsiębiorstw wykona takich ruch, zwiększając jednocześnie liczbę procesowanych informacji (strumieni danych) pięciokrotnie. To jeden z zasługujących na podkreślenie sygnałów zwiastujących zwrot w stronę bardziej „samodzielnych” środowisk i systemów IT.

    Autonaprawa

    Marzeniem niejednego kierowcy było z pewnością posiadanie auta, które w przypadku wystąpienia jakiejkolwiek awarii wyświetla na ekranie komputera pokładowego np. taki komunikat: „Wystąpiła awaria układu chłodzenia. Przechodzę w tryb naprawiania, do gotowości ponownego ruszenia w trasę zostało 3 minuty”. Oczywiście brzmi to jak totalna abstrakcja, ale jest trafnym zilustrowaniem tego, jak AI i chmura pozwalają na tworzenie „samoobsługowych” rozwiązań IT, wykraczając poza samą analitykę czy prognozowanie.

    Konkretnym przykładem takiego narzędzia może być autonomiczna, chmurowa baza danych. Taka, która dzięki zdolności machine learing’u potrafi nie tylko samoczynnie zarządzać swoimi rekordami, ale właśnie naprawiać się w przypadku, gdy odnajdzie błąd swojego działania czy sama się aktualizować do lepszych wersji. Poszukując także potencjalnych luk mogących być wykorzystanymi przez cyberprzestępców i „łatając” je. – To zaledwie jeden z przykładów rozwiązania zdolnego do funkcjonowania w pełni autonomicznym trybie. Z łączenia cloud computingu i AI z czasem otrzymywać będziemy coraz więcej rozwiązań zdolnych do zwiększania autonomii całych, rozległych systemów IT przedsiębiorstw. To drugi aspekt funkcjonalności Cloud AI, poza błyskawiczną analityką wspomagającą procesy operacyjne, produkcyjne czy marketingowestwierdza Marcin Zmaczyński z Aruba Cloud.

    AI On Demand

    Według ostatniego badania Synergy Research, poszczególne rynki usług chmurowych już teraz notują wzrosty od co najmniej 10 do 40%, zaś roczne wydatki z nimi związane mają się podwoić już w ciągu czterech lat. Do wspominanych rozwiązań, w obliczu coraz mocniejszego zacieśniania się związku cloud computingu ze sztuczną inteligencją, dołącza więc właśnie kolejne.

    Mianowicie, AI as a Service (AIaaS). Dotąd, przedsiębiorstwa chcące robić prawdziwy użytek z możliwości sztucznej inteligencji musiały uruchamiać długotrwałe i angażujące duże budżety projekty wdrożeniowe. Sytuacji nie pomagał także niedostatek specjalistów IT z tego obszaru. Z pomocą przychodzi więc chmura i udostępniane za jej pośrednictwem funkcjonalności sztucznej inteligencji, wynajmowane tak jak serwery czy przestrzeń dyskowa, bez konieczności posiadania know-how, inwestowania w infrastrukturę czy wykwalifikowanych ekspertów.

    – Dzięki temu, dostęp do potencjału AI znajdzie się w zasięgu nie tylko dużych przedsiębiorstw i korporacji, ale także mniejszych podmiotów oraz startupów, które także będą mogły pozwolić sobie na przyspieszanie wszystkich operacji i większą autonomię swojego środowiska ITpodsumowuje Marcin Zmaczyński.

  • W najbliższym czasie euro może jeszcze się umocnić w stosunku do dolara

    W najbliższym czasie euro może jeszcze się umocnić w stosunku do dolara

    Wspólna europejska waluta od początku listopada umacnia się względem amerykańskiego dolara. To efekt fali optymizmu na rynkach i odstąpienia inwestorów od „bezpiecznych przystani”, do których należy waluta Stanów Zjednoczonych. Zdaniem analityka walutowego Marcina Kiepasa trend ten potrwa jeszcze tydzień lub dwa, ale mocniejsze uderzenie drugiej fali pandemii za oceanem może przerwać tę passę.

    – Od pierwszych dni listopada jesteśmy świadkami wyraźnego umocnienia euro względem dolara. Ten mocny ruch do góry miał miejsce w następstwie przede wszystkim poprawiających się nastrojów na rynkach globalnych i związanego z tym wzrostu apetytu na ryzyko – mówi Marcin Kiepas, analityk walutowy Tickmill. To następowało w oczekiwaniu na zmianę warty w Białym Domu, a przede wszystkim w oczekiwaniu na przyszłe uchwalenie dużego pakietu fiskalnego. Jednocześnie inwestorzy ignorowali szereg innych czynników, negatywnych z punktu widzenia rynków, a więc i z punktu widzenia eurodolara, jak chociażby pandemia w Europie i wprowadzane kolejno przez europejskie rządy lockdowny.

    Optymizm inwestorów widoczny jest nie tylko na rynkach walutowych, ale także na giełdach. Indeks szerokiego amerykańskiego rynku S&P 500 ustanowił 9 listopada kolejny rekord, przekraczając 3610 punktów, technologiczny NASDAQ zbliżył się do poziomów z początku września, niemiecki DAX ponownie przekroczył 13 tys. punktów i nawet polski WIG20 zaliczył najlepszy tydzień od 12 lat. Nie przeszkodziło temu odłożenie uchwalenia pakietu fiskalnego w Stanach Zjednoczonych na okres po wyborach prezydenta, Senatu i Izby Reprezentantów (demokraci chcieli 2,2 bln dol., republikanie byli skłonni zgodzić się na 1,88 bln dol.). Nawet prowadzenie Joe Bidena w wyścigu do Białego Domu nie popsuło nastrojów, gdyż rynki są przekonane, że Senat pozostanie w rękach republikanów, co utrudni przeprowadzenie gwałtownych reform, takich jak np. podwyżka podatków dla najbogatszych czy podział wielkich firm technologicznych.

    – Rynki zignorowały też m.in. zapowiedź poluzowania polityki monetarnej przez Europejski Bank Centralny, co w normalnych warunkach byłoby czynnikiem osłabiającym euro względem dolara. Sytuacja na wykresie eurodolara, ale też otoczenie rynkowe sugerują, że te dobre nastroje na rynkach finansowych mogą być podtrzymane, chociażby przez ostatnie doniesienia na temat skutecznej szczepionki na koronawirusa – przewiduje Marcin Kiepas.To wszystko każe oczekiwać, że w perspektywie tygodnia, może dwóch tygodni kurs eurodolara ponownie przetestuje okolicę 1,20, a więc poziomy, które stały się momentem zwrotnym na początku września.

    Euro umacnia się do dolara nie tylko od listopada, ale w ogóle w tym roku. Od stycznia zyskało ponad 5 proc., a w ciągu ostatnich 12 miesięcy – niemal 7 proc. Wyjątkiem był marzec, gdy uderzenie pierwszej fali pandemii na Europę osłabiło eurodolara z poziomu ok. 1,14 do mniej niż 1,10. Jednak już od drugiej połowy maja, czyli zluzowania obostrzeń, europejska waluta wznowiła rajd w górę. Na przełomie lipca i sierpnia przekroczyła poziom 1,175 i od tej pory oscyluje wokół niego. Obecnie eurodolar kosztuje około 1,18 dol., najwięcej od przełomu sierpnia i września, gdy zbliżył się do granicy 1,20.

    – Trwałe wybicie powyżej 1,20 staje pod sporym znakiem zapytania. Przede wszystkim dlatego, że poważnym ryzykiem z punktu widzenia rynków jest rozszerzająca się druga fala pandemii w Stanach Zjednoczonych. Wydaje się, że Ameryka idzie ścieżką wcześniej wydeptaną przez Europę, z dwu–trzytygodniowym opóźnieniem. Można więc zakładać, że w drugiej połowie listopada Stany Zjednoczone będą się borykały z takimi samymi problemami dotyczącymi liczby zakażeń i systemu ochrony zdrowia, co obecnie Europa – komentuje analityk walutowy Tickmill.Istnieje więc ryzyko, że również tam będą wprowadzane lockdowny, a to miałoby negatywne przełożenie na nastroje na rynkach finansowych, a więc nie tylko zatrzymałoby wzrosty eurodolara, ale nawet mogłoby prowokować zwrot na tej parze.

  • Czy promocje w polskich sklepach są skuteczne? Nowe dane mówią, że nie do końca

    Czy promocje w polskich sklepach są skuteczne? Nowe dane mówią, że nie do końca

    Koniec z drukowanymi gazetkami i wielosztukami? Tradycyjne promocje odchodzą do lamusa. Żeby zarabiać i przyciągać klientów, polscy detaliści muszą stawiać na optymalizację swoich kampanii za pomocą rozwiązań analitycznych. Z najnowszego raportu pt. „Optymalizacja i zarządzanie promocją w branży handlowej w Polsce” wynika, że wiele firm wciąż nie korzysta z dobrodziejstw cyfryzacji, przez co osiąga zyski niższe nawet o 18 proc. oraz o 21 proc. mniejszą rentowność.

    Według najnowszego raportu aż 91 proc. specjalistów w branży detalicznej jest przekonanych, że inwestowanie w takie rozwiązania jak analityka predykcyjna, kalendarz promocji, automatyczne określenie poziomów cenowych i bieżący monitoring będzie miało znaczący wpływ na przychody firmy. Eksperci z SAS Polska i Movens Capital przeprowadzili badanie wśród przedstawicieli 30 największych sieci handlowych w Polsce. Okazuje się, że co trzecia firma organizuje promocje bez narzędzi cyfrowych.

    To jeden z wniosków płynący z raportu „Optymalizacja i zarządzanie promocją w branży handlowej w Polsce”, który pokazuje obecne podejście do zarządzania promocjami w naszym kraju oraz wyzwania, które stoją przed firmami w obliczu globalnego rozwoju modelu e-commerce.

    Polski handel (nie)analogowy

    – Dowiedzieliśmy się, że 60 proc. firm optymalizuje swoje kampanie za pomocą dedykowanych technologii, a co trzecia organizacja uważa, że korzyści z tych działań są wyższe niż koszty. Według naszych szacunków wdrożenie systemów optymalizacji i zarządzania danymi pozwoli firmom uniknąć od 40 do 60 proc. strat ponoszonych w wyniku nieefektywnych promocjimówi Maciej Kraus, partner w Movens Capital.

    Ekspert dodaje, że wydatki na promocję w polskich firmach to nawet 20-30 proc. przychodów ze sprzedaży. Wyzwaniami nie są tylko stale rosnąca konkurencja i konsumenci, którzy są coraz bardziej świadomi działań marek. – Blisko połowa pieniędzy na promocje jest marnowana, ponieważ firmom brakuje spójnej strategii w obszarze zarządzania kampaniami. Niewiele z tych akcji przynosi założone efekty, a to generuje stratymówi Maciej Kraus.

    Respondenci badania w większości przyznają, że promocje w ich firmach nie są dobrze przemyślane. Mówią, że sporo zbędnej pracy można uniknąć dzięki automatyzacji. Jak wynika z badań, w ponad połowie firm w kampanie zazwyczaj jest zaangażowanych od 5 do 20 osób. Z kolei do najbardziej czasochłonnych zadań należą dobór produktów do promocji, przygotowanie harmonogramu działań oraz określenie optymalnych cen. – Systemy analityczne pozwalają przekształcić manualne procedury w sprawnie funkcjonujący organizm, a szczegółowa analiza wyników poprzednich akcji promocyjnych pozwala lepiej przygotować strategie cenowe, spersonalizować przekaz i zoptymalizować kosztywyjaśnia Maciej Ostrowski, senior client partner w SAS Polska.

    Raport dowodzi, że polscy detaliści wciąż podchodzą z rezerwą do wdrażania innowacyjnych rozwiązań w promocji produktów. – Na pytanie o konkretne narzędzia do zarządzania procesami promocyjnymi, które menadżerowie chcieliby stosować, 46 proc. respondentów odpowiada „na razie myślimy”. Jednocześnie wątpią, czy podobne technologie przyniosą firmie wymierne korzyścizaznacza Maciej Ostrowski.

    Technologie zbudują zaufanie do marki

    Wykorzystanie sztucznej inteligencji, narzędzi modelowania cen i zachowań konsumentów przez sieci handlowe na polskim rynku jest tylko kwestią czasu. W wyścigu o klienta i zwiększanie przychodów zwyciężą ci, którzy wdrożą te rozwiązania jako pierwsi.

    Jak wskazuje Maciej Kraus, to przyniesie także wzrost konkurencyjności polskich firm i zapewni powodzenie na rynkach lokalnych. – Największy popyt wśród menedżerów jest obserwowany w przypadku rozwiązań służących do prognozowania, precyzyjnego określenia budżetu i opracowania scenariuszy przebiegu kampanii. Przy wdrażaniu optymalizacji promocji często dochodzi jednak do błędów, które bezpośrednio wpływają na skuteczność kampanii. Spośród najczęstszych autorzy wyodrębniają nieodpowiedni moment rozpoczęcia akcji, zły dobór czasu trwania promocji, brak personalizacji przekazu oraz błędne wskaźniki efektywności.

    Maciej Ostrowski dodaje, że kluczem do poprawy efektywności i lepszego podejmowania decyzji rynkowych jest możliwość pozyskiwania i analizy danych. – Konsumenci są teraz „cyfrowi”, a sieć przypomina wielką galerię handlową. Dotarcie do nowych klientów nie jest więc trudne. Dzięki przewadze w zakresie premii cenowych, zdobytej dzięki narzędziom optymalizacyjnym, sieci zyskują lojalność klientów oraz budują korzystny wizerunek bez konieczności dodatkowych obniżek mówi ekspert SAS.

  • Przyszłość analityki jest w chmurze

    Przyszłość analityki jest w chmurze

    Technologia cloud computing przeżywa obecnie prawdziwą transformację technologiczną. Pojawiły się nowe sposoby dostarczania i porządkowania zasobów chmury obliczeniowej, takie jak kontenery i platforma Kubernetes, które sprawiają, że oprogramowanie jest bardziej niezawodne i łatwiejsze w zarządzaniu. Coraz więcej przedsiębiorstw i instytucji decyduje się na przeniesienie swoich systemów do chmury, aby w pełni skupić się na strategii, doskonaleniu procesów oraz rozwoju innowacyjnych produktów i usług. Budowanie infrastruktury IT nie jest ich główną kompetencją, dlatego zwracają się do zaufanych partnerów, oferujących gotowe rozwiązania analityczne w modelu cloud.

    Skala, prostota, oszczędność

    Analityka w chmurze zapewnia  szereg korzyści.  Pierwszą z nich jest tzw. zwinność (ang. „agility”), która dla organizacji oznacza przede wszystkim ogromną elastyczność i wiele możliwości wykorzystania zaawansowanych narzędzi, takich jak sztuczna inteligencja czy uczenie maszynowe. Ponadto praca w modelu cloud zwiększa zdolność pracowników do innowacji, poszerzania kompetencji czy eksperymentowania z nowymi algorytmami. Drugą korzyścią jest skalowalność, czyli automatyczne dostosowywanie mocy obliczeniowej do aktualnych potrzeb. Dzięki temu firma ma gwarancję dostępu do prawie nieograniczonej pojemności pamięci masowej, bez konieczności inwestowania we własną infrastrukturę. Możliwości chmury stwarzają ogromne korzyści w zakresie skali, prostoty zarządzania i kosztów użytkowania.

    Wartość decyzji zależy dziś od czasu jej podjęcia. Spóźnione działanie może być bardzo kosztowne. Dlatego wiele przedsiębiorstw weryfikuje swoje strategie i procesy decyzyjne, opierając się na zaawansowanej analizie dostępnych danych. W tym kontekście, kluczowa jest zdolność organizacji do wdrażania modeli prognostycznych, w tym technik sztucznej inteligencji i uczenia maszynowego, których cykl życia i rozwoju z natury jest eksperymentalny. Dlatego warto wypróbować różne podejścia, przetestować wyniki i wybrać rozwiązania z największym potencjałem, aby następnie sprawnie je wdrożyć w ramach całej organizacji. Analityka w chmurze pozwala realizować tego typu eksperymenty szybko i zwinniepodsumowuje Michał Gawlik, EMEA Cloud and Architecture Leader w SAS.

    AI dla każdego

    SAS dostarcza gotowe do zastosowania narzędzia analityczne w zarządzanym środowisku, które odpowiadają na potrzeby i wymagania klientów. Zwinność, szybkość, automatyzacja i dostępność danych to mocne strony SAS Viya – zaawansowanej platformy analitycznej, opartej na technologii cloud computing, która wykorzystuje sztuczną inteligencję. Została ona stworzona z myślą o użytkownikach o różnym poziomie umiejętności technicznych.

    SAS upraszcza sposób wykorzystywania sztucznej inteligencji i uczenia maszynowego w procesach podejmowania decyzji. Dzięki SAS Viya klienci będą mogli dysponować wiarygodną, przewidywalną i skalowalną analizą danych, która jest dostępna dla każdego. Platforma zapewnia zautomatyzowane przygotowywanie danych i modeli, możliwość szybkiego testowania innowacyjnych pomysłów i weryfikacji stawianych hipotez oraz zachowanie wysokiej dostępności systemu. Dodatkowo architektura oparta na kontenerach i platformie Kubernetes umożliwia przenoszenie rozwiązań do różnych środowisk chmurowych, w tym w Azure, Google i AWSmówi Michał Gawlik.

    System naczyń połączonych

    Narzędzia analityczne w chmurze mogą obsługiwać tysiące komputerów i jeszcze więcej użytkowników. Istnieje również możliwość rozbicia oprogramowania wykorzystywanego w przedsiębiorstwie na umieszczone w kontenerach kompaktowe elementy funkcjonalne zwane mikrousługami, które nie wymagają instalacji, lecz włączenia. Części składowe takiej infrastruktury komunikują się ze sobą oraz mogą być migrowane z chmury do chmury. Można je również udostępnić dla aplikacji zewnętrznych poprzez interfejs programowania aplikacji (API), a także łatwo wymienić, niezależnie aktualizować, czy skalować w obrębie wielkich zasobów obliczeniowych. Zarządzanie zadaniami i serwisami uruchamianymi w kontenerach jest relizowane przez platformę oprogramowania open-sourceKubernetes. Wszystko to dzieje się w tle, podczas gdy pracownicy kontynuują swoje zadania.

    Chmurowa przyszłość branży

    Rynek IT ewoluuje w niespotykanym dotąd tempie, a usługi dostosowywane są do nowych potrzeb. Siłą napędową tych zmian jest chmura obliczeniowa, której wartość w Polsce według IDC ma przekroczyć pół miliarda dolarów do 2022 roku. Nic więc dziwnego, że z chmurą integrują się kolejne obszary. Analityka w modelu cloud daje możliwość włączenia „szóstego biegu”, który przyspiesza procesy decyzyjne i pozwala szybciej osiągać zamierzone rezultaty.

  • Podsumowanie XXVI Forum Teleinformatyki  „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    Podsumowanie XXVI Forum Teleinformatyki „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    Tegoroczne Forum rozpoczęło uroczyste wręczenie nagród: im. Marka Cara, Złotego Herolda I stopnia oraz Złotego wykładu.

    Laureatami 19. edycji nagrody im. Marka Cara, tragicznie zmarłego, pomysłodawcy Forum Teleinformatyki zostali dr hab. Dominik Batorski, socjolog i analityk danych w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) Uniwersytetu Warszawskiego, wykładowca na studiach podyplomowych na wielu uczelniach i Kazimierz Schmidt, Radca Ministra w Departamencie Zarządzania Systemami w Ministerstwie Cyfryzacji. Nagroda przyznawana jest za wybitne osiągnięcia w tworzeniu warunków dla rozwoju społeczeństwa informacyjnego. Fundatorem nagrody był SAS Institute.

    Nagroda „Złotego Herolda”, przyznawana jest przez Radę Programową za upowszechnianie przesłania Forum: „Budowa nowoczesnego państwa opartego na powszechnym wykorzystaniu technologii teleinformatycznych nie jest celem antagonistycznym dla nikogo!”. Tegorocznymi laureatami nagrody I stopnia zostali: Asseco Poland SA i Uniwersytet Warszawski.

    Część merytoryczną Forum otworzył w sesji Zaproszonych Gości minister Marek Zagórski, przedstawiając wykład pt. „Cele i działania MC wobec globalnej transformacji cyfrowej”. Następnie prof. Jan Madey z Uniwersytetu Warszawskiego wygłosił „Złoty wykład” pt. „50 lat wspinaczki ku chmurom”. Profesor Jan Madey z Uniwersytetu Warszawskiego jest współtwórcą informatyki polskiej, inicjatorem i promotorem działań na rzecz rozwoju informatyki oraz wielu przedsięwzięć charytatywnych. Złoty wykład to nagroda i jednocześnie przywilej zaprezentowania autorskiego wykładu na zaproszenie Rady Programowej Forum w trakcie plenarnej sesji, inicjującej obrady Forum. Każdy kolejny wykład będzie rejestrowany i wraz z charakterystyką Laureata będzie dostępny w specjalnej części strony www Forum – galerii „Złotych wykładów”. Przedsięwzięcie to uzyskało Patronat Ministra Nauki i Szkolnictwa Wyższego, natomiast jego Patronami były firmy GPW Tech i Orange Polska.

    W sesji o Kluczowych projektach w administracji dr Dominik Rozkrut, prezes GUS zaprezentował nowatorskie i unikatowe w skali światowej rozwiązania, umożliwiające „bezpapierową” realizację spisu powszechnego 2020, realizowanego w warunkach pandemii.

    Przemysław Koch, pełnomocnik ministra finansów ds. informatyzacji na przykładzie integracji rozliczeń podatkowych omówił kolejne etapy transformacji cyfrowej w Ministerstwie Finansów.

    Włodzimierz Owczarczyk, członek zarządu ZUS mówił o skutecznej transformacji działania ZUS w odpowiedzi na „lockdown” i inne wyzwania w czasie epidemii, a także o zupełnie nowych zadaniach, jak obsługa m.in. 10 mln wniosków o pomoc w ramach tarczy czy obsługi bonu turystycznego i związanych z tym transakcji płatniczych.

    Krzysztof Bonicki i Mariusz Komorowski z PKO Bank Polski mówili o usługach chmurowych, wspomagających transformację cyfrową w Banku. Sesję zakończyła prezentacja Dominika Rogowieckiego z Urzędu m.st. Warszawy – zastosowania narzędzi Business Intelligence w finansach publicznych, na przykładzie budżetu m.st. Warszawy.

    Sesji ubezpieczeniowej, tym razem zatytułowanej Zaawansowane narzędzia stymulujące i chroniące procesy biznesowe w ubezpieczeniach, już po raz ósmy patronował Ubezpieczeniowy Fundusz Gwarancyjny. Otwierając sesję dr hab. Wojciech Bijak z UFG podkreślił, że wszystkie projekty UFG, o których mówiono na Forum zostały zrealizowane i wspomagają codzienną działalność zakładów ubezpieczeniowych, obsługując m.in. 80 mln zapytań kierowanych do UFG miesięcznie. O nowych usługach – ID UFG i Token UFG – wspierających potwierdzenie tożsamości w sektorze ubezpieczeniowym mówił Andrzej Parafian z UFG. System oceny ryzyka ubezpieczeniowego eSCOR przedstawił Mateusz Sobeczek z DahliaMatic. Sesję zakończyła prezentacja Zbigniewa Świerczyńskiego z MILSTAR o Cyberincydentach, minimalizacji ryzyka ich wystąpienia oraz doskonaleniu metodyki obsługi w przypadku ich zaistnienia.

    W sesji Architektura i technologie w infrastrukturze informacyjnej państwa, o cyfrowej transformacji działalności firmy pod presją pandemii mówili Daniel Olejniczak i Tomasz Kozłowski z firmy Bonair, która była partnerem tej sesji. Z ich doświadczeń wynika, że liderem cyfryzacji w firmach jest ostatnio COVID-19, a nie CIO, CTO czy CEO. Mówiąc o technologiach i systemach nie wolno zapominać o tzw. aspekcie ludzkim. Arkadiusz Wójcik z Asseco Poland podkreślał, jakie znaczenie mają rozwiązania IT dla Państwa w czasie kryzysu i mówił o czynnikach sukcesu, kiedy projekt informatyczny zamienia się w wyścig z czasem. Dzięki otwartej architekturze i elastyczności swoich systemów, ZUS wspierany przez firmy informatyczne zrealizował zadania, wynikające z tarcz antykryzysowych, mimo tego, że ustawy miały w praktyce zerowy okres vacatio legis.

    Joanna Gospodarczyk z Urzędu m.st. Warszawy omówiła projekt Eduwarszawa.pl, dotyczący transformacji cyfrowej zadań oświatowych w Warszawie, wspomagającej m.in. zdalną edukację we wszystkich szkołach w Warszawie.

    Sesję tę zakończyły rozważania Pawła Pisarczyka z Atende Software na temat modeli zarządzania rozproszonym wytwarzaniem i konsumpcją energii elektrycznej. Jako najważniejsze bariery rozwoju w tej dziedzinie wskazał nadal obowiązujące, przestarzałe regulacje prawne.

    Sesję Cyberbezpieczeństwo procesów informacyjnych otworzył Krzysztof Silicki, z-ca dyrektora NASK PIB, dyrektor ds. cyberbezpieczeństwa i innowacji, prezentując doświadczenia i wnioski po dwóch latach funkcjonowania ustawy Krajowy System Cyberbezpieczeństwa. W tym czasie powstały m.in. dodatkowe przepisy sektorowe, nieprzerwanie rozszerza się katalog wyzwań, opracowano także narodowe standardy cyberbezpieczeństwa chmur obliczeniowych wspólnej infrastruktury informacyjnej państwa (WIIP). Ewidentnym efektem działania ustawy jest wzrost liczby zgłaszanych incydentów naruszenia bezpieczeństwa – 6,5 tys. w 2019 roku. Wystąpienie zakończył apelem o aktywne uczestnictwo branży w opiniowaniu nowelizacji ww. ustawy.

    Doświadczenia z wdrażania systemu zarządzania tożsamością w różnych firmach i urzędach przedstawił Sławomir Szydłowski z firmy Comp. Praktyka pokazuje, że bardzo czasochłonnym elementem jest ustalenie schematów uprawnień poszczególnych grup pracowników i pojedynczych osób, które musi zdefiniować użytkownik systemu.
    Sesję zakończyła prof. Grażyna Szpor z Sektorowej Rady ds. Kompetencji – Telekomunikacja i Cyberbezpieczeństwo, omawiając problemy pojęciowe i kompetencyjne cyberbezpieczeństwa.

    Pierwszy dzień wirtualnych obrad Forum zakończył panel dyskusyjny „Analityka danych z wykorzystaniem sztucznej inteligencji” moderowany przez przez dra hab. Marcina Paprzyckiego, prof. IBS PAN. Uczestnikami dyskusji byli: Patryk Choroś – SAS Institute, Marek Gajewski – Urząd Patentowy RP, Robert Kroplewski – Ministerstwo Cyfryzacji, Andrzej Sarnowski – Centrum e-Zdrowia. Dyskutowano w tej dziedzinie m.in. o źródłach danych, ich gromadzeniu i bezpiecznym udostępnianiu (wirtualne składnice danych, block chain), o danych w i dla administracji publicznej (np. publicznie dostępne www.data.gov.pl), o powstającej strategii AI w Polsce i braku kadr w tej dziedzinie.

    Drugi dzień obrad rozpoczęła sesja Forum Młodych Mistrzów. Witold Wieteska, przewodniczący jury Konkursu Młodych Mistrzów, przedstawił wyniki Konkursu Młodych Mistrzów, w którym do finału zakwalifikowano 28 prac z 11 uczelni. Nagrodzono 14 prac – pełna lista nagród i laureatów dostępna jest na stronie www.forumti.pl. Konkurs odbył się pod Patronatem Ministra Nauki i Szkolnictwa Wyższego. Organizacja Konkursu tradycyjnie została wsparta finansowo przez Narodowy Bank Polski w ramach programu edukacji ekonomicznej. Partnerami sesji i Konkursu Młodych Mistrzów byli: Atende Software, Centrum e-Zdrowia i NASK Państwowy Instytut Badawczy.

    Jak w 7 minut do swojej idei, projektu czy produktu przekonać potencjalnego odbiorcę klienta – radził Młodym Mistrzom w specjalnym wystąpieniu bezpośrednio z Brukseli – dr Wojciech Wiewiórowski – Europejski Inspektor Ochrony Danych.

    W sesji Systemy zarządzania dokumentacją elektroniczną w administracji publicznej, której honorowym patronem był Bohdan Paszkowski, Wojewoda Podlaski, odbyły się dwie prezentacje.

    Mariusz Madejczyk, dyrektor Oddziału NASK w Białymstoku, pełnomocnik Wojewody Podlaskiego ds. informatyzacji prezentował stan realizacji projektu EZD RP – jednolitego, chmurowego systemu EZD, będącego własnością skarbu państwa. Projekt EZD RP podmiotowo obejmuje swoim zasięgiem administrację rządową RP (styczeń 2022), natomiast system EZD RP, będący efektem projektu, wraz z innymi produktami będzie dostępny dla całej administracji publicznej (2022/2023). Pilotażowe uruchomienie w 16 jednostkach administracji rządowej planowane jest na październik 2020.

    Magdalena Sawicka, zastępca dyrektora Oddziału NASK w Białymstoku, omawiała program rozwoju systemu EZD PUW. Od roku 2011 EZD PUW wdrażany jest w administracji rządowej RP jako jednolity system. Obecnie ma 1524 wdrożenia i ponad 92,5 tys. użytkowników w całym kraju.

    Omówiono nowo udostępnione moduły systemu: e-faktury, podpis e-Dowodem, paczka administracyjna i migracyjna, podpis xml za pomocą profilu zaufanego. Zapowiedziano także nowe moduły m.in. eDoręczenia integracja z ADE, dostosowanie do potrzeb Prokuratorii Generalnej, zastosowanie sztucznej inteligencji.

    Sesja Forum Nowych Idei, organizowana przez Polską Izbę Informatyki i Telekomunikacji, w całości poświęcona była dwóm tematom: Rynkowi telekomunikacyjnemu w analizie PIIT oraz ocenie stanu i perspektyw sieci 5G. Sesję rozpoczął Borys Stokalski z PIIT prezentacją nt. wykorzystania technologii 5G, następnie Aleksander Jakubczak z Huawei omówił stan obecny i różne scenariusze przyszłości 5G w Polsce, a Robert Kuźmiak z IDC Polska zaprezentował szanse, jakie dla rozwoju gospodarki stwarzają technologie 5G. Sesję zakończyła dyskusja nt. „Rozwój sieci 5G: raport z placu budowy”, moderowana przez Borysa Stokalskiego, w której uczestniczyli: Mariusz Busiło – Ekspert PIIT, Aleksander Jakubczak – Huawei, Marek Lipski – Ekspert PIIT, Jarosław Smulski – IDC Polska.

    Obrady Forum tradycyjnie zakończył Kocioł dyskusyjny zatytułowany – „Czy i jak doświadczenia pandemii zmienią wizję i pragmatykę cyfrowej transformacji państwa”. Dyskusję moderował Borys Stokalski, a swoimi doświadczeniami dzielili się: Hubert Gniadowicz – zastępca dyrektora departamentu informatyzacji w ministerstwie finansów, Adam Marciniak – wiceprezes zarządu PKO Banku Polskiego, Włodzimierz Owczarczyk – członek zarządu ZUS, Michał Przymusiński – dyrektor departamentu rozwoju usług w ministerstwie cyfryzacji.

    Ostatnim punktem programu Forum było wręczenie nagród „Złotego Herolda II stopnia”. Tegorocznymi laureatami nagrody zostali: Przemysław Koch – ministerstwo finansów, Adam Marciniak – PKO Bank Polski oraz instytucjonalnie PKO Bank Polski i Wojskowa Akademia Techniczna.

    Zamykając obrady XXVI Forum Teleinformatyki, prof. WAT Bolesław Szafrański, Przewodniczący Rady Programowej Forum, życzył wszystkim, by kolejna XXVII edycja Forum mogła się odbyć w tradycyjnych, konferencyjnych warunkach.

    Komitet Honorowy tegorocznego Forum tworzyli: Marek Zagórski – Minister Cyfryzacji, Anna Trzecińska – Wiceprezes NBP, prof. dr hab. Jan Madey – Uniwersytet Warszawski, Wiesław Paluszyński – Prezes Polskiego Towarzystwa Informatycznego, dr inż. Andrzej Dulka – Prezes Polskiej Izby Informatyki i Telekomunikacji, dr hab. inż. Bolesław Szafrański – Profesor WAT i Przewodniczący Rady Programowej Forum.

    Honorowymi Patronami XXVI Forum byli: Ministerstwo Cyfryzacji, Narodowy Bank Polski, Rektor Uniwersytetu Warszawskiego, Prezes Polskiego Towarzystwa Informatycznego i NASK Państwowy Instytut Badawczy.

    Partnerami XXVI Forum byli: Microsoft – złoty partner, Asseco Poland – srebrny partner.

    Patronami medialnymi byli: BrandsIT.pl, CyberDefence24, Gazeta Ubezpieczeniowa, ITWIZ.pl i Pismo Samorządu Terytorialnego WSPÓLNOTA.

    Organizatorami Forum byli: BizTech Konsulting SA i Polska Izba Informatyki i Telekomunikacji.

  • Retail: technologia a nowe nawyki zakupowe

    Retail: technologia a nowe nawyki zakupowe

    Zachowania zakupowe klientów zmieniły się znacząco w ciągu ostatnich kilku miesięcy. Jak wynika z badania zrealizowanego na zlecenie firmy DS Smith, 68% Polaków twierdzi, że w czasie pandemii robiło więcej zakupów w internecie, a 91% z nich deklaruje, że nadal będzie kupować tyle samo lub więcej online.[1] Choć dzięki znacznemu zniesieniu ograniczeń, Polacy wrócili do sklepów, należy spodziewać się, że część nowych zachowań zakupowych zostanie z nami na dłużej – jak wynika z danych EY[2], co trzeci Polak po ustaniu pandemii deklaruje większe zakupy online. To wszystko stanowi duże wyzwanie dla i tak już nadwyrężonej branży retail, która musi dostosować swój biznes nie tylko do restrykcyjnych wymogów sanitarnych, ale też nowych nawyków klientów.

    Zmiana zachowań zakupowych

    Chociaż dynamiczny rozwój e-commerce obserwowaliśmy już od dłuższego czasu, ostatnie wydarzenia doprowadziły do gwałtownych wzrostów w branży e-handlu. Tylko do końca kwietnia liczba e-sklepów w Polsce wzrosła niemal o 1,7 tys., a szacowana wartość sektora e-commerce w naszym kraju może w tym roku przekroczyć 70 mld zł.[3]  Konsumenci zwrócili się ku zakupom online, by robić zakupy w sposób wygodny i bezkontaktowy, i nie ma wątpliwości, że ta zmiana zdefiniuje kierunek rozwoju branży retail w najbliższym czasie.

    Wielu konsumentów, którzy wcześniej byli sceptyczni w stosunku do zakupów online, w czasie pandemii skorzystało z nich po raz pierwszy. Jeśli to doświadczenie było pozytywne, można się spodziewać, że zakupy w sieci wpiszą się na dłużej w ich zwyczaje zakupowe. Tym bardziej, że choć w wyniku stopniowego łagodzenia restrykcji, klienci wrócili do tradycyjnych sklepów, wciąż jednak towarzyszą im obawy o bezpieczeństwo, higienę i możliwość zachowania dystansu społecznego. Według badań zrealizowanych niedawno wśród amerykańskich konsumentów, 87% kupujących deklaruje, że robiąc zakupy wybierze sklepy oferujące rozwiązania samoobsługowe typu self-checkout. Co ciekawe, przed pandemią takiej odpowiedzi udzielała jedynie jedna trzecia badanych.[4] W czasie pandemii wzrosła także popularność metod zakupowych, takich jak  BOPIS (buy online pick up in store) oraz BOSS (buy online and ship to store), które do minimum ograniczają ryzyko fizycznego kontaktu.

    – Nawyki zakupowe ukształtowane w czasie pandemii, najprawdopodobniej zostaną z nami dłużej, a oczekiwania konsumentów wobec wygodnej i bezkontaktowej obsługi będą rosły. W naszym globalnym badaniu poświęconym doświadczeniom zakupowym zrealizowanym jeszcze przed pandemią, wśród czynników poprawiających wygodę zakupów w sklepach stacjonarnych klienci wymieniali przede wszystkim krótki czas oczekiwania w kolejce, łatwą nawigację po sklepie czy proste zwroty. Należy się spodziewać, że oczekiwania klientów co do wygody będą rosły, dlatego sklepy powinny wykorzystać najnowsze technologie by upewnić się, że doświadczenie klienta będzie przebiegać płynnie i bez żadnych zakłóceń.mówi Dagmara Pomirska z Axis Communications.

    Nowa rzeczywistość wymaga nowego podejścia

    Obecnie branża retail z jednej strony musi sprostać wyzwaniom związanym z wymogami bezpieczeństwa i wytycznymi sanitarnymi (takimi jak limity klientów na terenie sklepu, dezynfekcja czy zasada zachowania dystansu), z drugiej – dostosować customer journey do nowych nawyków konsumenckich. Zarządzający sklepami stacjonarnymi powinni poszukać odpowiedzi na pytania: gdzie klient spędza najwięcej czasu, które elementy zakłócają jego doświadczenie zakupowe i wdrożyć rozwiązania technologiczne, które pozwolą uczynić cały proces zakupowy bardziej płynnym z punktu widzenia konsumenta.

    Na przykład, w tradycyjnym sklepie klienci zwykle czekają w kolejce by kupić produkt. Tymczasem, długi czas oczekiwania to jeden z czynników negatywnie wpływających na doświadczenie klienta – według badania zrealizowanego wśród nowojorczyków przez Axis Communications, aż 53% z nich opuszcza sklep bez dokonania zakupu, kiedy czas stania w kolejce się wydłuża.

    – Długi czas oczekiwania może być spowodowany zbyt małą liczbą pracowników obsługi dostępnych na danej zmianie i jednocześnie dużą liczbą klientów obecnych w sklepie w jednym czasie. By zapobiec takim sytuacjom, warto wykorzystać technologie monitoringu wizyjnego, które automatycznie zliczają liczbę klientów stojących w kolejce i informują personel gdy określony wcześniej limit zostanie przekroczony. Wówczas pracownicy mogą otworzyć do dyspozycji klientów kolejną kasędodaje Dagmara Pomirska.

    Jeśli problemem nadal pozostaje zbyt mała liczba pracowników obecnych na zmianie, mogą go rozwiązać kasy samoobsługowe, które obsłużą klienta niezależnie od dostępności personelu, a jednocześnie do minimum ograniczą ryzyko kontaktu osobistego. Projektując doświadczenie klienta warto zrozumieć jak dana grupa klientów lubi robić zakupy i gdzie napotyka największe przeszkody – niezależnie czy mówimy o procesie online, czy tradycyjnym. Na przykład, jeśli klienci preferują zakupy online, ale mniej przychylnie patrzą na długie czasy dostawy, warto rozważyć model, w którym mogą zrobić zakupy w sieci i odebrać je w tradycyjnym sklepie.

    Czynnik ludzki nadal w cenie

    Aby doświadczenie klienta było jak najlepsze, powinno się brać pod uwagę także znaczenie międzyludzkich interakcji. Lockdown i długotrwała izolacja u części konsumentów spowodowała zwiększoną chęć kontaktu z innymi i tu właśnie doświadczenie zakupowe w sklepie tradycyjnym ma swoją przewagę nad zakupami online. Możliwość zapytania konsultanta o pomoc czy rekomendację „tu i teraz” dla niektórych konsumentów będzie ważniejsza niż zrobienie zakupów w rekordowo szybkim czasie. Dlatego zarządzający sklepami powinni upewnić się, że personel jest obecny w tych sekcjach sklepu, gdzie jest najbardziej potrzebny, a takie możliwości dają technologie zliczania osób i analityka wideomówi Dagmara Pomirska.

    [1] https://www.rynekpapierniczy.pl/artykul/jak-zmienily-sie-zwyczaje-zakupowe-polakow-w-czasie-pandemii-koronawirusa-2497
    [2] https://www.dlahandlu.pl/detal-hurt/wiadomosci/eec2020-konsumenci-sa-bardziej-swiadomi-i-cyfrowi-ale-stare-nawyki-powracaja,90782.html
    [3] https://cyfrowa.rp.pl/biznes/e-commerce/48293-sklepy-internetowe-zyskaly-nowych-klientow-kto-najwiecej
    [4] https://www.businesswire.com/news/home/20200407005086/en

  • Michał Pieprzny na czele polskiego oddziału SAS Institute

    Michał Pieprzny na czele polskiego oddziału SAS Institute

    Michał Pieprzny objął stanowisko Country Leadera w SAS Institute Polska. Będzie wspierał rozwój firmy i ugruntowanie jej pozycji jako wiodącego partnera biznesowego dla przedsiębiorstw i instytucji w obszarze analityki, uczenia maszynowego i sztucznej inteligencji (AI). Rozwiązania SAS zapewniają kompleksowe wsparcie w obszarach marketingu i sprzedaży, prognozowania popytu, optymalizacji zapasów i logistyki, wykrywania nadużyć, zarządzania ryzykiem, czyli wszędzie tam, gdzie analityka umożliwia automatyzację procesów i podejmowanie natychmiastowych decyzji na masową skalę.

    W dobie czwartej rewolucji przemysłowej zaawansowana analityka staje się kluczowym elementem strategii, a jej efektywne wykorzystanie będzie przesądzać o pozycji przedsiębiorstw oraz instytucji w ultrakonkurencyjnym otoczeniu. SAS wspiera organizacje w analitycznej transformacji. Firma stale inwestuje w dalszy rozwój analityki i AI, włączając w to działania edukacyjne i usługi eksperckie. W Polsce z rozwiązań SAS korzysta blisko 200 firm i instytucji z różnych sektorów rynku, m.in. bankowości, ubezpieczeń, telekomunikacji, energetyki, przemysłu, handlu, farmacji, ochrony zdrowia, nauki czy administracji publicznej.

    Michał Pieprzny od 15. lat wspiera zarządy firm z Europy Środkowo-Wschodniej w obszarze planowania strategicznego, stymulacji wzrostu sprzedaży, rozwoju sieci partnerskich, optymalizacji kosztów i zapewnienia długofalowej wydajności oraz efektywności organizacyjnej. Posiada szerokie kompetencje w zakresie wykorzystania nowoczesnych technologii do wsparcia rozwoju przedsiębiorstw i transformacji procesów biznesowych.

    Do SAS dołączył bezpośrednio z Deloitte Central Europe, gdzie jako partner w dziale Strategy, Analytics and M&A kierował zespołem wspierającym klientów w definiowaniu oraz wdrażaniu transformacji modeli biznesowych. Jednocześnie w roli lidera branżowego był odpowiedzialny za promocję i koordynację pełnej przekrojowej oferty wartości Deloitte dla branży detalicznej w Europie Środkowej, a także branży dóbr konsumenckich w Polsce.

    Wcześniej pełnił funkcję Dyrektora Zarządzającego w Loyalty Partner Polska (operator programu PAYBACK), tworząc innowacyjne usługi marketingu bezpośredniego i stymulacji sprzedaży w oparciu o zaawansowaną analitykę. Karierę zawodową zaczynał w polskim biurze McKinsey&Company, gdzie zdobył doświadczenie w sektorach bankowym, telekomunikacyjnym oraz paliwowym. Następnie współodpowiadał za strategię Avon Cosmetics w Europie Środkowo-Wschodniej.

    Jest absolwentem Szkoły Głównej Handlowej w Warszawie, ukończył tam także studia doktoranckie na kierunku ekonomia i zarządzanie. Ponadto jest absolwentem programu Leading Business into Future w London Business School.

  • XXVI Forum Teleinformatyki: „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    XXVI Forum Teleinformatyki: „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    Epidemia COVID-19 dobitnie uwidoczniła, jak istotne znaczenie dla sprawnego funkcjonowania państwa ma dobrze zaplanowana, skutecznie i sprawnie realizowana cyfrowa transformacja wszelkich procesów wewnętrznych państwa oraz usług dla obywateli, w szczególności możliwość realizowania ich w sposób zdalny. Tym aspektom cyfrowej transformacji poświęcone będą tegoroczne, po raz pierwszy prowadzone wirtualnie, obrady Forum Teleinformatyki.

    Dwudniowy program Forum obejmuje: osiem sesji tematycznych, panel dyskusyjny poświęcony sztucznej inteligencji i zamykający Forum, kocioł dyskusyjny o wpływie pandemii na wizje i pragmatykę cyfrowej transformacji państwa.

    Po raz pierwszy, w 26-letniej historii Forum wydarzenia ostatnich dziewięciu miesięcy w tak wielkim stopniu wpłynęły na zmieniający się niemal do ostatniej chwili program Forum i treść wystąpień. Przeniesienie obrad w sferę wirtualną pozwoliło organizatorom na większą elastyczność w kształtowaniu programu.

    Forum tradycyjnie gromadzi najlepszych specjalistów i praktyków zaangażowanych w modernizację funkcjonowania państwa oraz umożliwia publiczną wymianę doświadczeń i poglądów poprzez czynny udział w dyskusjach panelowych. O niesłabnącym znaczeniu Forum, nie tylko w branży IT, najlepiej świadczy rekordowa liczba 510 uczestników ubiegłorocznej edycji. Zdecydowaną większość z nich stanowili przedstawiciele kadry zarządzającej i informatycznej administracji rządowej oraz samorządowej, biznesu, środowisk naukowych, stowarzyszeń społecznych i izb gospodarczych.

    Pierwszy dzień obrad – czwartek 24 września

    Forum otworzą: prezentacja Marka Zagórskiego – Ministra Cyfryzacji nt. Celów i działań wobec globalnej transformacji cyfrowej i „Złoty wykład” – „50 lat wspinaczki ku chmurom” prof. Jana Madeja z Uniwersytetu Warszawskiego, wygłaszane w sesji Forum zaproszonych gości.

    W sesji INFRASTRUKTURA INFORMACYJNA PAŃSTWA – STAN, WYZWANIA, PERSPEKTYWY KLUCZOWYCH PROJEKTÓW o spisie powszechnym 2020 w warunkach pandemii będzie mówił dr Dominik Rozkrut – prezes GUS. Transformację cyfrową Ministerstwa Finansów na przykładzie integracji rozliczeń podatkowych przedstawi Przemysław Koch, pełnomocnik ministra finansów ds. informatyzacji. Włodzimierz Owczarczyk z zarządu ZUS opowie o skutecznej transformacji działania ZUS w odpowiedzi na wyzwania w czasie epidemii COVID-19.

    O transformacji cyfrowej, wzmocnionej usługami chmurowymi w PKO BP, opowiedzą Jacek Cholc – Dyrektor Pionu Eksploatacji i Infrastruktury, PKO Bank Polski i Krzysztof Bonicki – Dyrektor Biura Rozwoju i Utrzymania Platformy DevOps, PKO Bank Polski.

    Sesję zakończy prezentacja wykorzystania zaawansowanych narzędzi Business Intelligence w finansach publicznych w dobie pandemii na przykładzie budżetu m.st. Warszawy, którą przedstawi Dominik Rogowiecki – Kierownik Zespołu Prognoz Wieloletnich i Modelowania Budżetowego Urzędu m.st. Warszawy.

    W odbywającej się pod patronatem Ubezpieczeniowego Funduszu Gwarancyjnego sesji ZAAWANSOWANE NARZĘDZIA STYMULUJĄCE I CHRONIĄCE PROCESY BIZNESOWE W UBEZPIECZENIACH, Andrzej Parafian z UFG będzie mówił o nowych usługach – ID UFG i Token UFG – wspierających potwierdzenie tożsamości w sektorze ubezpieczeniowym.

    Mateusz Sobeczek z DahliaMatic przedstawi system oceny ryzyka ubezpieczeniowego eSCOR. Sesję zakończy prezentacja Zbigniewa Świerczyńskiego z Milstar o Cyberincydentach i minimalizacji ryzyka ich wystąpienia oraz doskonaleniu metodyki ich obsługi w przypadku ich zaistnienia.

    W sesji INFRASTRUKTURA INFORMACYJNA PAŃSTWA – ARCHITEKTURA, TECHNOLOGIE, o cyfrowej transformacji działalności w sytuacji dynamicznych, wymuszonych zmian uwarunkowań funkcjonowania – na przykładzie wystąpienia pandemii będzie mówił Daniel Olejniczak z firmy Bonair, która jest partnerem tej sesji.

    O znaczeniu IT dla Państwa w czasie kryzysu i czynnikach sukcesu, kiedy projekt informatyczny staje się wyścigiem z czasem, opowie Arkadiusz Wójcik z Asseco Poland.

    Tematem wystąpienia przedstawiciela Urzędu m.st. Warszawy będzie wprowadzenie nowych narzędzi, wspomagających edukację we WSZYSTKICH szkołach w Warszawie wraz ze zdalnym nauczaniem.

    Sesję zakończy prezentacja Pawła Pisarczyka z Atende Software na temat rozważań, czy klastry energii i mikrosieci są przyszłością energetyki.

    Sesję CYBERBEZPIECZEŃSTWO PROCESÓW INFORMACYJNYCH otworzy Krzysztof Silicki, z-ca dyrektora NASK PIB, Dyrektor ds. Cyberbezpieczeństwa i Innowacji, prezentując doświadczenia i wnioski NASK-PIB po dwóch latach funkcjonowania ustawy Krajowy System Cyberbezpieczeństwa. Doświadczenia wdrożeniowe systemu zarządzania tożsamością przedstawi Sławomir Szydłowski z firmy Comp.

    Sesję zakończy prof. Grażyna Szpor z Sektorowej Rady ds. Kompetencji – Telekomunikacja i Cyberbezpieczeństwo, omawiając problemy pojęciowe i kompetencyjne cyberbezpieczeństwa.

    Pierwszy dzień obrad Forum zakończy panel dyskusyjny ANALITYKA DANYCH Z WYKORZYSTANIEM SZTUCZNEJ INTELIGENCJI, prowadzony przez dr. hab. Marcina Paprzyckiego, prof. IBS PAN.

    Drugi dzień obrad – piątek 25 września

    W drugim dniu Forum odbędą się trzy sesje.

    FORUM MŁODYCH MISTRZÓW – „Ekonomiczne aspekty informatyzacji państwa, cyfrowa modernizacja Polski”, na którym zostanie przedstawione podsumowanie i ogłoszenie wyników Konkursu Młodych Mistrzów. Projekt realizowany jest z Narodowym Bankiem Polskim w ramach programu edukacji ekonomicznej. Sesja dofinansowana jest ze środków Narodowego Banku Polskiego. Partnerami sesji i Konkursu Młodych Mistrzów są: Atende Software, Centrum e-Zdrowia i NASK Państwowy Instytut Badawczy.

    Systemowi EZD RP do elektronicznego zarządzania dokumentacją w administracji poświęcona jest sesja SYSTEMY ZARZĄDZANIA DOKUMENTACJĄ ELEKTRONICZNĄ W ADMINISTRACJI PUBLICZNEJ, której honorowym patronem jest Bohdan Paszkowski, Wojewoda Podlaski.

    Mariusz Madejczyk, dyrektor Oddziału NASK w Białymstoku, Pełnomocnik Wojewody Podlaskiego ds. informatyzacji będzie prezentował stan realizacji projektu EZD RP – prototyp rozwiązania, a Magdalena Sawicka, zastępca dyrektora Oddziału NASK w Białymstoku, Kierownik w Biurze Informatyki i Rozwoju Systemów Teleinformatycznych Podlaskiego Urzędu Wojewódzkiego w Białymstoku będzie omawiała program rozwoju systemu EZD PUW i pilotażowe rozwiązania: paczka administracyjna, sztuczna inteligencja, eDoręczenia i weryfikacja podpisów elektronicznych.

    Sesja FORUM NOWYCH IDEI, organizowana przez Polską Izbę Informatyki i Telekomunikacji, poświęcona będzie w całości tematowi: Rynek telekomunikacyjny w analizie PIIT, stan i perspektywy sieci 5G. Rozpocznie ją panel dyskusyjny „Rozwój sieci 5G: raport z placu budowy”, którego moderatorem będzie Borys Stokalski z PIIT, a następnie będą wystąpienia firmowe.

    Obrady Forum zakończy KOCIOŁ DYSKUSYJNY pt. „Czy i jak doświadczenia pandemii zmienią wizję i pragmatykę cyfrowej transformacji państwa”, moderowany przez Borysa Stokalskiego.

    Na Forum zostaną wręczone nagrody: im. Marka Cara (Fundatorem nagrody SAS Institute) i „Złotego Herolda”. Listę laureatów tych nagród z poprzednich lat można znaleźć: www.forumti.pl

    Komitet Honorowy tegorocznego Forum tworzą: Marek Zagórski – Minister Cyfryzacji, Anna Trzecińska – Wiceprezes NBP, prof. dr hab. Jan Madey – Uniwersytet Warszawski, Wiesław Paluszyński – Prezes Polskiego Towarzystwa Informatycznego, dr inż. Andrzej Dulka – Prezes Polskiej Izby Informatyki i Telekomunikacji, dr hab. inż. Bolesław Szafrański – Profesor WAT i Przewodniczący Rady Programowej Forum.

    Honorowymi Patronami XXVI Forum są: Ministerstwo Cyfryzacji, Narodowy Bank Polski, Rektor Uniwersytetu Warszawskiego i Prezes Polskiego Towarzystwa Informatycznego.

    Partnerami XXVI Forum są: Microsoft – złoty partner, Asseco Poland – srebrny partner.

    Patronami medialnymi są: BrandsIT.pl, CyberDefence24, Gazeta Ubezpieczeniowa, ITWIZ.pl i Pismo Samorządu Terytorialnego WSPÓLNOTA.

    Organizatorami Forum są: BizTech Konsulting SA i Polska Izba Informatyki i Telekomunikacji.

    Aktualne informacje o tegorocznym Forum oraz materiały z poprzednich edycji dostępne są na stronie: www.forumti.pl

  • Bezpieczeństwo w szkołach – czy pomóc może technologia?

    Bezpieczeństwo w szkołach – czy pomóc może technologia?

    Nastał wrzesień, a wraz z nim czas powrotu do szkół. Choć sektor edukacyjny od lat mierzył się z wieloma wyzwaniami związanymi z zapewnieniem bezpieczeństwa uczniów, w tym roku jest ich znacznie więcej. Dyrektorzy szkół, chcąc przestrzegać zasad takich jak np. utrzymywanie odpowiedniego dystansu między uczniami, mogą uzyskać wsparcie ze strony technologii. Okazuje się bowiem, że dobrze zintegrowane rozwiązania cyfrowe mogą odgrywać kluczową rolę w zapewnianiu bezpieczeństwa w szkołach.

    1 września w polskich szkołach naukę rozpoczęło ponad 4,5 miliona uczniów. Zgodnie z panującymi zasadami, są oni zobowiązani korzystać ze środków dezynfekujących dłonie, zachowywać odpowiedni dystans społeczny i używać wyłącznie swoich przyborów szkolnych. Nie trudno jednak wyobrazić sobie sytuację, w której uczniowie, szczególnie ci młodsi, nie stosują się do reguł związanych z pandemią. Często trudno egzekwować je u dzieci, które mimo dobrej woli, mogą zwyczajnie zapominać o nowych zasadach. W takich przypadkach przydatne mogą okazać się rozwiązania technologiczne, takie jak monitoring wizyjny, które pomogą opiekunom dopilnować, by zarówno oni sami, jak i uczniowie, byli w szkołach bezpieczni.

    Automatyzacja w służbie bezpieczeństwa

    Rozwiązana wizyjne są już wykorzystywane w placówkach edukacyjnych na całym świecie. Jeszcze przed ogłoszeniem pandemii popularność rozwiązań monitoringu, wspierających polskie szkoły w zapewnieniu bezpieczeństwa na korytarzach rosła. Obecnie tego typu systemy  nabierają jeszcze większego znaczenia. Są one bowiem coraz inteligentniejsze, a zatem istnieje możliwość wyposażenia ich w dodatkowe funkcje, nie tylko wizyjne.

    Inteligentne aplikacje wbudowane w kamery mogą umożliwiać wydzielanie specjalnych stref dostępu z liniami granicznymi, gdzie w przypadku wkroczenia osoby zostaje wygenerowany automatyczny komunikat audio przez głośnik. To świetne rozwiązanie wspierające opiekę nad dziećmi, przydatne również do egzekwowania zachowywania odpowiednich odległości pomiędzy uczniami, a także sposób przypominania im o zasadach bezpieczeństwa, np. o konieczności korzystania ze środków do dezynfekcji dłoni. Nietrudno sobie wyobrazić jak karkołomnym zadaniem byłaby próba kontroli w sposób niezautomatyzowany.

    Nowoczesna analityka, taka jak np. Axis People Counter, pozwala również na precyzyjne liczenie osób przebywających na terenie danego obszaru, np. sali gimnastycznej. Ponieważ dane dostarczane są w czasie rzeczywistym, możliwe jest wysłanie automatycznego komunikatu do operatora monitoringu, kiedy liczba uczniów przekroczy określony próg.

    – Wbudowana w system monitoringu analityka przydaje się także w sytuacjach wyjątkowych, np. gdy któreś z dzieci zasłabnie. Jak wiemy, w szkołach rokrocznie ma miejsce nawet 50 tysięcy wypadków. Coraz inteligentniejsze systemy są w stanie automatycznie zweryfikować incydenty bezpośredniego zagrożenia zdrowia dzieci i nadać komunikat do centrali.  Dzięki temu, proces powiadamiania odpowiednich służb, np. pogotowia ratunkowego, znacznie przyspieszawskazuje Dagmara Pomirska z Axis Communications.

    Co więcej, inteligentna analityka może także samodzielnie klasyfikować nie tylko obrazy, ale również dźwięki. Tłuczone szkło, czy wzmożone krzyki to tylko przykłady, które samoistnie wykryte przez kamerę mogą przyspieszyć proces wzywania odpowiednich służb, bądź skłonić operatora do nadania komunikatu audio, który może zapobiec dalszej eskalacji niebezpieczeństwa.

    Minimalizacja ryzyk

    Oczywiście reguły związane z pandemią nie są jedynymi, o jakich należy pamiętać, dbając o bezpieczeństwo uczniów w szkołach. Technologia pomaga także weryfikować, czy na terenie budynku nie pojawiają się osoby, które nie miały do tego uprawnień. Rozwiązania takie jak np. automatyczna kontrola dostępu ograniczają możliwość wejścia do szkoły przez niepowołanych gości. Nie jest to jeszcze technologia stosowana powszechnie w szkołach, ale coraz częściej m.in. na kampusach akademickich.

    System może ostrzegać, kiedy drzwi pozostaną niedomknięte, a dodatkowo zapewnia także wgląd w listę wszystkich prób dostępu – zarówno zatwierdzonych, jak i nieudanych. To cenne informacje, np. dla administratorów szkół, którzy dzięki temu mogą optymalizować systemy bezpieczeństwa i na bieżąco uaktualniać listę osób z uprawnieniami do poruszania się po terenie obiektu. System wykrywa także wtargnięcia – zarówno osób niepowołanych, jak i np. aut, które pojawiają się na terenach wokół szkoły. Kamery mogą bowiem automatycznie sczytywać tablice rejestracyjne i porównywać je do tych, które należą do osób uprawnionych do przebywania za bramą placówki.

    Zaawansowane możliwości kamer jednocześnie pozwalają rozwiać wszelkie obawy związane z prywatnością i ochroną danych osobowych. Nowoczesny monitoring zapewnia bowiem rozwiązania takie jak np. redakcja obrazu, które automatycznie nanoszą filtr na ludzkie twarze, uniemożliwiając rejestrowanie np. wizerunku dzieci.

    – Celem technologii monitoringu jest wspieranie, a nie zastępowanie człowieka – w szczególności w przypadku opieki nad dziećmi nieodzowny jest bowiem kontakt z nauczycielem. Rozwiązania dozoru ułatwiają przestrzeganie zasad bezpieczeństwa. W dużej grupie osób ludzkie oko i podzielność uwagi mają ograniczone możliwości, a kamera widzi wszystkomówi Dagmara Pomirska i dodaje: Monitoring może okazać się pomocny nie tylko podczas standardowych zajęć. Jeśli przyjdzie nam ponownie wrócić do nauczania zdalnego, połączone ze sobą kamery mogą przydać się nauczycielom podczas prowadzania lekcji online. Mowa tu nawet o skomplikowanych laboratoriach, gdzie potrzebna jest duża rozdzielczość, nieporównywalna ze zwykłymi telekonferencjami. Choć dzieci wróciły do szkolnych ławek, z pewnością będą od teraz częściej korzystały z wysokiej jakości streamingu.

  • Polpharma – nowoczesne miejsce pracy przy wsparciu Microsoft

    Polpharma – nowoczesne miejsce pracy przy wsparciu Microsoft

    Polpharma jest przykładem jednej z najbardziej zaawansowanych cyfrowo firm na polskim rynku farmaceutycznym. W niełatwym procesie digitalizacji procesów biznesowych i produkcyjnych wspiera ją Microsoft. W maju 2019 roku obie firmy podpisały porozumienie, w ramach którego zadeklarowały podjęcie wspólnych działań w obszarach takich, jak cyfryzacja procesów przemysłowych w całym łańcuchu wartości produkcji leków, zaawansowana analityka danych i wykorzystanie sztucznej inteligencji oraz tworzenie cyfrowego miejsca pracy. Owocem porozumienia jest nowoczesne miejsce pracy, wspierające mobilność, pracę online oraz inteligentne procesy produkcyjne Fabryki Przyszłości.

    „Cyfryzacja jest istotnym elementem transformacji Grupy Polpharma. Z jednej strony pozwoli nam dostarczać wartościowe rozwiązania dla pacjentów, stanowiące połączenie farmaceutyków i nowych usług, z drugiej – umożliwi podniesienie elastyczności i zwinności biznesowej naszej organizacji. Technologie cyfrowe w procesie produkcji mają ogromny potencjał, ponieważ wpływają na efektywność wytwarzania, a co za tym idzie zwiększenie konkurencyjności Polpharmy jako największego producenta leków w Polsce”Markus Sieger, Prezes Grupy Polpharma.

    Nowoczesne standardy pracy

    W Polpharmie cyfryzacja dotyczy kluczowych obszarów, w obrębie których wykorzystywana jest technologia Microsoft. Są to digital organization, digital operations (produkcja), digital product, digital market. Cyfrowa zmiana dotyka tym sposobem każdego pracownika. Cel jest jeden – zwiększenie efektywności biznesowej firmy, a przede wszystkim ułatwienie codziennych zadań poszczególnych pracowników.

    W Polpharmie pracuje obecnie ok. 4,5 tys. osób. W 6 oddziałach w Polsce zatrudnienie znajdują przedstawiciele baby boomers (16 proc.), generacja X (53 proc.), generacja Y (29 proc.) oraz generacja Z/C (2 proc.). Tak różnorodne środowisko wymaga od firmy pełnego dopasowania do potrzeb oraz możliwości każdego z pracowników. Gdy dla jednych liczy się elastyczny czas pracy i możliwość realizacji obowiązków z dowolnego miejsca, inni stawiają na spotkanie face to face i obecność w firmie. Dla jednych i drugich z pomocą przychodzi technologia Microsoft.

    „To w jaki sposób dzisiaj pracujemy jest efektem wysiłków wielu osób. Technologia wspiera nasze działania, ale optymalne jej wdrożenie wymagało przygotowania pracowników do zmiany”mówi Jarosław Hermann, Ekspert ds. Ekspert ds. Cyfryzacji w Polpharmie.

    Microsoft Teams to technologia, z której obecnie korzysta w Polpharmie ponad 3 tys. osób. Odpowiednio zaplanowana komunikacja, szkolenia, rekomendacje odpowiednich rozwiązań oraz wsparcie kadry menadżerskiej doprowadziły do tego, że usługi Microsoft przekładają się na pracę poszczególnych osób oraz całych działów.

    „Jest południe. Zazwyczaj o tej porze miałem w skrzynce co najmniej kilkadziesiąt wiadomości. Teraz liczba e-maili znacznie się zmniejszyła, a rolę klasycznej korespondencji i szybkiej wymiany wiadomości przejmuje usługa Microsoft Teams”mówi Radosław Bondarczuk, Szef ds. Doskonałości Operacyjnej IO Grupy Polpharma.

    Z obecności w biurze, pracownicy mogą zrezygnować na rzecz dowolnego miejsca, z którego aktualnie najlepiej i najwygodniej im pracować. Organizacja wirtualnych spotkań staje się codzienną rutyną, a możliwość „wdzwonienia się” poszczególnych uczestników komfortem, który wpływa na efektywność zatrudnionych. Wcześniej pracownicy, aby uczestniczyć w spotkaniach projektowych, musieli przemieszczać się między budynkami i różnymi lokalizacjami. Dzisiaj o wiele częściej spotykają się online, dzięki czemu oszczędzają również sporo czasu. Zdalny styl pracy ma ogromne znaczenie w takich sytuacjach, jak pandemia koronawirusa.

    Podczas gdy do wewnętrznej komunikacji zespołów stosowany jest Microsoft Teams, pracownicy Polpharmy również szeroko wykorzystują Yammer do komunikacji wewnętrznej, także z przedstawicielstwami Polpharmy z innych krajów. Z wewnętrznej sieci społecznościowej korzysta dzisiaj prawie 5 tys. osób z trzech krajów. Yammer jest bardzo dobrym narzędziem nieformalnej, otwartej  komunikacji społecznościowej, ułatwiającej rozmowę o ważnych dla firmy i pracowników sprawach.

    Biura Polpharmy wyposażone są w urządzenia Surface Hub 2, które podczas spotkań ułatwiają rozmowy i analizę, m.in. wyników pomiaru efektywności procesów biznesowych w Centrum Usług Finansowych. W szybszym podejmowaniu decyzji w oparciu o zawsze aktualne dane pomaga usługa Power BI, umożliwiająca ich prezentację w czytelny dla odbiorcy sposób.

    „Digitalizacja procesów finansowych spowodowała, że ilość danych w ostatnim czasie jest znacząco większa niż jeszcze kilka lat temu. Naszym zadaniem w finansach jest takie przetwarzanie informacji, aby stanowiły one wartość dla firmy, żeby można było wykorzystać ją do codziennego procesu zarządzania”mówi Wojciech Rosa, Dyrektor Finansów Korporacyjnych Grupy Polpharma.

    Za cyfrową zmianę w Polpharmie odpowiada nieformalny, niehierarchiczny, wirtualny zespół ambasadorów, powołany z inicjatywy Tomasz Staszelisa, Dyrektora ds. Cyfryzacji Grupy Polpharma.

    „Celem Polpharma Digital Community jest tworzenie kontekstu dla digitalizacji, czyli podnoszenie świadomości, promocja, inspirowanie pracowników i rekomendacje odpowiednich rozwiązań cyfrowych w biznesie. Ujmując rzecz praktycznie, taki styl oddziaływania sprawia, że poszczególni pracownicy oraz ich działy nie tylko myślą i mówią o digitalizacji, ale też aplikują odpowiednie cyfrowe rozwiązania do obszarów, za które są odpowiedzialni”mówi Tomasz Staszelis.

    Główną zaletą takiego rozwiązania jest zdobywanie przez pracowników firmy dużej biegłości technologicznej. Aby ułatwić sobie codzienne zadania, pracownicy sami potrafią zbudować aplikacje, które najlepiej będą odpowiadać ich potrzebom. Dzięki aplikacjom mobilnym tworzonym w PowerAutomate, pracownicy mogą m.in. działać w sposób natychmiastowy w sytuacjach, gdy np. zauważą jakąś awarię. Mogą również monitorować swój czas pracy poprzez logowanie się do aplikacji po rozpoczęciu pracy i wylogowanie się po jej zakończeniu.

  • Grupa Atos ogłasza wyniki za pierwsze półrocze 2020

    Grupa Atos ogłasza wyniki za pierwsze półrocze 2020

    Atos ogłosił wyniki finansowe za pierwsze półrocze 2020 roku. Firma osiągnęła wzrost liczby zamówień  rok do roku o +9,4%, wskaźnik zamówień do wartości księgowej na poziomie 112% (121% w Q2). Atos miał przychody na poziomie 5 627 mln euro, -2,8% wzrostu organicznego (-4,8% w Q2), koszt akcji pozwolił osiągnąć marżę operacyjną na poziomie 450 mln euro, stanowiący 8,0% przychodów, a aktualny kapitał obrotowy doprowadził do wolnych przepływów pieniężnych na poziomie -172 mln euro. Firma potwierdziła wszystkie cele na 2020 rok.

    Elie Girard, Prezes Grupy Atos powiedział: „W pierwszej połowie 2020 roku, która minęła w specyficznych warunkach pandemii, nadaliśmy priorytet kwestii zdrowia i bezpieczeństwa naszych pracowników. Jednocześnie zapewniliśmy ciągłość biznesową naszym klientom dostarczając kluczowe usługi, dzięki naszemu elastycznemu modelowi biznesowemu. Na początku półrocza również zaczęliśmy opracowywać portfolio Future-Ready mające przygotować naszych klientów na czasy post-Covid.

    Aktualna strategia i unikalny profil Grupy sprawiły, że przychody spadły jedynie o -2,8%, a dół krzywej osiągnięto w Q2. W trosce o klientów w tym wyjątkowym okresie, naszych 110 000 ekspertów na całym świecie przyczyniło się do osiągnięcia znakomitych wyników biznesowych, przy jednoczesnym wzroście liczby zamówień o blisko 10% rok do roku. W Q2 podpisaliśmy kilka dużych kontraktów w obszarze technologii cyfrowej, chmury i bezpieczeństwa. Realizacje wzrosły o 1,2 mld euro, a klienci skupili się na kwestiach transformacji front-end, migracji Full Stack Cloud oraz doświadczeniach swoich pracowników. Równocześnie wzrósł popyt na aplikacje o znaczeniu krytycznym dla biznesu, usługi bezpieczeństwa cyfrowego oraz dekarbonizacji – w tych obszarach ogłosiliśmy nowe przejęcia, które wzmocnią nasze możliwości.

    Duża dynamika odzwierciedla szybki postęp we wdrażaniu naszego programu SPRING wzmacniającego ofertę skierowaną do poszczególnych sektorów gospodarki oraz metody wprowadzania produktów do rynku, a także nasze podejście nastawione na klienta. Pierwsze wyniki Grupy ukazują, że jesteśmy bardzo dobrze przygotowani do zrealizowania wszystkich naszych celów postawionych na ten rok – to ważny krok w realizacji naszych średniookresowych celów wyznaczonych w zeszłym miesiącu podczas Dnia Analityka.”

  • Jakie są szanse rozwoju sztucznej inteligencji na dużą skalę?

    Jakie są szanse rozwoju sztucznej inteligencji na dużą skalę?

    W dzisiejszych czasach w rozwiązania oparte na sztucznej inteligencji inwestuje się już miliardy dolarów. I nic w tym dziwnego, gdyż ta przełomowa technologia ma moc transformacji nie tylko biznesu, ale też wielu procesów gospodarczych i  otaczającej nas rzeczywistości. Coraz więcej firm z różnych sektorów wykracza poza rozwiązania pilotażowe. Na ile jednak są one skuteczne w zastosowaniach na szeroką skalę, zwłaszcza w świetle obecnej pandemii? Mówi o tym najnowszy raport Capgemini poświęcony badaniom potencjału sztucznej inteligencji na dzisiejszym rynku.

    Capgemini zanalizowało tempo wdrożenia sztucznej inteligencji przez przedsiębiorstwa w ciągu ostatnich trzech lat, badając blisko tysiąc organizacji, z co najmniej miliardem dolarów przychodu rocznie, wdrażających inicjatywy oparte na AI, a także przeprowadziło obszerne, pogłębione wywiady z kadrą kierowniczą. Co wynika z raportu „The AI-powered enterprise”?

    Wprowadzanie AI na dużą skalę wcale nie jest łatwe

    Mimo, że coraz więcej przedsiębiorstw wykracza poza projekty pilotażowe, bo 53% (36% w raporcie z 2017 r.), to zastosowania produkcyjne z AI na szeroką skalę zainicjowało do tej pory tylko 13% liderów, a kryzys związany z pandemią nie pomaga tym, którzy tego nie zrobili. Mimo wszystko, to jednak większość z tej niewielkiej grupy liderów kontynuuje postępy w swoich inicjatywach związanych z AI w tym samym tempie co przed pandemią, a niektórzy z nich zwiększyli nawet tempo wdrożeń. Stanowi to jednak wyraźny kontrast w stosunku do organizacji, które zmagały się z problemami, z których blisko połowa wycofała się z inwestycji, a 16% w ogóle zawiesiło wszystkie inicjatywy z AI ze względu na dużą niepewność biznesową związaną z pandemią.

    Spore korzyści dla liderów wdrożeń

    Organizacje wdrażające AI liczą na korzyści w zakresie generowania przychodów, redukcji ryzyka, lepszej współpracy z klientami i optymalizacji kosztów. Aż 97% liderów z branży IT dostrzegło wymierne korzyści z zastosowań AI, przy czym 79% z grupy liderów AI na dużą skalę odnotowuje ponad 25% wzrost sprzedaży tradycyjnych produktów i usług. Ponadto w przypadku 62% liderów odnotowano spadek liczby skarg klientów o co najmniej 25%, a w przypadku 71% odnotowano spadek zagrożeń związanych z bezpieczeństwem o co najmniej 25%.

    Najlepiej ze skalowaniem radzi sobie sektor nauk przyrodniczych i handel

    Jeśli chodzi o pięć najważniejszych sektorów, które przodują w rozwijaniu AI, organizacje z sektora nauk przyrodniczych i handlu detalicznego znacznie wyprzedzają inne, które stanowią odpowiednio 27% i 21% wśród liderów we wdrażaniu sztucznej inteligencji na szeroką skalę. Na kolejnych miejscach znajdują się sektor motoryzacyjny i produkty konsumenckie po 17%, a następnie telekomunikacja (14%). Zaledwie 38% organizacji zajmujących się naukami przyrodniczymi zawiesiło lub wycofało inwestycje z powodu pandemii, w porównaniu z sektorami ubezpieczeń (66%), bankowości (64%) i użyteczności publicznej (64%). Odzwierciedla to znaczenie e-zdrowia w dzisiejszym kontekście, gdzie wirtualni asystenci, aplikacje do śledzenia kontaktów i czaty rozwijają się w miarę jak organizacje, takie jak Światowa Organizacja Zdrowia, uruchamiają narzędzia oparte na sztucznej inteligencji w celu gromadzenia i dostarczania informacji podczas trwającej pandemii.

    Jaki jest skuteczny model działania?

    – Aby skutecznie skalować AI, wiodące organizacje koncentrują się na odpowiednich narzędziach, platformach technologicznych i zwinnych praktykach. Ustanawiają zrównoważone modele operacyjne, tworzą etyczne algorytmy AI oraz dbają o bogate zasoby talentów i partnerów do współpracy. Wreszcie, stale sprawdzają swoje modele AI pod kątem dokładności i ich wpływu na wzmocnienie wyników biznesowychmówi Beniamin Poznański, szef zespołu Projects & Consulting Eastern Europe w Capgemini.

    Zaufane, wysokiej jakości dane są niezbędne do skalowania AI

    Grupa liderów oceniła poprawę jakości danych jako wskaźnik numer jeden, który pomaga w osiągnięciu większych korzyści z ich systemów AI. Dobre zarządzanie danymi gwarantuje, że zespoły ds. AI mają odpowiednią jakość danych i zwiększa to też zaufanie do danych wśród kadry kierowniczej. Wdrożenie odpowiednich platform technologicznych, takich jak hybrydowa architektura chmury obliczeniowej i demokratyzacja dostępu do danych, służą jako podstawowe elementy konstrukcyjne do skalowania AI.

    Zatrudnianie dedykowanych informatyków to klucz do wspierania rozwoju AI

    Z badań przeprowadzonych przez Capgemini wynika, że 70% organizacji uważa, że brak w puli talentów na średnim i wyższym poziomie zaawansowania stanowi duże wyzwanie dla skalowania AI. Ponad połowa liderów (58%) mianowała kierownika ds. AI, który może zapewnić zespołom rozwojowym wizję, ustalić wytyczne dotyczące hierarchii przypadków użycia, etyki i bezpieczeństwa, jednocześnie równoważąc wykorzystanie platform i narzędzi do rozwoju AI.

    – Organizacje muszą również skoncentrować się na szerokiej gamie umiejętności w zakresie skalowania aplikacji AI, wykraczających poza czyste umiejętności techniczne, w tym na analitykach biznesowych i specjalistach ds. zarządzania zmianą. Jednak obecnie istnieje znaczna luka pomiędzy popytem a podażą w ważnych dziedzinach, takich jak uczenie maszynowe czy wizualizacja danych. Szkolenia i podnoszenie kwalifikacji mają zatem zasadnicze znaczenie dla zniwelowania tych braków i zapewnienia możliwości utrzymania potrzebnych umiejętności we własnym zakresiedodaje Beniamin Poznański.

    Etyczne interakcje z AI to budowanie satysfakcji i zaufania konsumentów

    Niezależnie od tego, jak bardzo konsumenci i przepisy prawne koncentrują się na etycznej sztucznej inteligencji, raport odkrył, że wiele organizacji nie zajmuje się aktywnie takimi kwestiami, jak potrzeba posiadania autoryzowanego zespołu ds. etyki. W raporcie stwierdzono, że mniej niż jedna trzecia zmagających się z tym problemem organizacji (29% w porównaniu z 90% liderów zajmujących się sztuczną inteligencją) przyznaje, że posiada szczegółową wiedzę na temat tego, w jaki sposób i dlaczego ich systemy sztucznej inteligencji przynoszą efekty. Jest to ważne dla kadry kierowniczej przedsiębiorstw, aby móc zaufać organizacyjnym systemom AI. Jednocześnie niemożliwe jest zbudowanie zaufania konsumentów, jeśli pracownicy zwracający się do klientów nie mają zaufania do modeli lub danych, z których korzystają organizacje.

    Nie tylko modernizacja, ale kompleksowe podejście zapewni sukces

    W świetle niedawnego kryzysu związanego z pandemią, podczas gdy organizacje analizują dane i sztuczną inteligencję w celu zapewnienia stabilności swoich działań, istnieje jeszcze większa potrzeba powiązania strategicznych celów biznesowych z wdrażaniem AI na skalę. Badania Capgemini podkreślają, że najbardziej udane wdrożenia łączą wysiłki na rzecz racjonalizacji i modernizacji procesów zarządzania danymi, koncentrując się na wprowadzaniu nowych, zwinnych narzędzi z ekosystemów partnerów, a także podejść takich jak DataOps i MLOps (machine learning ops), aby rozwijać i wdrażać rozwiązania z zakresu sztucznej inteligencji, budować dedykowane zespoły i stworzyć zrównoważony model operacyjny.

  • Raport IBM: Przejęte konta pracowników doprowadziły do ​​najdroższych naruszeń danych w ciągu ostatniego roku

    Raport IBM: Przejęte konta pracowników doprowadziły do ​​najdroższych naruszeń danych w ciągu ostatniego roku

    IBM Security ogłosił dzisiaj wyniki globalnego badania analizującego wpływ naruszeń danych na finanse firm, ujawniając, że te incydenty kosztują firmy badane średnio 3,86 miliona dolarów za naruszenie, a przejęte konta pracowników są najczęstszym źródłem tych naruszeń. Na podstawie dogłębnej analizy naruszeń danych, których doświadczyło ponad 500 organizacji na całym świecie, 80% tych incydentów spowodowało ujawnienie danych osobowych klientów. Spośród wszystkich rodzajów danych ujawnionych w tych naruszeniach, wycieki danych osobowych klientów były również najbardziej kosztowne dla badanych firm.

    Według raportu IBM-Ponemon 2020 Cost of a Data Breach Report, dane osobowe klientów były najczęściej narażonym typem danych w przypadku naruszenia.

    Odrębne badanie IBM wykazało, że ponad połowa ankietowanych pracowników, którzy rozpoczynają pracę w domu z powodu pandemii, nie otrzymała nowych wytycznych dotyczących postępowania z informacjami umożliwiającymi identyfikację klienta, pomimo zmieniających się modeli ryzyka związanych z tą zmianą.

    Sponsorowany przez IBM Security i przeprowadzony przez Ponemon Institute raport  dotyczący kosztów naruszenia danych w 2020 r. opiera się na dogłębnych wywiadach z ponad 3200 specjalistami ds. bezpieczeństwa w organizacjach, które doświadczyły naruszenia bezpieczeństwa danych w ciągu ostatniego roku. Oto niektóre z najważniejszych ustaleń tegorocznego raportu:

    • Badane firmy, które w pełni wdrożyły technologie automatyzacji bezpieczeństwa, poniosły mniej niż połowę kosztów naruszenia bezpieczeństwa danych w porównaniu z tymi organizacjami, które nie wdrożyły tych narzędzi – średnio 2,45 mln USD w porównaniu do 6,03 mln USD .
    • W przypadku incydentów, w których atakujący uzyskali dostęp do sieci firmowych przy użyciu skradzionych lub naruszonych danych uwierzytelniających, badane firmy odnotowały wzrost kosztów naruszenia danych o prawie 1 milion USD w porównaniu ze średnią światową – osiągając 4,77 miliona USD za naruszenie danych. Wykorzystywanie luk w zabezpieczeniach stron trzecich było drugą najbardziej kosztowną główną przyczyną złośliwych włamań ( 4,5 mln USD ) w tej grupie.
    • W przypadku incydentów, w których naruszono ponad 50 milionów rekordów, koszty wzrosły do 392 milionów dolarów z 388 milionów dolarów w poprzednim roku. Naruszenia, w przypadku których ujawniono od 40 do 50 milionów rekordów, kosztowały badane firmy średnio 364 mln USD , co oznacza wzrost kosztów o 19 mln USD w porównaniu z raportem z 2019 r.

    Skradzione lub przejęte dane uwierzytelniające i błędne konfiguracje chmury były najczęstszymi przyczynami złośliwego naruszenia w badanych firmach, stanowiąc prawie 40% złośliwych incydentów. W 2019 r. ujawniono ponad 8,5 miliarda rekordów, a osoby atakujące korzystały z wcześniej ujawnionych wiadomości e-mail i haseł w jednym na pięć zbadanych naruszeń. Firmy powinny zatem przemyśleć swoją strategię bezpieczeństwa poprzez ponowne zbadanie sposobu uwierzytelniania użytkowników i zbadania, jaki zakres dostępu mają użytkownicy.

    Ponadto, tegoroczny raport z 2020 r. ujawnił, że osoby atakujące wykorzystywały błędne konfiguracje chmury do włamywania się do sieci przez prawie 20% czasu, zwiększając koszty włamań średnio o ponad pół miliona dolarów do 4,41 miliona dolarów, co czyni go trzecim najdroższym początkowym wektorem infekcji zbadanym w raporcie.

    Raport podkreśla rosnącą różnicę w kosztach włamań między firmami wdrażającymi zaawansowane technologie bezpieczeństwa a tymi, które pozostają w tyle, ujawniając oszczędność wydatków na cyberbezpieczeństwo w wysokości 3,58 mln USD w stosunku do firm z w pełni wdrożoną automatyzacją zabezpieczeń w porównaniu z tymi, które jeszcze tego nie zrobiły.

    Firmy objęte badaniem, które w pełni wdrożyły automatyzację zabezpieczeń, również zgłosiły znacznie krótszy czas reakcji na naruszenia, co jest kolejnym kluczowym czynnikiem zmniejszającym koszty naruszeń w analizie. Raport wykazał, że sztuczna inteligencja, uczenie maszynowe, analityka i inne formy automatyzacji zabezpieczeń umożliwiły firmom reagowanie na naruszenia średnio o ponad 27% szybciej niż firmy, które jeszcze nie wdrożyły automatyzacji zabezpieczeń – z których ta ostatnia wymaga średnio 74 dodatkowych dni na zidentyfikować i powstrzymać naruszenie.

    Gotowość do reagowania na incydenty również nadal ma duży wpływ na finansowe następstwa naruszenia. Według raportu, firmy, które nie mają zespołu do szybkiego reagowania na incydenty bezpieczeństwa ani nie przeprowadzają testów, ponoszą 5,29 miliona dolarów średnich kosztów naruszenia, podczas gdy firmy, które mają zarówno zespół i używają ćwiczeń lub symulacji do testowania planów szybkiego reagowania, ponoszą 2 milionów dolarów mniej kosztów naruszenia – potwierdzając, że gotowość na incydenty przynosi znaczny zwrot z inwestycji w cyberbezpieczeństwo.

    Ryzyko związane z pracą zdalną będzie miało swój koszt: w  przypadku hybrydowych modeli pracy tworzących mniej kontrolowane środowiska, raport wykazał, że 70% badanych firm, które przyjęły telepracę w czasie pandemii, spodziewa się, że zwiększy to koszty naruszenia bezpieczeństwa danych.

    Informacje o badaniu rocznych kosztów naruszenia danych

    Raportu opiera się na dogłębnej analizy naruszeń danych rzeczywistych doświadczanych przez ponad 500 organizacji na całym świecie, zachodzących między sierpniem 2019 i kwietniem 2020 , biorąc pod pod uwagę setki czynników kosztowych, w tym prawne, regulacyjne oraz działania techniczne prowadzące do utraty wartości marki, klientów i produktywności pracowników.

  • Automatyka behawioralna a indywidualizm w komunikacji

    Automatyka behawioralna a indywidualizm w komunikacji

    Szybki przepływ komunikatów, automatyzacja, czy relacje w świecie cyfrowym to tylko kilka z wyróżników współczesnego społeczeństwa złożonego z konsumentów treści mobile. O tym, do czego prowadzi nas automatyka behawioralna mówi ekspert Cushman & Wakefield Daniel Stańczuk, Marketing & PR Senior Communications Specialist w Dziale Zarządzania Nieruchomościami.

    Nie sposób zaprzeczyć, że życie społeczeństwa epoki informacyjnej wyróżnia kilka głównych czynników tj.: szybki przepływ komunikatu, automatyzacja oraz uproszczenie procesu, a także cyfryzacja relacji. Z socjologicznego punktu widzenia, rzutuje to na głębokie przekształcenie wartości, którymi kierujemy się w życiu codziennym. Z jednej strony zyskujemy łatwość wyrażenia emocji „tu i teraz”, dzięki mediom społecznościowym, a z drugiej najcenniejszą walutą staje się dla nas CZAS, którego wciąż przecież brakuje. Czy „teraz” jesteśmy jednak inni? I tak, I nie. Według teorii habitusu Pierre’a Bordieu pewne schematy postępowania są zapisane w naszym DNA, przez co determinują one nasze zachowanie oraz reakcje na określone bodźce w życiu dorosłym. Biologia określa je m. in. mianem odruchu bezwarunkowego, gdzie automatyka procesu jest wrodzona np.: ssanie kciuka przez dzieci. Dlatego marketing, choć postrzegany jako nienamacalny, staje się receptorem, kreującym określoną odpowiedź w procesie komunikacji z konsumentem.  Tylko, co to oznacza?

    Lata 10-te naszego millenium, to wyjątkowy czas, który ukazał niebywałą transformację globalnego modelu życia, wywierając silną presję na całą branżę retail. Głównym celem była optymalizacja procesu komunikacji, logistyki, sieci sprzedaży, aby pozytywnie wpłynąć na wskaźniki operacyjne. W działaniach branży handlowej brakowało ważnych elementów, które umożliwią automatyzację oraz analizę danych w czasie rzeczywistym.

    Współczesna sieć Internet nie przypomina swojego protoplasty. Sama w sobie staje się „Internetem Rzeczy”, ucząc się naszego zachowania, a także tworząc sieci połączeń porównywalnych do ludzkich neuronów. Powstające sieci 5 generacji oraz ich pojemność, pozwolą na przesyłanie oraz ściąganie dziesiątek gigabajtów danych dosłownie w ułamku sekundy. W przyszłości wysoce rozwinięta analityka, sztuczna inteligencja oraz szeroko rozumiane algorytmy będą kształtowały nasz ekosystem komunikacji, a także środowisko funkcjonowania życia gospodarczego. Już teraz wiele marek – w tym odzieżowych – inwestuje w rozwój wysoce zintegrowanych systemów działających w czasie rzeczywistym, dzięki czemu są one w stanie zarządzać sprzedażą każdego produktu niezależnie od platformy oraz kanału dystrybucji. Dzięki zaawansowanym technologiom, coraz częściej słyszymy o realizacji zamówień w ciągu maksymalnie kilku godzin, a nie kilku dni.

    Za raportem opracowanym przez Izbę Gospodarki Elektronicznej wraz z Mobile Institute „Omni-commerce, kupuję wygodnie” z roku 2019[1], zauważyć można, że blisko 57% Internautów realizuje swoje zakupy w sieci. Stanowi to wzrost o 5 punktów procentowych w porównaniu do roku 2018. Co ciekawe aż 52% pośród kupujących w sieci wykorzystuje do tego celu urządzenie przenośne tj. telefon lub tablet, a te stają się nieodłącznym elementem naszej codzienności. Na sile przybiera także sprzedaż z wykorzystaniem mediów społecznościowych, które już teraz mogą być w pełni zintegrowane ze sklepami internetowymi poszczególnych retail’erów.

    Jaka czeka nas przyszłość? Na pewno dynamiczna, dlatego warto przyglądać się nowym trendom rynkowym.

    Algorytmizacja życia w sieci: Wolny wybór, czy tendencyjna rekomendacja?

    Śledzenie użytkownika w sieci, wykorzystanie algorytmów aby personalizować treść, a także kreowanie potrzeby posiadania produktu zgodnego z analizą profilu. Tak kształtuje się nasza cyfrowa rzeczywistość. Wyszukiwarki internetowe, pozycjonowanie stron oraz silniki wskazujące potencjalne kategorie zakupowe, pracują w oparciu o sztuczną inteligencję, która uczy się naszego zachowania w sieci. Z jednej strony, otrzymujemy wyniki, których odbiorcą być powinniśmy, a z drugiej ukazuje się nam jedynie wycinek wszystkich zasobów oraz dostępnej treści. Budzi to obawę, że zamiast doświadczać więcej, widzimy materiały tendencyjne, zamykające nas w pewnych ramach behawioralnych. Zachowanie synergii każdego z elementów ekosystemu zapewnia mu stabilizację. Wychodząc z tego założenia, warto podkreślić, że wraz z rozwojem technologii, jako społeczeństwo, nabieramy także świadomości, która umożliwia nam gradację informacji, które do nas docierają.

    Podstawowe elementy strategii omnichannelowej:

    1. Lead Generation – Budowanie bazy danych, komunikacja e-mail poprzez tradycyjny newsletter, a także wiadomości dynamiczne 1-2-1. Wykorzystanie silników (marketing automation), celem stworzenia zagregowanej bazy danych.
    2. Media Społecznościowe – staranne opracowywanie treści oraz dostosowanie komunikatów do oczekiwań odbiorców naszych materiałów. Segmentujemy oraz odpowiednio profilujemy grupy odbiorców zależnie od istotnych dla nas kryteriów.
    3. Reklama RTB – realizacja kampanii w sieci reklam RTB tj. spersonalizowanych, spójnych zarówno z naszą komunikacją, jak i zachowaniem użytkownika, który ma styczność z komunikatem.
    4. Sklep Stacjonarny – wykorzystanie takich technologii, jak beacon’y, a także aplikacja mobilna. Umożliwiają one zarówno weryfikację ścieżki zakupowej klienta, ukazują jego profil zakupowy, a także poprzez „push” komunikują mu ofertę dedykowaną na podstawie historii zakupów.
    5. Media Digital – zapewnienie responsywnej odsłony strony www, która skaluje się zarówno do ekranów komputerów stacjonarnych, jak i nośników mobilnych. To także wykorzystanie komunikacji SMS, MMS, a także geopush. To realizowanie kampanii dedykowanych na urządzenia mobilne, SEO i ASO oraz postępująca integracja treści i styku użytkownika z aplikacją mobilną.
    6. Strony WWW – posiadające treści spersonalizowane, począwszy od pojawiających się bannerów, poprzez dedykowane formularze, a także materiały dodatkowe.
    7. Program lojalnościowy oraz CRM – stworzenie powodu tzw. „reason to believe” dla konsumenta, aby chciał skorzystać z oferty ponownie. Program lojalnościowy, a także odpowiedni system CRM, pozwalają na szybkie zidentyfikowanie użytkownika, przejrzenie jego historii zakupów, a także na zapewnienie najwyższej klasy obsługi włącznie z zapewnieniem wyjątkowego doświadczenia post zakupowego.