Tag: G DATA

  • Jakiego antywirusa wybrać i na co zwrócić uwagę podczas wyboru?

    Jakiego antywirusa wybrać i na co zwrócić uwagę podczas wyboru?

    Czy antywirus Windows i Mac to konieczność?

    Zaraz, zaraz… czy już we wstępie jasno nie daliśmy do zrozumienia, że profesjonalny program antywirusowy na komputerze to must-have? Oczywiście, że tak, jednak pytanie nie jest do końca bezpodstawne. Pamiętajmy bowiem, że obecnie produkowane komputery (zarówno te z systemem Windows, jak i macOS), są wyposażone fabrycznie w antywirus Windows lub macOS. Czy zatem musimy instalować zewnętrzne oprogramowanie?

    Zarówno Windows, jak i Apple utrzymują, że ich programy antywirusowe zapewniają wystarczającą ochronę. Oprogramowania takie jak Windows Defender są dobrym zabezpieczeniem, ale… no, właśnie, tylko dobrym. Oczywiście oferuje on kluczowe funkcje, takie jak ochrona przed złośliwym oprogramowaniem w czasie rzeczywistym, firewall, kontrola rodzicielska czy raporty o wydajności. W niezależnych testach wypada jednak gorzej od płatnych antywirusów, choćby takich jak G DATA.

    Jak wybrać program antywirusowy?

    Czym zatem kierować się podczas wyboru antywirusa? Obecnie na rynku dostępne są zarówno programy darmowe, jak i płatne. Te, które można pobrać za darmo, faktycznie utrudniają życie cyberprzestępcom, jednak nie oferują takich funkcji jak firewall czy szyfrowanie danych. Oznacza to, że mimo wszystko za antywirusa warto dopłacić.

    Wybierając program ochronny, zwracajmy uwagę przede wszystkim na następujące funkcje:

    • skaner o wysokim poziomie detekcji,
    • kontrola podejrzanego zachowania,
    • skaner poczty analizujący załączniki,
    • aktywna ochrona przed exploitami,
    • ochrona przed atakami trojanów bankowych,
    • blokowanie wirusów szyfrujących pliki.

    Niektóre programy oferują też funkcję VPN, jednak w większości przypadków usługę tę dokupuje się oddzielnie. Virtual Private Network gwarantuje anonimowość oraz ochronę danych w sieci, chroniąc przed kontrolą ze strony hakerów, ale także korporacji czy instytucji rządowych.

    Antywirus GDATA

    Współcześnie na rynku znajdziemy wielu uznanych producentów, którzy oferują wysokiej jakości programy antywirusowe. Przykładem może być niemieckie przedsiębiorstwo G DATA, które w 1987 roku opracowało pierwsze programy antywirusowe i od ponad 35 lat dostarcza najnowsze oprogramowania ochronne klientom indywidualnym i przedsiębiorcom. Aktualnie w ofercie G DATA można znaleźć zarówno antywirus Windows i Mac, jak i oprogramowanie VPN czy programy antywirusowe na urządzenia mobilne. Z pełną ofertą tego przedsiębiorstwa można zapoznać się na stronie https://gdata.pl/antywirus-windows.

  • Rynek data center czeka wzrost. Niestety wzrosną też koszty

    Rynek data center czeka wzrost. Niestety wzrosną też koszty

    Nadchodzi kolejny dobry rok dla operatorów data center? Według analityków Turner & Townsend aż 95% operatorów data center spodziewa się większego popytu na usługi centrów danych. Jednak dużym wyzwaniem mogą okazać się rosnące koszty budowy nowych obiektów i polityka klimatyczna.

    Branża ma powody do optymizmu. 95% badanych dostawców usług data center stwierdziło, że 2022 rok będzie dla nich lepszy od 2021 roku. 70% wierzy, że rynek data center jest praktycznie odporny na recesję.

    Głosy są jednak podzielone w kwestii tego, jak centra danych poradzą sobie z zieloną transformacją — wynika z ostatniego Data Center Cost Index opracowanego przez analityków Turner & Townsend. Wzrost branży ma napędzać m.in. powszechna cyfryzacja i rosnąca popularność Internetu Rzeczy.

    Obawy przed transformacją

    Zdaniem analityków, jednym z największych wyzwań branżowych będzie przystosowanie obecnej infrastruktury IT i istniejących już obiektów data center do nowych regulacji klimatycznych. Pomimo wysokiej świadomości dotyczącej ekologii, zaledwie 40% przedstawicieli sektora wierzy, że w ciągu najbliższych 5 lat ich centra danych staną się zeroemisyjne (net-zero).

    Dodatkowo opinie są podzielone 50/50 w kwestii tego, czy w ogóle operatorzy wiedzą, jak efektywnie ograniczyć emisję CO2. Z powodu kryzysu klimatycznego rośnie presja na ograniczenie konsumpji energii przez centra danych. W odpowiedzi część operatorów próbuje oddolnie przygotować się na zieloną transformację sektora.
    Analitycy jako przykład podają inicjatywę Climate Neutral Data Center Pact. Jej uczestnikami są m.in. Microsoft, Google oraz Beyond.pl jako jedyny polski przedstawiciel sektora

    — Transformacja cyfrowa istotnie zwiększa zapotrzebowanie na przestrzeń dyskową i moc obliczeniową. Operatorzy za priorytet postawili sobie, by jak najszybciej odpowiedzieć na potrzeby klientów. Kwestie efektywności energetycznej czy ekologii spadły na dalszy plan. Takie podejście na dłuższą metę jest samobójcze, czy to w związku z kryzysem klimatycznym, czy ze spodziewanymi regulacjami europejskimi i rosnącymi kosztami energii. Z punktu widzenia odbiorców usług data center, szczególnie tych dużych, którzy kwestie obniżenia emisji dwutlenku węgla mają wpisane w swoje strategie, potrzebna jest większa transparentność. Tak, by klient mógł ocenić, którzy operatorzy są naprawdę efektywni energetycznie — tłumaczy Wojciech Stramski, CEO Beyond.pl, operatora data centers w 100% zasilanych zieloną energią.

    Popularne rynki coraz trudniej dostępne

    Sama budowa nowych obiektów będzie również wyzwaniem. W najbardziej rozchwytywanych lokalizacjach takich jak Tokio, Zurych czy rynek FLAP-D (Frankfurt, Londyn, Amsterdam, Paryż, Dublin) popyt na nieruchomości przewyższa podaż. Dodatkowo na wielu z nich po prostu zaczyna brakować energii.

    Dobrym przykładem jest Dublin. Już w 2019 r. raport Irish Academy of Engineering wskazywał, że wzrost zapotrzebowania na usługi centrodanowe wymaga rozbudowy tamtejszej infrastruktury energetycznej. Jej koszt szacowano wówczas na poziomie 9 mld dolarów w ciągu 8 lat.

    Pod względem kosztów inwestycji, najdroższa jest w tej chwili stolica Japonii. Statystycznie centra danych muszą wydać tam 12,5 dolara (US) na każdy zużywany przez nie 1 wat mocy. Drugą najdroższą lokalizacją data center jest ubiegłoroczny lider — Zurych. Średnie koszty w tym szwajcarskim mieście wynoszą $12.0/wat.

    Za nim, ze średnim kosztem na poziomie $10,3/wat, znajduje się Dolina Krzemowa. Autorzy raportu zwracają uwagę, że rosnące koszty wpływają na zainteresowanie inwestycjami na tańszych, rozwijających się, rynkach.

    — Polski rynek data center jest bardzo atrakcyjny dla wielu zagranicznych inwestorów. Rozmawiając z nimi otrzymujemy jasny przekaz, że mamy dobrą lokalizację w centrum Europy, wysokiej jakości infrastrukturę IT oraz względnie niskie koszty nieruchomości i energii w porównaniu do rynków FLAP-D i Zurychu — komentuje Wojciech Stramski.

    Rozgrzany rynek budowlany

    Dodatkowym wyzwaniem dla operatorów centrów danych może być też sytuacja na rynku budowlanym. 87 procent respondentów badanych przez Turner & Townsend twierdzi, że niedobory materiałów powodują opóźnienia w budowie centrów danych. Co więcej, bardzo drożeją materiały budowlane. W Europie w ciągu ostatnich 12 miesięcy ceny stali miały wzrosnąć ponad dwukrotnie.

    Z tego powodu analitycy wskazują, że coraz popularniejsza będzie modernizacja istniejących już obiektów i budynków, zamiast inwestycji w zupełnie nowe centra danych. Eksperci jednak zwracają uwagę na wady takiego rozwiązania.

    — Wiele działających dziś obiektów budowano kilkanaście lat temu.  Spora część serwerowni mieści się w budynkach, które nie były projektowane z myślą o utrzymywaniu krytycznej infrastruktury IT i zapewnieniu efektywności energetycznej. Brak odpowiednio zaprojektowanej przestrzeni serwerowej, zabezpieczeń czy rozwiązań obniżających zużycie energii oznacza dla klientów wyższe ryzyko i koszty. Co więcej, nie wszystkie obiekty można łatwo zmodernizować i dostosować do współczesnych wymagań. Optymalną sytuacją jest posiadanie własnych gruntów i możliwości inwestycyjnych. To pozwala zaprojektować i zbudować obiekt, który odpowiada na oczekiwania klientów i który za kilkanaście lat będzie te oczekiwania również spełniał — zwraca uwagę Wojciech Stramski z Beyond.pl.

    Szansa dla Polski?

    Według Turner & Townsend rozwijające się rynki data center mogą zyskać na rosnących cenach w topowych lokalizacjach. Czy Polska jest takim rynkiem? Do tej pory rodzima branża skutecznie konkurowała niższymi kosztami prowadzenia działalności oraz korzystnym położeniem w centrum Europy.

    Analitycy PMR Market Expert już w 2020 roku oceniali moc wszystkich polskich centrów danych na ponad 88 MW (megawatów). Praktycznie wszyscy branżowi eksperci zakładają dalsze wzrosty. Zdaniem PMR w 2026 roku branża przekroczy poziom 181 MW, co zdają się potwierdzać kolejne inwestycje, w tym jeden z największych polskich projektów, jakim jest budowa 42 MW kampusu Beyond.pl w Poznaniu.

  • Presja w sektorze IT wzrasta. Informatyk może odpowiadać za straty firmy

    Presja w sektorze IT wzrasta. Informatyk może odpowiadać za straty firmy

    Koszty ataków cybernetycznych osiągają dzisiaj gigantyczne rozmiary. Jedno z najbardziej spektakularnych w ostatnim czasie zdarzeń, to atak hakerów na półtora miliarda kont społecznościowych Facebook’a w grudniu 2021 r. Wg ekspertów kosztował 75 mld dolarów i 6% spadek wartości akcji. Cyberprzestępczość dotyka jednak przede wszystkim małe i średnie firmy, które są dla hakerów zazwyczaj łatwiejszym celem. Systematycznie rośnie także aktywność hakerów skierowana przeciwko polskim firmom i instytucjom. Wg organizacji CheckPoint ich średnia liczba przekracza już 500 tygodniowo. Najbardziej narażone są podmioty z sektora finansowego, sprzedaży on line, a także edukacji oraz administracji publicznej. Internetowi przestępcy interesują się jednak praktycznie każdą dziedziną gospodarki. Świadczy o tym m.in. przeprowadzony pod koniec ubiegłego roku atak DdoS (przeprowadzany z wielu komputerów jednocześnie atak na system komputerowy uniemożliwiający działalność na skutek zajęcia wszystkich wolnych zasobów), którego ofiarą stał się działający w Polsce czołowy operator sieci komórkowej.

    Negatywne przykłady można mnożyć. Po ataku hakerskim na firmę CD Projekt cena wywoławcza pakietu nielegalnie ściągniętych zasobów wynosiła 1 mln dol., a opcja „kup teraz” – 7 mln dol. Do kosztownych zdarzeń dochodzi też coraz częściej w przypadku jednostek samorządowych. Warto tu przytoczyć ponad 600 tys. zł strat, które na skutek szkodliwego działania przestępców internetowych musiał ponieść powiat oświęcimski. Taka kwota była potrzebna do doprowadzenia do porządku serwerów i odzyskania zainfekowanych danych.

    Informatyk potrzebny od zaraz

    Szkodliwe i kosztowne ataki cyberprzestępców zwiększają zapotrzebowanie na specjalistów IT. Do najbardziej poszukiwanych należą: data scientist, data i big data engineer, czy data analyst, a także specjalista ds. cyberbezpieczeństwa. Tych jednak dramatycznie brakuje. Jak wynika z opublikowanych przez Komisję Europejską danych Digital Economy and Society Indeks blisko 50 proc. polskich firm ma dzisiaj problemy z rekrutacją pracowników z sektora ICT. Job Market Insights wskazuje z kolei, że w 2021 roku pojawiło się w Polsce ponad 231 tys. unikalnych ofert pracy, mających na celu przyciągnięcie kandydatów z obszaru IT i telekomunikacji. To niemal dwa razy więcej ofert (dokładnie 83%) niż rok wcześniej, kiedy odnotowano ich 126 tys. Prognozy na 2022 rok wskazują, że braki będą jeszcze bardziej dotkliwe. Przyczyną takiego stanu rzeczy jest fakt, że również na skutek zdalnego modelu pracy, po dobrze wykształcone kadry chętnie sięgają firmy zagraniczne, oferując przy tym zarobki na średnim poziomie 19- 23 tys. zł netto miesięcznie. Wysokie wymagania finansowe specjalistów od ochrony danych w połączeniu z brakiem odpowiednich specjalistów coraz częściej powoduje, że takimi zabezpieczeniami zajmują się ludzie bez odpowiednich kwalifikacji, często czasowo lub w zastępstwie.

    Specjalista IT jak lekarz i kierowca

    Z uwagi na charakter swojej pracy i rosnące ryzyko ataków hakerskich specjaliści IT zajmujący się bezpieczeństwem danych coraz częściej interesują się ubezpieczeniami zawodowej odpowiedzialności cywilnej. Dodatkowym czynnikiem są wymagania kontraktowe, narzucane głównie przez firmy zagraniczne i duże korporacje.

    – Od dłuższego czasu obserwujemy systematyczny wzrost zainteresowania ochroną odpowiedzialności cywilnej przez osoby, które prowadzą działalność w branży IT. Informatycy i programiści chcą w ten sposób zabezpieczyć się na wypadek ewentualnych szkód wyrządzonych swoim kontrahentom. Pytającymi są najczęściej: projektanci, testerzy i dostawcy oprogramowania, analitycy baz danych, projektanci infrastruktury komputerowej, osoby zarządzające projektami IT czy projektanci stron internetowych. Duże znaczenie w tym przypadku mają również wymagania kontraktowe korporacji. Każdy błąd informatyka albo nieprawidłowe działanie jego oprogramowania mogą bowiem powodować horrendalne koszty i straty finansowe. Zlecający prace specjaliście od zabezpieczeń chcą zatem mieć pewność, że w przypadku błędu informatyka będą mogli skutecznie dochodzić odszkodowania od jego ubezpieczyciela – podkreśla Aurelia Szymańska z CUK Ubezpieczenia.

    Bardzo wysokie sumy ubezpieczenia oczekiwane przez kontrahentów z USA oraz potencjalnie wysokie roszczenia, powodują, że nie wszystkie TU oferują takie warunki. Jednak dostęp do wielu ofert pozwala znaleźć odpowiednią ochronę. „Od Ręki” dostępne są zabezpieczenia na Sumę Gwarancyjną 500 000 zł. Koszt w takim przypadku jest niższy niż 3 tys. zł.

    Firmy także pytają o cyberpolisy

    Rosnąca liczba ataków ze strony cyberprzestępców, świadomość ubezpieczeniowa, trudności ze znalezieniem specjalistów, a także ich wysokie wymagania finansowe powodują, że również firmy i organizacje coraz chętniej wykupują polisy od ryzyka cybernetycznego. Wybierając takie ubezpieczenie należy jednak dokładnie przeanalizować OWU. Niektórzy ubezpieczyciele dość niechętnie lub jedynie za znacznie wyższą składkę ubezpieczają podmioty, których działalność obarczona jest największym prawdopodobieństwem ataków. Należą do nich np. płatności on line, czy handel w czasie rzeczywistym.

    – Ochroną, o którą coraz częściej pytają nas firmy to ubezpieczenia cyberrisk i OC zawodowej informatyków. Dostawcami takich zabezpieczeń w naszej sieci są największe w Polsce TU. Osoby szukające niestandardowych rozwiązań z wysokimi sumami ubezpieczenia wybierają często ochronę Lloyd’sa, który od wielu lat specjalizuje się w polisach związanych z cyberbezpieczeństwem – stwierdza Aurelia Szymańska z CUK Ubezpieczenia.

    Co wchodzi w skład cyberpolisy?

    W skład polisy cyber, jak potocznie się je określa, wchodzi najczęściej możliwość przywrócenia i odtworzenia danych, pokrycie kar administracyjnych z tytułu RODO, naruszenia norm bezpieczeństwa kart płatniczych, czy porady prawne. Zakres polisy cybernetycznej może obejmować też odpowiedzialność cywilną przed roszczeniami osób trzecich np. za wyciek danych osobowych, naruszenie bezpieczeństwa informacji kontrahentów czy praw autorskich. Odpowiednio skonstruowana polisa pokryje koszty administracyjne i sądowe, a nawet utracony zysk przedsiębiorstwa i zwiększone koszty działalności będące wynikiem ataku hakerskiego.

  • Praca w IT: 100 tys. zł i obsługą prywatnego consierge’a

    Praca w IT: 100 tys. zł i obsługą prywatnego consierge’a

    COVID-19 nie spowolnił wzrostu wynagrodzeń w branży IT. Tylko w pierwszej połowie ubiegłego roku kontraktorzy zatrudnieni w modelu B2B mogli liczyć na zarobki wyższe od 12,5 do 20 proc. – wynika z danych Just Join IT. Popyt na wykwalifikowanych i doświadczonych specjalistów też jest coraz większy, dlatego firmy zaczynają kusić potencjalnych pracowników już nie tylko wysokimi zarobkami, ale i coraz bardziej wymyślnymi benefitami. – Ostatnio firmy wprowadzają takie rozwiązania jak premia za podpis, która czasami dochodzi nawet do 100 tys. zł, czy możliwość skorzystania z prywatnego concierge’a. To są nowości, które pojawiają się na polskim rynku i z których korzysta coraz więcej pracodawców – mówi Piotr Nowosielski, prezes Just Join IT.

    [videopress qE4a8V9A hd=”true” autoplay=”true”]

    Zarobki w branży IT od kilku lat regularnie rosną. To doprowadziło do sytuacji, w której nawet junior w niektórych firmach jest już w stanie zarobić nawet trzykrotność średniego wynagrodzenia w Polsce – mówi agencji Newseria Biznes Piotr Nowosielski.

    Specjaliści IT pozostają od lat jedną z najlepiej opłacanych grup zawodowych w Polsce. Statystyki lidera rekrutacji dla branży w Polsce pokazują, że w I półroczu ub.r. wykwalifikowani specjaliści na stanowisku seniora mogli liczyć średnio na 20-proc. podwyżki. Według danych za okres styczeń–wrzesień ub.r. zarobki seniorów zatrudnionych na umowie o pracę przekraczały 16,1 tys. zł brutto i nieco ponad 18,7 tys. zł w przypadku umowy B2B. Z kolei na stanowisku juniora te kwoty wynosiły odpowiednio 6,3 oraz 7,2 tys. zł. Na nieco wyższe stawki mogą liczyć specjaliści IT w dużych miastach, jak Warszawa, Kraków, Katowice czy Trójmiasto. Najsłabiej pod względem wysokości wynagrodzeń w tym sektorze wciąż plasuje się Poznań.

    – Walka o talenty trwa. Coraz więcej firm ze Stanów Zjednoczonych i Europy Zachodniej przenosi do Polski swoje działy IT. Wiąże się to z faktem, że mamy bardzo dobrych specjalistów, którzy wciąż są wyceniani relatywnie taniej niż na Zachodzie, choć to też się zmienia, m.in. ze względu na rosnący popyt na specjalistów i inflację, która dodatkowo podkręca parametr wynagrodzeń. Niemniej zarobki cały czas idą w górę i mówimy tutaj o takich technologiach jak Python, Java czy specjaliści data science – mówi prezes zarządu Just Join IT.

    Wynagrodzenia w branży IT napędza też m.in. to, że liczba specjalistów na polskim rynku wciąż jest niewystarczająca. Szacuje się, że w Polsce zapotrzebowanie na programistów utrzymuje się na poziomie ok. 50 tys. wolnych stanowisk (raport DESI 2020). Kolejny czynnik to rekordowo duży popyt na polskie usługi i produkty IT, przez który firmy muszą jeszcze mocniej walczyć o programistów, aby zaspokoić potrzeby swoich klientów.

    Mamy nad Wisłą świetnych specjalistów, a COVID-19 spowodował, że zaczęli oni szukać pracy na całym świecie. Programiści stali się po prostu bardziej wybredni, bo mogą wybierać wśród zagranicznych ofert pracy, w których stawki są zdecydowanie wyższe. Polskie software house’y starają się w pewien sposób za tym nadgonić – tłumaczy Piotr Nowosielski. 

    Jak wskazuje, w tej chwili pracodawcy kuszą specjalistów IT już nie tylko atrakcyjnymi zarobkami, ale i coraz bardziej wymyślnymi benefitami.

    Poza klasycznymi rozwiązaniami, jak np. karta MultiSport, ubezpieczenie zdrowotne czy owocowe czwartki, ostatnio firmy wprowadzają też takie rozwiązania jak premia za podpis, która czasami dochodzi nawet do 100 tys. zł, czy możliwość skorzystania z prywatnego concierge’a – wymienia ekspert.

    Jego zdaniem na razie trudno wyrokować, jak na wynagrodzenia specjalistów IT przełoży się wprowadzony z początkiem stycznia Polski Ład. Nowa reforma podatkowa dotknie bowiem głównie najlepiej zarabiających, powyżej 133 692 zł brutto rocznie. Z drugiej strony część programistów prowadzących jednoosobową działalność gospodarczą skorzysta z nowej, niższej stawki ryczałtu dla przedstawicieli tej branży (z 15 do 12 proc.). Eksperci szacują, że ta zmiana pomoże im zaoszczędzić nawet kilka tysięcy złotych rocznie na podatku.

    Jesteśmy jeszcze w początkowej fazie wprowadzania Nowego Ładu, więc w tym momencie realnie nie wpływa on na presję płacową ze strony pracowników czy pracodawców. Dlatego należałoby się jeszcze wstrzymać z opiniami na ten temat. To zostało wypuszczone szybko, przez co jest tam wiele możliwości uniknięcia dodatkowych obciążeń, i myślę, że na razie pod to będą grać zarówno pracodawcy, jak i pracownicy rozliczani w formie kontraktów B2B – mówi Piotr Nowosielski.

    Analiza 30 tys. ogłoszeń o pracę, zamieszczonych na portalu Just Join IT w okresie styczeń–czerwiec ub.r., pokazuje, że w Polsce najlepiej opłacani są programiści specjalizujący się w metodzie Devops, choć w cenie są też m.in. Java, Python i Ruby. Najbardziej poszukiwani są z kolei pracownicy średniego szczebla (54 proc. ofert). Ponad 30 proc. ofert było skierowanych do seniorów, podczas gdy juniorzy wzbudzili najmniejsze zainteresowanie pracodawców (ok. 10 proc.), co pokazuje, że branża wciąż poszukuje głównie pracowników z dużym doświadczeniem. Pod względem formy zatrudnienia firmy szukały głównie pracowników na umowę o pracę (69 proc.), zaś oferty dla freelancerów stanowiły 31 proc. Kontraktorzy zatrudnieni w modelu B2B w I półroczu ub.r. mogli jednak liczyć na znaczne podwyżki, które wyniosły aż 20 proc. w przypadku seniorów, 15 proc. – juniorów i ok. 12,5 proc. w przypadku midów.

    Popyt na talenty IT jest największy w głównych regionach Polski. To jest oczywiście Warszawa, ale zaraz za nią są Wrocław, Kraków, Trójmiasto i Poznań. Te regiony odpowiadają nawet za 90 proc. całkowitego zapotrzebowania w branży IT, tam wielkie firmy przenoszą swoje centra i budują zespoły. Najczęściej potrzeba im przede wszystkim frontendowców. Z kolei jeśli chodzi o backendowców, to tutaj głównie Java i Python. Biorąc też pod uwagę ostatnie trendy – związane z machine learning, big data czy data science – specjaliści z tych obszarów też są bardzo mocno na topie – wymienia prezes Just Join IT.

  • Medallia ma nowego wiceprezesa ds. sprzedaży na Europę Wschodnią

    Medallia ma nowego wiceprezesa ds. sprzedaży na Europę Wschodnią

    Z początkiem roku Marcin Grygielski objął funkcję wiceprezesa do spraw sprzedaży na Europę Wschodnią w firmie Medallia. Będzie on odpowiadał za realizowanie strategii biznesowej oraz rozwijanie współpracy i zarządzanie relacjami z klientami w podległym regionie.

    Medallia specjalizuje się w CX (Customer Experience), czyli tworzeniu pozytywnych wrażeń konsumentów. Wejście firmy Medallia na polski rynek stworzyło potrzebę lokalnego rozwoju firmy Medallia oraz opracowania strategii rozwoju w tym obszarze dla firm, chcących poprawić doświadczenia swoich klientów.

    Marcin Grygielski posiada blisko 20-letnie doświadczenie sprzedażowe w zakresie wykorzystania chmury i sztucznej inteligencji, które zdobył, pracując dla firm takich jak NextiraOne, Interactive Intelligence czy Genesys. Specjalizuje się w systemach Call Center, Web Analytics, Big Data oraz AI w procesach obsługi klienta. Dodatkowo jest absolwentem programu MBA Politechniki Warszawskiej.

    medallia

    Doświadczenia klientów realnie stają się coraz ważniejszym czynnikiem rozwoju firm. Monitorowanie wrażeń klientów, reagowanie w czasie rzeczywistym na ich sugestie oraz przewidywanie zachowań na podstawie zgromadzonych danych pozwala biznesowi zwiększyć potencjał sprzedaży. Zebrane informacje są jednym z najważniejszych zasobów firmy, który może realnie umocnić jej sytuacje na rynku, wpływając również na budowanie pozytywnych relacji i poziomu lokalności klientów” – komentuje Marcin Grygielski Eastern wiceprezes do spraw sprzedaży na Europę Wschodnią w firmie Medallia.

  • Red Hat: strategie hybrydowe i wielochmurowe wiodą prym, a priorytety finansowe utrzymują się na stałym poziomie

    Red Hat: strategie hybrydowe i wielochmurowe wiodą prym, a priorytety finansowe utrzymują się na stałym poziomie

    Wyniki corocznego badania Global Tech Outlook firmy Red Hat są już dostępne. Podobnie jak w latach ubiegłych, sprawdzamy, co dane mówią na temat obecnego stanu chmury obliczeniowej i strategii chmurowych organizacji, ich głównych priorytetów finansowych oraz czynników, które wpływają na powodzenie transformacji cyfrowej. Pomaga to nie tylko zrozumieć obecne środowisko biznesowe, ale też dowiedzieć się, jak lepiej obsługiwać klientów i zaspokajać ich potrzeby. Poniżej przedstawiamy najważniejsze wnioski z raportu oraz sposób, w jaki zmieniały się one z biegiem czasu.

    Coraz większa popularność strategii hybrydowych i wielochmurowych

    Chmura hybrydowa pozostaje najczęściej stosowaną strategią chmurową wśród respondentów. W tym roku jej udział w w rynku wzrósł o trzy punkty procentowe i osiągnął wynik 30%. Wzrasta również udział środowisk wielochmurowych, który wynosi obecnie 13% – w porównaniu z 11% w zeszłym roku. Z drugiej strony strategie, które stawiają na pierwszym miejscu chmury publiczne (9%) i prywatne (14%), tracą na sile. Nie powinno to dziwić, ponieważ realia dzisiejszego środowiska biznesowego sprawiają, że organizacje chcą równoważyć szybkość, wydajność i skalę na poziomie technologii chmurowych, zachowując przy tym kontrolę i zabezpieczenia, jakie zapewnia im lokalna infrastruktura.

    Warto zauważyć, że 18% respondentów dopiero opracowuje swoją strategię dotyczącą chmury, a niewielki odsetek (5%) w ogóle nią nie dysponuje. Biorąc pod uwagę, że wartości te pozostają na niezmienionym poziomie w stosunku do roku ubiegłego, będziemy uważnie przyglądać się oznakom przyspieszenia w nadchodzącym roku.

    Stałe priorytety w finansowaniu IT rok do roku – z bezpieczeństwem na czele

    Z perspektywy finansowania głównymi priorytetami w IT na rok 2022 pozostają bezpieczeństwo, zarządzanie chmurą i infrastruktura chmury. Bezpieczeństwo było na pierwszym miejscu u wszystkich respondentów, gdy zapytano ich o najważniejsze priorytety dotyczące infrastruktury chmury, automatyzacji operacji IT oraz big data i analityki. Najwyższy priorytet w swoich obszarach finansowania nadali oni kolejno bezpieczeństwu chmury (43%), automatyzacji zabezpieczeń (36%) oraz bezpieczeństwu i integralności danych (45%). Dostrzegamy też, że z roku na rok automatyzacja w IT stale zyskuje na sile. 38% respondentów stwierdziło, że automatyzacja operacji IT jest ich drugim najważniejszym priorytetem finansowym na rok 2022 w obszarze optymalizacji starszych systemów IT. Jest to największy wzrost w porównaniu z rokiem ubiegłym (32% w 2021 roku).

    Zdwojone wysiłki firm na rzecz transformacji cyfrowej w następstwie COVID-19

    W ubiegłym roku klienci z różnych branż przyspieszyli swoje plany transformacji, aby stawić czoła skutkom trwającej pandemii. W tym roku, zdaniem respondentów, trend ten utrzymał się, ponieważ coraz więcej firm wykorzystuje technologie i procesy do wprowadzania innowacji i transformacji w swoich firmach (31% – wzrost z 29%) lub przyspieszyło swoje działania związane z transformacją cyfrową (22% – wzrost z 21%), jako powody tego przyspieszenia podając pandemię (52%) oraz wzrost przychodów (50%). Mniej respondentów jest zdania, że ich inicjatywy w zakresie transformacji cyfrowej utknęły w martwym punkcie (3%), a więcej jest obecnie w początkowej fazie nowych projektów (8%), co podkreśla zachodzącą zmianę.

    Śledzenie transformacji cyfrowej jest ważne, ponieważ wpływa ona na wszystkie inne obszary działalności. Obejmuje to zarówno technologię, jak i procesy oraz ludzi. To właśnie dlatego sukces zależy od zdolności organizacji do pokonania barier we wszystkich tych trzech obszarach. W tym roku braki w umiejętnościach (26%) przesunęły się na pierwsze miejsce pod względem barier, które uniemożliwiły firmom osiągnięcie sukcesu w transformacji cyfrowej, podczas gdy problemy z integracją i bezpieczeństwem oraz zgodnością z przepisami spadły o kilka punktów procentowych – do wartości 23%.

  • Czy popularność płatności bezgotówkowych powinna niepokoić sektor bankowy?

    Czy popularność płatności bezgotówkowych powinna niepokoić sektor bankowy?

    Pandemia i rozwój technologii cyfrowych wpłynęły w ostatnim czasie znacząco na naszą codzienność, nie omijając także zachowań konsumenckich. Przykładem tego są płatności bezgotówkowe, które jeszcze nigdy dotąd nie rozwijały się tak szybko. Jednak, poza komfortem dla konsumentów, są one także wyzwaniem dla sektora bankowego.

    Polacy płacą kartami, telefonami i urządzeniami wearables

    Według danych z banków podsumowanych przez NBP, na koniec marca 2021 r. na polskim rynku znajdowało się w obiegu 44,1 mln kart płatniczych, w tym prawie 39 mln zbliżeniowych. W I kwartale br. dokonano 1,52 mld transakcji na łączną kwotę 198,2 mld zł, a transakcje bezgotówkowe stanowiły wśród nich blisko 93 proc.

    – Polacy polubili płatności bezgotówkowe i trend ten prawdopodobnie się już nie zmieni. Sprzyja temu fakt, że wzrasta liczba Polaków korzystających aktywnie z e-bankowości. 23 mld – zgodnie z prognozami rynkowymi, właśnie o tyle ma wzrosnąć liczba transakcji dla płatności zbliżeniowych do 2023 roku – dowiadujemy się z prognoz Juniper Research, firmy analitycznej specjalizującej się w trendach rynku technologii. Polacy wpasowują się tu w ogólny, globalny trend, jednak jak się okazuje, jesteśmy jednym z największych zwolenników płatności zbliżeniowychwskazuje Robert Czarniewski, CFO w Polcom.

    78 proc. konsumentów woli korzystać z płatności zbliżeniowych, 89 proc. nie ma problemu z używaniem ich do robienia zakupów, a 70 proc. sądzi, że płatności zbliżeniowe są tak samo bezpieczne, jak inne metody płatności. Ponadto, jak wynika z danych zebranych z banków, na koniec marca 2021 r. mieliśmy podpiętych do smartfonów już 5,5 mln kart płatniczych. Płatności zbliżeniowe dokonywane telefonem rosną dwa razy szybciej niż te dokonywane kartami zbliżeniowymi – potwierdzają badania Juniper Research.

    – Rozwój kompetencji cyfrowych Polaków oraz wzrastająca popularność metod zbliżeniowych pobudza zainteresowanie konsumentów nowymi technologiami i nowymi sposobami płacenia i tak oto, na prowadzenie wysuwają się urządzenia ubieralne tzw. wearable paymentsmówi Robert Czarniewski

    Firma International Data Corp. (IDC) podaje, że tylko w pierwszej połowie tego roku sprzedano na świecie około 35,3 mln urządzeń płatniczych do noszenia. To o 34 proc. więcej niż rok wcześniej. Wśród wearable payments prym wiodą smartwatche – stanowiły ok. 70 proc. wszystkich urządzeń tego typu. Użytkownicy widzą potencjał w urządzeniach ubieralnych – 72 proc. badanych przez Grand View Research, określiło, że to przyszłość zakupów.

    Czy banki są gotowe na rosnące potrzeby konsumentów?

    Klienci zmienili swoje nawyki – to pewne, ale mało kto uświadamia sobie na co dzień, że wzrost transakcji bezgotówkowych wiąże się ze znacznym wzrostem liczby danych do przetwarzania. Według prognoz liczba danych na całym świecie wzrośnie pięciokrotnie do 2025 r. W erze cyfryzacji przedsiębiorstwa, administracja i ogół społeczeństwa produkują ogromne ilości danych, a stały strumień danych mnoży się z dnia na dzień. Czy banki są na to gotowe? Cyfryzacja sektora bankowego to konieczność, a tak dokładnie – szybkie dostosowanie technologii do wymagań biznesowych i regulacji prawnych. Tutaj idealnym rozwiązaniem jest chmura. Dlaczego? Rozwiązania chmurowe charakteryzują się szybkością, skalowalnością i wysokim poziomem zabezpieczeń oraz przyczyniają się tym samym do sprawnego wkraczania w nowe projekty biznesowe. Digitalizacja jest wpisana w strategie bankowości, bo bez niej sektor ten nie będzie w stanie podążać za potrzebami i oczekiwaniami konsumentów.

    Jak wskazują badania rynkowe, big data i sztuczna inteligencja to przyszłość bankowości, a jak wiemy – wymagają one ogromnych mocy obliczeniowych, które jest w stanie zapewnić m.in. chmura obliczeniowa. Banki coraz częściej będą sięgać po rozwiązania cloudowe w celu przechowywania oraz zarządzania danymi i aplikacjami, bo chmura nie tylko jest w stanie obsłużyć wysokie wymagania obliczeniowe, ale również robi to efektywnie kosztowo.

    – Sektor bankowy i płatności bezgotówkowe są napędzane przez rozwiązania chmurowe. W obliczu rosnącej ilości danych na świecie, sektory finansowe muszą szukać takich rozwiązań, które pozwolą na nieograniczone, a przy tym bezpieczne możliwości rozwoju. W przypadku sektora bankowego chmura obliczeniowa to nie tylko korzyści finansowe czy bezpieczeństwo danych, ale również szanse na rozwój technologii takich jak sztuczna inteligencja czy chatboty. Dzięki chmurze banki dostosowują się do trendów, jakie niesie fintech w tempie, jakiego nie było nigdy wcześniej, a dzięki praktycznie nieograniczonym możliwościom budowania ekosystemów partnerskich, banki mają szansę stawać się elastyczne i bardziej otwarte na potrzeby klientów. Przy czym zapomnieć nie można również o kwestiach takich jak niezwykle wysoki poziom bezpieczeństwa danych w chmurze oraz tak ważnych w sektorze finansowym – transparentności  i zgodności z regulacjami prawnymimówi Robert Czarniewski.

    Zmiana nawyków klientów w kierunku transakcji bezgotówkowych oraz postępująca digitalizacja to bardzo ważny krok ku upowszechnieniu usług finansowych. Z drugiej strony mogą nieść one zagrożenie ze względu na podatność systemów informatycznych na ataki. Tylko w pierwszej połowie 2021 roku ich liczba osiągnęła globalnie poziom przekraczający 7,3 mln incydentów, co stanowi ponad dwa razy więcej cyberataków niż rok temu – wiemy z raportu Cyber Investigations, Forensics&Response (CIFR) firmy Accenture. Co więcej, najczęściej ataki mierzone są w sektor towarów i usług, sektor przemysłowy i właśnie bankowy. Dla większości instytucji bankowych kluczowe jest przede wszystkim znalezienie odpowiedniej ścieżki reakcji na ataki, która pozwoli zaoszczędzić czas oraz wybrać najskuteczniejszą drogę do ochrony wrażliwych informacji bankowych, danych klientów, systemów komputerowych czy operacji finansowych, wymaga to więc nie tylko bezpiecznej infrastruktury informatycznej, ale także odpowiednich procedur i kompetentnego zespołu.

    Jednym z priorytetów organizacji finansowych i banków jest więc zapewnienie bezpieczeństwa danych, przy jednoczesnym zapewnieniu wygody, szybkości i użyteczności klientom. Właśnie dlatego najcenniejsze dla rynku finansowego stają się bezpieczne rozwiązania technologiczne pozwalające na szybkie dostosowanie zasobów IT do wymagań biznesowych czy regulacji prawnych.

  • Firmy będą korzystać z ponad 8 chmur. To niesie ze sobą szereg ryzyk

    Firmy będą korzystać z ponad 8 chmur. To niesie ze sobą szereg ryzyk

    Firmy coraz częściej korzystają z technologii IT w modelu usługowym. Badania Forrester przewidują, że do 2023 roku będą posiadać średnio dostęp do 8,7 chmur publicznych. Niestety, mimo wielu zalet strategii multicloud, wiele firm zaczyna boleśnie odczuwać problemy związane ze złożonością technologii.

    Wachlarz usług chmurowych eksplodował. Bardzo dobrze widać to na przykładzie usług firmy Megaport, której partnerem w Polsce jest Beyond.pl, dostawca usług data center i cloud. Klienci operatora wdrażający strategię multicloud mogą szybko i bezpiecznie zestawiać bezpośrednie połączenia z ponad 360 dostawcami chmurowymi SaaS.

    Według raportu Flexery organizacje korzystają obecnie średnio z 2,6 chmury publicznej i 2,7 chmury prywatnej. Zakres usług informatycznych oferowanych w modelu usługowym rozwinął się więc dziś na tyle, że powinien zaspokoić każdą potrzebę przedsiębiorstwa. Przynajmniej w teorii, bo eksperci zwracają uwagę, że przyśpieszona cyfryzacja obok blasków, niesie ze sobą także i cienie.

    Zachowanie kontroli

    — Pewną pułapką szybkiej cyfryzacji i korzystania z chmur pochodzących od wielu różnych dostawców jest utrata kontroli nad swoimi zasobami. Prawda jest taka, że wdrożenie wielu chmur niesie ze sobą wiele wyzwań w obszarze bezpieczeństwa. Jednym z ważniejszych, przed którym stoją dziś zespoły IT, jest znalezienie równowagi pomiędzy zachowaniem pełnej kontroli nad danymi a dostępem do wielu środowisk chmurowych i najlepszych w danej kategorii rozwiązań. Bo po to firmy przecież wdrażają strategie multicloud. Te problemy dziś dotyczą przede wszystkim firm z Europy Zachodniej, ale przed podobnym dylematem stoi coraz więcej firm, także w Polsce — stwierdza Stanisław Bochnak, Strateg w VMware.

    Chmura to pod wieloma względami dziś jedyny słuszny sposób na modernizację oprogramowania — niestety, złożoność technologii spowalnia tempo przebudowywania aplikacji i przenoszenia ich do chmury. Ma ona też wpływ na koszty: rozwiązywanie problemów kosztuje organizacje dużo czasu i pieniędzy.

    Wszystkie chmury w jednym koszyku?

    Strategia multicloud wdrażana przez firmy zapobiega uzależnieniu od jednego rozwiązania. Chmura to pod wieloma względami też dziś jedyny słuszny sposób na modernizację oprogramowania. Raport IBM donosi, że dla 62% organizacji chmura publiczna PaaS będzie odgrywać strategiczną rolę dla ich biznesu w ciągu najbliższych kilkunastu miesięcy.
    Niestety, złożoność technologii spowalnia tempo przebudowywania aplikacji i przenoszenia ich do chmury. Ma też wpływ na koszty: rozwiązywanie problemów we własnym zakresie kosztuje organizacje dużo czasu i pieniędzy.

    — Każdy dostawca chmury ma swoje własne procedury, zasady, narzędzia do zarządzania i monitorowania środowiska. To w oczywisty sposób komplikuje wdrażanie strategii multicloud. Mimo to, firmy rzadko korzystają z jednego dostawcy chmury, bo użytkownicy mają odmienne potrzeby technologiczne, ekonomiczne czy regulacyjne i każdy dostawca odpowiada na nie w inny sposób. Dlatego też obok chmury prywatnej i publicznej utrzymywanej w naszym data center, oferujemy klientom dostęp do usług globalnych dostawców i wsparcia w obszarze zarządzania tymi środowiskami, bo nie zawsze przeniesienie infrastruktury do chmury jest scenariuszem optymalnym. Często lepszym rozwiązaniem jest wdrożenie scenariusza hybrydowego łączącego cloud z kolokacją — przyznaje Wojciech Stramski, CEO Beyond.pl, dostawcy usług data center i cloud.

    W idealnym świecie, aby zapanować nad wieloma środowiskami, firmy powinny zatrudniać wielu specjalistów z umiejętnościami specyficznymi dla każdej chmury. Jest to perspektywa nierealistyczna, zarówno pod względem prawdopodobnych kosztów, jak i dostępności wykwalifikowanych fachowców. Dlatego bardzo ważne jest uproszczenie zarządzania chmurami.

    Według ESG Research Insight Paper, usunięcie złożoności pozwoli zaoszczędzić średnio 70,5 roboczogodzin tygodniowo w zakresie zarządzania infrastrukturą. Jednocześnie aż 69% respondentów ESG Research Insight Paperwierzy, że konsolidacja narzędzi do zarządzania chmurami zredukuje koszty (średnio o 19%).

    Śpiesz się powoli

    — Firmy powinny mieć swobodę w podejmowaniu decyzji i przenoszeniu obciążeń zarówno “do”, jak i “z” chmury. Konsolidacja zarządzania pozwala zespołom IT na zastosowanie jednolitych zasad bezpieczeństwa, tak aby obowiązywały one niezależnie od tego, gdzie dane obciążenie zostanie przeniesione — czy to do środowisk chmury prywatnej lub publicznej, czy też do środowisk lokalnych — mówi Stanisław Bochnak, Strateg w VMware.

    Swoboda korzystania z aplikacji, przenoszenia ich do preferowanej chmury i używania jej natywnych usług, eliminuje potrzebę utrzymywania starszych instancji. Pozwala to firmom uniknąć przestojów podczas przenoszenia aplikacji na nowsze platformy. Taka mobilność pozwala zespołom IT świadczyć lepsze usługi dla biznesu. Zamiast martwić się o utrzymanie aplikacji, mogą one skupić się na zapewnieniu wsparcia, dostarczając usługi zapasowe, sieciowe czy bezpieczeństwa.

  • Raport Banku Pekao: pandemia nie przekreśliła szans branży IT na dalszy dynamiczny rozwój

    Raport Banku Pekao: pandemia nie przekreśliła szans branży IT na dalszy dynamiczny rozwój

    Wartość światowego rynku IT w 2019 r. to wg firmy analitycznej Gartner nieco ponad 2,4 bln USD. W latach 2012-19 rósł on średnio w tempie 3,4 proc. rocznie – wynika z raportu przygotowanego przez Departament Analiz Makroekonomicznych Banku Pekao S.A. Branża okazała się też wyjątkowo odporna na negatywne skutki pandemii koronawirusa, a prognozy na najbliższe lata są dla niej pomyślne.

    Według Kamila Zduniuka, eksperta Departamentu Analiz Makroekonomicznych Banku Pekao i autora opracowania „Oprogramowanie i usługi IT. Charakterystyka branży, perspektywy rozwojowe, główne obszary” perspektywy dla rynku IT są pomimo pandemii relatywnie dobre. Na całym świecie po zakładanym 10-procentowym spadku jego wartości w 2020 r. (w stosunku do roku poprzedniego) przewiduje się szybsze i płynniejsze odbicie w tym sektorze, niż w przypadku całej gospodarki. Gdyby udało się utrzymać 5-procentowy wzrost rynku IT w kolejnych dwóch latach, pozwoliłoby to na powrót do wartości sprzed kryzysu już w 2022 roku.

    Zdaniem eksperta rozwój rynku IT nie będzie przebiegał równomiernie. Najsilniejsze uderzenie w 2020 roku – i słabsze odbicie w latach kolejnych – zakładane jest dla segmentu urządzeń. Nawet zwiększone zapotrzebowanie na sprzęt na początku pandemii nie przeważy bowiem negatywnego wpływu oszczędności firm. Z kolei względną odporność i mocne wzrosty w przyszłych okresach powinny prezentować oprogramowanie i usługi IT, szczególnie te związane z cloud computing (przetwarzanie danych w chmurze). Jest to podyktowane tym, że zapewniają one dostęp do usług bez wydatków na infrastrukturę. W związku z szerzącą się cyberprzestępczością, istotnym motorem rozwoju branży na całym świecie będą również rosnące wydatki na bezpieczeństwo systemów informatycznych.

    W Polsce wartość sektora IT szacuje się na 70-85 mld zł. „Sektor IT to branża wymykająca się ścisłym definicjom i trudna do pomiaru, stąd szacunki wielkości rynku przeważnie znacząco się od siebie różnią, w zależności od źródłazauważa Kamil Zduniuk.Przyjmując za wskaźnik sumę przychodów firm (bez podmiotów mikro) można szacować, że sam sektor oprogramowania i usług IT to branża o wielkości ok. 55 mld zł, stanowiąca ok. 2/3 całej branży IT. Udział ten systematycznie rośnie i zmierza do wartości powyżej 70 proc., które obserwowane są w krajach wysoko rozwiniętych”uzupełnia. 

    Jest to naturalny trend wynikający z rosnącego nasycenia sprzętem elektronicznym przy większym zapotrzebowaniu na usługi IT oraz coraz nowszych rozwiązaniach wchodzących na rynek i przyciągających dodatkowy popyt. Ze wspomnianych powodów, oprogramowanie i usługi IT charakteryzują się jednocześnie niezwykle dynamicznym tempem rozwoju, w ostatnich latach przekraczającym w Polsce poziom 12 proc. średniorocznie. To jeden z najlepszych wyników sektorowych, dwa razy lepszy od średniej dla polskiej gospodarki w tym czasie.

    Branża oprogramowania i usług IT wykazała też dużą odporność na tzw. koronakryzys. Dynamika przychodów sektora w pierwszym półroczu 2020 wprawdzie spowolniła o połowę (do +6% r/r), ale na tle szerokiej gospodarki, w której większość branż zaliczyła znaczące spadki, jest to bardzo dobry wynik. „To głównie efekt jej charakterutłumaczy dr Ernest Pytlarczyk, główny ekonomista Banku Pekao S.A. i dyrektor Departamentu Analiz Makroekonomicznych.Pandemia wywołała nagłe przestawienie się wielu obszarów życia zawodowego i prywatnego na kanały zdalne (w tym rozwój e-commerce), co tylko przyspieszyło i tak postępujący proces transformacji cyfrowej, a tym samym rosnącego popytu na produkty i usługi IT, ale też m.in. na tzw. rozrywkę domową – gry wideo, działalność portali internetowych, etc.”podkreśla.

    Pomimo wysokiej dynamiki rozwoju polska branża IT pozostaje europejskim „średniakiem”, zamykając czołową 10-tkę największych dostawców oprogramowania i usług IT w Unii Europejskiej. Jej wkład w krajowy PKB jest niższy niż w większości państw UE. Jako jedną z istotnych barier eksperci wskazują wciąż słabo rozwinięty rynek krajowy.

    Polska plasuje się daleko w większości rankingów mierzących poziom cyfryzacji – zarówno gospodarki, jak i usług publicznych. Odsetek przedsiębiorstw wykorzystujących rozwiązania IT wypada nieźle (na poziomie średniej UE) tylko w zakresie dużych firm korzystających z podstawowych produktów. Gorzej jest z bardziej nowoczesnymi rozwiązaniami, np. cloud computing. Największa różnica widoczna jest w sektorze MŚP, gdzie wykorzystanie nawet prostych produktów jest znacznie niższe niż w innych krajach europejskich. Taka sytuacja niesie jednak również ze sobą pewne plusy. „Niskie nasycenie rynku jest w tym sensie korzystne, że przekłada się na duże możliwości rozwojowe krajowych firm IT. Niskie pozycje większości innych krajów regionu Europy Środkowo-Wschodniej stwarzają również przestrzeń do potencjalnej ekspansji w regionie”uważa Kamil Zduniuk. 

    „Dalszy proces digitalizacji – transformacji cyfrowej gospodarki, firm i obywateli – jest nieuchronny, a kryzys COVID tylko przyspieszy te przemianydodaje dr Ernest Pytlarczyk. Nieustannie pojawiają się nowe produkty i usługi IT dające nowe możliwości rozwoju i kreujące nisze rynkowe. Polska posiada wymierne przewagi konkurencyjne – wysokie kompetencje i przewagi organizacyjne przy względnie niskich kosztach – co pozwala z optymizmem patrzeć na możliwości eksportu IT”podsumowuje. 

    Polski sektor IT cechuje także rosnąca aktywność w obszarze fuzji i przejęć, co wynika z jego wysokiej atrakcyjności (obecne i oczekiwane tempo rozwojowe) oraz trendów przychodzących zza oceanu (ogromne inwestycje w Big Techy i start-up’y technologiczne w Stanach Zjednoczonych). Wg danych Mergermarket, w ostatnich latach w Polsce liczba transakcji zwiększyła się około dwukrotnie, a ich wartość co najmniej kilkukrotnie. Należy się spodziewać dalszego wzrostu w tym zakresie.

    Raport wskazuje ponadto na rosnące zróżnicowanie produktów w związku z dynamicznym rozwojem innowacyjnych obszarów IT (m.in. cloud computing, cyberbezpieczeństwo, sztuczna inteligencja, Big Data, Internet of Things, blockchain). W swojej drugiej części nieco bardziej szczegółowo omawia charakterystykę i perspektywy poszczególnych segmentów branży.

    Źródło informacji: PAP MediaRoom
  • IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    IBM FlashSystem 5100® – kompleksowość z NVMe i wielochmurowością

    Raport Światowego Forum Ekonomicznego (The Future of Jobs Report 2018) wymienia cztery technologiczne zjawiska, które w opinii ekspertów zdominują najbliższe lata w biznesie: wszechobecny szybki mobilny internet, sztuczna inteligencja (AI), powszechne stosowanie analityki big data oraz technologie chmurowe. Dziejąca się już w wielu przedsiębiorstwach transformacja cyfrowa wymaga dostosowania infrastruktury IT do nowych wymagań biznesowych i organizacyjnych. Tym bardziej, że między rokiem 2018 a 2020, jak prognozuje wspomniany raport, udział pracy maszyn wzrośnie z 29% do 42%. A maszyny to wciąż nowe dane.

    „Trwająca pandemia przyśpieszyła tylko nieuchronne zmiany – praca on-line szybko stała się standardem wszędzie tam, gdzie było to możliwe. W ślad za tym poszły zmiany infrastrukturalne w IT – przecież gdzieś trzeba przechowywać lawinowo rosnącą ilość danych. Oprócz rozwiązań chmurowych, całkiem nieźle radzą sobie lokalne Data Center”ocenia Wojciech Raduła, Architekt Systemowy z firmy Advatech należącej do ścisłej czołówki integratorów rozwiązań informatycznych.  „Bez względu na lokalizację, wszystkie one wymagają bardzo wydajnych i elastycznych urządzeń pamięci masowych, na najwyższym poziomie zaawansowania  technologicznego. Przyczyny są proste – najcenniejsze zasoby firmy, czyli dane biznesowe możemy powierzyć tylko najlepszym i najbardziej zaufanym urządzeniom. To jak z ludźmi”dodaje Wojciech Raduła.  

    Wbrew pozorom, na rynku nie ma zbyt wielu rozwiązań pamięci masowych o optymalnej relacji funkcjonalności i możliwości do ceny. Bardzo ważny jest także dostęp do wsparcia techniczne na najwyższym poziomie. Powinno być one zapewnione przez rozwiniętą sieć kompetentnych, doświadczonych i solidnych partnerów handlowych producenta. Przy takich kryteriach oceny pamięci masowych, chyba nikogo nie dziwi, że maszyny IBM z serii FlashSystem® 5100 można zaliczyć do ścisłej czołówki.

    W dzisiejszych czasach połączenie wydajności pamięci flash z wszechstronnością pamięci NVMe (Non-Volatile Memory Express) samo w sobie nie ma już waloru unikalności. Ale IBM nie byłby tym IBM, gdyby nie stworzył nowej jakości przez połączenie zaawansowanej technologii  z doskonałym oprogramowaniem. W przypadku maszyn FlashSystem® 5100 w jednym urządzeniu użytkownik dostaje innowacyjną technologię IBM FlashCore®, rozbudowane możliwości funkcjonalne systemu IBM Spectrum Virtualize™ oraz aplikacje do zarządzania predykcyjnego i proaktywnego, które wykorzystują mechanizmy sztucznej inteligencji (AI). Ultraniskie opóźnienia to zasługa pamięci Storage Class Memory (SCM). Dopiero w ten sposób funkcjonalna całość ujawnia swoje przewagi i walory, nawet w środowisku wielochmurowym, z działającymi aplikacjami kontenerowymi.

    IBM FlashSystem

    Wysokie parametry techniczne, duża sprawność i wydajność oraz krótki czas dostępu do danych to po prostu szybsze działanie całej firmy i większa produktywność każdego pracownika z osobna. A to już są bardzo ważne czynniki w aspekcie wyścigu z konkurencją.

    Zalety posiadania IBM FlashSystem® 5100 przekładają się także wskaźniki finansowe. Można osiągnąć zdecydowanie większy zwrot z inwestycji i zredukować całkowity koszt posiadania (TCO), bo dostępne oprogramowanie IBM Spectrum Virtualize pozwala użytkownikom korzystać z wielu różnych usług przetwarzania danych we wszystkich jego systemach pamięci masowych. Co to oznacza? To między innymi, że dostępna jest obsługa hybrydowego środowiska wielochmurowego.

    „Użytkownik może zacząć od czegoś prostego i nieskomplikowanego, nabędzie odpowiedniego doświadczenia, wyrobi sobie prawidłowe nawyki, a potem wraz ze wzrostem potrzeb biznesowych i liczby klientów może sobie w prosty sposób rozbudowywać infrastrukturę aż po środowiska łączące chmury publiczne, prywatne i lokalne”twierdzi Wojciech Raduła z firmy Advatech.

    IBM FlashSystem® 5100 wspiera trzy rozwiązania wielochmurowe. W pierwszym z nich  pamięć masowa służy jako trwały nośnik dla aplikacji kontenerowych, które korzystają z platform Docker lub Kubernetes. W drugim wariancie systemy IBM Spectrum Copy Data Management oraz Spectrum Virtualize działające z IBM FlashSystem® 5100 tworzą kopie migawkowe do chmury IBM w celu ochrony przed awariami DR (Disaster Recovery). Dane można używać bezpośrednio w chmurze lub kopiować ponownie do oryginalnej lokalizacji lub innego centrum danych.

    W trzecim wariancie aplikacja pod nazwą IBM Spectrum Copy Data Management współdziałająca ze Spectrum Protect tworzą kopie migawkowe na wolumenach. Służą one nie tyle wyłącznie do ochrony danych, ale także do celów Dev/Test, DevOps lub analityki. To kompletne rozwiązanie zapewnia także ochronę przed zagrożeniami typu ransomware.

    „Zakup IBM FlashSystem® 5100 jest bez wątpienia trafną decyzją, choć zapewne nie najprostszą. Walory techniczne i funkcjonalność macierzy pokazują, że klienci otrzymują rozwiązanie klasy Enterprise, wraz ze wsparciem technicznym i zarządzaniem w chmurze w bardzo przystępnej cenie. Tu nie ma miejsca na kompromisy – nowa generacja pamięci, technologie redukcji objętości danych dają więcej miejsca na dane przy tych samych kosztach, co poprzednio. Jeśli dodamy do tego wysoką dostępność na poziomie sześciu dziewiątek, to oznacza, że wszystkie istotne wskaźniki ekonomiczno-techniczne mają wartości, które na pewno docenią osoby decydujące o inwestycjach w infrastrukturę IT”ocenia Wojciech Raduła.

    Jak widać, IBM FlashSystem®5100 wyznacza bardzo wysoki standard niezawodności. Jest to możliwe dzięki zastosowaniu technologicznych zabezpieczeń przed awariami całych modułów (VSR) i grup RAID-owych (DRAID). Sam system oferuje przewidywalną i stałą wydajność oraz dużą gęstość upakowania danych – użytkownicy dostają do 768 TiB w rozmiarze 2U. Dostępne są także wbudowane systemy kompresji i deduplikacji danych, szyfrowania zgodnego z GDPR, przy zachowaniu odpowiedniej pojemności nadmiarowej i odporności na efekt „Write Cliff”.

    Jak twierdzą specjaliści z Advatech„Te macierze szybko się nie zestarzeją. Nasze doświadczenia pokazują, że mimo szybkiego postępu i rozwoju technologicznego, solidne i rzetelnie zaprojektowane konstrukcie z powodzeniem służą długie lata, a co najważniejsze – działają niezawodnie”.

  • Co druga firma powie “żegnaj”, zamiast “do zobaczenia”

    Co druga firma powie “żegnaj”, zamiast “do zobaczenia”

    Odliczanie już się zaczęło. Co drugi właściciel biznesu, który wziął udział w badaniu McKinsey, nie jest pewny czy przetrwa najbliższe 12 miesięcy. Nic w tym dziwnego skoro aż 7 na 10 firm odnotowało spadek obrotów. Ta ponura prognoza nie dotyczy wszystkich. Branży IT ma się świetnie!

    Przypomnij sobie cztery ulubione marki obuwia. Być może, za 12 miesięcy, o dwóch z nich będziesz musiał zapomnieć. Tak przynajmniej uważa McKinsey. Firma doradcza zrealizowała badania, które miały pokazać, jak europejskie małe i średnie przedsiębiorstwa radzą sobie podczas sztormu wywołanego przez pandemię COVID-19.

    Jak będzie wyglądał europejski krajobraz biznesowy po burzy?

    Europejscy pesymiści

    Ponad 2200 przedstawicieli sektor MŚP z Francji, Niemiec, Włoch i Hiszpanii oraz Wielkiej Brytanii uważa, że po pandemicznej burzy nie dla każdego europejskiego przedsiębiorcy zaświeci słońce. Warto dodać, że ankietowani pochodzą z krajów, które łącznie odpowiadają za prawie ¾ populacji Unii Europejskiej. A w pierwszych czterech żyje, pracuje i wydaje niemal 80% mieszkańców strefy euro.

    Raport przedstawia nam ponury obraz europejskiego sektora MŚP. Okazuje się, że mimo iż co piąta firma, biorąca udział w ankiecie, otrzymała pewnego rodzaju rządowe wsparcie, wynikające ze specjalnych tarcz antykryzysowych, to blisko połowa ankietowanych uważa, że ich biznesy mogą nie przetrwać kolejnych 12 miesięcy.

    – Jak wynika z ostatnich badań Instytutu Gartnera, tym co przeważy o sukcesie przedsiębiorstw w czasie kryzysu, będzie otwartość na cyfrowe innowacje. Być może dlatego, tak dobrze w tym ciężkim czasie radzą sobie firmy z sektora IT, które w swoim DNA, mają wpisany głód zmianuważa Piotr Prajsnar, CEO Cloud Technologies, który 9 lat temu założył spółkę Big Data, do której dziś należy jedna z największych na świecie hurtowni anonimowych danych o Internautach.

    Kryzys zaufania

    Prawda jest jednak taka, że obawy, jakie przejawiają europejscy biznesmeni, nie biorą się znikąd. Około 70% respondentów badania McKinsey odnotowało spadek dochodów w czasie trwania pandemii. A to z kolei wpływa na ich ocenę sytuacji i plany na przyszłość.

    Jeden na pięciu przedsiębiorców obawia się, że nie będzie w stanie spłacić posiadanych zobowiązań i będzie zmuszony do redukcji zatrudnienia, natomiast co trzeci bierze pod uwagę, że jego projekty rozwojowe mogą zostać anulowane.

    Te obawy widać na każdym kroku, niewielu przedstawicieli MŚP wydaje się optymistycznie nastawionych do obecnej sytuacji ekonomicznej. 4 na 5 respondentów z obawą patrzy na obecną kondycję gospodarki swojego regionu.

    – Nie oznacza to, że fala kryzysu zniszczy lub zakłóci działalność wszystkich firm. Wykorzystując covidowy sztorm, możemy osiągać sukcesy, co doskonale widać na przykładzie branży handlowej.odnotowuje Prajsnar z Cloud Technologies, a następnie dodaje: – Według danych Digital Commerce 360, pandemia COVID-19 przeniosła nas w czasie o 4 lata do przodu. Eksperci szacują, że w listopadzie i grudniu br. świąteczne zakupy online przyczynią się do wygenerowania dodatkowych przychodów w ecommerce w wysokości 40 mld USD. W porównaniu z ubiegłym rokiem oznacza to wzrost o ponad 40%.

    Nadzieja w technologii

    Słowa prezesa warszawskiej spółki mają silne poparcie w ostatnich badaniach firmy konsultingowej Dealroom, która obliczyła, że wartość europejskich firm technologicznych jest obecnie czterokrotnie większa niż zaledwie 5 lat temu. Szacuje się, że w 2020 wzrośnie ona o 46% i wyniesie 618 mld Euro.

    Od października 2020 r. jedna trzecia łącznej wartości firm technologicznych w Europie, opiera się na 10 przodujących przedsiębiorstwach: Adyen, BioNtech, Delivery Hero, Klarna, Spotify, Ocado, HelloFresh, Takeaway.com, UiPath i Zalando.

    – Nasz sektor MŚP wygląda inaczej niż w badanych krajach zachodu. Nie jest tak uzależniony od turystyki i gastronomii. Małe rodzinne manufaktury też nie mają takich tradycji, jak ma to miejsce na zachód od Odry zauważa Piotr Prajsnar i tłumaczyPolskie MŚP jest znacznie młodsze. Dlatego małe i średnie firmy to w dużej mierze przedsiębiorstwa z sektora ICT. W tym kontekście nasza pierwotna słabość może okazać się siłą, która ochroni nadwyrężoną gospodarkę. Mimo że wciąż nad Wisłą nie doczekaliśmy się jednorożca, to mamy szereg prężnie działających organizacjipodkreśla Prajsnar. Kierowana przez niego spółka Cloud Technologies w ciągu niespełna jednej dekady z małej rodzinnej firmy urosła do jednej z największych spółek w sektorze Big Data Analytics i notowana jest na warszawskim parkiecie NewConnect.

    Nadwiślańskie samorodki

    Tym samym szlakiem podążają również nadwiślańskie firmy z sektora IT, które wydają się nie przejmować pandemicznymi zawirowaniami i równie sprawnie radzą sobie w czasie zwiększonego rygoru, co ich zagraniczni konkurenci. Na przykład polska spółka technologiczna, Cloud Technologies, która jest jednym z największych na świecie dostawców anonimowych profili internautów, wykorzystywanych do targetowania kampanii reklamowych w sieci. Warszawska firma odnotowała w III kwartale 2020 r. 12,4 mln zł przychodów i 1,6 mln zł EBITDA. Co stoi za jej sukcesem?

    – Z perspektywy czasu oceniam, że czas lockdownu stał się pomostem pomiędzy starą rzeczywistośćią, do której już nie ma powrotu, a nową codziennością, w której pierwsze skrzypce gra technologia. Staliśmy się beneficjentami transformacji społecznej, behawioralnej i gospodarczej. W tym momencie wypracowana przez lata pozycja rynkowa zaprocentowała. A co najważniejsze, okazało się, że wybijamy się ponad branżową średnią, ponieważ osiągnięta dynamika przychodów była istotnie wyższa, niż samo tempo rozwoju rynkumówi Piotr Prajsnar, prezes zarządu Cloud Technologies.

    Pomimo zakłóceń spowodowanych koronawirusem, który bezlitośnie potraktował przedstawicieli takich sektorów, jak gastronomia czy turystyka, europejska branża technologiczna ma się nadspodziewanie dobrze. To drogowskaz dla innych gałęzi, które wciąż muszą uporać się z covidowymi powikłaniami. Każdy biznes, powinien dziś traktować rozwiązania IT jako narzędzia autoasekuracji. Ten mariaż pozwoli im nie tylko odzyskać utracony impet, ale również wkroczyć na zupełnie nowe obszary.

  • Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Szybka i wydajna infrastruktura w firmie – konieczność, ale i wyzwanie

    Przewiduje się, że za pięć lat ilość danych zwiększy się 10-krotnie. Już dziś pandemia przyspiesza proces zbierania i wykorzystywania danych, a nakładają się na to także rosnące wymagania cyfrowej gospodarki, rozwój sztucznej inteligencji oraz Big Data. To wszystko sprawia, że firmy stanęły przed dużymi wyzwaniami w zakresie infrastruktury IT. Choć sama pandemia i konieczność pracy zdalnej wymusiła zmiany bardziej w zakresie łączności internetowej, narzędzi do komunikacji czy zdalnego dostępu, to obecne wyzwania łączą się także z potrzebą przechowywania i przetwarzania coraz większej ilości danych. Dla firm kluczowy jest bezpieczny i szybki dostęp do nich, a także skalowalność rozwiązań do ich przechowywania.

    – Pandemia i związana z nią praca zdalna z pewnością wymusza na firmach zmiany w infrastrukturze IT. Najważniejszymi kwestiami były jednak wprowadzenie zmian w systemach zdalnego dostępu, wzmocnienie bezpieczeństwa dostępu, zapewnienie płynności połączeń, szczególnie na spotkaniach online. Istotne jest także zapewnienie platformy do pracy grupowej na dokumentach dla całych zespołów czy działów podkreśla Andrzej Syta, presales manager w GoldenOre.

    Z badania przeprowadzonego na zlecenie Gumtree.pl wynika, że przed pandemią SARS-CoV-2 tylko 19 proc. pracowników w Polsce wykonywało swoją pracę głównie w trybie zdalnym, a 29 proc. miało taką możliwość przez kilka dni w miesiącu. Koronawirus zmienił te statystyki. W pierwszych tygodniach marca tysiące polskich pracowników i firm niemal z dnia na dzień musiało przejść w tryb pracy zdalnej. Pod koniec kwietnia ponad 3/4 pracowników umysłowych w Polsce pracowało w tym modelu. Z badania „Odmrażanie pracy” CIONET, Deloitte i VMware wynika z kolei, że blisko 90 proc. firm chce zwiększyć możliwość pracy spoza biura po ustaniu pandemii.

    – Popularność pracy zdalnej to dla firm całkiem korzystna sytuacja ze względu na zmniejszenie kosztów obsługi i wynajmu przestrzeni biurowej, dla pracowników to z kolei oszczędność czasu na dojazdach wskazuje Andrzej Syta. – Do utrzymania pracy zdalnej bardzo istotne jest połączenie internetowe. Nie możemy jednak zapominać o systemach do pracy rozproszonej, odpowiednich narzędziach do komunikacji dla pracowników czy do zarządzania środowiskiem klienta dla administratorów.

    – IBM Storage Insight to narzędzie do zarządzania zasobami dyskowymi – dzięki niemu możemy uzyskać lepsze wykorzystanie zasobów, zmniejszyć utylizację przechowywanych danych, mieć pełny monitoring na nowoczesnych dashboardach, a także szybciej reagować na problemy i potencjalne awarie. Storage Insight umożliwia zarządzanie rozwiązaniami różnych producentów. W czasie pracy zdalnej pozwala administratorowi np. na dostęp do jednego panelu sterowania i zarządzanie wszystkimi danymi organizacji z dowolnego miejsca – domu, hotelu czy kawiarni – dodaje Jakub Grzywacz, solution architect w GoldenOre.

    Oparte na chmurze IBM Storage Insights umożliwia zdalne monitorowanie pamięci masowej i powiadamianie o zdarzeniach wymagających uwagi. Pracownik z działu IT ma do dyspozycji panel kontrolny, by w odpowiednim czasie podejmować stosowne działania i przesyłać dane szybciej i wydajniej. Można tego dokonywać także zdalnie, co jest istotne zwłaszcza w czasie pandemii koronawirusa. Rozwiązanie w wersji Pro, które tymczasowo IBM udostępnia bezpłatnie wszystkim użytkownikom wersji podstawowej, opiera się na algorytmach sztucznej inteligencji i analizie predykcyjnej.

    Firmy coraz chętniej sięgają po rozwiązania z zakresu sztucznej inteligencji i Big Data. Według raportu Instytutu Badawczego Capgemini z lutego br. ponad 50 proc. największych światowych producentów w Europie wdraża co najmniej jedno rozwiązanie z obszaru sztucznej inteligencji. Wymaga ona jednak zbierania i przetwarzania ogromnej ilości danych, co z kolei wymusza na firmach także inwestycje w miejsce do ich przechowywania.

    – W bardziej skutecznym zarządzaniu danymi w firmie pomagają np. pamięci masowe IBM FlashSystem. Optymalizują infrastrukturę IT i zapewniają w prosty i bezpieczny sposób dostęp do potrzebnych danych w prywatnej chmurze lub środowisku wielochmurowym. Zastosowane w projektach związanych ze sztuczną inteligencją zapewniają wydajność, elastyczność i skalowalność mówi Jakub Grzywacz.

    Ilość danych rośnie w ogromnym tempie. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 zetabajtów w ubiegłym roku do 175 w 2025 roku. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.

    Większa ilość danych to wyzwanie dla firm, które muszą inwestować w dyski i serwery o coraz większej pojemności. Rozwiązaniem może być jednak także kompresja danych.

    – Rozwiązania IBM FlashSystem są skalowalne, co pozwala na przechowywanie większej ilości danych i dopasowanie ilości i rodzaju pamięci masowej w zależności od potrzeb. Przechowywanie większej ilości danych na mniejszej ilości sprzętu odbywa się z nawet pięciokrotną redukcją danych, szczególnie z wykorzystaniem modułów NVMe FCM oferujących kompresję bez wpływu na wydajność tłumaczy solution architect w GoldenOre. – Elastyczna i skalowalna platforma o wysokiej wydajności pozwala na łatwe, szybkie wdrożenie i dostosowanie infrastruktury IT naszych klientów do potrzeb zmieniającego się otoczenia – bez wielkich nakładów budżetowych.

    Rodzina pamięci masowych FlashSystem składa się z wielu modeli o różnych parametrach, które mogą być dopasowane do potrzeb zarówno małych, jak i dużych firm. W doborze najlepszych rozwiązań do istniejącej infrastruktury IT oraz strategii i budżetu firmy specjalizuje się GoldenOre.

  • Pentacomp Systemy Informatyczne i S&T Poland zajmą się ulepszeniem systemu e-zdrowie

    Pentacomp Systemy Informatyczne i S&T Poland zajmą się ulepszeniem systemu e-zdrowie

    Nie zwalnia dynamiczne tempo cyfryzacji ochrony zdrowia w Polsce. Pod koniec października podpisana została nowa umowa na rozbudowę systemu e-zdrowie (P1). Przygotowanie dodatkowych funkcjonalności Centrum e-Zdrowia zleciło firmom: Pentacomp Systemy Informatyczne oraz S&T Poland.

    Kolejny etap cyfryzacji koncentrować się będzie na stworzeniu platformy do wymiany dokumentacji między podmiotami medycznymi, a także na analizie pozyskanych danych. Rozwiązania te przyczynią się do skrócenia czasu wywiadu z pacjentem podczas wizyty lekarskiej, ułatwienia zdalnej diagnostyki, co w konsekwencji przełoży się na zwiększenie efektywności pracy lekarzy. Rozwijana będzie również platforma raportowa bazująca na zbiorach Big Data, która pozwoli Ministerstwu Zdrowia i jednostkom podległym lub nadzorowanym w szybkim czasie uzyskiwać informacje wspomagające procesy decyzyjne. W tych obszarach pilotażowo zaplanowano także wykorzystanie algorytmów sztucznej inteligencji.

    – Aby e-zdrowie i telemedycyna  mogły się dalej rozwijać, koniecznie jest wdrożenie elektronicznej dokumentacji medycznej oraz rejestracji zdarzeń medycznych. Uruchomiliśmy e-receptę, wdrożyliśmy e-skierowanie, które od 8 stycznia będzie obowiązkowe, rozpoczęliśmy pilotaż wymiany pomiędzy podmiotami  dokumentacji medycznej, pracujemy nad kolejnymi rozwiązaniami: udostępnianiem zdarzeń medycznych oraz centralną e-rejestracją, która będzie dostępna z poziomu Internetowego Konta Pacjenta.  Te usługi są  kluczowe dla cyfryzacji ochrony zdrowia w Polsce mówi Andrzej Sarnowski, Zastępca Dyrektora do Spraw Rozwoju SIM i Wdrożeń Centrum e-Zdrowia (CeZ).

    Planowo z początkiem lipca 2021 r. usługodawcy będą zobowiązani do zapewnia możliwości wymiany danych zawartych w elektronicznej dokumentacji medycznej. Docelowo każda wizyta w gabinecie lekarskim będzie kończyła się przekazaniem danych zdarzenia medycznego do systemu centralnego. Będą to m.in. informacje o rozpoznanej jednostce chorobowej czy wykonanych badaniach. Pacjent – logując się na swoje Internetowe Konto Pacjenta (IKP) uzyska dostęp do swoich dokumentów medycznych. Poprzez IKP będzie mógł też nadać uprawnienia dostępu do swoich danych np. konkretnemu lekarzowi specjaliście.

    – W najbliższym czasie skoncentrujemy się na rozbudowie funkcjonalności Internetowego Konta Pacjenta, które już wkrótce stanie się domowym centrum zarządzania i archiwizacji dokumentów medycznych. Kolejny krok to dalsze ułatwienia dla pacjentów związane z wdrożeniem centralnej rejestracji na poszczególne świadczenia medyczne mówi Michał Wilbrant, szef działu aplikacji dedykowaych odpowiedzialny za rozwiązania dla administracji publicznej z firmy S&T. (na zdjęciu) – Dzięki automatyzacji i nowym funkcjom systemu e-zdrowie, lekarze w Polsce będą diagnozować szybciej i sprawniej. Cyfryzacja kolejnych elementów systemu ochrony zdrowia wymagać będzie od naszego zespołu programistycznego realizacji wielu zaawansowanych prac informatycznychdodaje.

    Zwinne oprogramowanie na skalę światową

    Przy rozbudowie systemu e-zdrowie (P1) wykorzystywane jest podejście zwinne Scrum skalowane metodą Nexus, która szczególnie dobrze sprawdza się w organizacji prac złożonych projektów informatycznych o dużej skali. Metodyka ta jest niezastąpiona w wytwarzaniu oprogramowania w otoczeniu zmieniających się potrzeb i wymagań biznesowych.

    – Realizacja tak złożonego przedsięwzięcia jest ogromnym wyzwaniem organizacyjnym. Skalowanie metodyki Scrum umożliwiło nam sprawną obsługę zależności między wieloma zespołami i synchronizację równoległej pracy nad jednym produktem składającym się z ponad 30 podsystemówmówi Michał Gross, Kierownik Projektu z firmy Pentacomp.Metoda Nexus przeznaczona jest dla dużych projektów, ale skala, na jaką zrobiliśmy to w projekcie e-zdrowie (P1), jest unikalna na skalę światowąpodkreśla.

    W ramach nowego kontraktu, nad dalszym rozwojem systemu e-zdrowie pracować będzie kilkanaście tematycznych zespołów programistycznych składających się z Scrum Mastera, analityków, testerów oraz programistów współpracujących z Product Ownerami reprezentowanymi przez przedstawicieli CeZ.

    To właśnie „scrumowy model” wytwarzania oprogramowania wykorzystywany w projekcie e-zdrowie pozwolił na bieżące reagowanie na potrzeby informatyczne związane z zaistniałą pandemią. W ramach sposobu działania, jaki nakłada zwinny Scrum, zaangażowane w projekt zespoły programistyczne Pentacomp i S&T w kilka tygodni uruchomiły np. możliwość składania zleceń na testy obecności wirusa SARS-CoV-2 i sprawdzanie ich wyników w systemie przez lekarzy kierujących na badania.

    W ramach narzędzi wspierających walkę z COVID-19 wdrażanych przez Centrum e-Zdrowia, przygotowano także rejestry systemu e-zdrowie (P1) na potrzeby integracji z systemem Ewidencji Wjazdów do Polski (EWP) oraz wdrożono rozwiązania, które umożliwiły na Internetowym Koncie Pacjenta prezentację wyników badań w kierunku COVID-19 oraz informacji o kwarantannach i izolacji domowej.

    Duże zmiany w systemie e-edrowie (P1) w roku 2021

    Podpisana umowa przyspieszy prace nad kolejnymi narzędziami, które rozbudują katalog e-usług w ochronie zdrowia. Centrum e-Zdrowia kontynuuje współpracę z firmami, których zespoły programistyczne zaangażowane są w budowę ogólnopolskiej platformy e-zdrowie (P1) od kilku lat. Pentacomp Systemy Informatyczne oraz S&T Poland wspierały Centrum e-Zdrowia m.in. w przygotowaniu i wdrożeniu e-recepty oraz e-skierowania, uruchomieniu portalu pacjent.gov.pl oraz Internetowego Konta Pacjenta, czy budowie aplikacji dla lekarzy i pracowników medycznych – gabinet.gov.pl.

    Od 8 stycznia 2021 r. powszechnie obowiązywać będzie e-skierowanie. W czwartym kwartale 2021 r. Centrum e-Zdrowia zapowiada uruchomienie z poziomu IKP centralnej e-rejestracji, jak i nowego, rozbudowanego narzędzia do e-wizyt. W przyszłym roku planowany jest też dalszy rozwój systemu e-zdrowia (P1), do którego dodane zostanie kolejne narzędzie – możliwość zamawiania online e-ecept oraz e-recepta transgraniczna.

    System e-zdrowie w liczbach

    • Ponad 450 mln e-recept

    • Ponad 4,3 mln Internetowych Kont Pacjenta

    • Ponad 4 mln e-skierowań

  • Na wejście do branży IT decyduje się coraz więcej młodych

    Ponad 60 proc. polskich programistów deklaruje, że samodzielnie stawiało pierwsze kroki w zawodzie. Tylko 35 proc. zgłębianie IT zaczynało na studiach, a 4 proc. – od kursów programowania – wynika z Antybadania firmy Just Join IT. Wbrew stereotypom programiści to nie zamknięci w domach introwertycy mieszkający z rodzicami, ale ludzie, którzy mają lub planują założyć rodzinę, lubią integrację z zespołem i sport. Co drugi pracownik podkreśla, że bardzo ceni sobie work–life balance.

    – Okazuje się, że stereotypowy programista nie istnieje, a kilka łatek, które im przylepiliśmy, nie mają nic wspólnego z rzeczywistościąpodkreśla inicjator badania Piotr Nowosielski, prezes Just Join IT. – 85 proc. polskich programistów lubi spędzać czas wśród innych, integrować się z zespołem, jeździć na wyjazdy integracyjne. Nie są więc oni introwertykami, jak wskazują stereotypy.

    Kolejny mit to pogląd, że programista mieszka z rodzicami. Według Antybadania tylko 16 proc. pracowników IT nie wyprowadziło się jeszcze z rodzinnego domu. Nie są też zadeklarowanymi samotnikami. Blisko połowa chce mieć dzieci, a co czwarty przyznaje, że gdyby nie praca, już skupiłby się na rodzinie. Zdecydowana większość deklaruje, że ma lub chce mieć w przyszłości zwierzaka.

    – Wbrew pozorom polski programista to człowiek, który lubi sport. Uprawia go 80 proc. z nich [43 proc. regularnie, czyli co najmniej dwa razy w tygodniu, a 42 proc. sporadycznie – red.]wyjaśnia Piotr Nowosielski. – Cenią sobie także work–life balance, na co również bardzo często wskazywali w naszym Antybadaniu.

    Programiści nie kodują całą dobę. Ponad połowa pracuje po sześć–osiem godzin dziennie. Wolny czas – jak przedstawiciele innych branż – spędzają najchętniej na oglądaniu filmów i seriali (67 proc. wskazań), głównie na Netfliksie oraz HBO Go.

    Antybadanie wskazuje także, że kariera w IT często nie zaczyna się od specjalistycznego wykształcenia, a wejście do branży staje się coraz prostsze. Tylko 35 proc. badanych w zawodzie startowało od kierunkowych studiów, a częściej uczyli się samodzielnie (prawie 61 proc.). To oznacza, że wielu pracowników IT zaczęła programować, zanim wybrała studia informatyczne. Według deklaracji respondentów wykształcenie wyższe powiązane z zawodem ma prawie 55 proc. z nich.

    Co najczęściej skłania młode osoby do kariery w IT? Prawie 80 proc. przyznało, że było to zainteresowanie technologiami. Dla blisko połowy motywacją były perspektywy rozwoju zawodowego, a także zarobki.

    – W zarobkach sytuacja jest dosyć mocno zróżnicowana. Kiedy mówimy o osobie, która wchodzi na rynek bez doświadczenia i chce przede wszystkim otrzymać szansę od pracodawcy, to zarabia około 2,5–3 tys. zł netto na start. Jeżeli jej nauka będzie szła harmonijnie, to po roku–dwóch te zarobki mogą sięgać 5–7 tys. zł, natomiast później mogą dojść do nawet 15–20 tys. zł, a ci najlepsi zarabiają już od dawna ponad 30 tys. zł netto na polskim rynkumówi prezes Just Join IT.

    Co ciekawe, większość programistów przyznaje, że ich praca to nie tylko nudne wklepywanie kodów. Trzy czwarte uważa, że mają ciekawe zajęcie. O tym, że programiści lubią swoją pracę, może świadczyć fakt, że duża grupa badanych w odpowiedzi na to, co robiliby w życiu, gdyby nie musieli zarabiać pieniędzy, przyznała, że dalej by programowała – prawie 42 proc. dla własnej satysfakcji.

    – Zawód programisty cały czas się zmienia i jest na tyle dynamiczny, że wymaga nie tylko umiejętności ścisłych, ale też miękkichmówi Piotr Nowosielski. Pojawiają nam się nowe dziedziny nauki takie jak sztuczna inteligencja, Big Data, Data Science. Obecnie programista musi mieć zdecydowanie więcej kompetencji miękkich, które polegają również na tym, aby komunikować się w zespole, z osobami odpowiedzialnymi za projekt i pracować bardziej kreatywnie nad tymi rozwiązaniami, które dopiero będą kształtować naszą przyszłość.

  • Wystartowała pierwsza w Polsce elektrownia fotowoltaiczna w technologii 4.0

    Wystartowała pierwsza w Polsce elektrownia fotowoltaiczna w technologii 4.0

    Wybudowana przez KGHM ZANAM elektrownia fotowoltaiczna ma moc 3 MWp. Instalacja zaspokoi niemal w połowie zapotrzebowanie na energię elektryczną legnickiego zakładu ZANAMu. To element realizacji strategii KGHM zmierzającej do zwiększenia samowystarczalności energetycznej i wykorzystania Odnawialnych Źródeł Energii.

    – Zgodnie z naszą strategią, do 2030 roku połowę zapotrzebowania na energię chcemy pokryć z własnych źródeł, w tym z OZE. W branży górniczo-hutniczej to wyjątkowo ambitny cel. Nie tracimy czasu i rozwijamy projekty fotowoltaiczne. Ekologiczne megawaty elektrowni KGHM ZANAM już płynąpowiedział Marcin Chludziński, Prezes Zarządu KGHM Polska Miedź S.A.

    Zinformatyzowana i zautomatyzowana

    Elektrownia fotowoltaiczna KGHM ZANAM to pierwsza w Polsce w pełni zinformatyzowana i zautomatyzowana elektrownia funkcjonująca w technologii 4.0. Obiekt wyposażony jest w wirtualną dyspozytornię (Control Room) oraz nowoczesny System Monitoringu Wysokiej Rozdzielczości, który umożliwia precyzyjną i pełną diagnostykę stanu technicznego przez całą dobę, siedem dni w tygodniu. Roczny poziom produkowanej energii wyniesie około 3 GWh.

    – To pierwsza taka elektrownia w Polsce. Innowacyjna, ekologiczna i efektywna. Wybudowaliśmy ją zgodnie z zalecanymi przez Międzynarodową Agencję Energii kierunkami rozwoju energetyki fotowoltaicznej. To wkład w realizację polityki niskoemisyjnej gospodarki energetycznej w KGHM i realne źródło energii dla naszego zakładu w Legnicypowiedział Bernard Cichocki, Prezes KGHM ZANAM.

    Innowacyjne rozwiązania

    Zastosowane w otwartej właśnie elektrowni fotowoltaicznej rozwiązania dają wiele możliwości, m.in. możliwość konfiguracji automatycznych alarmów. Skraca to czas reakcji na ewentualne usterki. Do monitoringu stanu technicznego paneli fotowoltaicznych oraz inwerterów wykorzystywane są zaawansowane algorytmy analityczne oparte na przetwarzaniu ogromnych zbiorów danych (Big Data), uczeniu maszynowym (Machine Learning) i metodach sztucznej inteligencji (Artificial Intelligence).

    Realizacja strategii

    Zgodnie ze strategią Polskiej Miedzi, do 2030 roku, aż połowę zapotrzebowania na energię KGHM chce pokryć z własnych źródeł, w tym z OZE. Oprócz inwestycji KGHM ZANAM, KGHM prowadzi projekty fotowoltaiczne – Elektrownia fotowoltaiczna (EPV) Piaskownia Obora oraz Zespół EPV HMG I-III. To elementy strategicznego programu „Rozwój Energetyki, w tym OZE”. Fundamentem programu jest m.in. pozyskanie czystej energii z elektrowni wiatrowych, zwiększenie produkcji z własnych źródeł gazowych oraz rozwój elektrowni fotowoltaicznych na własnych terenach KGHM.

    Elektrownia FV KGHM ZANAM w liczbach:

    moc generatora PV – 3,146 MWp

    źródło energii – energia solarna

    obszar zabudowy – 39.535,00 mkw.

    lokalizacja – oddział KGHM ZANAM w Legnicy

    liczba paneli – 9.534 szt.

    roczny poziom produkcji energii – 3 GWh

  • Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0

    Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0

    Wraz ze smartfonami i smartwatchami zanikła potrzeba regulowania zegarków. Ufając technice, przyzwyczajono się do automatycznej synchronizacji czasu i daty z siecią GSM. Dlatego tak zaskakujący jest widok komórek, leżących obok siebie, zalogowanych do różnych operatorów, na których dostrzegamy inną godzinę na wyświetlaczach.

    O ile rozbieżności minutowe nie mają dla ludzi wielkiego znaczenia, to tworzą problem dla przemysłu, wkraczającego w erę zautomatyzowanej gospodarki przyszłości. Powodów zróżnicowania czasu między operatorami jest wiele, ale muszą one zniknąć, zanim Przemysł 4.0 na dobre oprze się na rozwiązaniach 5G i całkowicie od nich uzależni. Od tego zależeć będzie bezpieczeństwo i satysfakcja użytkowników najnowszych technologii. W Industry 4.0 zależności między producentem, dostawcą a odbiorcą tworzą „inteligentny” ekosystem oparty na predykcji (przewidywaniu) kolejnych wydarzeń, tych dobrych i tych złych, i pozwalający „na czas” wdrożyć postępowanie optymalizujące lub zastępcze. Tu w realizacji spotykają się modne dziś terminy Big Data, Machine Learning i Sztuczna Inteligencja, a gwarantem poprawnego i stabilnego działania całej tej automatyki będzie czas i synchronizacja.

    W telefonii 2G/3G, za wyjątkiem zapewnienia chronologii zapisu zdarzeń systemowych (LOG) oraz pomijając rolę czasu i daty w bilingach, nie było konieczności precyzyjnej synchronizacji. W starej telekomunikacji ważna była częstotliwość, niezbędna do utrzymania stabilności kanałów transmisyjnych sieci radiowej – te zaś wpływały na wydajność (przepustowość), a w konsekwencji decydowały o jakości usługi. Tylko była ona jak sekundnik w zegarku nieposiadającym wskazówek minut i godzin. Jeżeli występowały efekty takie jak echo własnego głosu w trakcie rozmowy, zrywanie połączeń lub transmisji danych podczas podróży, to były one najprawdopodobniej skutkiem niewystarczającego zgrania rozproszonych stacji bazowych (BTS) i urządzeń telekomunikacyjnych.

    Sytuacja uległa poprawie z nadejściem 4G/LTE. Telekomy, instalując odbiorniki satelitarne z wzorcem czasu w węzłach i w BTSach, znacząco udoskonaliły synchronizację. Niestety, okazywało się, że coraz częściej opisywane w mediach kłopoty związane z satelitami, powodują niezgodności wskazań czasu między operatorami, a nawet zdarzało się, że różnicują go wewnątrz sieci jednej firmy. A przecież zegar w telefonie wskazuje najczęściej godzinę pobieraną z najbliższego punktu dostępowego.

    Okazuje się także, że czas satelitarny nie jest uniwersalny i zależy od konkretnego systemu GNSS (Global Navigation Satelite System) oraz od rodzaju odbiornika tzn. od producenta, modelu, a niekiedy od wersji firmware’u. Różnice nie są duże, ale np. 30-40 nanosekundowa rozbieżność między amerykańskim GPS a rosyjskim GLONASS to istotna komplikacja dla telefonii 5G, a w konsekwencji dla Przemysłu 4.0.

    Co prawda, operatorzy GSM posiadają też własne zegary atomowe, a to sugerowałoby, że kwestia zgodności czasu powinna rozwiązywać się samoczynnie. Niestety tak nie jest, bo nie zawsze wzorzec dociera do miejsca, gdzie loguje się telefon użytkownika. Nawet gdyby wskazania z zegarów atomowych docierały do całej infrastruktury, problem nadal by pozostawał chociaż w mniejszym stopniu. Zegary atomowe są stabilne, spóźniają się lub przyspieszają 1 sekundę raz na kilkaset lat, ale dysponują jedynie substytutem zegarowego sekundnika. Nastawienie pozostałych „wskazówek” i kalendarza wymaga ciągle GNSS.

  • LINK4 szkoli pracowników z bezpiecznej chmury

    LINK4 szkoli pracowników z bezpiecznej chmury

    Aż 90 pracowników LINK4 weźmie udział w pierwszej edycji szkoleń z umiejętności obsługi i wykorzystania chmury obliczeniowej. Akademia Chmurowa w LINK4 to program realizowany wspólnie z Microsoft, którego celem jest podniesienie kwalifikacji pracowników firmy oraz zapewnienie im certyfikatów spełniających nowe regulacje Komisji Nadzoru Finansowego.

    Podstawowym celem „Akademii chmurowej Microsoft” jest zdobycie umiejętności technicznych wymaganych do obsługi narzędzi i chmury Azure oraz zapewnienie zgodności z przepisami. W szkoleniach biorą udział osoby odpowiedzialne za obszar analityki dużych zbiorów danych (Big Data), infrastruktury, tworzenia aplikacji, zarządzania ryzykiem oraz bezpieczeństwa. Program jest nastawiony na przygotowanie pracowników LINK4 do skutecznego przejścia do chmury obliczeniowej w firmie. Szczególną uwagę skupiają aspekty techniczne migracji do chmury, obszar zgodności i ryzyka, a także zagadnienia formalne, w tym umowy. Dodatkowo uczestnicy zapoznają się z analizą kosztów i zmianami operacyjnymi wynikającymi z dalszego rozwoju modelu pracy DevOps.

    „Certyfikat Microsoft daje nam potwierdzenie, że posiadamy odpowiednie umiejętności do bezpiecznego i efektywnego poruszania się w środowisku chmury obliczeniowej. To szczególnie ważne w obliczu regulacji KNF, które jako towarzystwo ubezpieczeniowe musimy spełnić”wyjaśnia Małgorzata Jaworska, Dyrektor Pionu IT w LINK4. „Nie mam wątpliwości, że rozwiązania chmurowe zapewniają najwyższe bezpieczeństwo danych oraz są korzystne i przyjazne dla naszych klientów”dodaje.

    „Chmura obliczeniowa zapewnia szybkość i sprawność operacyjną. Efekty odczują nasi klienci, którzy będą mogli korzystać z usług cyfrowych doskonale dostosowanych do swoich potrzeb, mając pewność, że ich dane są chronione w najlepszy sposób. Wyposażenie naszego zespołu w niezbędne umiejętności budowania rozwiązań opartych o chmurę obliczeniową pozwala działać, nie tylko w zgodzie z wytycznymi KNF, ale w sposób sprawny i niezawodny” dodaje Anna Petryka-Tabor, Kierownik Projektów Chmurowych i Infrastrukturalnych w LINK4.

    Certyfikacja spowoduje, że w ramach własnego zespołu firma rozwija kompetencje, pozwalające na sprawne tworzenie nowych ofert i rozwiązań dla klientów w oparciu o zasoby i moc obliczeniową chmury Microsoft.

    „Sukcesem Microsoft jest sukces naszych klientów. Budowanie kompetencji z zakresu rozwiązań chmurowych to z pewnością jeden z czynników tego sukcesu. W ten sposób chcemy realizować nasze zobowiązanie, które ogłosiliśmy w maju 2020, w formie wielopoziomowego planu inwestycyjnego w kompetencje cyfrowe w Polsce, których wzrost przyczyni się do rozwoju Polskiej Doliny Cyfrowej”podkreślił Radosław Ochotny, odpowiedzialny w polskim oddziale Microsoft za budowę kompetencji cyfrowych.

  • Strategie digital a rozwój narzędzi finansowych w czasach pandemii

    Strategie digital a rozwój narzędzi finansowych w czasach pandemii

    BIG DATA, zaawansowana analityka, uczenie maszynowe – to tylko niektóre z narzędzi wykorzystywanych przez wiodące instytucje finansowe. Ich znaczenie wzrosło szczególnie w czasach pandemii.

    Pandemia koronawirusa spowodowała, że wielu klientów przekonało się o zaletach korzystania z rozwiązań online oferowanych przez instytucje finansowe. Firmy pożyczkowe stanęły przed zupełnie nowymi wyzwaniami, a te, które odnalazły się w szeroko pojętym segmencie e-commerce, zyskały w oczach konsumentów. Pozyskiwanie klienta – onboarding – przeniosło się w pełni do kanałów cyfrowych. Obecnie, chcąc otrzymać finansowanie, nie trzeba przekazywać szeregu dokumentów, wyciągów z rachunków czy potwierdzać wysokości dochodów. Nowoczesna technologia pozwala zbierać i analizować informacje o kliencie w taki sposób, aby zaproponować mu możliwie najlepszą ofertę.

    Zaawansowana analityka pozwala przeprowadzić szybko i dokładnie scoring kredytowy, czyli ocenę zdolności kredytowej. Wszystko to odbywa się w sposób zautomatyzowany bez udziału analityka. Nowatorskie systemy są w stanie przeanalizować dane o kliencie pochodzące na przykład z mediów społecznościowych, prześledzić jego aktywność zawodową czy historię zakupów. Dzięki temu, ryzyko niewywiązania się z zaciągniętych zobowiązań jest skutecznie marginalizowane – tłumaczy Agata Lejman, Marketing Manager w AIQLAbs, właściciela marek SuperGrosz oraz „Kupuj Teraz – zapłać później”.

    Ocena ryzyka kredytowego dokonywana jest przez odpowiednio skonfigurowane algorytmy. Weryfikacja odbywa się w sposób automatyczny, co jest szczególnie istotne w czasach pandemii, gdy zmniejsza się mobilność klientów, a nakazy związane z koniecznością pozostania w domach wymagają, aby wiele spraw załatwiać online. Nie wolno zapominać więc o skutecznej prewencji wyłudzeń. Automatyczna analiza klienta, a także wsparcie procesu przez wyspecjalizowane call center znacząco ograniczają takie ryzyko. Na rynku istnieją również rozwiązania, które pomagają instytucjom finansowym pozyskać klienta bezpośrednio. Wystarczy, że potencjalny kredytobiorca jest zainteresowany konkretną usługą bankową. System monitoruje zachowanie użytkownika i w razie potrzeby wysyła automatycznie spersonalizowaną ofertę, co pozwala zaproponować odpowiednie warunki oferty kredytowej z uwzględnieniem określonego ryzyka dla instytucji finansowej.

    Procedury związane z uczeniem maszynowym pozwalają instytucjom finansowym usprawnić procesy oceny ryzyka kredytowego i zwiększyć efektywność takich działań. Niektóre z nich opierają się na zaawansowanych algorytmach, które w czasie rzeczywistym są w stanie dokonać weryfikacji klienta. Co istotne, system zapewnia pełne bezpieczeństwo przekazywania danych. Dzięki podobnym modelom, innowacyjne FinTechy proponują swoje usługi mikro, małym i średnim firmom. Jedną z nich jest mikrofaktoring, czyli ograniczanie zatorów płatniczych. To wszystko sprawia, że środki finansowe mogą być wypłacone nawet w ciągu 24 godzin w dni robocze. Takie rozwiązania sprawdzają się szczególnie teraz, gdy utrzymanie płynności finansowej jest prawdziwym wyzwaniem. Algorytmy dopasowują się elastycznie do sytuacji, realnie oceniając zdolność kredytową klientów.

    W zakresie odroczonych płatności, system może bazować na zaawansowanych modelach statystycznych, które wykorzystują algorytmy machine learning i BIG DATA. Pozwala to zwiększać wartość koszyków oraz błyskawicznie oceniać zdolność kredytową. Konsument już podczas pierwszej transakcji poznaje wysokość swojego limitu kredytowego, który wskazuje potencjał zakupowy i motywuje go do jej zakończenia.

  • Rynek karmiony pandemią, rekordowe wydatki na Big Data

    Rynek karmiony pandemią, rekordowe wydatki na Big Data

    Mimo trwającej pandemii, w tym roku firmy na całym świecie przeznaczą rekordową kwotę ponad 41 mld USD na cyfrowe informacje, wynika z analizy Cloud Technologies. Warszawska spółka Big Data opublikowała trzecią edycję raportu Global Data Market Size 2017-2021, który jako jedyny na rynku analizuje wielkość globalnej sprzedaży danych.
    Clive Humby z Kellogg School of Management podczas konferencji stowarzyszenia ANA w listopadzie 2006 roku ogłosił, że dane są nową ropą. W haśle tym zakochali się marketerzy i przez 14 lat było powtarzane niczym mantra. Okazuje się, że potrzeba było naprawdę wielu lat, by lansowana przez Humby’ego wizja, nareszcie się ziściła i stała się czymś więcej niż chwytliwym sloganem.

    Digitalizacja po polsku

    Z najnowszego raportu Global Data Market Size, przygotowanego przez warszawską spółkę z segmentu nowych technologii – Cloud Technologies, dowiadujemy się, że mimo iż kryzysy zdrowotny i ekonomiczny wciąż trwają, to nadwiślański rynek danych zanotuje rekordową wartość wyceny. Polskie wydatki na cyfrowe informacje wyniosą w 2020 aż 32,1 mln USD, co oznacza wzrost o 17,5% rdr.

    W porównaniu z innymi europejskimi państwami to wynik plasujący nas w połowie stawki, pomiędzy skrajnie wstrzemięźliwym gospodarkami, jak Rumunia (4,0 mln USD), Bułgaria (0,2 mln USD), czy Węgry (0,9 mln USD), a informacyjnymi pionierami, do których należą między innymi nasi zachodni sąsiedzi, Niemcy (826,3 mln USD), Wielka Brytania (3 064,2 mln USD) czy Francja (912,5 mln USD). – Nie da się ukryć, że zaangażowanie w nowe technologie w biznesie, szczególnie te ukierunkowane na wspieranie sprzedaży, związane jest z potencjałem nabywczym danego społeczeństwa. Jak wynika z najnowszego raportu GfK Purchasing Power Europe 2020, który porównuje możliwości nabywcze danych gospodarek, purchasing power index, czyli wskaźnik możliwości nabywczych, jest w Polsce 3 razy niższy niż w Niemczech. Jednocześnie jest wyższy niż węgierski czy rumuński.tłumaczy Piotr Prajsnar, CEO Cloud Technologies.

    Jak wskazuje raport przygotowany przez warszawską spółkę, trwająca pandemia i jej nieprzewidywalność zmotywowały nadwiślański biznes do inwestycji. Szacuje się, że przyszłoroczna wartość rynku danych wyniesie blisko 40 mln USD, co oznacza ponad 22% wzrost w porównaniu z rokiem obecnym. Podany wynik pozwoli nam zmniejszyć dystans do znacznie bogatszych od nas nacji: Szwajcarów (64,8 mln USD), Holendrów (70,3 mln USD) czy Hiszpanów (72,3 mln USD).

    Pandemiczne powikłania

    40 mld USD – tyle wynosi wartość PKB Tunezji, czyli zsumowana wartość wszystkich towarów i usług wytworzonych w danej gospodarce. Co to ma wspólnego z rynkiem danych? Warszawska spółka Cloud Technologies wycenia na niemal taką samą kwotę globalną wartość światowego rynku danych w 2020. To blisko 20% więcej niż przed rokiem, zanim ktokolwiek mógłby wiedzieć o koronawirusie.

    Analitycy polskiej spółki działającej w obszarze Big Data, zapowiadają, że to nie koniec dobrych wieści dla tego sektora. Już w przyszłym roku powinniśmy spodziewać się wzrostu na poziomie 26%, co będzie skutkowało łączną wyceną rynku danych na poziomie 52,3 mld USD w 2021. Wszystko wskazuje na to, że najbliższa przyszłość zapisana jest nie w gwiazdach, a w bitach.

    – Trend data-driven został wzmocniony transformacją nawyków konsumenckich. Z badań przeprowadzonych przez firmę BGC wynika, że życie większości ludzi (70%) jest inne niż wczoraj, a oni sami są zdania, że pandemia zmieniła sposób, w jaki będą żyć jutro i na zawsze (50%)zauważa Piotr Prajsnar z Cloud Technologies, a następnie dodaje: – Dlatego wzrasta zainteresowanie wielkimi zbiorami danych, które pomogą dostosować model działania do nowych zachowań konsumentów. Widać to doskonale na przykładzie naszego raportu. Tegoroczny wzrost wartości rynku danych wyniesie blisko 20%, nadchodzący 2021 rok, zanotuje jeszcze większy wzrost. To potwierdza, że trend wykorzystywania cyfrowych danych jest silny na całym świecie.

    Sztuczna Inteligencja na straży

    Dziś najpopularniejszym sposobem wykorzystania danych behawioralnych, czyli takich, które charakteryzują zachowanie internauty w sieci, jest dystrybucja treści reklamowych w internecie. – Służą one do budowy nowej strategii, tworzenia produktów, bądź też przewidywania trendów, ale dziś ich głównym zastosowaniem jest komunikacja. Dlatego wzięliśmy pod uwagę kondycję rynku reklamy programmatic. Rozwiązanie to jest dziś najpopularniejszą formą zakupu powierzchni displayowych w sieci. zauważa Maciej Sawa, CEO OnAudience.com, spółki należącej do grupy Cloud Technologies i dodaje: – W okresie, który poddajemy analizie, czyli w latach 2017-2021, wartość rynku programmatic dynamicznie rośnie z roku na rok. Od 2018 roku zwiększa się ona w tempie dwucyfrowym. Na największym światowym rynku reklamy, czyli w Stanach Zjednoczonych, już 8 na 10 reklam sprzedawanych jest w modelu automatycznym.

    Jak szacują twórcy raportu, mimo trwającej pandemii i wbrew polityce “zaciskania pasa”, która stosowana jest w wielu organizacjach, wartość rynku programmatic wzrośnie w porównaniu z poprzednim rokiem o ponad 14% i wyniesie  w 2020 129,1 mld USD.

    – Nie od dziś wiadomo, że gospodarka to układ naczyń połączonych. Dlatego wzrost wydatków na programmatic jest ściśle związany z kondycją sektora reklamy cyfrowej. Jak podaje portal eMarketer, mimo tego, że globalne wydatki na reklamę spadną, to rozbijając to na poszczególne formy promowania, zauważymy, że wydatki na reklamę cyfrową jako jedyne wzrosną w tym roku. Co prawda mówimy o 2,4%, ale przyczyni się to do wygenerowania łącznej kwoty 332,84  mld USD w 2020 rokuzauważa Piotr Prajsnar z Cloud Technologies.

    Nadchodzący 2021 ma być rekordowy pod względem wyceny rynku programmatic, która wyniesie 155 mld USD. To o 20% więcej niż w trwającym 2020. Wystarczyły zaledwie 4 lata, by wartość tego sektora wzrosła o blisko 87 mld USD (bazowa wartość, 68 mld USD w 2017).

    Europejska zadyszka

    Biorąc pod uwagę wartość rynku danych w poszczególnych regionach, Stary Kontynent z wynikiem 6,3 mld USD tylko nieznacznie wygrywa z Chinami (5,4 mld USD). Swoją dominację kolejny rok potwierdzają Amerykanie. Stany Zjednoczone będą w 2020 największym na świecie lokalnym rynkiem danych – 24,7 mld USD to blisko 4 razy więcej niż zakłada prognozowany europejski wynik.

    – Układ sił może ulec wkrótce przetasowaniuzauważa Piotr Prajsnar, CEO Cloud Technologies.O ile pozycja lidera, wydaje się niezagrożona, o tyle obserwując dynamikę, z jaką rozwija się chiński rynek, powinniśmy się spodziewać, że już za rok, wyniki osiągane przez Pekin zrównają się z europejskimi.dodaje ekspert.

    Analitycy warszawskiej spółki przewidują, że już w 2021 różnica pomiędzy rynkiem europejskim a chińskim stanie się symboliczna i wyniesie zaledwie 0,3 mld USD na korzyść Starego Kontynentu (7,6 mld do 7,3 mld USD). Chiny będą mogły pochwalić się 35% dynamiką wzrostu w nadchodzącym roku. To o 13 p.p. więcej niż wyniesie europejski wynik.

    Świat wiedzy

    Według ostatnich badań International Data Corporation (IDC), globalna gospodarka jest skoncentrowana na cyfrowej transformacji. W ciągu najbliższych 3 lat wydatki na IT wyniosą 6,8 bln USD. Wpływ pandemii Covid-19 jest wszechobecny i napędza zmiany, do jakich biznes nie był dotychczas wystarczająco zmotywowany.

    Dziś, utytułowany matematyk i analityk danych, Clive Humby może czuć się zmieszany – z jednej strony, jego śmiała wizja sprzed 14 lat zaczyna wreszcie nabierać rzeczywistego kształtu, z drugiej strony, walnie przyczynił się do tego koronawirus i wynikający z pandemii globalny lockdown. Jednak bez względu na okoliczności, jedno jest pewne – pandemia zaostrzyła apetyt na technologie, a biznes coraz śmielej romansuje z nowymi rozwiązaniami.

  • SAP podejmuje współpracę z Chmurą Krajową

    SAP podejmuje współpracę z Chmurą Krajową

    Zwieńczeniem 25-lecia obecności SAP na polskim rynku jest podjęcie współpracy z Operatorem Chmury Krajowej. W listopadzie została zawarta umowa współpracy, na mocy której użytkownicy systemów SAP będą mogli korzystać z nich na jednej z platform oferowanych przez Chmurę Krajową. Natomiast klienci Chmury Krajowej będą mieli możliwość dołączenia rozwiązań oferowanych przez SAP do swojego portfolio wykorzystywanych narzędzi.

    W listopadzie 2020 r. SAP i Operator Chmury Krajowej zawarli umowę współpracy, w ramach której klienci SAP otrzymają możliwość przeniesienia swoich zasobów i wykorzystywanego oprogramowania na jedną z platform chmurowych oferowanych przez OChK. Natomiast klienci Chmury Krajowej, zyskają możliwość poszerzenia wykorzystywanej dotąd palety rozwiązań chmurowych o narzędzia i platformy SAP.

    Współpraca z SAP, światowym liderem oprogramowania służącego do obsługi procesów biznesowych, doskonale wpisuje się w naszą strategię. Łączymy siły, by jeszcze skuteczniej wspierać polskie firmy w procesach transformacji, dostarczając razem nowoczesne narzędzia do optymalizacji procesów i efektywnego zarządzania potencjałem firm w zwinnym środowisku chmurowym. Przedsiębiorstwa, które już obecnie korzystają z rozwiązań SAP w modelu on-premise przenosząc je do chmury zyskają dodatkowe szanse na zwiększenie funkcjonalności istniejących aplikacji i jeszcze lepsze wykorzystanie technologii do realizacji swoich celów biznesowych – powiedział Michał Potoczek, prezes Operatora Chmury Krajowej.

    Zaledwie 4% polskich firm nie planuje wykorzystania chmury, co stanowi prawdziwą i fundamentalną zmianę na rynku. Podczas ostatniego SAP Digital Forum nasi klienci udowodnili, że rozwiązania chmury obliczeniowej są kluczowe dla ich przedsiębiorstw. Pomagają tworzyć lepsze doświadczenia klientów i wykorzystywać takie technologie jak Big Data czy sztuczna inteligencja. Umowa zawarta z OChK umożliwi wsparcie, gwarantując transfer zasobów do bezpiecznej infrastruktury chmurowej oferowanej przez Chmurę Krajową. Firma SAP, obecna na polskim rynku od 25 lat, jest dobrze zorientowana w potrzebach i możliwościach polskich firm. Wierzę, że dzięki umowie podpisanej z najbardziej wyspecjalizowanym dostawcą rozwiązań chmurowych na polskim rynku, jeszcze więcej lokalnych przedsiębiorstw skorzysta z systemów i aplikacji SAP – podkreśla Thomas Duschek, prezes i dyrektor zarządzający SAP Polska.

  • Szybszy internet w zachodniej Polsce – nowy węzeł wymiany ruchu w Poznaniu

    Szybszy internet w zachodniej Polsce – nowy węzeł wymiany ruchu w Poznaniu

    EPIX Internet Exchange oraz Beyond.pl rozpoczęły współpracę. EPIX uruchomił trzecią lokalizację węzła wymiany ruchu internetowego w Polsce na terenie poznańskiego kampusu Data Center Beyond.pl, dając punkt styku dla operatorów usług dostępu do internetu oraz dostawców innych usług internetowych.

    Do tej pory EPIX posiadał węzły wymiany ruchu w dwóch kluczowych miastach w Polsce: w Katowicach i w Warszawie. Ze względu na ogromne zapotrzebowanie skracania czasów połączeń i zmniejszania opóźnień dla operatorów, pod koniec września br. wspólnie z Beyond.pl uruchomiono produkcyjnie trzeci węzeł w Poznaniu.

    Nowy węzeł, szybsza wymiana ruchu

    Nowa lokalizacja ma strategiczne znaczenie, ponieważ węzeł EPIX Poznań jest pierwszym w zachodniej części Polski i przejmie w dużej części obsługę ruchu internetowego na tym obszarze. To znacząco poprawi szybkość przesyłu danych dla obecnych członków EPIX w pozostałych częściach kraju, którzy będą mogli ominąć transferowanie ruchu przez odległą Warszawę czy dalekie Katowice i od razu zestawić połączenie w pobliskim Poznaniu. Będzie to też okazja dla MiŚOT-ów (Małych i Średnich Operatorów Telekomunikacyjnych), dotychczas nie korzystających z EPIX, do zakupu łącza czy dostępu do treści większych operatorów w bardzo atrakcyjnych cenach.

    – Od dłuższego czasu szukaliśmy partnera, który wesprze EPIX w wymianie ruchu w zachodniej Polsce. Na współpracę z Beyond.pl zdecydowaliśmy się z dwóch powodów. Z punktu widzenia naszych uczestników zlokalizowanie nowego węzła w serwerowni posiadającej najwyższy poziom bezpieczeństwa w Unii Europejskiej – Rated 4 – zapewnia szybką i bezawaryjną wymianę ruchu internetowego. To ważne, bo w praktyce daje operatorom możliwość świadczenia wyższej jakości usług dla klientów – tłumaczy Adam Kossowski, prezes Stowarzyszenia e-Południe, koordynującego funkcjonowanie m.in. EPIX. Poznań jest też optymalnie zlokalizowany pod kątem obsługi potrzeb klientów z zachodniej Polski. Jego położenie między Szczecinem, Wrocławiem, Bydgoszczą i Toruniem z jednej oraz Warszawą i Katowicami z drugiej strony, gwarantuje najniższe możliwe opóźnienia transmisji danych dodaje prezes Adam Kossowski.

    Wrota do zachodniej Europy

    Strategiczne położenie Poznania i uruchomienie tam węzła wymiany ruchu niesie ze sobą także inne korzyści dla uczestników EPIX. Zyskają oni m.in. możliwość wymiany ruchu transgranicznego. Realizacja projektu umożliwia jednocześnie operatorom zagranicznym na bezpośrednie wpięcie się do polskiego szkieletu sieci EPIX w Poznaniu.

    – Z punktu widzenia klientów – zarówno polskich, jak i tych z zachodniej Europy, istotnie poprawi się jakość, szybkość i niezawodność transmisji danych. Co jednak najważniejsze, czas transmisji danych w zachodniej Polsce oraz z zachodniej Europy do Polski znacznie się skróci zapewnia Wojciech Stramski, CEO Beyond.pl. Projekt niesie też korzyści dla firm korzystających z usług data center. Dla naszych klientów kolokacyjnych oraz chmurowych oznacza to bezpośredni dostęp do ponad 800 operatorów będących uczestnikami węzłów EPIX. Dzięki współpracy Beyond.pl przekształca się w nowoczesny hub telekomunikacyjnyzwraca uwagę Wojciech Stramski.