Tag: One System

  • Cyberbezpieczeństwo – IBM Spectrum Protect na pierwszej linii frontu

    Cyberbezpieczeństwo – IBM Spectrum Protect na pierwszej linii frontu

    Praktycznie od zawsze bezpieczeństwo było jednym z ważniejszych priorytetów w IT. Jednak ostatnie lata i spektakularne wydarzenia, które odbiły się szerokim echem na całym świecie nadały szczególny sens wysiłkom związanym z zapewnieniem bezpieczeństwa całej infrastruktury IT praktycznie w każdej firmie, bez względu na skalę działalności. Mowa tu chociażby o włamaniach do serwerów Adobe w 2013 roku, Sony Picture w 2014 roku, o atakach na Departament Obrony w USA, sieć hoteli Marriott, na Porsche, Yahoo, czy chociażby na naszym krajowym podwórku  – na mBank, BZ WBK, Komisję Nadzoru Finansowego, Allegro. Przykłady można mnożyć.

    Wniosek jaki się wyłania z takich zestawień jest jeden – to nieustająca walka dobra ze złem. Ofiarami bywają firmy mikro, średnie, duże, ale i pojedyncze osoby. Nikt nie może się czuć w pełni bezpieczny. Ofiarami padają także największe firmy, które zdawałoby się, mają dość środków finansowych i technicznych, aby zapewnić sobie bezpieczeństwo.

    Strona atakująca jest najczęściej bardzo zmotywowana finansowo, czasami są to zlecenia rządowe, czasami po prostu walka o idee. Bez względu na motywację – straty bywają bardzo duże, zarówno w wymiarze finansowym, jak i wizerunkowym.

    Niestety, taki stan rzeczy potwierdza także najnowszy raport IBM z badania kosztów naruszeń ochrony danych (Cost of Data Breach 2020) (1) bazujący na wywiadach przeprowadzonych w 524 firmach w 17 krajach i regionach, a  także na rozmowach z blisko 3 200 osobami, które miały kontakt z sytuacjami naruszenia bezpieczeństwa danych.

    Suche fakty są takie: 53% ataków miało podłoże finansowe, były to celowe działania mające wyrządzić szkody, w 13% włamań siłą sprawczą były obce służby, 13% – to haktywiści , a 21%  –   sprawcy nieznani. W 80% przypadków utracono dane, które umożliwiały identyfikację klientów. Średni koszt naruszenia ochrony danych w roku 2020 nieznacznie spadł o 1,5% do kwoty 3,86 mln USD rok do roku. Najbardziej ucierpiała ochrona zdrowia ze średnim kosztem 7,3 mln USD.

    Wśród wielu liczb i danych najsmutniejsza jest chyba liczba 280, bo firmy ujęte w badaniu potrzebowały średnio 207 dni na rozpoznanie i 73 dni na powstrzymanie naruszenia, co daje właśnie średni “cykl życia” naruszenia o długości 280 dni. W ochronie zdrowia ten czas wynosi 329 dni, a w sektorze finansowym jest o 96 dni krótszy. Jedyne światełko w tunelu to:  „Pełne zautomatyzowanie zabezpieczeń pomaga firmom skrócić czas życia naruszenia o 74 dni w porównaniu z firmami bez automatyzacji zabezpieczeń – z 308 do 234 dni”.

    Na szczęście jest też nieco optymistycznych danych, które dają wskazówki na przyszłość. „Różnica w średnim łącznym koszcie naruszenia ochrony danych między organizacjami bez wdrożonej automatyzacji zabezpieczeń a organizacjami z wdrożoną w pełni automatyzacją zabezpieczeń wynosi 3,58 mln USD”.

    Finansowe skutki naruszenia ochrony danych mogą być odczuwalne jeszcze przez wiele lat po zdarzeniu. Składa się na to wiele elementów, takich jak działania związane z wykryciem i łagodzeniem skutków ataku, czy utrata przychodów z działalności. Do tego należy doliczyć straty wizerunkowe, utratę reputacji, odpływ klientów. Analiza długoterminowych kosztów wykazała, że średnio 61%  kosztu naruszenia ochrony danych było ponoszonych w trakcie pierwszego roku, 24% w trakcie drugiego roku, a 15% po upływie dwóch lat. Widać też, że im szybciej udaje się rozpoznać i powstrzymać naruszenie ochrony danych, tym mniejsze są związane z nim koszty.

    Z drugie strony, przyglądając się chociażby ostatnim atakom na takie firmy jak Garmin, Diebold Nixdorf, czy nawet prywatne uczelnie SWPS i Collegium Da Vinci (2)  i po lekturze niektórych forów, nawet tych bardzo profesjonalnych, nieodparcie nasuwa się pytanie o backup. Gdzie były kopie zapasowe? Dlaczego ich odtworzenie było problemem?

    Wydawałoby się, że zagadnienie tworzenia kopii zapasowych jest już dogłębnie omówione, dobrze znane, zbadane na wszystkie sposoby, żeby nie powiedzieć jest to temat tchnący banalnością. Trudno sobie wyobrazić kogoś, kto przeoczy tak ważny aspekt ciągłości działania infrastruktury IT.

    We wspomnianym raporcie IBM można przeczytać, że „złożoność systemu zabezpieczeń miała największy udział w kosztach spośród wszystkich 25 badanych czynników – zwiększała średni łączny koszt naruszenia o 292 000 USD […]. Trwająca w momencie naruszenia szeroko zakrojona migracja do chmury zwiększała koszt o ponad 267 000 USD do skorygowanego kosztu łącznego na poziomie 4,13 mln USD”.

    To może przewrotnie warto postawić pytanie, co się bardziej opłaca? Zapłacić okup, aby uzyskać klucz do zaszyfrowanych danych, czy inwestować w narzędzia do robienia np. kopii zapasowych?

    A jeśli backup nie był aktualny? Może zaatakowane systemy nie były objęte mechanizmami tworzenia kopii zapasowych? Może same kopie zostały zaszyfrowane? Tu prostych odpowiedzi nie ma. Backup jest jednym z elementów całego systemu cyberbezpieczeństwa i tego tematu lekceważyć nie można.  Tym bardziej, że widać silny trend do integracji narzędzi klasy Backup&Recovery z rozwiązaniami z zakresu bezpieczeństwa IT.

    Choć wdrażanie takich funkcjonalności w działającej infrastrukturze jest zadaniem trudnym i czasochłonnym, to programiści i projektanci  z IBM, dysponujący największym potencjałem wiedzy, doświadczenia i kreatywności,  postarali się o stworzenie narzędzia, które rzeczywiście może te procesy uczynić prostymi i przyjaznymi – a przede wszystkim bezpiecznymi. Mam tu na myśli system IBM Spectrum Protect. Trzeba przyznać, że jego funkcjonalność i możliwości robią wrażenie. Big Blue nie zawiódł pokładanych w nim nadziei.

    Po serii nieprzyjemnych wniosków płynących z raportu Cost of Data Breach 2020 miło zobaczyć, że IBM Spectrum Protect to sposób na w pełni bezpieczne i ekonomiczne tworzenie kopii zapasowych nie tylko lokalnie, ale także do środowisk chmurowych. Jest to szczególnie ważne w przypadku środowisk testowo-deweloperskich, które nigdy nie jest krytyczne dopóki są one dostępne. W przypadku całkowitej utraty takich danych na skutek cyberataku lub katastrofy typu pożar, powódź albo np. wybuch gazu gaśniczego, może się okazać, że trzeba ponownie ponieść znaczne koszty osobowe zespołów deweloperskich albo przygotować nowe wersje aplikacji.

    Wykorzystanie funkcjonalności chmury hybrydowej, czyli wykonywanie kopii bezpieczeństwa środowiska testowo-deweloperskiego bezpośrednio do chmury publicznej, może pozwolić na uniknięcie wielu dodatkowych kosztów. Mechanizm ten współpracuje z popularnymi środowiskami chmury, jak IBM Cloud, IBM Cloud Object Storage, Amazon S3 czy Microsoft Azure Blob. IBM Spectrum Protect wykorzystuje deduplikację danych podczas zapisu w celu efektywnego wykorzystania przestrzeni i przepustowości, a także mechanizmy szyfrowania służące do zabezpieczania danych.

    Dla wielu osób na pewno atrakcyjna okaże się funkcja automatyzacji wykrywania oprogramowania typu ransomware. Doświadczenia IBM związane z  technologiami sztucznej inteligencji (AI), uczenia maszynowego (ML), analityki, czy zautomatyzowanej orkiestrację działań (SOAR) pozwoliły na realizację bardzo intrygującego pomysłu. IBM Spectrum Protect, po wykonaniu operacji tworzenia kopii zapasowych, rozpoczyna analizę statystyk pod kątem zainfekowania oprogramowaniem wymuszającym okup.  W razie wystąpienia anomalii alarmuje administratora, dzięki czemu można szybko rozpoznać cyberatak typu ransomware.  Pozwala to na uniknięcie niezwykle niebezpiecznej sytuacji, w której, nieświadomie wykonujemy kopię zapasową już zainfekowanych lub wręcz zaszyfrowanych danych. Podniesienie się po takim ataku jest niezwykle trudne i czasochłonne, a czasami nawet niemożliwe. To praktycznie nokaut dla działu IT.

    We wspomnianym raporcie można przeczytać: „Naruszenia, które spowodowały zniszczenie danych wskutek destrukcyjnego ataku […](średni koszt 4,52 mln USD), i ataki szantażujące (4,44 mln USD) okazały się bardziej kosztowne w skutkach niż przeciętne naruszenie spowodowane atakiem z użyciem szkodliwego oprogramowania (4,27 mln USD) lub przeciętne naruszenie ochrony danych (3,86 mln USD )”. Jest się zatem o co bić.

    Funkcjonalność automatyzacji zadań związanych z replikacją danych do bezpiecznych, zdalnych ośrodków odtwarzania zapewnia kompleksową ochronę danych. IBM Spectrum Protect umożliwia  ich odzyskiwanie w sposób szybki i elastyczny z głównych i zdalnych ośrodków, co pomaga przywracać pojedyncze elementy, złożone systemy bądź całe centra przetwarzania danych.

    Oczywiście IBM Spectrum Protect nie jest żadnym panaceum, nie uzdrowi zawsze i wszędzie każdej firmy.  Stan zdrowia cyberbezpieczeństwa w raporcie IBM, pokazany jest jak na dłoni. Widać, że zabezpieczanie danych nie jest zadaniem łatwym i prostym. Powtarzające się ataki na największe i najzasobniejsze firmy tylko to potwierdzają.

    Dlatego wybierając rozwiązania z do ochrony i odtwarzania danych warto również zwrócić uwagę na wszelkie dodatkowe funkcjonalności pozwalające zabezpieczyć jeden z najcenniejszych zasobów każdej firmy, jakim są dane jej i klientów. Dzięki nowemu i innowacyjnemu podejściu takich firm, jak IBM, możemy być nieco spokojniejsi, że zadbamy o ich bezpieczeństwo na najwyższym możliwym poziomie.

    Źródła:
    (1)   https://www.ibm.com/security/digital-assets/cost-data-breach-report/#/
    (2)   https://niebezpiecznik.pl/tag/ransomware/

     

    Piotr Sękowski – IBM Polska
    Absolwent Akademii Ekonomicznej w Krakowie oraz studiów podyplomowych na kierunku telekomunikacja na Akademii Górniczo-Hutniczej w Krakowie.

    Posiada ponad 13 letnie doświadczenie w branży IT. Od 5 lat kieruje działem sprzedaży pamięci masowych w IBM.

     

     

     

    Daniel Wysocki

    Daniel Wysocki – Advatech Sp. z o.o.
    Daniel Wysocki ukończył studia na wydziale Inżynierii Mechanicznej i Robotyki na Akademii Górniczo-Hutniczej w Krakowie. Posiada 19 letnie doświadczenie w branży IT. Obecnie pracuje w firmie Advatech jako Security Specialist . Odpowiedzialny jest za dobór innowacyjnych rozwiązań z zakresu bezpieczeństwa IT, ze szczególnym naciskiem na możliwości wykorzystania sztucznej inteligencji i uczenia maszynowego.

  • 3 sposoby optymalizacji zarządzania firmą

    3 sposoby optymalizacji zarządzania firmą

    U podstaw każdego przedsiębiorstwa leżą zasoby i procesy. Te elementy wzajemnie na siebie wpływają, dlatego aby firma dobrze funkcjonowała, trzeba nimi odpowiednio zarządzać. Utrzymywanie kontroli nad dokumentami i przetwarzanymi informacjami to optymalizacja nie tylko pracy, ale także czasu i kosztów.

    Myśląc długofalowo o sprawnym działaniu przedsiębiorstwa, warto postawić sobie cele do zrealizowania. Jeśli chcemy przyśpieszyć pracę firmy, a jednocześnie mieć pewność, że żaden istotny element nie zostanie przeoczony przez pracowników, opracujmy system, który pomoże w kontrolowaniu każdego etapu działań zachodzących w firmie.

    O czym należy pamiętać

    Zmiany przyczyniają się do rozwoju. W przypadku biznesu to właśnie one sprawiają, że firmy stają się bardziej konkurencyjne. Istnieje jednak kilka czynników, które niezmiennie będą wpływać na przedsiębiorstwa.

    Jednym z podstawowych jest stale idąca do przodu technologia. Dzięki niej zadania wykonujemy szybciej i precyzyjniej, często także zmieniając sposób myślenia o danej branży. Technologia pomaga nam zatem dostrzegać nowe możliwości, których niedawno jeszcze nie mieliśmy.

    Rynek ulegający przeobrażeniom – to kolejny element, który nie może umknąć firmom. Niejednokrotnie zdarza się, że dane rozwiązanie wdraża coraz więcej przedsiębiorstw z branży, co wymusza tzw. dostosowanie się, aby nadążyć za wymaganiami konsumentów. Sytuacja może też wyglądać nieco inaczej – firma, jako pierwsza na rynku, zaczyna korzystać z rozwiązania, pokazując innym, że warto wprowadzić nowy system.

    Równie ważne są wszelkie zmiany w prawie oraz wchodzące w życie nowe ustawy i rozporządzenia. Każde przedsiębiorstwo powinno śledzić je na bieżąco i dostosowywać do nich swoje działania. Doskonałym przykładem tego, jak duży wpływ mają one na funkcjonowanie firm, jest chociażby RODO. Początkowo było ono postrzegane jako kolejna komplikacja, dziś jednak zgodność z tą regulacją jest już wpisana w funkcjonowanie przedsiębiorstw.

    Analiza dotychczasowych działań to pierwszy krok ku optymalizacji zarządzania firmą. Najczęściej po przemyśleniu okazuje się, że podstawowe problemy, z jakimi mierzą się na co dzień przedsiębiorstwa, wiążą się z dokumentacją, fakturami czy umowami. Istnieje jednak kilka sposobów na usprawnienie zarządzania tymi obszarami.

    1. Archiwizacja dokumentów

    Zarządzanie dokumentacją wymaga znajomości prawa, które jasno określa, jak należy je przechowywać oraz na co zwrócić uwagę w organizowaniu tego procesu. Prawo dopuszcza obecnie możliwość przechowywania dokumentów w formie elektronicznej, pozwalając tym samym ograniczyć ilość papieru używanego w firmie, a co za tym idzie – uczynić przedsiębiorstwo bardziej ekologicznym. Ponadto, dokumenty w tradycyjnej formie gromadzone są w teczkach czy segregatorach, które również zajmują cenną biurową przestrzeń.

    Szeroko pojęta cyfryzacja pozwala dziś stworzyć całe elektroniczne archiwa, a wszystko to w zgodzie z obowiązującym prawem. Przykładowo, tradycyjne faktury mogą być również przechowywane w formie elektronicznej, o czym mówi chociażby interpretacja dyrektora Krajowej Informacji Skarbowej z dnia 26 czerwca 2017 roku. Znalazła się w niej informacja, iż obowiązujące regulacje prawne dają możliwość przechowywania elektronicznych faktur w dowolny sposób. Może to być zapis elektroniczny na elektronicznych nośnikach danych, jeśli tylko pozwoli na szybkie ich odszukanie, zapewni autentyczność ich pochodzenia, czytelność i integralność treści oraz możliwość bezzwłocznego poboru na żądanie odpowiednich organów.

    – Częstym problemem w firmach jest konieczność szybkiego odnalezienia ważnego dokumentu. Korzystanie ze specjalnego archiwum elektronicznego, w którym zgromadzimy wszystkie niezbędne dane, pozwala go wyeliminować. Co ważne, uprawnieni pracownicy mają do niego dostęp w każdej chwili. Jeśli dodatkowo takie rozwiązanie pomaga też automatycznie odczytywać dane z faktur, to oszczędzamy czas poświęcany dotąd na ręczne wprowadzanie dokumentów wyjaśnia Krzysztof Wojtas, prezes zarządu BrainSHARE IT, producenta SaldeoSMART.

    2. E-teczki pracownicze

    W okresie pandemii, gdy nadal wiele firm działa w oparciu o zespoły hybrydowe lub pracuje z domu, szczególnie cenny staje się także dostęp do akt pracowniczych. Na ogół przechowuje się je zabezpieczone w biurach, jednak jeśli nie przebywamy codziennie w siedzibie firmy, to dostęp do ważnych dokumentów staje się utrudniony. Mnożące się przepisy dotyczące przechowywania danych również nie ułatwią firmom zadania.

    1 stycznia 2020 roku przedsiębiorców zobowiązano do przestrzegania nowych, bardziej restrykcyjnych norm. W pomieszczeniach, w których znajdują się akta pracownicze, należy zachować odpowiednią temperaturę i wilgotność. Ponadto, obecnie wymaga się codziennych pomiarów temperatury i wilgotności oraz zapisu otrzymanych wyników.

    – Wdrożenie e-teczek pracowniczych w przedsiębiorstwie sprawia, że te obostrzenia przestają nas dotyczyć. Elektroniczna dokumentacja wymaga jednak stosowania się do przepisów bezpieczeństwa, które jednoznacznie stwierdzają, iż dostęp do akt mogą mieć tylko uprawnione, wskazane przez pracodawcę osoby. Akta pracownicze są przy tym prowadzone systematycznie i zgodnie z wymogami ustawy. Pełne archiwum danych przydaje się w sytuacjach, gdy dobiega końca okres ważności badań lekarskich, pojawia się kontrola inspekcji pracy bądź należy przeprowadzić szkolenia BHP. Dzięki temu pracownicy działu HR czy kadr mają pod ręką wszystkie niezbędne informacjemówi Krzysztof Wojtas.

    Obecne rozwiązania technologiczne sprawiają zatem, że dostosowanie się do najnowszych przepisów wcale nie musi być żmudnym procesem. Wystarczy jedynie dostęp do internetu i oprogramowania oraz wyznaczenie konkretnych osób zajmujących się danymi.

    3. Faktury podstawą firmy

    Sprawne zarządzanie fakturami to bardzo istotny element każdego przedsiębiorstwa. Jeśli nie kontrolujemy ich przepływu oraz terminów ich płatności, możemy narazić się na problemy. Równie istotne staje się nie tylko archiwizowanie faktur, ale także ich wystawianie.

    Proces optymalizacji zarządzania firmą to także wystawianie faktur sprzedażowych. Nie ma znaczenia czy są to faktury VAT, czy faktury dla nie-vatowców. Ważne, aby wystawiać je w programie online, a nie ręcznie, dzięki czemu przedsiębiorca ma zawsze dostęp do pełnej listy wystawionych faktur. W codziennych działaniach pomocna jest też kontrola rozliczeń z kontrahentami oraz możliwość wysyłania przypomnień i wezwań do zapłaty.

    Systematyczne śledzenie finansów stanowi zatem punkt wyjścia do nadzoru nad innymi działaniami przedsiębiorstwa, pozwalając tym samym zaplanować kolejne kroki.

    Optymalizacja zarządzania przedsiębiorstwem nie musi być skomplikowana. Nowoczesne narzędzia sprawiają, że można tego dokonać w sposób kompleksowy, uprzednio planując cały proces. Stosowanie archiwizacji dokumentów w formie elektronicznej, e-teczek oraz wystawianie faktur za pomocą programu znacząco usprawnia działania firmy, zwłaszcza w warunkach pandemii, gdy dostęp do ważnych plików w dowolnym momencie staje się tak cenny. To również zmniejszone ryzyko pomyłek przy wystawianiu dokumentów, bezpieczniejsze działanie firm oraz systematyczne dopasowywanie się do najnowszych prawnych wytycznych.

  • Udając normalną aktywność: cyberprzestępcy wykorzystują legalne narzędzia w 30% udanych cyberincydentów

    Udając normalną aktywność: cyberprzestępcy wykorzystują legalne narzędzia w 30% udanych cyberincydentów

    W niemal jednej trzeciej (30%) cyberataków zbadanych w 2019 r. przez globalny zespół firmy Kaspersky ds. reagowania na cyberincydenty wykorzystywano legalne narzędzia zdalnego zarządzania i administracji. Dzięki nim sprawcy mogą pozostać niezauważeni przez dłuższy czas – średnia długość nieprzerwanych ataków cyberszpiegowskich oraz incydentów kradzieży poufnych danych to aż 122 dni. Dane te pochodzą z nowego raportu z analizy reagowania na incydenty firmy Kaspersky.

    Oprogramowanie do monitorowania i zarządzania pomaga administratorom IT wykonywać codzienne zadania obejmujące rozwiązywanie problemów oraz pomoc techniczną. Jednak takie legalne narzędzia mogą zostać również wykorzystane przez cyberprzestępców podczas przeprowadzania ataków na infrastrukturę firmy. Tego rodzaju oprogramowanie pozwala im uruchamiać procesy na punktach końcowych, uzyskiwać dostęp i wydobywać wrażliwe informacje, jak również obchodzić różne systemy bezpieczeństwa umożliwiające wykrycie szkodliwego oprogramowania.

    Z analizy zanonimizowanych danych dotyczących przypadków reagowania na incydenty wynika, że cyberprzestępcy wykorzystywali do swoich szkodliwych celów łącznie 18 różnych legalnych narzędzi. Najpopularniejszym okazał się PowerShell (25% przypadków). To rozbudowane narzędzie administracyjne może zostać wykorzystywane do wielu celów – od gromadzenia informacji po uruchamianie szkodliwego oprogramowania. Z kolei PsExec został wykorzystany w 22% ataków. Jest to aplikacja konsoli służąca do uruchamiania procesów na zdalnych punktach końcowych. Na trzecim miejscu uplasowało się narzędzie SoftPerfect Network Scanner (14%) służące do uzyskiwania informacji na temat środowisk sieciowych.

    Ataki przeprowadzone przy użyciu legalnych narzędzi są trudniejsze do wykrycia przez rozwiązania zabezpieczające, ponieważ wykonywane przez nie działania mogą stanowić zarówno element zaplanowanej aktywności cyberprzestępczej, jak i typowych działań przeprowadzanych przez administratorów. W przypadku ataków trwających ponad miesiąc średnia długość cyberincydentów wynosiła aż 122 dni. Unikając wykrycia przez tak długi czas, cyberprzestępcy mogli zgromadzić wiele wrażliwych danych ofiar.

    Eksperci z firmy Kaspersky zauważają jednak, że niekiedy szkodliwe działania wykonywane przy użyciu legalnego oprogramowania ujawniają się dość szybko. Dzieje się tak na przykład w przypadku ataku narzędzi szyfrujących ransomware, gdzie szkody są wyraźnie widoczne niemal od razu. Średnia długość takich krótkotrwałych ataków wynosiła jeden dzień.

    Aby uniknąć wykrycia i możliwie najdłużej pozostać niewidocznym w zainfekowanej sieci, atakujący powszechnie stosują oprogramowanie przeznaczone dla normalnej aktywności użytkowników, zadań administratorów oraz diagnostyki systemu. Dzięki takim narzędziom mogą gromadzić informacje o sieciach korporacyjnych, a następnie przeprowadzać dalsze działania związane z infekowaniem, zmieniać ustawienia oprogramowania i sprzętu itp. Mogą na przykład wykorzystywać legalne oprogramowanie do szyfrowania danych klienta. Legalne narzędzia mogą również pomóc przestępcom pozostać poza radarem analityków bezpieczeństwa, którzy często wykrywają atak, gdy szkoda została już wyrządzona. Zrezygnowanie z tych narzędzi nie jest możliwe z wielu powodów, jednak właściwie wdrożone systemy rejestrowania oraz monitorowania umożliwią wczesne wykrycie podejrzanej aktywności w sieci oraz złożonych ataków ­– powiedział Konstantin Sapronow, szef globalnego zespołu ds. reagowania na incydenty w firmie Kaspersky.

    W celu szybkiego wykrywania i reagowania na omawiane incydenty organizacje powinny rozważyć, między innymi, wdrożenie rozwiązania Endpoint Detection and Response z usługą MDR. MITRE ATT&CK® Round 2 Evaluation — ocena, której poddano różne rozwiązania, w tym Kaspersky EDR oraz usługę Kaspersky Managed Protection — może pomóc klientom wybrać produkty EDR odpowiadające konkretnym potrzebom ich organizacji. Wyniki ATT&CK Evaluation potwierdzają, że należy stosować wszechstronne rozwiązanie, które łączy w pełni zautomatyzowany wielowarstwowy produkt bezpieczeństwa z usługą ręcznego wyszukiwania zagrożeń.

  • Kaspersky oraz AVL Software and Functions rozwijają sterownik jazdy autonomicznej

    Kaspersky oraz AVL Software and Functions rozwijają sterownik jazdy autonomicznej

    Kaspersky informuje o pierwszej udanej integracji swojego systemu operacyjnego KasperskyOS z elektroniczną jednostką sterującą (EUC) zaawansowanego układu wspomagającego jazdę autonomiczną (ADAS) opracowanego przez AVL Software and Functions GmbH (AVL SFR). Ta jednostka sterująca stanowi otwartą i konfigurowalną platformę programistyczną przeznaczoną zarówno dla rozwoju prototypów, jak i rozwiązań produkcyjnych i jest „bezpieczna od podstaw”, ponieważ działa pod kontrolą systemu KasperskyOS. Bezpieczny system operacyjny firmy Kaspersky chroni w tym zastosowaniu komunikację pomiędzy komponentami ADAS oraz zabezpiecza wszystkie funkcje autonomicznego pojazdu. KasperskyOS gwarantuje, że niezdeklarowana funkcjonalność – niezauważona w momencie wypuszczania produktu lub wprowadzona za pośrednictwem aktualizacji systemowych – nie zostanie wykorzystana i nie wpłynie na działanie pojazdów autonomicznych.

    Automatyzacja w pojazdach stosowana jest po to, by ułatwić ludziom życie poprzez zwiększenie komfortu przemieszczania się, poprawę przepustowości dróg, czy po prostu możliwość zaoszczędzenia czasu podczas jazdy samochodem. Jednak jedna z głównych obaw osób, które podchodzą sceptycznie do tej technologii, dotyczy jej bezpieczeństwa. Odnotowano już kilka incydentów potwierdzających znaczenie cyberbezpieczeństwa w zapewnieniu bezpieczeństwa fizycznego, w których luki w zabezpieczeniach umożliwiły przejęcie kontroli nad samochodem przez cyberprzestepców. Firma Kaspersky kontynuuje swoje badania i rozwój rozwiązań oraz usług służących do zabezpieczenia pojazdów z funkcjonalnością ADAS poprzez współpracę z AVL SFR – członkiem największej na świecie niezależnej firmy z branży inżynierii motoryzacyjnej.

    W oparciu o nową platformę EUC firmy AVL SFR elektroniczna jednostka sterująca zaawansowanego układu wspomagającego zawiera dwa charakteryzujące się wysoką wydajnością procesory oraz sterownik bezpieczeństwa i zapewnia szerokie możliwości komunikacji – w tym połączenia z kamerami, lidarami i innymi powiązanymi komponentami. Platforma sprzętowa obsługuje również lokalną sieć sterującą oraz standardy motoryzacyjnych sieci komunikacyjnych, umożliwiając bezpieczny transfer danych między urządzeniami w pojeździe.

    W większości znanych przypadków cyberprzestępcy wykorzystywali błędy w kodzie, które niechcący pozostawili tam programiści. Takie rzeczy zdarzają się ze względu na to, że współczesne pojazdy stanowią złożone systemy, co utrudnia zarządzanie bezpieczeństwem wszystkich komponentów. Co więcej, systemy te są regularnie aktualizowane i bardzo istotne jest to, aby zmiany w jednym module nie wpłynęły na sposób działania pojazdu. System KasperskyOS zapewnia solidne odseparowanie komponentów w celu uniemożliwienia jakiejkolwiek niechcianej komunikacji. Interakcją między wszystkimi komponentami elektronicznymi steruje Kaspersky Security System, silnik reguł bezpieczeństwa w obrębie KasperskyOS. Monitoruje on uruchamianie procesów, jak również komunikację z systemem operacyjnym oraz pomiędzy wszystkimi komponentami.

    Jako nowy partner AUTOSAR, konsorcjum zajmującego się rozwojem standardów dla architektury oprogramowania motoryzacyjnego, firma Kaspersky stworzyła zestaw narzędzi programistycznych o nazwie Kaspersky Automotive Adaptive Platform. Przy pomocy tego zestawu AVL SFR może tworzyć aplikacje dla nowoczesnych pojazdów, łącznie z takimi, które nie wymagają kierowcy. Ten zestaw bibliotek pozwala również stosować inne oprogramowanie, które spełnia wymagania adaptacyjne AUTOSAR oraz działa w systemie KasperskyOS bez konieczności dodatkowych zmian. Pakiet Kaspersky Automotive Adaptive Platform jest gotowy do dostarczenia, a AVL SFR promuje swój moduł autopilota wśród kilku klientów z branży motoryzacyjnej.

    Jeśli chodzi o częściowo sterowane pojazdy autonomiczne, szczególnie istotne staje się zagwarantowanie bezpieczeństwa kierowcy, pasażerów jak również pieszych. Nawet w przypadku istnienia luk w zabezpieczeniach oprogramowania pojazdu wszelkie próby wykorzystania ich w celu spowodowania szkody nie powiodą się, ponieważ zostaną udaremnione przez nasz system operacyjny KasperskyOS. Cieszymy się, że możemy pracować jako partner AVL SFR nad sterownikiem autonomicznego kierowania pojazdem powiedział Grigorij Sizow, szef działu biznesowego odpowiedzialnego za rozwiązanie KasperskyOS.

    Wyrafinowana i złożona funkcjonalność w połączonych sterownikach o wysokiej wydajności, takich jak elektroniczna jednostka sterująca zaawansowanego układu wspomagającego, musi być chroniona przez rozbudowaną bazę bezpieczeństwa, zlokalizowaną na poziomie systemu operacyjnego. Samochodowy system operacyjny KasperskyOS został zaprojektowany w taki sposób, aby zapewnić warstwę zaufania dla bezpieczeństwa, dostępności, prywatności oraz niezawodności tych systemów kontroli podkreślił Dirk Geyer, odpowiedzialny za rozwiązania ochrony i bezpieczeństwa w firmie AVL SFR.

  • Jak zdalny dostęp pomaga dbać o infrastrukturę IT

    Jak zdalny dostęp pomaga dbać o infrastrukturę IT

    Obecnie dostęp do kluczowych zasobów przedsiębiorstwa znajdujących się w centrach danych jest utrudniony ze względów bezpieczeństwa, a firmy ze wszystkich branż zmagają się z zapewnieniem ciągłości biznesowej. Jeśli do tej pory nie wdrożyły rozwiązań umożliwiających zdalne zarządzanie zasobami przez ich zespół IT, przyszedł na to najwyższy czas. Jak pokazał trwający kryzys, sprawne funkcjonowanie zależy nie tylko od technicznych rozwiązań, ale również zasobów ludzkich.

    Bezpowrotnie minęły czasy, kiedy inżynierowie spacerowali po centrum danych, przysłuchując się szumowi pracującego sprzętu, reagując na alarmy i śledząc ekrany urządzeń.

    – Nadszedł moment, w którym firmy powinny zacząć wykorzystywać połączone systemy, aby mieć zapewniony lepszy wgląd w środowiska o krytycznym znaczeniu i wdrażać technologie, które pomogą dotrzymywać warunków umów dotyczących poziomu świadczonych usług – zauważa Krzysztof Krawczyk, IT Solutions Sales Manager w Vertiv Poland i wieloletni specjalista z dziedziny zdalnego dostępu do infrastruktury.

    Eksperci Vertiv podsumowali najważniejsze korzyści, jakie zapewnia zdalne monitorowanie w trudnych czasach globalnej pandemii:

    • Zastąpienie ludzkich zmysłów czujnikami – Wiele firm wdrożyło zaawansowane rozwiązania do monitorowania sieci i może rozbudować je o funkcje telemetryczne, które dostarczają istotnych informacji na temat odległych placówek, np. oddziałów. Systemy te mogą bezproblemowo monitorować warunki pracy sprzętu, takie jak niezawodność elektryczna, chłodzenie, stan akumulatorów oraz sygnalizować problemy wymagające szybkiej interwencji. Przedsiębiorstwa mogą również zwiększyć bezpieczeństwo fizyczne i śledzić próby nieautoryzowanego dostępu za pomocą kontaktronów, czujników ruchu i innych narzędzi. Informacje rejestrowane są i analizowane z wykorzystaniem jednego interfejsu, co zapewnia szybki podgląd w czasie rzeczywistym na sytuację w centrum danych.
    • Gwarancja bezpieczeństwa pracowników dzięki możliwości pracy zdalnej – Personel IT może zarządzać infrastrukturą sieciową oraz nadzorować operacje w centrum danych z bezpiecznego miejsca, np. z domu. Realizacja kluczowych obowiązków zapewniona jest dzięki bezpiecznym połączeniom z systemami zarządzania.
    • Centralizacja zarządzania zasobami IT – Administratorzy w firmach potrzebują dzisiaj, bardziej niż kiedykolwiek wcześniej, jednego pulpitu, który zapewni kompleksowe zarządzanie infrastrukturą centrum danych. Służące do tego celu scentralizowane oprogramowanie ułatwia dostęp do odpowiednich informacji oraz umożliwia standaryzację wykonywanych operacji, a przez to podniesienie efektywności pracy działu IT.
    • Zwiększenie bezpieczeństwa infrastruktury – Nawet duże firmy mają trudności z zarządzaniem rosnącą liczbą urządzeń, która sprzyja powstawaniu nieznanych dotąd luk i zagrożeń. Tymczasem zespoły IT muszą koncentrować się na strategicznych działaniach dla przedsiębiorstwa. Dlatego przydatne są rozwiązania, które pomogą firmom aktualizować oprogramowanie oraz zapewnić zgodność z obowiązującymi przepisami. Ważne jest także, aby mieć zapewnioną możliwość podglądu pracy starszych rozwiązań, które nie są zgodne z nowoczesnymi standardami szyfrowania oraz protokołami bezpieczeństwa.

    Zdalne monitorowanie to nie nowość – od wielu lat dostawcy usług zarządzanych i zespoły IT wykorzystują takie rozwiązania do zarządzania sieciami i krytyczną infrastrukturą, ochrony firmy przed nieplanowanymi przestojami i szybkiego reagowania na zmieniające się zagrożenia. Natomiast obecna sytuacja globalnego kryzysu sprawiła, że narzędzia umożliwiające takie czynności jeszcze bardziej zyskały na znaczeniu.

  • HPE Synergy w polskiej firmie Bielmar

    HPE Synergy w polskiej firmie Bielmar

    W momencie kiedy opóźnienia wynikające ze słabości systemów IT zaczęły spowalniać linię produkcyjną (i jednocześnie wzrost) firmy Bielmar, organizacja potrzebowała rozwiązania, które pozwoliłoby sprostać zmieniającym się wymaganiom rynku w czasie rzeczywistym – z większą wydajnością i mniejszymi liczbami błędów. HPE Synergy było oczywistym wyborem.

    Wyzwanie

    Za każdym razem, gdy ciasto czekoladowe wychodzi z piekarnika w Warszawie, istnieje duża szansa, że ​do wypieku użyty zostanie produkt Bielmar. Jako jeden z największych producentów tłuszczów roślinnych w Polsce, Bielmar (dokładniej Zakłady Tłuszczowe Bielmar Sp. z o.o.) jest właścicielem popularnych marek, takich jak margaryna Palma, produkty do smarowania Śniadaniowa i olej Beskidzki. Bielmar zaopatruje także krajowe hotele, restauracje, kawiarnie, piekarnie i zakłady cukiernicze w wysokiej jakości oleje i produkty powiązane. Bielmar jest jednym z nielicznych producentów w Polsce, który jest własnością jego pracowników, zespołem zaangażowanych profesjonalistów, którzy są motorem rozwoju firmy. W swojej prawie 90-letniej historii, firma Bielmar była znana z jakości swoich wytworów, skrupulatnych metod produkcji i praktyk zrównoważonego rozwoju. Jakiś czas temu firma zaczęła napotykać przeszkody, które utrudniały jej kolejny etap rozwoju.

    „Cenimy sobie jakość i niezawodność, ale tego właśnie oczekiwaliśmy od produktów HPE. Widzimy to jako cechę wyróżniającą HPE.” – Łukasz Greń, IT Manager, Bielmar

    Studium przypadku

    Powolne procesy w firmie spowalniały wzrost. W ostatnich latach sporadyczne opóźnienia łańcucha dostaw, brak widoczności zasobów produkcyjnych w czasie rzeczywistym oraz inne nieefektywności powstrzymywały Bielmar przed oczekiwanym wzrostem. Ilekroć w fabryce wystąpił nieoczekiwany przestój, trudno było szybko ustalić, czy przyczyną problemu była zepsuta maszyna, awaria zasilania czy inny problem. Bariery te ograniczały zdolność firmy Bielmar do wyprzedzania zmieniających się wymagań rynku i potrzeb klientów.

    „Zbyt mało informacji trwało zbyt długo.” – mówi Łukasz Greń, kierownik działu IT w Bielmar.

    Potrzeba wydajniejszych, opartych na chmurze systemów ERP, SCM i BI stała się jasna. Rola IT była kluczowa w przeniesieniu firmy w kolejny etap rozwoju.

    Rozwiązanie

    Gdy Bielmar przeszedł na systemy zarządzania w czasie rzeczywistym, potrzeba używania silnej i niezawodnej platformy sprzętowej stała się najważniejsza.

    „Nawet najmniejsze nieplanowane przestoje powodują dla nas poważne straty finansowe.” – mówi Greń, powołując się na potencjalną stratę całej partii produktu i surowców w tej partii.

    Co gorsza, taka strata może mieć wpływ na klientów, których własne linie produkcyjne zależą od tej partii. Firma Bielmar potrzebowała wyjątkowo niezawodnej i bezpiecznej platformy sprzętowej, aby w pełni wspierać planowanie ciągłości działania i zapewniać niskie wskaźniki celu odzyskiwania (RPO) i celu odzyskiwania (RTO). Zespół IT firmy Bielmar ściśle współpracował ze swoim zaufanym partnerem IT, ncNETcom, w celu znalezienia bezpiecznego, niezawodnego rozwiązania, które zapewniłoby maksymalną elastyczność przy możliwie najniższym nakładzie pracy administratorów. Ostatnim wymogiem było to, żeby infrastruktura pracowała bezawaryjnie pięć do siedmiu lat.

    „Tylko najnowocześniejsze rozwiązanie spełniłoby wszystkie nasze potrzeby.” – powiedział Greń. – „Zapewniono nas, że HPE Synergy jest w stanie zapewnić takie wymagania.”

    Zespół ncNETcom zapewnił również szeroki zakres usług, aby zapewnić kompleksowe, dopasowane do potrzeb rozwiązanie. Usługi te obejmowały:

    • Doradztwo biznesowe – zespół zweryfikował potrzeby biznesowe w zakresie wydajności, dostępności, elastyczności planów rozwoju, transferu wiedzy i łatwiejszego administrowania środowiskiem IT firmy Bielmar,
    • Architektura IT – ncNETcom zaprojektował architekturę IT, wdrożenie, instalację i konfigurację sprzętu i oprogramowania, stworzenie farmy VMware® oraz stworzenie środowiska dla baz danych IFS i Oracle,
    • Ciągłość biznesowa – zespół przewodził w obliczaniu czynników RTO i RPO oraz opracowaniu optymalnego planu odzyskiwania po awarii IT.

    Z pomocą ncNETcom, Bielmar zbudował swoje rozwiązanie HPE Synergy – w tym własną chmurę prywatną – na HPE Synergy i pięciu modułach HPE Synergy 480 Gen10 Compute z procesorami Intel® Xeon®. Całość jest zarządzana za pomocą oprogramowania HPE OneView, zintegrowane narzędzie do zarządzania IT, które pozwala zespołowi IT Bielmar efektywnie zarządzać wydajnością, pamięcią i siecią z jednego, intuicyjnego pulpitu. HPE OneView pozwala firmie Bielmar zautomatyzować obsługę administracyjną za pomocą szablonów, po to, aby zapewnić wysoką niezawodność, spójność i kontrolę, a ostatecznie pomóc w zmniejszeniu kosztów operacyjnych.

    „Zaletami tej platformy są łatwość i prostota administracji w połączeniu z automatyzacją procesów.” – Łukasz Greń, kierownik IT, Bielmar

    Rozwiązanie Bielmar obejmuje również platformę HPE BladeSystem c7000, serwer HPE ProLiant DL380 Gen10, HPE Synergy Image Streamer (w wersji beta) oraz pakiet rozwiązań pamięci masowej HPE, w tym jedną 4-węzłową macierz HPE 3PAR StoreServ 8400, jedną pamięć masową HPE 3PAR StoreServ 8200, dwóch 2-węzłowych macierz HPE 3PAR StoreServ 7200 i jednego systemu HPE StoreOnce 3540 do deduplikacji kopii zapasowych za pomocą systemu kopii zapasowych HPE Recovery Manager Central (RMC).

    Po wdrożeniu infrastruktury wszystkie nowe systemy przemysłowe i finansowe ERP firmy Bielmar (IFS) zostały zainstalowane na HPE Synergy. Dotyczy to także systemu bazy danych Oracle RAC, klastra SQL, farmy terminali, centrali telefonicznej, systemu poczty elektronicznej oraz  oprogramowania do zarządzania urządzeniami mobilnymi (MDM) i wirtualnej farmy VMware. W celu jak najszybszego uruchomienia rozwiązania opartego na nowej technologii, ncNETcom współpracował ściśle ze specjalistami z Hewlett Packard Enterprise, tak aby zapewnić dodatkowo warsztaty techniczne i szkolenia dla zespołu IT Bielmar i zapewniał stałe wsparcie. Firma dodała także usługi HPE Datacenter Care, HPE Adaptive Management, HPE Proactive Care i HPE Foundation Care Services, aby uzyskać dodatkowy dostęp do wiedzy i wsparcia HPE.

    Korzyści: Informacje biznesowe w czasie rzeczywistym

    Migracja na HPE Synergy uwolniło ogromny potencjał firmy Bielmar. Niemal natychmiast zespoły biznesowe Bielmar były w stanie generować analizy i raporty nawet o 60% szybciej – przez szybki, prosty dostęp do informacji i umożliwiając prawdziwe reakcje w czasie rzeczywistym.

    „Podejmowanie decyzji jest szybkie, ponieważ opiera się na bieżących wskaźnikach, umożliwiając dokładne odpowiedzi na zmieniające się warunki rynkowe.” – mówi Greń.

    HPE Synergy – i obsługiwane przez nią ulepszone systemy ERP – umożliwiły firmie dokonywanie szybszych, łatwiejszych i dokładniejszych prognoz biznesowych przy jednoczesnej optymalizacji wykorzystania wszystkich zasobów zakładu. Jednocześnie platforma HPE Synergy znacznie skróciła czas potrzebny na wdrożenie nowych pomysłów biznesowych – od wstępnej analizy do linii produkcyjnej. „Wdrożenie nowych rozwiązań trwało trzy razy szybciej niż wcześniej” – mówi Greń. Oprócz wpływu na biznes, HPE Synergy zmieniło codzienne życie zespołu IT Bielmar w wymierny sposób. Nowe rozwiązanie oparte na HPE Synergy skróciło czas administracji o 67%, zautomatyzowało zadania, poprawiło dokładność raportowania i umożliwiło administratorom dostosowanie raportów do ich indywidualnych potrzeb. Ponadto, mówi Greń „wyświetlanie środowisk programistycznych jest praktycznie zautomatyzowane”. Ogólnie rzecz biorąc, praktycznie wszystkie funkcje IT Bielmar są teraz szybsze i bardziej wydajne:

    • Maszyny wirtualne są uruchamiane w jednej trzeciej czasu – 10 sekund w porównaniu do 27 sekund,
    • Klonowanie jest prawie trzy razy szybsze – teraz kończy się w zaledwie 6 minut zamiast 17 minut,
    • Kopie zapasowe są tworzone prawie w połowie czasu – 3,5 godziny w porównaniu do 6 godzin,
    • Maszyny wirtualne można odzyskać w połowie czasu – kiedyś 80 minut w porównaniu do 40 minut teraz,
    • Odzyskiwanie bazy danych jest o 60% szybsze – teraz zaledwie 6 minut w porównaniu do 15 minut wcześniej,
    • Czas transferu przy użyciu HPE Synergy i VMware vSphere® vMotion® jest skrócony o 88% – z 75 sekund do 9 sekund.

    „Mamy teraz więcej czasu na produktywne działania.” – mówi Greń – „Możemy łatwiej identyfikować zagrożenia, nasz proces planowania jest prostszy, a operacje IT bezproblemowe, co prowadzi do niższego poziomu stresu. Platforma jest wydajna, elastyczna i prosta.” – dodaje.

    Bielmar przygotował się na czas ciągłego wzrostu i rozwoju, wspierany przez nowe rozwiązanie HPE Synergy.

    Dowiedz się więcej na hpe.com/synergy

    W skrócie o firmie Bielmar

    Po 90 latach wzrostu Bielmar, jeden z największych producentów tłuszczów roślinnych w Polsce, zaczął napotykać wąskie gardła informacyjne, które dezorganizowały produkcję i spowalniały kolejną fazę rozwoju. Firma potrzebowała lepszych systemów do analizy biznesowej i wydajnego, niezawodnego, możliwego do skomponowania rozwiązania do ich obsługi. Wraz ze swoim partnerem, ncNETcom, Bielmar zbudował swoje rozwiązanie na bezie HPE Synergy. Firma jest teraz w stanie zoptymalizować linię produkcyjną, sprostać zmieniającym się potrzebom klientów, reagować na zmieniające się wymagania rynku i wdrażać nowe rozwiązania biznesowe – z większą szybkością, mniejszym wysiłkiem i większą precyzją niż kiedykolwiek wcześniej.

    Rozwiązanie HPE

    • HPE Synergy 12000
    • Moduły obliczeniowe HPE Synergy 480 Gen10 z procesorami Intel Xeon
    • Obudowa HPE BladeSystem c7000 + serwery HPE ProLiant BL460c
    • Serwer HPE ProLiant DL380 Gen10
    • 4-węzłowy serwer HPE 3PAR StoreServ 8400
    • Pamięć masowa HPE 3PAR StoreServ 8200
    • Macierze HPE 3PAR StoreServ 7200
    • System HPE StoreOnce 3540
    • System kopii zapasowych HPE RMC
    • Streamer obrazu HPE Synergy (w wersji beta)
    • Usługi HPE OneViewHPE Pointnext
    • Opieka nad centrum danych HPE
    • Zarządzanie adaptacyjne HPE
    • Opieka proaktywna HPE

    Dzięki HPE Synergy firma Bielmar usprawniła produkcję produktów z tłuszczów roślinnych, dodała kontrolę w czasie rzeczywistym i umożliwiła rozwój na wyższym poziomie – przy 67% mniejszym zaangażowaniu czasowym w administrowaniu systemami.

  • Czy analiza danych zrewolucjonizuje służbę zdrowia?

    Czy analiza danych zrewolucjonizuje służbę zdrowia?

    Dzięki zintegrowaniu i analizie danych z różnych źródeł ochrona zdrowia w 2040 roku w niczym nie będzie już przypominać tej znanej obecnie – prognozuje Deloitte w raporcie „Future of Health”. Już dzisiaj 77 proc. lekarzy w Polsce korzysta przynajmniej z jednego rozwiązania w obszarze cyfrowych technologii medycznych lub aplikacji monitorujących stan zdrowia, a aż 82 proc. ogółu społeczeństwa chce mieć stały dostęp do swoich wyników i historii medycznych – takie wnioski płyną z raportu „Future Health Index” przygotowanego na zlecenie firmy Philips.  Wykorzystanie danych i wdrożenie rozwiązań sztucznej inteligencji umożliwi m.in. ocenę jakości i skuteczności leczenia, racjonalizację wydatków na służbę zdrowia czy prognozowanie z wyprzedzeniem stanu zdrowia pacjenta.

    Rozwój technologii cyfrowych i dużych zbiorów danych jest światowym trendem, który widzimy m.in. w Stanach Zjednoczonych i Europie Zachodniej. Obserwujemy go również na rynku kapitałowym, gdzie mówi się, że dane są nową walutą. Wielkie firmy, jak Google czy IBM, inwestują w obróbkę danych, algorytmy i technologie zajmujące się sztuczną inteligencją. Polska musi się w ten trend włączyć. Dlatego też kompetencje analityczne, które buduje zarówno NFZ, jak i Agencja Badań Medycznych czy Cyfrowe Zdrowie, to priorytet nie tylko rządu, lecz również wszystkich instytucji zajmujących się ochroną zdrowia – podkreśla dr Radosław Sierpiński, p.o. prezesa Agencji Badań Medycznych.

    Dane są nową ropą w gospodarce przyszłości – wskazuje Polski Instytut Ekonomiczny (PIE) we wrześniowym raporcie. Wartość gospodarki opartej na danych jest w Polsce szacowana na 6,2 mld euro (1,2 proc. udziału w PKB), a w 2025 roku może już wynieść między 7,9 a 12 mld euro. Jej liderami w Europie są Estonia i Wielka Brytania. Na wykorzystaniu danych swoją potęgę zbudowało wiele bigtechów, ale i państwa są właścicielem znaczących zasobów informacyjnych, które stanowią bezcenne źródło np. dla badań naukowych. W Polsce znajduje się ponad 700 różnych rejestrów, w których przechowywane są dane administracyjne. Ich integracja i odpowiednie wykorzystanie może wesprzeć rozwój gospodarczy, a wśród sektorów, które skorzystają na tym najbardziej, jest właśnie służba zdrowia.

    Najbliższy konkurs, który ogłosimy w przyszłym tygodniu, z budżetem sięgającym 200 mln zł, będzie dotyczył medycyny cyfrowej i rozwiązań telemedycznych. Te technologie optymalizują koszty w systemie ochrony zdrowia, m.in. podnosząc efektywność pracy lekarza. Z drugiej strony umożliwiają dużej grupie pacjentów dostęp do nowych rozwiązań. Liczymy, że liczba projektów w tym zakresie będzie naprawdę duża – mówi dr Radosław Sierpiński. – Równolegle budujemy w ABM specjalny pion analityczny, który bazując na dużych zbiorach danych, na ścieżkach pacjentów z systemu, ułatwi decydentom, np. na poziomie ministra zdrowia, wydawanie bardziej racjonalnych decyzji.

    PIE wskazuje, że szersze wykorzystanie danych w ochronie zdrowia pozwoli zmniejszyć jej koszty i zracjonalizować wydatki. Wskaże obszary, w których można wprowadzić oszczędności i będzie pomocne m.in. przy ustalaniu cen świadczeń medycznych i rehabilitacyjnych. Pozwoli również na ocenę skuteczności i jakości leczenia – na podstawie danych możliwe będzie np. wskazanie technologii medycznych efektywnych nie tylko klinicznie, ale też społecznie, tj. takich, które umożliwiają pacjentom powrót na rynek pracy, przynosząc potencjalny przyrost PKB.

    Pierwsze rozwiązania bazujące na wykorzystaniu danych powoli pojawiają się już zresztą w sektorze prywatnym.

    Pracujemy z wieloma start-upami, których zadaniem jest dostarczenie nowej jakości, zarówno dla lekarzy, jak i personelu medycznego. Przykładem jest system wspomagający podejmowanie decyzji medycznych, który na podstawie zebranych danych pomoże lekarzowi sprawdzić, czy diagnoza i podjęte przez niego decyzje były prawidłowe. W placówkach PZU Zdrowie mamy również wdrożone narzędzia, które pozwalają pracownikom infolinii czy serwisów internetowych online lepiej diagnozować pacjentów. Rozwiązanie „symptom checker” na podstawie objawów i algorytmów wskazuje prawdopodobne rozpoznanie chorobowe i odpowiednią ścieżkę dla pacjenta – mówi Paweł Żochowski, menedżer rozwoju usług medycznych w PZU Zdrowie.

    Potencjał danych w ochronie zdrowia dostrzegła już też m.in. Wielka Brytania, gdzie przez ostatnie dwa lata wdrażano program Digital Innovation Hub. Zbudowano go na podstawie danych medycznych udostępnionych w ramach UK Health Data Research Alliance. Za kwotę 37,5 mln funtów ma on stymulować nową falę innowacji w ochronie zdrowia, m.in. we wczesnej diagnostyce chorób.

    W Polsce nad wykorzystaniem ich potencjału pracuje Rada ds. Interoperacyjności, działająca w ramach Centrum Systemów Informacyjnych Ochrony Zdrowia. Interoperacyjność w informatyzacji zdrowia oznacza zdolność różnych podmiotów oraz używanych przez nich systemów teleinformatycznych i rejestrów m.in. do współdzielenia informacji. Rada opracowywała rekomendacje dla wdrożenia e-skierowania i elektronicznej dokumentacji medycznej, a teraz koncentruje się na rozwiązaniach z zakresu telemedycyny czy sztucznej inteligencji, które będą wspierały pracowników ochrony zdrowia.

    W obszarze cyfryzacji jest wiele zadań i one nie mogą być traktowane jako rozdzielne, ale uzupełniające się. W tej chwili mówi się o e-recepcie, e-skierowaniu, Internetowym Koncie Pacjenta, finalizowaniu platformy P1, ale e-rozwiązań jest znacznie więcej. Przykładem są systemy predykcji pogorszenia stanu zdrowia pacjenta, dzięki którym jesteśmy w stanie z kilkugodzinnym wyprzedzeniem przewidzieć, co zdarzy się z pacjentem, który leży na oddziale, i odpowiednio zareagować – mówi Michał Kępowicz, dyrektor ds. relacji strategicznych w Philips Healthcare. – Kolejne to np. Big Data, czyli wykorzystanie dużych zbiorów danych, które mogą wnieść znaczącą wartość do  zarządzania ochroną zdrowia na poziomie populacyjnym, jak i indywidualnym, czy w końcu wykorzystanie zaawansowanych systemów elektronicznego rejestru pacjenta, zawierających funkcjonalności, które pozwolą m.in. na redukowanie zdarzeń niepożądanych albo wesprą opiekę koordynowaną nad pacjentem.

    Jak podkreśla, w Polsce proces cyfryzacji służby zdrowia znacznie przyspieszył w ostatnich latach. Według CSIOZ plany dotyczące rozwoju e-zdrowia w 2020 roku obejmują m.in. wdrożenie e-skierowania w całym kraju, wymianę elektronicznej dokumentacji medycznej między podmiotami wykonującymi działalność leczniczą oraz rozwój Internetowego Konta Pacjenta o kolejne funkcjonalności.

    Barierą wciąż pozostaje jednak finansowanie. Jak wskazuje ekspert Philips Healthcare, w ujęciu globalnym nakłady na digitalizację ochrony zdrowia stanowią 25 proc. tego, co przeznacza sektor bankowy czy handlowy na cyfryzację swoich usług. Digitalizacja ochrony zdrowia potrzebuje zatem odpowiedniej motywacji do rozwoju, a jednym z nich są inwestycje oraz zachęty finansowe.

    Biznes ma już odpowiedzi na różnego typu zapotrzebowanie podmiotów, które są zainteresowane budowaniem nowej, cyfrowej rzeczywistości w ochronie zdrowia. Skupiamy się na inicjatywach i rozwiązaniach, które mogą taką realną wartość systemowi przynieść. To m.in. zaawansowany elektroniczny rejestr pacjenta, , współdzielone systemy wspomagające zdalną diagnostykę obrazową, Big Data, czyli duże zbiory danych zintegrowane z zaawansowaną analityką,  – wymienia Michał Kępowicz. – Biznes jest więc przygotowany na szeroki zakres oczekiwań różnych interesariuszy ochrony zdrowia. Ważne jest jednak, aby digitalizować i wdrażać nowe rozwiązania w sposób przemyślany i dobrze rozumiany przez wszystkie strony biorące udział w tym przełomowym dla naszego zdrowia procesie.

  • Użytkownicy obchodzą systemy bezpieczeństwa, aby wykonywać swoją pracę

    Użytkownicy obchodzą systemy bezpieczeństwa, aby wykonywać swoją pracę

    Cisco zaprezentowało wyniki badania mającego na celu poznanie zachowań i poziomu świadomości pracowników w kwestii cyberbezpieczeństwa. Ankieta objęła 2000 profesjonalistów z 19 krajów w Europie, na Bliskim Wschodzie, w Afryce i Rosji (region EMEAR), w tym z Polski.

    Badanie Cisco wykazało, że pracownicy często obchodzą systemy bezpieczeństwa, aby móc wykonywać swoje obowiązki. Przykładowo, w Hiszpanii przyznało się do tego aż 96% respondentów. Z kolei w Austrii takiej odpowiedzi udzieliło już tylko 60% specjalistów. Ten niekorzystny dla biznesu trend wynika z faktu, że źle wdrożone, rozproszone systemy bezpieczeństwa i skomplikowane polityki ograniczają działania kluczowych aplikacji oraz spowalniają pracę urządzeń. We współczesnych realiach biznesowych, gdzie często o powodzeniu działań decyduje szybkość reakcji, pracownicy wolą obejść system bezpieczeństwa niż nie wykonać zadania na czas. Eksperci Cisco podkreślają, że rozwiązanie tego problemu stanowią kompleksowe, spójne systemy bezpieczeństwa obejmujące całą organizację. Generują one jednolite powiadomienia przez co są przejrzyste dla użytkowników.

    Młodzi pracownicy omijają systemy bezpieczeństwa

    Jak wynika z badania Cisco, na chęć do stosowania się do reguł bezpieczeństwa wpływa wiek użytkowników. 65% użytkowników w wieku 18 – 24 lata przyznało się do obchodzenia systemów bezpieczeństwa. W przedziale wiekowym 35 – 44 lata było to już tylko 54% odpowiedzi, a w przedziale 55 i więcej 35%. Odzwierciedla to zmiany jakie zachodzą na rynku zatrudnienia. Eksperci Cisco zwracają uwagę na fakt, że firmy powinny dostosować zasady bezpieczeństwa do współczesnego stylu pracy tak, aby nie ograniczać pracowników i umożliwić im sprawne wykonywanie codziennych zadań.

    Wyniki badania pokazują jak niezwykle ważna jest użyteczność systemów cyberbezpieczeństwa. Jeżeli obsługa ich jest tak skomplikowana, że pracownicy obchodzą je, aby móc wykonywać swoją pracę, jak możemy oczekiwać, że będą one skutecznie chroniły organizację? Problem pogłębia brak świadomości cyberzagrożeń. Niezbędne jest wdrożenie w biznesie polityki „zero-trust”, która zapewnia uproszczony, spójny system bezpieczeństwa niezależnie od tego czy pracownicy pracują z siedziby firmy czy jakiegokolwiek innego miejsca – mówi Wendy Nather, szef działu CISO Advisory, Cisco Security.

    Niewielka świadomość zagrożeń

    Mimo, że o cyberzagrożeniach mówi się bardzo dużo, a kolejne cyberataki odbijają się szerokim echem w mediach, 20% uczestników badania Cisco nie była w stanie przytoczyć choćby jednego przypadku naruszenia bezpieczeństwa w ich lub innej organizacji. Ponadto, 15% specjalistów, którzy mogą pracować poza biurem nie wie, gdzie są przechowywane aplikacje, z których korzystają. Interesuje ich jedynie sprawne działanie programów. Może to oznaczać niską świadomość zagrożeń i potrzebę ciągłej edukacji pracowników np. poprzez symulacje cyberataków. Testowanie czujności pracowników np. poprzez celowe wysłanie przez zespół IT potencjalnie „zainfekowanego” maila pozwala przekonać się członkom organizacji jak łatwo paść ofiarą cyberataku.

    Wśród najczęściej wskazywanych przez respondentów cyberzagrożeń znalazły się:

    • wiadomości e-mail zawierające złośliwe oprogramowanie (33% odpowiedzi)
    • malware (25% odpowiedzi)
    • nieaktualne oprogramowanie (20% odpowiedzi)

    Najrzadziej wskazywano:

    • ataki DDoS (7% odpowiedzi)
    • zagrożenia wewnętrzne (9% odpowiedzi)
    • ransomware (9% odpowiedzi)

    Polacy nieco bardziej świadomi cyberzagrożeń

    Polscy pracownicy, w większości przypadków, również przyznają się do omijania systemów bezpieczeństwa w swoich firmach, aby móc wykonywać swoją pracę. Zdarza się to aż 74% uczestników badania Cisco z naszego kraju – ale i tak jest to mniejszy odsetek niż średnia odpowiedzi respondentów z regionu EMEAR. Tylko 14% przyznało, że robi to często (w porównaniu do 31% z regionie EMEAR), a 42%, że czasami (w porównaniu do 55% z regionie EMEAR). Potrzeby omijania zabezpieczeń nigdy nie odczuwało 26% polskich specjalistów, podczas gdy w pozostałych krajach takiej odpowiedzi udzieliło 23% uczestników badania. Może to wynikać z faktu, że dana organizacja nie posiada systemów bezpieczeństwa lub nie działają one we właściwy sposób. Respondenci z Polski byli bardziej świadomi cyberzagrożeń niż przeciętni uczestnicy badania z innych krajów. Tylko 13% osób nie była w stanie przytoczyć choćby jednego przypadku naruszenia bezpieczeństwa w ich lub innej organizacji. Najczęściej jako przykład podawano wiadomości e-mail zawierające złośliwe oprogramowanie (45%), a najrzadziej ransomware (8%).

  • Jak małe i średnie firmy przechowują dane?

    Jak małe i średnie firmy przechowują dane?

    18% polskich MŚP nadal przechowuje dane na komputerach pracowników, 35% używa do tego własnych serwerów fizycznych, a 24% – pamięci masowych. Z możliwości trzymania danych na serwerach współdzielonych lub wirtualnych korzysta 13% małych i średnich firm, a jedynie 10% z nich wybiera chmurę lub usługi online, jak wynika z raportu „Bezpieczeństwo przechowywania danych w MŚP” przygotowanego na zlecenie One System.

    Gdzie firmy przechowują dane

    Niepokoić może fakt, że prawie 1/5 badanych przedsiębiorstw przechowuje dane na komputerach pracowników.

    Ten sposób, stosowany najczęściej przez najmniejsze firmy, nieposiadające infrastruktury IT, daje najmniejsze możliwości ochrony danych i ich współdzielenia. A w zasadzie tych możliwości nie daje wcale. Dostęp do zapisanej na komputerze informacji ma najczęściej tylko jego użytkownik, tworzenie kopii zapasowych jest ograniczone (jeśli są one w ogóle robione, to zwykle przy użyciu przenośnych pamięci typu pendrive) – podkreśla Przemysław Sagalski, IT Solutions Architect w One System, firmie specjalizującej się w integracji systemów IT. – Zarówno komputer z danymi, którym jest najczęściej laptop, jak i pendrive z zapisaną ich kopią, mogą stać się przedmiotem kradzieży, która oznacza bezpowrotną utratę związanych z biznesem informacji, będących podstawą jego funkcjonowania – dodaje ekspert One System.

    Zdecydowanie bardziej profesjonalnie do ochrony i zapewniania dostępu do informacji podchodzą firmy, które przechowują dane na własnych serwerach fizycznych (35%) oraz własnych urządzeniach pamięci masowej (24%). Własna infrastruktura serwerowa oraz pamięciowa zapewnia łatwy dostęp do informacji i zasobów, gwarantując większe bezpieczeństwo danym – poprzez możliwość zastosowania spójnej polityki tworzenia kopii zapasowych w każdej małej i średniej firmie.

    Tylko 13% ankietowanych przechowuje swoje dane na współdzielonych lub wirtualnych serwerach. Wirtualizacja to technika znana już od wielu lat, która dowiodła swoich zalet. Pozwala ona uruchamiać wiele serwerów wirtualnych na jednym serwerze fizycznym, co przekłada się na lepsze wykorzystanie jego zasobów. Umożliwia zwiększenie ciągłości biznesowej i łatwiejsze odzyskiwanie po awarii. Ułatwia też zarządzanie. Przyczyną wciąż niewielkiego wykorzystania wirtualizacji w MŚP może być trapiący ten sektor brak kompetencji w obszarze IT.

    Nie dziwi za to niski odsetek przechowujących dane w chmurze lub w usługach online – 10%. Niejedno wcześniejsze badanie pokazało, że – jak dotąd – polskie firmy obawiają się chmury. Chcą wiedzieć, gdzie znajdują się ich dane, więc podejrzliwie podchodzą do usług, które – ich zdaniem – takiej kontroli nie dają.

    Częstotliwość zakupu serwerów w firmach

    Polskie MŚP wciąż wolą inwestować we własną infrastrukturę serwerową niż korzystać z usług oferujących przechowywanie danych na zewnątrz. W ciągu ostatnich 6 miesięcy nowy serwer kupiło 23% z nich, w ciągu ostatnich 12 miesięcy – 15%, a w ciągu ostatnich 2 lat – 13%. Ponad 2 lata temu w nowy serwer zainwestowało 32% badanych. Spora część mniejszych i średnich organizacji (35%) zamierza w najbliższym czasie rozwijać swoją infrastrukturę. Pozostać przy obecnym stanie posiadania chce 59% badanych, a zmniejszyć liczbę serwerów planuje 6%.

    Aby korzystać w pełni z bezpiecznego, szybkiego i niezawodnego oprogramowania dla biznesu, wspierającego jego innowacyjność, firmy potrzebują nowoczesnej infrastruktury IT, w tym serwerowej. Modernizacja nie jest po prostu wymianą starego sprzętu na nowy, o podobnych możliwościach. Wydajność procesorów co roku wyraźnie wzrasta, więc firmy, które nie odświeżają swoich serwerów, ryzykują, że ich krytyczne aplikacje i systemy biznesowe nie będą działać optymalnie. W efekcie zmaleje ich konkurencyjność na rynku. Nowoczesne serwery umożliwiają szybsze wprowadzanie nowych technologii, co przekłada się na korzyści biznesowe, takie jak zwiększenie wydajności pracowników, wprowadzanie kolejnych usług, lepsza obsługa klientów itp.

    Oczywiście, modernizacja wiąże się z pewnymi wyzwaniami związanymi z migracją i integracją systemów. Małe i średnie firmy, cierpiące na niedostatek wymaganych kompetencji z obszaru IT, mogą zwrócić się po pomoc do integratora mającego duże doświadczenie w rozwiązywaniu tego rodzaju problemów. Zaproponowane przez niego rozwiązanie powinno być „uszyte na miarę”, czyli odpowiednio wcześniej poprzedzone pomiarami, wywiadem technicznym i projektem.

    Pełna wersja raportu „Bezpieczeństwo przechowywania danych w MŚP” dostępna jest na stronie: https://www.onesystem.pl/?page=ebook

  • Cyfryzacja szpitali i związane z nią wyzwania

    Cyfryzacja szpitali i związane z nią wyzwania

    Na przestrzeni ostatnich kilkunastu lat rozwój systemów IT oraz technik obrazowania medycznego umożliwił powstanie nowych urządzeń stosowanych w diagnostyce i radiologii zabiegowej. Informacje gromadzone przez ten sprzęt pomagają we wczesnym rozpoznawaniu i leczeniu wielu schorzeń, takich jak choroby serca i neurologiczne, a także w diagnostyce ortopedycznej i raka, co znacząco podniosło poziom opieki medycznej.

    Rozwiązania bazujące na nowatorskich technikach oraz usługi telemedycyny wymagają do pracy infrastruktury, która umożliwia zintegrowanie systemów obrazowania z innymi urządzeniami cyfrowymi. Dzięki temu mogą funkcjonować w kompleksowym systemie do przechowywania obrazów diagnostycznych (zainstalowanym na specjalistycznych serwerach zlokalizowanych w placówce medycznej lub na platformie chmurowej) oraz udostępniania ich lekarzom dla celów diagnostyki i leczenia – w dowolnym czasie i miejscu.

    Placówki opieki zdrowotnej budują sieci wspierające połączone systemy, co przekłada się na tworzenie tzw. cyfrowych szpitali. Obejmują one:

    • system archiwizacji obrazu i komunikacji (Picture Archiving and Communication System, PACS) przechowujące wygenerowane obrazy oraz udostępniające je lekarzom w celu diagnozowania i leczenia;
    • radiologiczny system informacyjny (Radiological Information System, RIS) i szpitalny system informacyjny (Hospital Information System, HIS), które nie tylko monitorują i zarządzają przepływem prac oddziałów radiologicznych, ale także całych szpitali: przyjęciami pacjentów, tworzeniem harmonogramów, rozliczaniem i generowaniem elektronicznej dokumentacji medycznej oraz sprawozdawczości zarządczej;
      radiografię komputerową, która konwertuje analogowe klisze rentgenowskie na obrazy cyfrowe;
    • radiografię cyfrową, która dostarcza radiologiczny obraz cyfrowy;
    • drukarki laserowe i inne urządzenia peryferyjne, umożliwiające w razie potrzeby drukowanie klisz.

    Najważniejsze wyzwania, przed którymi stoją cyfrowe szpitale, to cyfrowa transformacja i rosnąca złożoność sieci. Wysoki stopień skomplikowania i integracji systemów szpitalnych powoduje, że działy IT placówek medycznych zmagają się z wieloma istotnymi problemami, które generują dodatkowe wymagania wobec – i tak już przeciążonej – infrastruktury informatycznej:

    1) Zapewnienie zgodności sieci i wszystkich jej komponentów z licznymi standardami regulacyjnymi. Wśród nich powinny znaleźć się normy i standardy: dotyczące obrazowania cyfrowego i wymiany obrazów w medycynie (DICOM), elektronicznej wymiany informacji w środowiskach medycznych (HL7), Międzynarodowej Organizacja Normalizacyjnej (ISO), Międzynarodowej Komisji Elektrotechnicznej (IEC), Organu Europejskich Regulatorów Łączności Elektronicznej (BEREC). Należy też wziąć pod uwagę obowiązujące przepisy krajowe.

    2) Konieczność obsługi nieprzerwanie napływających danych medycznych przy jednoczesnym wzroście liczby nowatorskich rozwiązań. Szpitale przechowują miliony coraz bardziej dokładnych, cyfrowych obrazów EKG i tomografii komputerowej. Prawie 90% danych generowanych w placówkach ochrony zdrowia pochodzi z obrazowania medycznego. Taka ilość przekracza ludzkie możliwości przetworzenia ich w użyteczną informację, a ponad 97% z nich nie jest poddawana dalszej analizie ani nie jest wykorzystywana[1]. Dlatego podmioty medyczne zaczynają wdrażać sztuczną inteligencję, która pomaga w identyfikacji zagrożeń i śledzeniu złożonych relacji oraz wzorców na obrazach. Prowadzona w ten sposób analiza wymaga wprowadzenia dużych ilości danych wejściowych, a to owocuje miliardami parametrów, które należy następnie zoptymalizować w fazie uczenia. Wymaga również zwiększenia mocy obliczeniowej serwerów niezbędnej w takim procesie. Te zaś do pracy potrzebują stabilnego i niezawodnego źródła zasilania elektrycznego.

    3) Zapewnienie dostępności obrazów diagnostycznych w każdym czasie i miejscu. Lekarze w trakcie leczenia muszą mieć zagwarantowany dostęp do najbardziej aktualnych zdjęć pacjenta przechowywanych w systemie PACS. W tej kwestii nie jest dopuszczalna żadna, nawet krótkotrwała przerwa. Co więcej, wymaga się jeszcze szybszej, sprawniejszej i niezawodnej dystrybucji danych. W tym scenariuszu krytyczną rolę odgrywa IT, a – co za tym idzie – jeszcze ważniejsza jest kwestia ciągłości zasilania. Architektura fizyczna obsługująca systemy HIS, RIS, PACS i inne sieci musi być niezawodna, skalowalna, wysoce dostępna i zarządzalna.

    Budowa solidnej infrastruktury, wspierającej cyfrowe systemy i sieci

    Infrastrukturę IT dla systemu PACS stanowią rozwiązania pamięci masowej i serwery montowane w szafach zlokalizowanych w serwerowniach lub centrach danych. Jak wskazują eksperci firmy Vertiv, wymagają one jednofazowego zasilania prądem przemiennym o napięciu 120/208 lub 230 V i mocy 10 kVA. A ponieważ serwery pracują w obudowach typu rack, to wyzwaniem staje się odpowiednie odprowadzanie ciepła z szaf.

    Rozwiązania wykorzystywane przez placówki ochrony zdrowia wymagają wyższego poziomu nadmiarowości i dostępności niż inny sprzęt. Współczynnik ten powinien wynosić 99,999%, co odpowiada nieplanowanemu przestojowi o długości 5 minut rocznie lub krótszemu – podkreśla Gerard Dermont, Head of Territory Sales Management w Vertiv Polska. – Aby zapewnić wysoką dostępność i niezawodność sprzętu do obrazowania medycznego i diagnostyki, w tym PACS, RIS, HIS i ich sieci, należy zwrócić szczególną uwagę na fizyczną infrastrukturę – dodaje.

    Największymi wyzwaniami są dla niej ciągłość zasilania, chłodzenie, przestrzeń fizyczna, zarządzanie i usługi. Ochrona w postaci zasilania gwarantowanego (UPS) zapobiega awariom oprogramowania urządzeń i znacznie zwiększa ich dostępność. Chłodzenie jest szczególnym problemem dla większych systemów diagnostyki obrazowej montowanych na podłodze, pamięci masowych o wysokiej gęstości i serwerów dla PACS, a także szaf RIS / HIS i szpitalnych szaf sterowniczych. W niektórych przypadkach wystarczający może być system HVAC budynku, wraz z odpowiednim podłączeniem do kanału, wentylacją i przepływem powietrza. Jednak w wielu sytuacjach wymagane jest dodatkowe chłodzenie w postaci klimatyzacji precyzyjnej.

    Innowacyjne technologie, takie jak PACS pomagają znacznie podnieść jakość i szybkość diagnostyki. W połączeniu z nowoczesnymi systemami informatycznymi, takimi jak HIS i RIS, dostarczają danych, które ratują życie, eliminują ryzyko popełnienia błędu ludzkiego i ograniczają koszty. Placówki medyczne stawiające na wydajne działanie tych systemów muszą przeorganizować swoją infrastrukturę IT i wdrażać odpowiednie rozwiązania gwarantujące stuprocentową dostępność.

    [1] Badania i analizy wg International Data Corporation
  • Firmowe centra danych – 5 powodów, dla których nadal konkurują z chmurą

    Firmowe centra danych – 5 powodów, dla których nadal konkurują z chmurą

    Chociaż specjaliści Gartnera odważnie prorokują śmierć firmowych data centers w ciągu najbliższych kilku lat oraz migrację 80 proc. firmowych danych do cloudu i dzierżawionych serwerów zlokalizowanych w profesjonalnych centrach danych[1], nadal istnieją obszary, nad którymi chmury, przynajmniej na razie, nie zawisną.

    Mimo rosnącego znaczenia rozwiązań cloudowych i hybrydowych, inwestycje w model on-premise, czyli lokalne środowisko IT, nie maleją. Według najnowszych danych IDC, światowe przychody rynku serwerów w ostatnim kwartale 2018 roku wzrosły o 12,6 proc. w stosunku do tego samego okresu poprzedniego roku i wyniosły 23,6 miliardów dolarów. Jednym ze źródeł tego wzrostu są m.in. rosnące potrzeby sprzętowe dostawców usług chmurowych. Jednak nie tylko oni potrzebują wydajnego środowiska lokalnego.

    Rozwiązania cloudowe są coraz chętniej wybierane przez biznes, jednak nie w każdej branży sprawdzą się równie dobrze – czy to ze względów prawnych, jak ma to miejsce w administracji publicznej, czy to ze względu na specyficzne wymagania techniczne i konieczność dostosowania ich do już istniejącej infrastruktury IT, jak dzieje się to na przykład w branży przemysłowej – wyjaśnia Przemysław Sagalski, IT Solutions Architect w One System, firmie specjalizującej się w integracji systemów IT. – Bezpieczeństwo, elastyczność, samowystarczalność czy szybki dostęp do danych to główne czynniki, dla których firmy, szczególnie te z sektora MŚP, nadal decydują się na budowę własnego data center i bardziej skłaniają się do rozwiązań hybrydowych, niż tylko bazujących na chmurach publicznych – dodaje.

    1.      Bezpieczeństwo danych

    Jednym z najważniejszych powodów, dla których firmy wciąż chętnie sięgają po rozwiązania on-premise jest kwestia bezpieczeństwa i pewność posiadania danych lokalnie. Dzięki temu nie tylko dokładnie wiemy, gdzie są one przechowywane i w jaki sposób chronione, ale też mamy pewność, że nie są nigdzie replikowane ani synchronizowane. Jest to istotne, zwłaszcza wtedy, gdy mamy dostęp do danych wrażliwych, jak dzieje się to w urzędach administracji publicznej.

    Niejasna sytuacja prawna dotycząca przechowywania danych w chmurze powoduje, że niewielkie urzędy czy jednostki samorządowe zwykle decydują się na stworzenie lokalnego środowiska IT, nawet jeśli ogranicza się to do zakupu i wdrożenia pojedynczego rozwiązania. – tłumaczy Przemysław Sagalski. – Prawdopodobnie w najbliższym czasie dojdzie do kolokacji serwerów do większych centrów danych będących w posiadaniu jednostek publicznych, ale nadal z wyłączeniem chmur publicznych.

    2.      Elastyczność w integrowaniu systemów IT

    Firmowe centra danych są także podstawą podtrzymywania kluczowych procesów wewnętrznych w firmach przemysłowych, także tych z sektora MŚP. Ich kluczową przewagą w porównaniu do rozwiązań w chmurze jest znacznie większa elastyczność w zakresie dopasowania rozwiązań on-premise do już istniejącej w przedsiębiorstwie infrastruktury IT, np. systemów automatyki przemysłowej. Własne centra danych pozwalają także na utrzymywanie bezpośredniego kontaktu z różnymi rodzajami maszyn i urządzeń, służącymi np. do sterowania produkcją lub jej nadzorowania. Rozwiązania cloudowe nie dają takiej możliwości – to klient musi się dostosować do konfiguracji, którą proponuje mu dostawca.

    Utrzymywaniem własnych zasobów obliczeniowych mogą być zainteresowane nie tylko zakłady produkcyjne, które posiadają infrastrukturę rozproszoną, czyli centra danych zlokalizowane przynajmniej w dwóch ośrodkach, ale też mali i średni przedsiębiorcy używający specjalistycznego oprogramowania, jak choćby sieć stacji diagnostycznych – dodaje ekspert One System.

    3.      Samowystarczalność

    Innym powodem, dla którego firmy przemysłowe wciąż chętnie inwestują we własne centra danych, jest lokalizacja zakładów produkcyjnych – często są one położone w miejscach oddalonych od dużych miast, gdzie dostęp do szybkiego łącza internetowego jest utrudniony. Taka sytuacja w praktyce uniemożliwia korzystanie z chmury w sposób efektywny, czyli zapewniający bezproblemowy transfer danych w każdym momencie oraz możliwość ich pobrania czy nadpisania. Lokalne środowisko IT pozwala także zachować niezależność od zewnętrznych dostawców, również tych zapewniających dostawy prądu.

    4.      Stały i szybki dostęp do danych

    Tworzenie lokalnych centrów danych umożliwia bezpośrednie podłączenie serwerów do sprzętu specjalistycznego oraz korzystanie ze zgromadzonych danych w dowolnym czasie, czemu dostawcy chmury nie zawsze są w stanie sprostać.

    Naturalnie wiąże się to również z czasem reakcji – zewnętrzny dostawca niekoniecznie musi zapewnić taki dostęp, na jakim nam zależy, może się to też wiązać z wielokrotnie wyższymi kosztami. Przerwy w dostępie do systemu mogą z kolei skutecznie zatrzymać całe linie produkcyjne i doprowadzić do ogromnych strat finansowych. Dotyczy to nie tylko dużych zakładów produkcyjnych, ale również mniejszych przedsiębiorców, takich jak np. producenci etykiet czy specjalistycznej odzieży, dla których każdy przestój w produkcji może powodować dotkliwe konsekwencje – mówi Przemysław Sagalski.

    Łatwy i szybki dostęp do danych jest ważny także dla całej rzeszy profesjonalistów IT, którzy sami oferują swoim klientom usługi softwarowe, jak micro cloudy, udostępnianie mocy obliczeniowej czy lokalne centra danych. Potrzebują oni sprzętu klasy Enterprise, aby zapewnić usługi, do jakich zobowiązali się w umowach z klientami.

    5.      Przechowywanie zbiorów multimedialnych o dużej objętości

    Kolejną ważną cechą rozwiązań bazujących na własnych centrach danych jest możliwość przechowywania zbiorów danych o dużej objętości, z jakimi mamy do czynienia na przykład w przypadku multimediów. Przed takim wyzwaniem stają m.in. firmy zajmujące się zarządzaniem budynkami, które przechowują nagrania pochodzące z CCTV, czyli telewizyjnych systemów dozorowych. Oznacza to również konieczność gromadzenia danych wrażliwych, takich jak wizerunek osób znajdujących się na nagraniach, które nie podlegają anonimizacji. Ze względów bezpieczeństwa tego typu pliki nie mogą być przechowywane w chmurze publicznej, natomiast lokalne zbiory danych są do tego celu jak najbardziej wskazane. W takich rozwiązaniach często wymagany jest duży transfer danych o obydwu kierunkach, co w przypadku rozwiązań chmurowych może być kosztowne.

    Skąd zatem wiadomo, które rozwiązanie wybrać: własne centrum danych, chmurę, a może coraz częściej stosowane rozwiązanie hybrydowe, czyli łączenie obydwu? Jeśli prowadzimy biznes charakteryzujący się dużą dynamiką w obszarze IT, to rozwiązania cloudowe, które umożliwiają okresowe dokupienie dostępnych zasobów, sprawdzą się idealnie.

    Dobrym przykładem będą tutaj sklepy internetowe, które zwykle obserwują zmieniający się poziom sprzedaży w różnych okresach roku – tłumaczy Przemysław Sagalski. – Jeśli natomiast mówimy o zastosowaniach w obszarach o specyficznych wymaganiach technicznych, w których usługi chmurowe nie będą wystarczające i nie mamy potrzeby dynamicznego skalowania dostępnych zasobów, nadal warto zainwestować w lokalne centrum danych. Obecne organizacje najczęściej mają duże zróżnicowanie wymagań, jeśli chodzi o już posiadane systemy, i model hybrydowy będzie dla nich najbardziej odpowiedni. Systemy o dużej dynamice trafią w takim modelu do chmury, te zaś bardziej statyczne, o specyficznych wymaganiach, pozostaną we własnym centrum danych – dodaje ekspert One System.

    [1] https://www.gartner.com/en/newsroom/press-releases/2018-12-04-gartner-identifies-the-top-10-trends-impacting-infras
  • Spotkanie Slider Technologies we Wrocławiu

    Spotkanie Slider Technologies we Wrocławiu

    11 października w siedzibie wrocławskiego Elektrotim S.A. odbyło się jedno z cyklu spotkań organizowanych przez Slider Technologies sp. z o.o. poświęcone systemom zasilania gwarantowanego. Warszawski integrator oferuje całe spektrum usług związanych z zagadnieniem, począwszy od audytu, doradztwa i projektu przez wykonanie aż po serwis wykonanych instalacji. Spółka Slider Technologies 15 maja br. rozpoczęła współpracę z Gamatronic Electronic Industries Ltd w zakresie dystrybucji zasilaczy modułowych Izraelskiego producenta. Elektrotim S.A. jest partnerem Slider Technologies od wielu lat i firmy zrealizowały wspólnie kilkadziesiąt projektów.

    Spotkanie otworzył Prezes Slider Technologies sp. z o.o., Piotr Butwiłowicz, witając wszystkich uczestników spotkania nakreślił agendę. Elad Rabi, Dyrektor Sprzedaży w regionie EMEA i wschodniej Afryki, przedstawiając blisko 50-letnie doświadczenie w dziedzinie energoelektroniki. Gamatronic jest jedną z wiodących firm na świecie w dziedzinie modułowych systemów zasilania gwarantowanego (UPS). Oferta tego producenta obejmuje modułowe systemy UPS, standardowe systemy UPS dostępne w szerokim zakresie wyjść, systemy energetyczne, systemy do kontroli, monitorowania i zarządzania, przemienniki modułowe AC/DC i DC/DC. Gamatronic od niedawna stał się częścią SolarEdge, światowym liderem systemów fotowoltaicznych, notowanym na NASDAQ.

    Slider Technologies to znana marka w Polsce. Firma ma głębokie zrozumienie branży i technologii, a zespół specjalistów wie, jak zaspokoić potrzeby techniczne i budżetowe swoich klientów. Postrzegamy nasz związek jako szansę na wygraną – dla klientów, dla Slider i Gamatronic. Naszym zamiarem jest zwiększenie naszej lokalnej obecności. Planujemy zaoferować naszą technologię UPS dla szerokiej gamy branż, w tym centrów danych, opieki zdrowotnej, przemysłu, finansów i innych aplikacji o krytycznych obciążeniach do 1,8MW.

    Zdolność Slidera do oferowania klientom rozwiązań pod klucz (generatory, chłodzenie, monitorowanie itp.), A także ich usług posprzedażnych sprawiają, że są oczywistym wyborem dla partnerów.

    Gamatronic jest wiodącym dostawcą energoelektroniki od prawie 5 dekad, oferując najlepsze w swojej klasie rozwiązania w zakresie ochrony zasilania dla aplikacji zależnych od mocy i krytycznych na całym świecie. Gamatronic oferuje pełen zakres rozwiązań zasilających pod jednym dachem dla wielu zastosowań, w tym centrów danych, komunikacji, opieki zdrowotnej, przemysłu, finansów, gospodarki morskiej, transportu, administracji, handlu detalicznego itp. Oferujemy najnowszą technologię UPS-ów o wysokiej sprawności energetycznej i dążymy do zapewnienia wysokiej jakości, bezpieczne i niezawodne systemy o dobrej wartości. Wszystkie nasze krytyczne komponenty są „wymienialne na gorąco”, co oznacza, że ​​system zaprojektowano tak, aby był utrzymywany bez przerwy w obciążeniu. Możesz go naprawić, gdy wciąż działa i tworzy kopię zapasową krytycznego obciążenia.

    W lipcu 2018 r. Działalność UPS Gamatronic została przejęta przez SolarEdge Technologies (NASDAQ: SEDG), światowego lidera w zakresie inteligentnych technologii energetycznych. Wykorzystując światowej klasy możliwości inżynieryjne, dużą obecność w Europie i na świecie oraz nieustannie koncentrując się na innowacjach, SolarEdge tworzy inteligentne rozwiązania energetyczne, które zasilają nasze życie i napędzają przyszłe postępy. SolarEdge opracował zoptymalizowane rozwiązanie DC inwertera, które zmieniło sposób zbierania i zarządzania energią w systemach fotowoltaicznych (PV). SolarEdge jest adresowany do szerokiej gamy segmentów rynku energii dzięki swojej zdywersyfikowanej ofercie produktowej, w tym do zastosowań w budynkach mieszkalnych, komercyjnych i na dużą skalę, do przechowywania akumulatorów i rozwiązań do tworzenia kopii zapasowych, ładowania akumulatorów elektrycznych, zarządzania energią domową, usług sieciowych i wirtualnych elektrowni oraz do nieprzerwanego zasilania (UPS ) rozwiązania. Siła finansowa firmy i jej stabilność w połączeniu z najnowszą technologią sprawiają, że SolarEdge jest preferowanym partnerem dla wiodących w branży instalatorów, integratorów i innych uczestników rynku energii. Ponadto w październiku 2018 roku ogłoszono, że SolarEdge przejął Kokam. Założona w 1989 roku firma Kokam produkuje akumulatory litowo-jonowe do magazynowania energii i na rynku UPS, dostarczając niezawodne, bezpieczne i wydajne akumulatory.

    To interesujący czas w Gamatronic. Połączone zasoby Gamatronic, SolarEdge i Kokam tworzą potęgę energoelektroniki – napędzają postęp inteligentnej energii i zmieniają sposób, w jaki świat produkuje i zużywa energię. Gamatronic może zaoferować najnowszą technologię związaną z zasilaniem awaryjnym krytycznych obciążeń, baterii litowych i urządzeń UPS oraz zapewniać rozwiązania dla wielu problemów, przed jakimi stoją firmy, w tym kwestie dotyczące powierzchni przeznaczonych na systemy zasilania gwarantowanego, ochrony środowiska, kosztów i żywotności baterii – powiedział Elad Rabi, Director of Sales EMEA and East Africa, Gamatronic Electronic Industries, Izrael

    Adam Krajewski, Key Account Manager z Slider Technologies sp. z o.o. przedstawił ofertę w zakresie UPS: począwszy od urządzeń SMB o mocach od 1 do 10kW, przez urządzenia średniej wielkości (Mid Range) o mocy od 10 do 100kW, skończywszy na największych (Large Facility Systems) o mocach aż do 1800kW. Systemy zasilające izraelskiego producenta pracują zarówno w data center, czy w serwerowniach korporacji, jak i w tak wyjątkowym środowisku, jak na statkach, lotniskach (łącznie z wieżą kontroli lotów) czy największych szpitalach, a biorąc na siebie gwarancję utrzymania ciągłości działania najbardziej kluczowych systemów, nierzadko warunkujących życie ludzi. Najważniejszą referencją Gamatronic jest zastosowanie urządzeń w izraelskiej armii.

    Wychodząc naprzeciw sugestiom użytkowników, Gamatronic dostosowuje swoją ofertę do aktualnych potrzeb klientów. Wysoka sprawność UPS jest jednym z głównych czynników technicznych, który ma znaczenie przy wyborze systemu zasilania. Coraz bardziej popularne stają się rozwiązania modułowe, które oszczędzają miejsce w serwerowniach. Klienci oczekują rozwiązań typu „inwestowanie wraz z rozwojem”, dlatego dużym atutem UPS Gamatronic jest możliwość rozbudowy wraz ze zwiększeniem zapotrzebowania mocy. Producent wprowadził również do oferty baterie litowo-jonowe, które są bardziej odporne na warunki pracy (wyższy zakres temperatur), oraz zajmują około 40 proc. mniej miejsca w serwerowni. – powiedział Adam Krajewski, Key Account Manager, Slider Technologies sp. z o.o.

    Kolejna część spotkania poświęcona była rozwiązaniu firmy Ostoya Data Systems, aktualnie części holdingu Elektrotim S.A. ZEW.SMS to  platforma zarządzania bezpieczeństwem umożliwiająca zarządzanie elementami integrowanych systemów różnych klas i różnych producentów, zgodnie z polityką bezpieczeństwa i planem ciągłości działania w organizacjach, w szczególności dużych zakładów przemysłowych. ZEW.SMS integruje elektroniczne systemy: sygnalizacji alarmu o włamaniu i napadzie, kontroli dostępu, sygnalizacji pożaru, telewizji CCTV, systemów automatyki budynku czy procesu technologicznego (BMS/ PMS/ DCS).

    Na koniec przedstawiciele Slider Technologies sp. z o.o. pozostawili „wisienkę” spotkania  – czyli zaprezentowali jak nie powinny wyglądać instalacje zasilania gwarantowanego i jak nie powinny wyglądać serwerownie w przedsiębiorstwach. Wadliwie zaprojektowana, niestarannie wykonana instalacja czy też brak wyobraźni pracowników może skutkować pożarem, kalectwem czy nawet śmiercią pracowników organizacji czy serwisantów. Instalacja trzech klimatyzatorów nad UPSem nie jest dobrym pomysłem….

    Na szczęście Slider Technologies jest profesjonalistą w swojej dziedzinie i zapewnia, że współpraca z nimi potrafi zapobiec przedstawionym sytuacjom.

  • Dell Technologies Forum – relacja z wydarzenia

    Dell Technologies Forum – relacja z wydarzenia

    W dniu 11.09.2018 w warszawskim Centrum Expo XXI odbyło się jedno z najbardziej efektownych (i zarazem tłocznych) wydarzeń roku, tj. Dell Technologies Forum.

    Joanna Falęcik, CEE Channel Services Sales Executive, Dell EMC – Forum Dell EMC to doskonała okazja do spotkania osobistego z obecnymi i potencjalnymi partnerami, możliwość zaprezentowania możliwości usługowych i wdrożeniowych klientom. Myślę, że formuła połączonej części targowej z panelami wykładowymi i dyskusyjnymi idealnie sprawdza się w przypadku tego typu spotkań.

    Spotkanie formalnie zaczynało się od godziny 10, ale kolejka do rejestracji ustawiła się już o godzinie 9, zmuszając gości do półgodzinnego oczekiwania na wydanie identyfikatorów i pakietów gościnnych. Przedstawiciele organizatora szacowali liczbę obecnych gości na blisko 2000 osób.

    Paweł Ryniewicz, Sales & Marketing Director Value+, ABC Data – Wydawać by się mogło, że w dobie webinarów, wideokonferencji i prawie darmowych rozmów telefonicznych idea targów czy wystaw nie ma już racji bytu. Tym większe było moje zdziwienie kiedy pół godziny przed rozpoczęciem Dell Technologies Forum 2018 ustawiłem się w kilkusetmetrowej kolejce do rejestracji. Niecodziennie mamy jednak możliwość w kraju nad Wisłą posłuchać na żywo jednego z bardziej znanych ale i kontrowersyjnych przedstawicieli światowego IT – Michaela Dell’a. Jego wystąpienie nie było tak porywające jak np. prezesa Microsoft ale dawało się słyszeć cechy, które powodują że Dell jest obecnie liderem w swoich kategoriach. Patrząc na liczbę gości eventu ale też obecne i przyszłe produkty firmy, nie wydaje mi się aby ktokolwiek mógł w tej chwili zagrozić pozycji numer jeden Dell.

    Impreza miała charakter targów, na której nowości ze swojej oferty przedstawiał główny organizator wraz z firmami należącymi do grupy, chociażby VM Ware oraz globalni sponsorzy technologiczni: Intel i Microsoft. Od razu do głowy przychodzi myśl, jak w przyszłości będzie się układać współpraca Dell EMC z Microsoftem, z którym konkuruje w kilku obszarach, z których na czoło wysuwa się wirtualizacja.

    Oprócz organizatorów i sponsorów globalnych w spotkaniu brali udział wszyscy „channel partnerzy”, czyli dystrybutorzy Della działający w Polsce i integratrorzy (m.in. Advatech, Komputronik Biznes, One System, Statim Integrator) oraz partnerzy merytoryczni i media, a także partnerzy merytoryczni, tacy jak np. CIONET. Każda z tych firm posiadała własne stoisko, przy którym można było porozmawiać i wymienić się doświadczeniami czy też nawiązać relacje biznesowe. Całą centralną cześć hali centrum targowego zajmowały stoiska organizatora, na którym prezentowane były rozwiązania z oferty grupy Dell EMC.

    Marcin Błaszczyk, B2B Sales Manager, Ingram Micro – Świetna formuła, niesamowita wręcz frekwencja i okazja do odświeżenia, czy też nawiązania nowych kontaktów biznesowych z partnerami. Cieszy fakt, że postawiono w dużej mierze na networking, dzięki czemu można potraktować tego typu event jako bardzo atrakcyjny dla wszystkich firm z branży IT, czy to dystrybutorów czy integratorów.

    Otwarcie Dell Terchnologies Forum przypadło Dariuszowi Piotrowskiemu, Dyrektorowi Generalnemu Dell EMC Polska, po nim zabrał głos sam Michael Dell, CEO & Chairman w Dell Technologies, na którego wystąpienie zapewne większość uczestników oczekiwała. Założyciel Della, będący ikoną świata IT, pokazał, iż Dell jest firmą oferującą praktycznie wszystkie klocki do budowy nowoczesnego środowiska IT, stając się producentem infrastruktury numer jeden na świecie. Myślę, że ambicje szefa Della są dużo większe i w niedalekim czasie możemy spodziewać się konkurencji na innych polach.

    Karol Krajewski, Regional Commercial Sales Director, STATIM Integrator – Będąc wieloletnim partnerem DELL EMC, jako integrator inwestujemy w rozwiązania i kompetencje naszego zespołu w dziedzinie wciąż rozwijającego się i bardzo obiecującego Open Networking dla Data Center, wpisującego się w trend SDN, pozwalającego na ochronę inwestycji naszych klientów.

    Następnym punktem konferencji była debata organizacji wspierających rozwój kompetencji niezbędnych do osiągnięcia sukcesu w cyfryzującym się biznesie pod tytułem „Redefinicja roli IT w dobie zmian technologicznych”, którą prowadził Marcin Morawski – Country Marketing Manager Dell EMC Polska oraz wystąpienie przedstawicieli globalnych sponsorów imprezy, tj. Wernera Schuelera, Enterprise Key Account Manager EMEA pt. „Kierowanie kolejną falą transformacji technologicznej – nowy kompas dla biznesu” i z Microsoftu Dyrektor Generalny polskiego oddziału firmy poświęcona rozwiązaniom Microsoftu w dobie cyfrowej transformacji i nowoczesnym miejscu pracy.

    Norbert Tokłowicz, Business Development and Marketing Director, Advatech Sp. z o.o. – Po raz kolejny jesteśmy partnerem Dell Technologies Forum. Na naszym stoisku promujemy głównie technologie hiperkonwergentne.  W 2017 roku jako jedna z pierwszych firm w Polsce wdrożyliśmy rozwiązania hiperkonwergentne-HCI u jednego z naszych klientów z sektora bankowego właśnie w oparciu o technologie Dell EMC oraz Vmware. Dzisiaj takich wdrożeń mamy za sobą kilka,  a nasi inżynierowie mają duże doświadczenie w tego typu wdrożeniach . Rozmowy, które odbyliśmy na Forum utwierdzają nas tylko w tym, że hiperkonwergencja to jedna z tych dziedzin IT, która w najbliższym czasie będzie się bardzo rozwijać.

    Po głównej części każdy z uczestników mógł wybrać prelekcje poświęcone transformacji IT, transformacji zatrudnienia (workforce), transformacji cyfrowej i transformacji bezpieczeństwa IT. Nie będę szczegółowo powtarzał treści wystąpień (bo też nie byłem w stanie fizycznie być w kilku miejscach na raz), ale pewne jest, że świat przyśpieszył i hasła big data, sztuczna inteligencja, internet rzeczy, globalizacja wirtualna i rozszerzona rzeczywistość to już nie slogany reklamowe czy wypowiedzi wizjonerów, ale biznes nie jutra, ale dnia dzisiejszego. Kto nie wsiądzie do pociągu digitalizacji, ten za parę lat nie będzie miał czego szukać w biznesie.

    Paweł Piętka, Prezes spółki S4E S.A. – Jesteśmy strategicznym Partnerem Dell EMC. Od lat wspólnie z partnerami budujemy markę wdrażając produkty wraz z pełnym wsparciem technicznym. Współpraca z dystrybutorem takim jak S4E to możliwość uzyskania różnorodnego wsparcia sprzedaży, począwszy na wsparciu działań marketingowych, sprzedażowych czy technicznych. Wspieramy naszych Partnerów na różnych polach – przygotowania i przeprowadzenia prezentacji produktowych dla Klientów naszych Partnerów, pomocy w dobraniu i wycenie dopasowanego rozwiązania, przygotowaniu i przeprowadzeniu testów sprzętu i oprogramowania czy finansowaniu sprzedaży. Oferujemy również kompleksowe wsparcie w zakresie nabywania kompetencji w dziedzinie rozwiązań Dell EMC dzięki katalogowi szkoleń produktowych.

     

    komputronik-biznes

    Sebastian Pawłowski, Vice President, Komputronik Biznes (na zdjęciu z Mirosławem Jasiakiem, Marketing Director, Komputronik Biznes) – Było nam niezmiernie miło uczestniczyć w Dell Technologies Forum. To niewątpliwie dobra okazja do interesujących spotkań z naszymi klientami i partnerami, a także do nawiązywania nowych relacji biznesowych. Przy okazji mogliśmy zaprezentować nasze autorskie rozwiązanie w obszarze Digital Signage – MovarchDS. Bezpośrednie spotkanie z Michael’em Dell’em było też okazją do ciekawej dyskusji o przyszłości IT.

     

  • ING korzysta z Navireo ERP

    ING korzysta z Navireo ERP

    ING Usługi dla Biznesu S.A. powierza zarządzanie usługą pełnej księgowości dla klientów banku ING systemowi Navireo ERP firmy InsERT. Wdrożenie oprogramowania umożliwiło rozszerzenie portfolio produktów grupy kapitałowej ING.

    ING Usługi dla Biznesu, tworząc usługę pełnej księgowości dla klientów banku ING, poszukiwała systemu, który zintegruje wszystkie procesy związane z jej obsługą. Szukała także sprawdzonych programów księgowych, które, stanowiąc merytoryczny trzon nowego produktu, będą w pełni współpracować z wdrożonym systemem zarządczym.

    Po analizie dostępnych na rynku rozwiązań, wybraliśmy Navireo ERP. Decydującym czynnikiem okazała się elastyczność systemu oraz możliwość dostosowania go do indywidualnych potrzeb tworzącej się firmy i naszych specyficznych usług. Postawiliśmy na rozwiązania sprawdzone i obecne na rynku od wielu lat – mówi Arkadiusz Kuczera, wiceprezes zarządu ING Usługi dla Biznesu S.A. odpowiedzialny za ING Księgowość.

    System umożliwił stworzenie zbiorczego zarządzania uprawnieniami oraz zakresem obsługiwanych podmiotów przez klienta, a także „podmiotów wzorcowych”, czyli charakterystycznych rozwiązań dla poszczególnych osobowości prawnych (sp. z o.o., fundacja itp.), rodzajów działalności (firma usługowa, produkcyjna itp.) i innych charakterystyk klientów.

    Operator w biurze rachunkowym nie pracuje na poszczególnym podmiocie, ale na dokumencie, przesyłanym z portalu. Dokument ten jest albo wypisywany przez operatora klienta albo importowany z systemu użytkowanego przez przedsiębiorcę w jego firmie.

    Poruszanie się w jednej aplikacji systemu Navireo, bez konieczności przełączania się na inne środowiska pracy, znacząco upraszcza pracę operatora w biurze księgowym, zwiększając jego wydajność. Informacje o obsługiwanych podmiotach są odseparowane w osobnych bazach danych.

    Nadzór nad wdrożeniem sprawowany był przez specjalistów firmy InsERT. Prace prowadzone były tzw. metodyką zwinną, dzięki czemu uruchomienie systemu nastąpiło już po około 3 m-cach od daty podpisania umowy. Sprawdzone systemy specjalistyczne zapewniają zgodność z przepisami prawa i pozostałe merytoryczne aktualizacje, dzięki czemu w pracach rozwojowych można skupić się na nowych funkcjonalnościach Navireo ERP, w tym optymalizacji czynności operatorów systemu.

  • Przemysł 5.0 widać już na horyzoncie

    Przemysł 5.0 widać już na horyzoncie

    Dzięki nowym technologiom świat rozwija się dziś szybciej niż kiedykolwiek wcześniej. Czwarta rewolucja przemysłowa trwa w najlepsze, tymczasem na horyzoncie widać już mglisty zarys kolejnej. Na wzór poprzednich stanowi ona mieszankę zdumiewających obietnic, ciężkich wyzwań i niechybnych konsekwencji. Jakie będą fabryki przyszłości? Na to pytanie szukamy odpowiedzi wspólnie z ekspertami z wrocławskiej firmy DSR, specjalizującej się w dostarczaniu zaawansowanych rozwiązań IT dla produkcji.

    O przemożnym wpływie wynalazków na społeczeństwo i gospodarkę przekonano się już pod koniec XVIII wieku, kiedy jak grzyby po deszczu zaczęły pojawiać się fabryki wyposażone w maszyny parowe. Efekty pierwszej rewolucji przemysłowej, polegającej na umaszynowieniu fabryk i manufaktur, widoczne były wszędzie. Ich siła popchnęła ówczesną gospodarkę ku gwałtownemu rozwojowi, który za sprawą nowych wynalazków przyspieszył gwałtownie w XIX wieku. Druga rewolucja przemysłowa przyniosła ze sobą elektryczność, która gruntownie zmieniła globalną gospodarkę. W fabrykach pojawiły się linie produkcyjne, co pozwoliło na uruchomienie przez przełomowe wynalazki. Żarówka, telefon, aparat fotograficzny, pojazdy silnikowe i radioodbiorniki – to wszystko pojawiło się w XIX wieku. Świat zmienił się nie do poznania, by 100 lat później przywitać kolejną rewolucję. Tym razem w jej centrum znalazły się informatyzacja i automatyzacja. Wraz ze zwiększającą się wydajnością taniejącego i coraz łatwiej dostępnego sprzętu komputerowego, firmy rozpoczęły wdrażanie systemów do planowania i kontroli oraz narzędzi umożliwiających sterowanie maszynami, co przyczyniło się do zwiększenia elastyczności i precyzji produkcji. Nowe rozwiązania informatyczne sprawiły, że producenci, jak jeden mąż, zwrócili się w kierunku automatyzacji.

    Zderzenie z rzeczywistością

    Podczas gdy trzy pierwsze rewolucje dzielił od siebie okres około stu lat, czwarta spadła na nas szybciej, bo zaledwie po pięciu dekadach. Poprzedziła ją faza intensywnej globalizacji, której towarzyszył offshoring, czyli przenoszenie produkcji do państw mniej rozwiniętych gospodarczo, takich jak Chiny czy Bangladesz. Przemysł 4.0 w dużym skrócie można zdefiniować jako dogłębną cyfryzację, a następnie dalszą automatyzację procesów zachodzących w przedsiębiorstwach poprzez implementację zaawansowanych systemów IT, przemysłowego internetu rzeczy, analityki danych i sztucznej inteligencji. – Dążymy do tego, by zespolić świat fizyczny z wirtualnym w sposób, który znacząco usprawnia działanie tego pierwszego. Taki poziom cyfryzacji wymaga nie tylko sporego budżetu, lecz także wprowadzenia fundamentalnych zmian w zarządzaniu przedsiębiorstwem. Zbieranie danych nie jest już sztuką. Wyzwanie polega na wyciąganiu z nich wartościowych wniosków, a to wymaga zmiany myślenia i utartych sposobów działania. Nagrodą są skok produktywności, wyższy poziom bezpieczeństwa, lepsza jakość i mniejsze marnotrawstwo – wyjaśnia Piotr Rojek, dyrektor zarządzający w DSR, firmie specjalizującej się w nowoczesnych rozwiązaniach IT dla przemysłu. Jego zdaniem wymiana informacji pomiędzy ludźmi, maszynami i systemami komputerowymi stanowi siłę czwartej rewolucji przemysłowej. Siłę, którą należy umiejętnie okiełznać, by przyniosła oczekiwane rezultaty.

    Tymczasem Zbigniew Piątek, który skrupulatnie bada zagadnienia związane z przemysłem 4.0 zaznacza, że obejmuje on cały łańcuch wartości: od złożenia zamówienia i dostarczenia komponentów dla trwającej produkcji, aż do wysyłki towaru do klientów i usług posprzedażnych. – Środowisko Przemysłu 4.0 wspiera załogę jak nigdy dotąd zapewniając dostęp do praktycznie każdej przydatnej informacji, w dowolnym czasie, z dowolnego miejsca, co umożliwia ekonomiczną produkcję zindywidualizowanych wyrobów i krótkich serii – zwraca uwagę Piątek i dodaje, że producenci, którzy wdrażają rozwiązania tej klasy mogą obniżyć koszty produkcji i w bardziej elastyczny sposób reagować na zapytania klientów. Największe wrażenie robi jednak sposób, w jaki nowoczesne systemy IT wykorzystują dane, spływające z hali produkcyjnej, do optymalizacji procesów, redukcji zastojów i eliminacji wadliwych partii. – Potrafimy zmniejszyć lub nawet całkowicie wyeliminować zjawiska obniżające jakość wyrobów i podwyższające koszty produkcji. Jest to możliwe dzięki mierzeniu oraz poddaniu analizie komputerowej w czasie rzeczywistym wielu parametrów technologicznych. W podobny sposób działa analityka predykcyjna, w której wykorzystanie np. specjalnych czujników drgań harmonicznych i analiza strumienia danych daje szerokie możliwości w zakresie wykrywania i identyfikacji konkretnych usterek, zanim dojdzie do uszkodzenia całej maszyny i w konsekwencji wstrzymania procesu produkcyjnego – tłumaczy Jan Skowroński, R&D manager w DSR.

    Mimo, że czwarta rewolucja przemysłowa trwa w najlepsze, większość firm wciąż znajduje się w jej początkowym stadium. – Robimy wszystko, aby zyskać siłę roboczą na miarę czwartej rewolucji przemysłowej – pod tym zdaniem podpisało się 86 proc. managerów wyższego szczebla w najnowszym badaniu przeprowadzonym przez Deloitte. Mimo szczerych chęci i licznych działań mających wprowadzić firmy produkcyjne na tory cyfrowej transformacji, efekty pozostawiają wiele do życzenia. Okazuje się bowiem, że zaledwie 14 proc. ankietowanych uznaje swoje przedsiębiorstwo za w pełni gotowe na wyzwania przemysłu 4.0.

    Powrót do przyszłości

    Tempo w jakim producenci implementują idee czwartej rewolucji przemysłowej, mimo że nie spełnia ona oczekiwań dostawców technologii, wcale nie jest ślimacze. To świat pędzi z niespotykaną dotychczas prędkością. Trudno za nim nadążyć realizując projekty wymagające gigantycznych nakładów finansowych i gruntownych zmian organizacyjnych w spowalnianych przez korporacyjne wymagania i procedury przedsiębiorstwach. Pikanterii całej sprawie dodaje fakt, że coraz częściej mówi się o przemyśle 5.0, który – jeśli wierzyć futurystycznym wizjom ekspertów – zmieni fabryki nie do poznania.

    Siłą napędową piątej rewolucji przemysłowej mają być technologie kognitywne, umożliwiające maszynom wykonywanie zadań, które dotychczas zarezerwowane były wyłącznie dla ludzi. Doskonale widać to na przykładzie rozpoznawania obrazów i interpretowania mowy. Za sprawą technologii kognitywnych inteligentne roboty mają pracować u boku człowieka w całkowitej harmonii – nawet w małych i średnich zakładach produkcyjnych. Efektem kolaboracji ludzi z tzw. co-botami ma być szeroko zakrojona automatyzacja, w której rola tych pierwszych ulegnie sporej zmianie. Mimo, że nad automatyzacją od zawsze unosi się widmo bezrobocia, to przemysł 5.0 skutecznie je przegania, wydobywając to co najlepsze z ludzi i robotów. Żmudne, powtarzalne czynności spadną na maszyny, podczas gdy pracownicy z krwi i kości zajmą się tym co kreatywne, wymagające krytycznego myślenia, przewidywania i dozy wrażliwości. – Dziesięć lat temu rodzice mówili swoim dzieciom, by nie szły do pracy w fabrykach. To wielka szkoda, ponieważ właśnie w nich dokonuje się postęp i rodzą innowacje. Przemysł 5.0 sprawi, że fabryka stanie się miejscem, gdzie kreatywni ludzie znajdą dla siebie miejsce – Esben Østergaard, chief technology officer w Universal Robots. Istotny dla rynku pracy jest również fakt, że roboty nie obejdą się bez konserwacji i jak na razie są w tej potrzebie całkowicie zdane na naszą łaskę. Im więcej maszyn, tym więcej napraw, a co za tym idzie – większe zapotrzebowania kadrowe.

    Przygotowanie co-botów do wykonywania nowych zadań i działania w różnorodnych środowiskach pracy ma być niezwykle proste. Przyczynią się do tego zaawansowane algorytmy uczenia maszynowego, łatwe w obsłudze interfejsy oraz systemy ręcznej kontroli, które można wykorzystać, by nauczyć robota wykonywania określonych czynności. Taka forma programowania odbywa się przez zapamiętywanie sekwencji ruchów wykonanych przez człowieka i nie wymaga konwencjonalnego kodowania. – Takie maszyny są już dostępne na rynku, potrafią poruszać się tak, by nie stanowić zagrożenia dla ludzi, a dla bezpieczeństwa producenci wyposażyli je w specjalne ochraniacze. Z tego samego powodu siła, z jaką wykonują zadania została mocno ograniczona. W przyszłości będziemy oglądać je coraz częściej, na razie jednak wciąż stanowią niszę. To technologia, która dopiero raczkuje i potrzeba czasu, by rozwinęła się na tyle, by mogła w pełni sprostać naszym oczekiwaniom – ocenia Piotr Rojek.

    DNA robi różnicę

    Gdy to nastąpi, harmonijna współpraca ludzi z inteligentnymi robotami wyniesie przedsiębiorstwa produkcyjne na nowy poziom personalizacji. Takiego zdania jest Esben Østergaard, który w przemyśle 5.0 dostrzega szansę na aprecjację kapitału ludzkiego, jako elementu nadającego wartość wytwarzanym produktom. – To właśnie spersonalizowanych produktów konsumenci pożądają najbardziej i są gotowi zapłacić więcej za takie, które noszą charakterystyczne znamię ludzkiej troski i kunsztu, np. piękne zegarki czy piwo rzemieślnicze – zauważa Østergaard. Według niego takie produkty mogą powstać wyłącznie przy zaangażowaniu człowieka. Ten ludzki dotyk ma być tym, czego poszukują konsumenci, gdy chcą wyrazić swoją tożsamość poprzez kupowane produkty. Zdaniem Østergaarda nie przeszkadza im to, że automatyzacja jest częścią procesu produkcyjnego, pod warunkiem, że produkt końcowy posiada osobisty odcisk projektantów i rzemieślników, tworzących coś wyjątkowego i niepowtarzalnego. – To jest personalizacja. To jest poczucie luksusu. To jest przyszłość! – ekscytuje się współzałożyciel Universal Robots. Kiedy ona nadejdzie? Na to pytanie nie ma jednoznacznej odpowiedzi.

    Z badania przeprowadzonego przez Accenture wiadomo, że dominująca większość z 512 przepytanych kierowników produkcji z Ameryki Północnej, Europy i Azji widzi miejsce dla współpracy z inteligentnymi robotami w najbliższej przyszłości. 85 proc. respondentów przewiduje, że integrujące ludzi i maszyny środowiska pracy staną się powszechne już w 2020 roku. Tego hurraoptymistycznego nastroju nie podziela Piotr Rojek, który współpracując z polskimi i europejskimi producentami przemysłowymi dokładnie analizuje poziom ich cyfryzacji. – Z przemysłu 4.0 mamy do odrobienia ogromną pracę domową. Mimo, że penetracja IIOT postępuje dość szybko, to wciąż większość wdrożeń jest w powijakach. W firmach, które inwestują w nowe technologie zazwyczaj funkcjonują różne, rozproszone systemy IT. Brakuje holistycznego podejścia, wizji i dojrzałości. Jest wprawdzie duży potencjał, jednak mało kto go wykorzystuje. Nim wejdziemy w przemysł 5.0 musimy zrobić użytek z jego poprzedniej odsłony, a na to potrzebujemy jeszcze sporo czasu – kwituje dyrektor zarządzający w DSR.

  • Przemyślana przestrzeń pracy – nowoczesne meble biurowe

    Przemyślana przestrzeń pracy – nowoczesne meble biurowe

    Tworzenie przestrzeni biurowych w myśl koncepcji open space już dawno stało się w Polsce standardem. Takie rozwiązanie miało wpłynąć na polepszenie komunikacji między pracownikami, a co za tym idzie, doprowadzić do zwiększenia efektywności ich pracy oraz szybszej realizacji wyznaczonych zadań.

    Znaczna część pracowników ma jednak problemy z przystosowaniem się do działania w takich warunkach – brak koncentracji, rozproszona uwaga i trudności z zebraniem myśli – chyba nie ma osoby, która nie doświadczyła takiego stanu w miejscu pracy. Projekty, które wymagają konsultacji zespołowych zdarzają się często, faktem jest jednak, że większość czasu spędzanego w biurze poświęcona jest na pracę indywidualną. Warto więc zapewnić wszystkim pracownikom komfortowe warunki, tak, aby ci którym lepiej pracuje się w ciszy i spokoju, ale także ci potrzebujący chwili prywatności i możliwości skupienia mogli chociaż na chwilę odizolować się od biurowego zgiełku, aby szybciej, a być może nawet lepiej wykonywać swoje obowiązki. Naprzeciw tym oczekiwaniom wychodzą dzisiaj firmy zajmujące się produkcją mebli biurowych, proponując nowoczesne rozwiązania, które sprawdzą się w niemal każdej przestrzeni pracy.

    System HUSH Work, czyli meble biurowe w zabudowie do pracy indywidualnej

    Aby sprostać pojawiającym się potrzebom związanym z pracą indywidualną powstają specjalne, wyciszone systemy mebli biurowych gwarantujące pracownikowi prywatną przestrzeń. Kompaktowe stanowiska, a więc takie, które zawierają kilka elementów we wspólnej obudowie dają się wkomponować w dowolnie zaaranżowane biuro. Jaka więc jest, jak wygląda i co zawiera konstrukcja typu HUSH Work?

    • Kabina wykonana z lekkiej i ekologicznej płyty komórkowej, oraz hartowanego szkła, które zapewnia dostęp do naturalnego światła dziennego; od wewnątrz wyłożona tapicerką
    • Posiada system aktywnej wentylacji, która uruchamia się dzięki czujnikowi ruchu
    • Wpływa na poprawę akustyki na dużej przestrzeni poprzez załamywanie fal dźwiękowych
    • Wyposażona w panel LED oraz panel gniazd elektrycznych
    • W skład wyposażenia wchodzą: biurko, miejsce siedzące oraz wieszak na bagaż podręczny

    Meble biurowe jako element identyfikacji wizualnej firmy

    Taki projekt zapewnia dużą swobodę, jeśli chodzi o personalizację stanowiska – kolor tapicerek i mebli można dopasować do potrzeb, a jego nowoczesny design kreuje nową, atrakcyjną przestrzeń – jest to szczególnie ważne dla firm przykładających wagę do employer brandingu, do którego zaliczają się m.in. spójna identyfikację wizualna i przyjazne otoczenie. W parze z wrażeniami wizualnymi idzie również funkcjonalność, dlatego salony mebli biurowych we Wrocławiu proponują nie tylko stworzenie pojedynczych stanowisk, ale także całych ciągów komunikacyjnych mebli biurowych, które zapewnią komfortowe środowisko do pracy i usprawnią jej wykonywanie – http://www.mikomaxsmartoffice.pl/salony/wroclaw/53-653.

  • Sharp przedstawił nowe możliwości rozwoju

    Sharp przedstawił nowe możliwości rozwoju

    Podczas Inspire Expo 2018, międzynarodowego wydarzenia dla partnerów biznesowych, Jeff Ashida, President Sharp Europe, przedstawił rozwiązania inteligentnej technologii biurowej, które pomogą partnerom firmy zwiększyć zyski teraz i w przyszłości.

    Inspire Expo 2018 trwało od 15 do 18 stycznia i odbyło się w centrum konferencyjnym International Conference Centre w Edynburgu. W wydarzeniu wzięli udział ponad 600 przedstawicieli handlowych Sharp z ponad 40 krajów.

    Za pomocą prezentacji oraz wystaw interaktywnych firma Sharp pokazała, jak może pomóc swoim partnerom handlowym rozwijać ich działalność, wykorzystując nowe, globalne porozumienia i partnerstwa biznesowe.

    Sharp zaprezentował 15 nowych urządzeń (wszystkie wejdą do sprzedaży do marca 2018 roku), w tym całkowicie odświeżoną ofertę urządzeń wielofunkcyjnych A3 do druku czarno-białego, nowe modele urządzeń A4, systemy do druku produkcyjnego oraz nowy monitor  interaktywny BIG PAD. Firma podzieliła się również swoją wizją inteligentnej sali konferencyjnej, demonstrując sterowanie monitorem interaktywnym za pomocą głosu.

    W sali wystawowej do firmy Sharp dołączyło dziewięciu wystawców z firm partnerskich. Jednym z nich był producent dystrybutorów wody pozyskujących ją bezpośrednio z powietrza. Firma Skywell ma w planach sprzedawanie swoich produktów w Europie od 2018 roku we współpracy z Sharp.

    W przemówieniu inauguracyjnym Jeff Ashida opowiedział, że firma Sharp aktywnie inwestuje w nowe sektory technologii, w których może uplasować się na pozycji światowego lidera. Dzięki działalności związanej z badaniami i rozwojem, na przykład z platformą AIoT (połączeniem sztucznej inteligencji i koncepcji „Internet of Things”) oraz jakością 8K, Sharp opracowuje połączone technologie wspierające nowe sposoby życia i pracy.

    Od naszego ostatniego, flagowego wydarzenia dla partnerów minęły ważne dwa lata – powiedział Jeff Ashida, President Sharp Electronics Europe. – Przez ten czas porozumienie z firmą Foxconn pozwoliło nam odmienić naszą działalność, czego wyraźnie dowodzą wprowadzone dziś na rynek nowe produkty. Jednak w Inspire Expo nie chodzi tylko o przemianę, ale również o sposób, w jaki wspieramy naszych partnerów.

    Z dumą prezentujemy środowisko usług zbudowane wokół urządzenia wielofunkcyjnego oraz jedyne w swoim rodzaju połączenie rozwiązań do zarządzania dokumentami i wyświetlania treści firmy Sharp. Dajemy możliwość zysku poza sektorem druku dzięki szerszej ofercie, obejmującej monitory wielkoformatowe, narzędzia wspierające wideokonferencje i współpracę, a także usługi w chmurze i usługi IT. Zapewniamy partnerom wszystkie produkty potrzebne im do stworzenia nowych, atrakcyjnych pakietów dla klientów oraz do znalezienia nowych źródeł dochodu.

    INSPIRE EXPO 2018 SHARP

    Produkty Sharp podczas Inspire Expo: nowe rozwiązania dla całego biura

    Sharp zabierał swoich gości w podróż przez główne potrzeby biznesowe tradycyjnego klienta, pokazując, jak nowej generacji nagradzane urządzenia Sharp oraz rozwiązania, aplikacje i usługi Optimised Software pomagają sprzedawcom zróżnicować ofertę rynkową. Na przykład rozwiązanie Sharp Accounts Payable pozwala zautomatyzować ręczne przetwarzanie faktur, dzięki czemu proces staje się szybszy i dokładniejszy.

    Nowa seria urządzeń wielofunkcyjnych A3 do druku czarno-białego oferuje wyższy komfort użytkowania

    Sharp wzbogaca ofertę urządzeń do druku czarno-białego dziesięcioma nowymi modelami A3 o prędkości drukowania 30-60 stron na minutę, opracowanymi w oparciu o efektywną serię MX urządzeń A3 do druku kolorowego. Odświeżona oferta zapewnia użytkownikom i pracownikom IT takie same wrażenia, niezależnie od tego, czy korzystają z urządzenia A3 do druku kolorowego, czy czarno-białego. Nowe modele posiadają wiele intuicyjnych funkcji pozwalających oszczędzić czas, takich jak spersonalizowany, dotykowy interfejs, czujnik ruchu wykrywający zbliżających się użytkowników (tylko w modelach Advanced) czy standardowo zintegrowane rozwiązanie druku podążającego.

    Modele do druku czarno-białego serii Essential (MX-M3050, MX-M3550, MX-M4050, MX-M5050 i MX-M6050) spełniają wszystkie codzienne wymagania biura i oferują możliwość rozbudowania. Modele serii Advanced (MX-M3070, MX-M3570, MX-M4070, MX-M5070 i MX-M6070) posiadają szeroki wachlarz funkcji obróbki końcowej oraz dodatkowe narzędzia, takie jak Office Direct Print czy łączność z chmurą.

    Nowa seria urządzeń wielofunkcyjnych A4 do druku czarno-białego z zaawansowaną funkcjonalnością A3

    Firma Sharp wprowadziła na rynek zupełnie nową serię czarno-białych urządzeń wielofunkcyjnych A4, która jest efektem współpracy z przedsiębiorstwem Foxconn. Nowe urządzenia MX-B355W i MX-B455W Advanced, dostępne od marca 2018, oferują prędkość drukowania 35 i 45 stron na minutę oraz takie same wydajne funkcje obsługi przepływów zadań i łatwość użytkowania co modele A3. Oprócz spełniania wszystkich wymagań w zakresie drukowania, skanowania i kopiowania czarno-białe urządzenia A4 mogą być łatwo zintegrowane z istniejącymi aplikacjami sieciowymi oraz publicznymi usługami w chmurze. Dlatego w dowolnym miejscu i czasie można bezpiecznie udostępniać informacje i zyskiwać do nich dostęp. Dla jeszcze większej niezawodności modele wyposażone są w wielopoziomowe zabezpieczenia Sharp.

    Unowocześnione systemy do druku produkcyjnego zapewniające wyższą wydajność

    Nowe systemy do druku kolorowego MX-7090N i MX-8090N powiększające linię urządzeń do druku produkcyjnego, zapewniają lokalnym środowiskom wydruku wyższą wydajność i lepsze wrażenia użytkowników. Nowe modele kopiują i skanują z prędkością nawet 80 stron na minutę oraz posiadają taki sam łatwy w użytkowaniu interfejs dotykowy co urządzenia biurowe Sharp A3 i A4. Bogata gama funkcji podawania i obróbki końcowej modeli MX-7090N i MX-8090N zapewnia elastyczność tworzenia materiałów doskonałej jakości dopasowanych do wymagań poszczególnych zadań.

    By zaoszczędzić więcej czasu i zoptymalizować zużycie zasobów, koordynatorzy wydruku zyskują również większą kontrolę nad zadaniami i pełny dostęp do Fiery Command WorkStation® prosto z panelu sterowania urządzenia wielofunkcyjnego. Eliminuje to potrzebę korzystania z dodatkowych stacji roboczych.

    Niepowtarzalne połączenie narzędzi wydruku i wyświetlania informacji

    INSPIRE EXPO 2018 SHARP

    Firma Sharp zaprezentowała szereg sal konferencyjnych wyposażonych w interaktywne monitory Sharp BIG PAD, które pomagają wymieniać się pomysłami i wspierają kreatywniejszą, wydajniejszą współpracę. Wśród monitorów znalazł się najnowszy BIG PAD Sharp – pierwszy model dotykowy 4K. BIG PAD 4K uzupełnia ofertę monitorów Sharp sprzyjających udostępnianiu informacji podczas spotkań: od podstawowych narzędzi do zaawansowanych urządzeń dotykowych.

    W strefie prezentacji przyszłościowych rozwiązań, Sharp zademonstrował również monitor 8K oraz profesjonalną kamerę cyfrową, łączącą funkcje nagrywania, odtwarzania oraz wyjścia liniowego. Te urządzenia będą stanowiły podstawę prac rozwojowo-badawczych Sharp w środowisku 8K.

  • A może warto zainwestować w kryptowaluty? Podpowiadamy, jak to robić

    A może warto zainwestować w kryptowaluty? Podpowiadamy, jak to robić

    Kryptowaluta – co to takiego?

    Kryptowaluty są wirtualnym i rzeczywistym środkiem płatniczym, bazującym na kryptografii. Stanowią rozproszone systemy księgowe, które przechowują informacje o posiadaniu umownych jednostek. Są dostępne dla każdego użytkownika Internetu. To społeczność generuje internetową walutę. Komputery użytkowników stanowią węzły sieci P2P. Pieniądze są odpowiednio zaszyfrowane, stąd pierwszy człon nazwy „krypto”. Najpopularniejszą i jednocześnie najbardziej wartościową jest Bitcoin, ale znane są również Litecoin, Digitalcoin, Dogecoin, Ethereum i inne.

    Idea wolności

    Główną niepowtarzalną cechą kryptowalut jest decentralizacja. Są zaprojektowane tak, aby nikt, ani autor, ani inne osoby, grupy lub rządy, nie mógł nimi w żaden sposób manipulować, niszczyć ich, podrabiać, konfiskować kont, kontrolować przepływu czy powodować inflację. W sieci nie istnieje żaden centralny punkt, ani nikt, kto mógłby o nich decydować. Bitcoin jest walutą deflacyjną. Całkowita ilość pieniędzy jest ostateczna i wcześniej ustalona, a ich wprowadzanie do obiegu kieruje się jedynie wzorami matematycznymi. W sieci dokonuje się transakcji po minimalnych lub zerowych kosztach.

    Przez długi czas wielu ekspertów kwestionowało to, co tworzy wartość waluty wirtualnej. Jednym z najczęstszych nieporozumień jest to, że wartość kryptowalut bezpośrednio zależy od liczby użytkowników, którzy z nich korzystają. Teoretycznie mogłoby to zatem oznaczać, że więcej użytkowników to wzrost wartości kryptowaluty. W rzeczywistości jest wręcz przeciwnie. Koszty „kryptominingu” rosną wykładniczo w czasie, co oznacza, że użytkownicy, którzy są zainteresowani w produkcji tej waluty, nie mogą w prosty sposób z góry określić jej rzeczywistej wartości. Dlatego dziś panuje przekonanie, że wartość kryptowaluty zależy tylko od podaży i popytu na rynku.

    Korzystać, czy nie korzystać?

    Początkujący mogą odnosić się do kryptowalut z dużą dozą nieufności. W końcu to waluty bez nadzoru banków i krajów, na które nie mają wpływu rządy państw.

    Nie mniej jednak trzeba zauważyć, że kryptowaluty zostały zaakceptowane przez wiele państw, na przykład Niemcy, Cypr czy Danię. Transakcje odbywają się anonimowo, w dobrze zabezpieczonej sieci. Ich zaletą jest fakt, że można wysłać pieniądze w dowolne miejsce na świecie, bez konieczności przewalutowania czy opłacania prowizji. Płatności w wirtualnych walutach akceptuje coraz więcej sieci handlowych dostępnych w Internecie i wszystko wskazuje na to, że ta tendencja będzie wyłącznie wzrastająca.

    Coraz więcej kryptowalut

    Najpopularniejszą walutą jest Bitcoin. To w istocie prekursor całego systemu pieniędzy cyfrowych. Nie mniej i na tej płaszczyźnie nie ma miejsca na monopol, stąd pojawiły się inne, równie bezpieczne i analogicznie działające kryptowaluty. Co ciekawe, sam projekt stworzenia cyfrowego pieniądza miał charakter wyłącznie użytkowy, tymczasem po odniesieniu wielu sukcesów i wzroście wartości stał się on narzędziem rynkowych spekulantów.
    Kryptowaluty nie biorą się z żadnego centralnego układu. To użytkownicy stają się ich wydobywcami. Podczas generowania kryptowalut komputery są niebywale obciążone, ale z drugiej strony, chętni do kupienia cyfrowej waluty mogą także sięgnąć po nie korzystając z giełdy. Z całą pewnością kryptowaluty to swego rodzaju rewolucja, która całkowicie zmieni świat płatności internetowych.

    Satoshi Nakamoto – twórca pierwszej kryptowaluty

    Nikt nie wie kim jest, a przynajmniej ci, którzy wiedzą, nie chwalą się tym. Nie wiadomo również skąd pochodzi i czym się zajmuje na co dzień. Mowa o Satoshim Nakamoto , który stworzył pierwszą kryptowalutę – Bitcoin.
    Satoshi Nakamoto to człowiek widmo. Znanych jest zaledwie kilka faktów, które w żaden sposób nie wskazują na konkretnego człowieka. Historia związana z Nakamoto zaczęła się w 2008 roku, kiedy pod takim właśnie nazwiskiem opublikowana została koncepcja stworzenia cyfrowej kryptowaluty (plik PDF 180 KB). Z dokumentu można wyczytać, że jego autor pracował na koncepcją od 2 lat, czyli od 2006 roku.

    W styczniu 2009 roku powstał pierwszy blok Bitcoinów, nazywany blokiem początku (Genesis block), czasami oznaczany także jako Block 0. Sześć dni później uruchomiony został Bitcoin w wersji v0.1. W tym momencie zaczęła się historia najpopularniejszej dziś kryptowaluty. Do końca 2009 roku dodano jeszcze 32 tys. bloków, co przełożyło się na ogólną liczbę 1,62 mln Bitcoinów. Wszystkie transakcje są dostępne publiczne (dzięki blockchain) i można z nich wyczytać, że zaledwie 1/4 z początkowej liczby Bitcoinów kiedykolwiek zmieniła właściciela. To oznacza, że ich twórca jest w posiadaniu ponad miliona BTC (1 mln BTC to dzisiaj prawie 1 mld dol.).

    Nakamoto był aktywnym użytkownikiem forów o Bitcoinach i cały czas usprawniał swój produkt. Działo się tak do mniej więcej połowy 2010 roku. Po tym czasie był już zdecydowanie mniej aktywny, a w kwietniu 2011 roku napisał do jednego z deweloperów, że „teraz zajmuje się innymi sprawami”. Przestał odpisywać na maile. Ślad po nim zaginął.

    Bitcoin: pierwszy elektroniczny system pieniężny oparty na sieci peer-to-peer

    Pełnowartościowa wersja pieniądza elektronicznego, oparta na modelu komunikacji sieciowej peer-to-peer (P2P – model komunikacji w sieci komputerowej zapewniający wszystkim hostom te same uprawnienia, w odróżnieniu od architektury klient–serwer), pozwala na przesyłanie płatności online bezpośrednio od jednego podmiotu do drugiego bez konieczności przepływu transakcji przez instytucje finansowe.

    Tak zwane podpisy cyfrowe również dają możliwość realizacji takich transakcji. Jednakże podstawową wadą tego rodzaju rozwiązania jest wymagana obecność zaufanego, nadrzędnego podmiotu, aby zapobiec podwójnemu wydatkowaniu środków (tzw. double-spending).

    Rozwiązanie problemu podwójnego wydatkowania osiągnąć można przy wykorzystaniu sieci peer-to-peer. Sieć znakuje transakcje przy pomocy znaczników czasu, hashując je do postaci ciągłego łańcucha dowodów wykonanej pracy (tzw. proof-of-work).

    Tworzy się rejestr, który nie może zostać zmieniony bez dokonania modyfikacji dowodów wykonanej pracy. Najdłuższy łańcuch nie służy tylko jako dowód wystąpienia sekwencji zdarzeń, ale także jako dowód, iż pochodzi ona z największej puli mocy obliczeniowej.

    Tak długo jak większość mocy obliczeniowej znajduje się pod kontrolą węzłów sieci, które nie współpracują ze sobą w celu zaatakowania sieci, utworzą one najdłuższy łańcuch i wyprzedzą potencjalny atak. Sama sieć wymaga minimalnej struktury.

    Wiadomości rozpropagowane są na zasadzie najwyższej staranności, zaś same węzły mogą opuścić i ponownie dołączyć do sieci w dowolnym momencie, przyjmując najdłuższy łańcuch dowodów wykonanej pracy jako potwierdzenie tego co wydarzyło się w sieci podczas ich nieobecności.

    Taki system elektronicznych transakcji nie wymaga konieczności polegania na zaufaniu.
    Zapisywanie publicznej historii transakcji, powoduje, że z perspektywy obliczeniowej dla potencjalnego atakującego taka transakcja szybko staje się nierealna do zmiany, jeśli tylko „uczciwe” węzły sieci P2P kontrolują większość mocy obliczeniowej.

    Siła sieci leży w jej pozbawionej strukturalizacji prostocie. Węzły pracują jednocześnie potrzebując niewielkiej tylko koordynacji. Nie ma potrzeby ich identyfikowania, odkąd wiadomości nie są powiązane z jakimkolwiek szczególnym miejscem, a ich propagacja musi być oparta jedynie na zasadach najwyższej staranności.

    Węzły głosują z wykorzystaniem swojej mocy obliczeniowej, wyrażając swoją akceptację dla poprawnych bloków poprzez pracę nad ich wydłużaniem oraz odrzucając błędne bloki poprzez jej odmowę. Każda potrzebna zmiana zasad czy też systemu zachęt może być wprowadzona w życie jedynie z wykorzystaniem tego mechanizmu osiągania konsensusu.

    Model kursu Bitcoina autorstwa ExMetrix

    W naszych bazach brak zmiennych z zakresu tradycyjnej ekonomii, tworzących obecnie jakieś rozsądne związki przyczynowo-skutkowe z kursem Bitcoin. Najbardziej skorelowane zmienne, znalezione bez precyzowania dziedziny poszukiwań, to na przykład:

    Producer prices in industry, domestic market – monthly data, Domestic output price index – in national currency, Manufacture of glass and glass products, s_adj NSA, Index, 2010=100, Germany (until 1990 former territory of the FRG)

    Producer prices in industry, total – monthly data, Total output price index – in national currency, Tanning and dressing of leather; manufacture of luggage, handbags, saddlery and harness; dressing and dyeing of fur, s_adj NSA, Index, 2010=100, United Kingdom

    Survey of Professional Forecasters, Euro area (changing composition) – Forecaster 15 – Unemployment – from 10.5 to 10.9 – Target period ends 24 months after survey cycle begins – Quarterly survey

    Persons subject of asylum applications pending at the end of the month by citizenship, age and sex Monthly data (rounded), Extra-EU-28, Females, Less than 14 years, France, Person

    Trudno dopatrywać się tutaj związków przyczynowo-skutkowych.

    Natomiast po ograniczeniu poszukiwań do zmiennych zawierających na przykład takie słowa kluczowe, jak: internet, game, cel, trade, gambling, hazard, telephone, mobile, czy computing power i zbudowaniu modelu kursu bitcoina okazało się, że największy wpływ na wyniki działania modelu miały następujące zmienne:

    Bitcoin 1 min

    Rezultaty działania modelu były następujące:

    Bitcoin 2 min

    Model prawidłowo zidentyfikował istotny punkt zwrotny (szczyt), chociaż sam błąd prognozy określającej maksymalny poziom kursu był dość duży. Jednak douczenie modelu pozwoliło bardziej precyzyjnie określić zasięg korekty kursu (spadł z 2893,5 USD 10-06-2017 do 1895,64 USD 16-07-2017).

    Bitcoin 3 min 1

    Ponadto dość dokładnie określony został początek odreagowania spadku (dokładnie 14-07- 2017). Sądzimy, że dalsze prace nad modelami dotyczącymi kryptowalut, a przede wszystkim nad zidentyfikowaniem zmiennych kluczowych, pozwolą na wykonanie w niedalekiej przyszłości modeli znacznie bardziej satysfakcjonujących.

  • Wielofunkcyjne zapory sieciowe zwiększają udziały w rynku

    Wielofunkcyjne zapory sieciowe zwiększają udziały w rynku

    Użytkownicy coraz częściej doceniają możliwości, jakie dają im kompleksowe rozwiązania zabezpieczające. Zgodnie z danymi przedstawionymi przez International Data Corporation (IDC) rynek Unified Threat Management (UTM), czyli wielofunkcyjnych zapór sieciowych, w ciągu ostatnich pięciu lat powiększył się niemal trzykrotnie.

    W 2016 roku osiągnął on rekordową wartość 5,7 miliardów USD – 17,3% więcej niż rok wcześniej. Tym samym uzyskał najwyższy wzrost spośród wszystkich segmentów rynku urządzeń zabezpieczających. Całkowite przychody z tego obszaru wzrosły w 2016 r. o 9,7% i wyniosły 11,6 miliarda USD. UTM oraz zapory sieciowe stanowią obecnie niemal połowę całego sektora.

    Użytkownicy wybierają rozwiązania klasy UTM ze względu na ich wielofunkcyjność oraz prostotę wdrożenia i obsługi. Zapewniają one łączność z siecią, zwiększając jednocześnie jej bezpieczeństwo poprzez zaporę sprzętową, systemy prewencji włamań (IPS) czy ochronę antywirusową i antyspamową. Umożliwiają także kontrolę ruchu w sieci. Podstawowe modele mogą być stosowane z powodzeniem nawet w małych firmach, które nie mogą pozwolić sobie na skomplikowane, rozproszone systemy zabezpieczania. Jeden z największych producentów rozwiązań tego typu – Fortinet, wyposaża swoje produkty w dedykowane oprogramowanie FortiOS, które pozwala nawet niedoświadczonemu użytkownikowi na konfigurację urządzenia w kilku prostych krokach. Szczególne znaczenie ma to w przypadku modeli przeznaczonych dla przedsiębiorstw, które nie dysponują własnymi działami IT.

    Znaczące wzrosty sprzedaży UTM zauważyć można także w Polsce. Dotyczy to również urządzeń dedykowanych przedsiębiorcom z sektora MŚP. Tutaj szczególnym zainteresowaniem cieszy się rodzina rozwiązań FortiGate od Fortinet, w tym podstawowy FortiGate-30E. – mówi Joanna Tabasz, Product Manager Fortinet w Veracomp. Dotychczasowe globalne dane sprzedaży pozwalają przypuszczać, że rynek rozwiązań UTM dalej będzie się dynamicznie rozwijał, również w Polsce. – dodaje.