Hitachi Europe Ltd. oraz ITCARD S.A. sformalizowały wieloletnią współpracę, ogłaszając strategiczne partnerstwo ukierunkowane na rynek Europy Środkowo-Wschodniej. Ruch ten wykracza poza standardową relację dostawca-odbiorca, celując w dwa kluczowe obszary infrastruktury finansowej: zaawansowane cyberbezpieczeństwo oraz modernizację fizycznego obrotu gotówkowego. Dla obu podmiotów jest to logiczny krok biznesowy, łączący globalne zaplecze technologiczne japońskiego giganta z dominującą pozycją ITCARD jako operatora płatności w Polsce.
Pierwszym filarem nowej strategii jest bezpieczeństwo cyfrowe, co stanowi bezpośrednią odpowiedź na rosnącą presję regulacyjną, w tym wymogi dyrektywy NIS2. We wrześniu 2025 roku spółki zawarły umowę Security Operations Center-as-a-Service. Na jej mocy ITCARD zyskał dostęp do całodobowego monitoringu i analityki zagrożeń, wykorzystując potencjał otwartego w grudniu 2024 roku krakowskiego centrum SOC. Placówka ta, uruchomiona przez Hitachi Cyber i GlobalLogic, staje się tym samym kluczowym węzłem operacyjnym dla usług świadczonych na rzecz sektora bankowego w regionie, zapewniając zgodność z rygorystycznymi normami ochrony danych.
Równolegle partnerstwo ma zrewolucjonizować obsługę gotówki. ITCARD, zarządzający siecią ponad 8000 bankomatów Planet Cash, otwiera przed Hitachi szeroki kanał dystrybucji nowej generacji urządzeń CRM (Cash Recycler Machine). Hitachi, posiadające silną pozycję w Azji z bazą ponad 200 tysięcy maszyn, wykorzystuje polski rynek jako przyczółek do ekspansji w Europie. Wspólna oferta ma trafić nie tylko do banków komercyjnych i spółdzielczych, ale także wspierać dostępność gotówki w mniejszych miejscowościach w Polsce i na Ukrainie, co wpisuje się w szersze programy inkluzji finansowej.
Uzupełnieniem współpracy sprzętowej jest warstwa inżynieryjna i analityczna. Porozumienie zakłada implementację rozwiązań Hitachi w zakresie macierzy dyskowych i systemów compliance, a także wykorzystanie platformy Pentaho do integracji danych. Istotnym elementem układanki jest zaangażowanie GlobalLogic, spółki z grupy Hitachi, co sugeruje, że ITCARD zamierza w większym stopniu oprzeć swój rozwój technologiczny na zewnętrznym know-how inżynieryjnym, budując przewagę konkurencyjną w oparciu o globalne standardy R&D.
W środowisku enterprise coraz silniej rysuje się trend odchodzenia od klasycznych platform wirtualizacji na rzecz bardziej elastycznych rozwiązań Kubernetes-native. Hitachi Vantara i Red Hat wychodzą naprzeciw tym oczekiwaniom, przedstawiając zintegrowane rozwiązanie łączące funkcjonalność Red Hat OpenShift Virtualization z platformą Hitachi Vantara VSP One. Celem: uproszczenie migracji istniejących maszyn wirtualnych i konsolidacja infrastruktury w jednym, hybrydowym środowisku.
Co faktycznie oferuje integracja?
Nowy stack umożliwia uruchamianie maszyn wirtualnych (VM) i kontenerów obok siebie, co pozwala uniknąć dublowania infrastruktury i redukuje koszt licencji dla obu warstw. W centrum leży integracja komponentów:
Hitachi VSP One pełni rolę warstwy pamięci masowej (blokowej, plikowej i obiektowej), obsługując zarówno operacje VM (przez CSI) jak i kontenerowe.
Global Active Device (GAD) umożliwia aktywny dostęp do danych w wielu lokalizacjach, co sprzyja odporności rozproszonej.
Wspólnie opracowana referencyjna architektura wspiera wysoką dostępność – w klastrach rozciągniętych, z opcjonalnym kworum trzeciej lokalizacji, w tym z masterem OpenShift w chmurze publicznej lub odizolowanej lokalizacji.
Hitachi dostarcza wtyczkę dla kontenerów (HSPC / CSI driver), która obsługuje m.in. model dostępu ReadWriteMany, snapshoty, klonowanie oraz dynamiczne przydziały przestrzeni.
Dodatkowo oferowane jest odciążanie pamięci masowej podczas migracji „na zimno”, czyli przenoszenie zadań kopiowania danych z sieci/serwera na macierz, co redukuje przestoje.
Ta konfiguracja pozwala firmom łatwiej wychodzić z ekosystemów VMware (lub innych klasycznych hypervisorów) i budować platformę chmurową opartą o Kubernetes i OpenShift. W praktyce Hitachi kieruje tę ofertę w stronę organizacji „od VMware migratorów”.
Dlaczego teraz?
Kilka trendów wspiera tempo przyjęcia tego typu rozwiązań:
1. Narastające koszty licencji — według komunikatu, 73 % przedsiębiorstw przeszło audyt licencyjny, a ponad 1/3 wskazuje zgodność licencyjna jako główny problem.
2. Rosnące wymagania w zakresie mobilności obciążeń — przedsiębiorstwa chcą przenosić komponenty między lokalizacjami i chmurą z minimalnym przestojem.
3. Presja konsolidacji infrastruktury — zamiast utrzymywać dwa stosy (VM + kontenery), pożądane jest jednorodne, spójne środowisko.
4. Rośnie rynek rozwiązań open source wirtualizacji w Kubernetes, m.in. dzięki KubeVirt jako silnikowi OpenShift Virtualization.
Przypadek wdrożenia: Alior Bank
Alior Bank, działający w Polsce, został wskazany jako wczesny adopter integracji. Bank zdecydował się na migrację do platformy Red Hat OpenShift Virtualization z wykorzystaniem VSP One, w odpowiedzi na wzrost kosztów licencji i ograniczenia elastyczności dotychczasowego środowiska. W jego kontekście kluczową motywacją była chęć stworzenia infrastruktury „gotowej na przyszłość”, odpornej i skalowalnej.
Nowe rozwiązanie niesie istotne korzyści: możliwość konsolidacji VM i kontenerów, redukcja kosztów licencyjnych, uproszczenie migracji i wzrost odporności w środowiskach rozproszonych. Jednak pozostają wyzwania:
Migracja dużych środowisk — nawet z opcją offloadu — wymaga przemyślanego planowania i testów; nie każdy VM jest natychmiast konwertowalny.
Złożoność referencyjnej architektury – rozbudowane klastry rozciągnięte wymagają zaawansowanego zarządzania siecią i zgodności operacyjnej.
Ryzyko lock-in w warstwie storage i CSI — choć rozwiązanie wychodzi naprzeciw unikaniu zależności od hypervisorów, klient wciąż korzysta z połączenia Red Hat + Hitachi.
Dojrzałość ekosystemu – adoptowanie nowego stacka od OpenShift Virtualization + VSP One wymaga, by integracje i obsługa operacyjna były dojrzałe w środowisku klienta.
Japoński gigant technologiczny Hitachi, globalny lider w produkcji bankomatów recyklingowych, oficjalnie wchodzi na rynek Europy Środkowo-Wschodniej, wybierając Polskę jako przyczółek do dalszej ekspansji.
Firma podpisała trzyletnią umowę z Bankiem Pekao S.A. na dostawę i serwisowanie nowoczesnych urządzeń z zamkniętym obiegiem gotówki. Kontrakt ten jest sygnałem, że Hitachi zamierza rzucić wyzwanie dotychczasowym graczom na regionalnym rynku technologii bankowych.
Dla Banku Pekao współpraca to element strategicznej modernizacji sieci bankomatów. Z informacji wynika, że decyzja o wyborze Hitachi nie opierała się wyłącznie na konkurencyjności oferty.
Kluczową rolę odegrała globalna renoma japońskiego dostawcy i jego ugruntowana pozycja, szczególnie na rynkach azjatyckich. Bank liczy, że nowe, bardziej zaawansowane technologicznie urządzenia przełożą się bezpośrednio na większą niezawodność i dostępność dla klientów, co jest kluczowe w utrzymaniu wysokiej jakości usług.
Zamiast prostej wymiany sprzętu, Pekao stawia na skok technologiczny.
Hitachi, posiadające na świecie blisko 200 000 urządzeń recyklingowych, od lat dominuje w Japonii i Azji Południowo-Wschodniej. Wejście do Polski jest częścią strategii ponownej ekspansji w Europie, realizowanej przy wsparciu lokalnych partnerów.
Za aplikację bankomatową odpowiadać będzie Auriga Polska, a za serwis techniczny – firma Inpaytex. Taki model współpracy pozwala Hitachi sprawnie wejść na nowy rynek, korzystając z doświadczenia wyspecjalizowanych podmiotów.
Umowa z Pekao to dla Hitachi coś więcej niż tylko dostawa sprzętu. Stanowi ona otwarcie drzwi do oferowania jednemu z największych banków w regionie całego portfolio swoich usług – od infrastruktury IT, przez cyberbezpieczeństwo, aż po rozwiązania oparte na sztucznej inteligencji, np. w scoringu kredytowym.
Sama technologia recyklingu gotówki pozwala bankom optymalizować obieg pieniądza w oddziałach i urządzeniach, znacząco zmniejszając koszty logistyczne związane z transportem i konwojowaniem gotówki.
Cyfryzacja energetyki przeszła etap eksperymentów i pilotaży. Obecnie to już strategiczny obszar inwestycji dla operatorów przesyłowych i dystrybucyjnych, których codzienne operacje są pod presją rosnącego zapotrzebowania na energię, decentralizacji źródeł i potrzeby większej odporności systemowej. W tym kontekście konkurencja między dostawcami technologii staje się coraz bardziej dynamiczna – a przewaga nie wynika już wyłącznie z rozpoznawalności marki czy liczby wdrożeń, lecz z jakości integracji, elastyczności podejścia i umiejętności szybkiego reagowania na zmieniające się potrzeby.
Nowy rankingABI Research pokazuje, jak zmieniają się kryteria oceny graczy technologicznych. Liderzy – tacy jak Schneider Electric czy Siemens AG – nie tylko dysponują rozbudowanym portfolio, ale przede wszystkim potrafią łączyć różne komponenty swoich systemów w spójną, skalowalną i interoperacyjną całość. To właśnie zdolność do budowania kompleksowych, a jednocześnie otwartych ekosystemów staje się dziś punktem ciężkości w strategii produktowej. Operatorzy nie chcą już wybierać między silnym ADMS a elastycznym systemem zarządzania OZE – oczekują, że cała architektura operacyjna będzie gotowa na współdziałanie w czasie rzeczywistym, w różnych warunkach rynkowych i regulacyjnych.
Nie bez znaczenia jest też sposób, w jaki dostawcy prowadzą wdrożenia. Technologie cyfrowe w energetyce muszą być nie tylko innowacyjne, ale także wdrażalne w rzeczywistych, często bardzo złożonych warunkach infrastrukturalnych. Liczy się tu zarówno doświadczenie projektowe, jak i jakość współpracy z lokalnymi integratorami i operatorami. Dlatego coraz większe znaczenie ma nie to, co dostawca oferuje „na papierze”, lecz jak szybko i skutecznie jest w stanie przekuć to w funkcjonujące rozwiązanie.
Wśród ocenianych przez ABI firm wyróżnia się również rosnąca dojrzałość podejścia do cyberbezpieczeństwa. Nie chodzi już tylko o zabezpieczanie danych i dostępu – kluczowe staje się projektowanie rozwiązań w sposób „bezpieczny z definicji”, z uwzględnieniem wewnętrznych mechanizmów wykrywania anomalii, reakcji na incydenty i odporności na zakłócenia. To szczególnie istotne w kontekście rozwoju wirtualnych podstacji i cyfrowych bliźniaków sieci, które choć oferują ogromny potencjał optymalizacyjny, jednocześnie poszerzają powierzchnię ataku.
Warto zauważyć, że ranking nie zamyka się wyłącznie na liderach – takich jak wspomniani Schneider, Siemens. Równie istotne są rosnące ambicje firm plasujących się tuż za podium. Hitachi Energy, choć sklasyfikowana jako dostawca „głównego nurtu”, wprowadziła pierwsze w branży narzędzie AI do prognozowania zdarzeń sieciowych i rozwija technologie monitoringu środowiskowego w kontekście infrastruktury energetycznej. ABB z kolei konsekwentnie rozwija rozwiązania dla segmentu niskiego napięcia, które często umykają w wielkoskalowych strategiach cyfryzacyjnych, a mają kluczowe znaczenie dla lokalnych operatorów i prosumentów.
Ten etap rozwoju rynku nie sprzyja firmom zamkniętym na współpracę. Sukces odnoszą dostawcy, którzy nie tylko mają gotowe produkty, ale potrafią tworzyć partnerstwa – z firmami IT, dostawcami danych, producentami urządzeń IoT i integratorami lokalnymi. W praktyce oznacza to konieczność zmiany modelu biznesowego: od sprzedaży technologii do współtworzenia infrastruktury w modelu platformowym.
Rynek cyfrowych rozwiązań dla energetyki nadal jest relatywnie młody – ale jego dynamika nie pozostawia złudzeń, że za kilka lat stanie się jednym z kluczowych segmentów rynku technologii infrastrukturalnych. Już teraz według danych BloombergNEF i IEA globalne inwestycje w cyfryzację sieci mają przekroczyć 90 mld USD w 2025 roku. To nie tylko szansa dla dostawców, ale też wyzwanie regulacyjne, kompetencyjne i infrastrukturalne.
Z perspektywy operatorów sieci – zarówno przesyłowych, jak i dystrybucyjnych – to czas intensywnych decyzji. O wyborze partnera nie decyduje już wyłącznie specyfikacja techniczna, ale całościowe podejście do rozwoju sieci: zdolność do reagowania na przyszłe obciążenia, adaptacja do lokalnych regulacji i wspieranie transformacji energetycznej w sposób zrównoważony i odporny.
To oznacza, że wygrywać będą nie ci, którzy mają najdłuższą listę produktów, ale ci, którzy potrafią zbudować z nich system zdolny do działania w niepewnych i niestabilnych warunkach. Rynek cyfrowej energetyki nie szuka już technologii – szuka zaufanych, kompetentnych partnerów.
W dzisiejszym środowisku biznesowym w Polsce dane stanowią kluczowy element operacji i wzrostu. Firmy z różnych sektorów generują i przetwarzają ogromne ilości informacji, co sprawia, że niezawodne i skalowalne rozwiązania w zakresie pamięci masowych są niezbędne. Dynamiczny rozwój polskiej gospodarki cyfrowej, z prognozowanymi znaczącymi wzrostami do 2030 roku, bezpośrednio przekłada się na rosnące zapotrzebowanie na solidne rozwiązania pamięci masowych w sektorze B2B.
Czynniki napędzające rynek pamięci masowych B2B w Polsce
Eksplozja danych: Wzrost ilości danych generowanych przez e-commerce, IoT i cyfrową transformację napędza zapotrzebowanie na pamięć masową B2B. Rosną nie tylko wolumeny, ale też szybkość i różnorodność danych – od ustrukturyzowanych baz danych, po multimedia i dane z czujników w czasie rzeczywistym. Firmy wdrażające narzędzia cyfrowe potrzebują coraz bardziej pojemnych i wydajnych rozwiązań, które sprostają wymaganiom AI i analityki big data – wymagających szybkiego dostępu do ogromnych zbiorów danych.
Rozwój chmury:Polskie MŚP i duże firmy coraz chętniej korzystają z usług chmurowych, co przekłada się na rosnący popyt na pamięć masową w modelu cloud. Chmura oferuje skalowalność i optymalizację kosztów, jednak wiele organizacji – zwłaszcza w sektorach regulowanych – decyduje się na model hybrydowy. Łączy on lokalne zasoby z chmurą, umożliwiając kontrolę nad wrażliwymi danymi i elastyczne zarządzanie mniej krytycznymi zasobami. To napędza zapotrzebowanie na zintegrowane rozwiązania pamięci masowej B2B.
Regulacje i bezpieczeństwo:Przepisy dotyczące ochrony danych, w tym RODO i lokalne regulacje, wymuszają stosowanie bezpiecznych, często lokalnych rozwiązań pamięci masowej. Polskie firmy inwestują w infrastrukturę spełniającą wymogi zgodności i bezpieczeństwa, co staje się ważnym czynnikiem przy wyborze dostawców pamięci masowej B2B.
Transformacja cyfrowa:Modernizacja procesów biznesowych w ramach transformacji cyfrowej zwiększa zapotrzebowanie na niezawodną i skalowalną infrastrukturę IT. Wraz z digitalizacją operacji rośnie ilość danych, które wymagają bezpiecznego przechowywania i sprawnego zarządzania – co bezpośrednio przekłada się na wzrost inwestycji w nowoczesne rozwiązania pamięci masowej.
Wyzwania i ograniczenia na polskim rynku pamięci masowych B2B
Ograniczenia budżetowe:Wysokie koszty wdrożenia i utrzymania zaawansowanej infrastruktury pamięci masowej są barierą, szczególnie dla MŚP. Inwestycje w sprzęt, oprogramowanie i specjalistów często przekraczają możliwości finansowe mniejszych firm, skłaniając je do wyboru tańszych, ale mniej wydajnych rozwiązań, co ogranicza rozwój segmentu premium.
Brak wykwalifikowanej kadry:Deficyt specjalistów IT zdolnych do zarządzania złożonymi środowiskami pamięci masowej spowalnia adopcję nowoczesnych technologii. Zadania takie jak konfiguracja, monitorowanie i optymalizacja wymagają wysokich kompetencji, których często brakuje na rynku, co wpływa na efektywność wdrożeń i decyzje inwestycyjne.
Obawy o bezpieczeństwo danych:Rosnąca liczba naruszeń bezpieczeństwa i związane z tym ryzyka finansowe i reputacyjne zwiększają ostrożność firm przy wyborze rozwiązań pamięci masowej. Szczególne obawy budzi przechowywanie danych w chmurze. Firmy oczekują dziś wysokiego poziomu zabezpieczeń jako standardu.
Problemy z integracją:Nowoczesne systemy pamięci masowej często napotykają na trudności w integracji z istniejącą, starszą infrastrukturą IT. To może prowadzić do opóźnień, wzrostu kosztów i ograniczenia tempa wdrożeń, zwłaszcza w firmach z rozbudowanymi, wieloletnimi systemami.
Dostępność tańszych alternatyw:Obecność niskokosztowych rozwiązań, choć mniej wydajnych, hamuje rozwój rynku zaawansowanych pamięci masowych B2B. MŚP wrażliwe na cenę często wybierają podstawowe opcje, nawet jeśli nie odpowiadają one rosnącym wymaganiom operacyjnym.
Segmentacja rynku i prognozy
Według raportu firmy Mordor Intelligence, polski rynek storage dla centrów danych jest wyceniany na 0,64 miliarda USD w roku 2025 i oczekuje się, że osiągnie 1,11 miliarda USD do roku 2030, przy średniorocznym tempie wzrostu (CAGR) wynoszącym 11,7% w okresie prognozy (2025-2030).
Rynek ten jest segmentowany według technologii przechowywania na NAS (Network Attached Storage), SAN (Storage Area Network) i DAS (Direct Attached Storage). Oczekuje się, że znaczący udział w rynku będą miały hybrydowe rozwiązania storage, łączące przechowywanie lokalne i w chmurze.
Kluczowymi graczami na polskim rynku storage dla centrów danych, według Mordor Intelligence, są firmy Dell, Hewlett Packard Enterprise, Huawei Technologies Co. Ltd, Hitachi Vantara LLC oraz Kingston Technology Company Inc..
Adopcja chmury i jej wpływ
Polska odnotowuje dynamiczny wzrost adopcji usług chmurowych. W 2023 roku 55,7% polskich firm korzystało z usług cloud computing, co po raz pierwszy przekroczyło średnią unijną wynoszącą 45,2%. Największą popularnością cieszą się platformy do tworzenia, testowania i wdrażania aplikacji (62,1% firm).
Polski rynek B2B storage wykazuje stabilny wzrost, napędzany przez cyfrową transformację przedsiębiorstw i rosnące zapotrzebowanie na efektywne rozwiązania do przechowywania danych. Prognozy rynkowe wskazują na dalszy dynamiczny rozwój rynku storage dla centrów danych w Polsce w nadchodzących latach.
Firma Wasko podpisała umowę z Centrum Informatyki Resortu Finansów (CIRF) na rozbudowę systemów składowania danych Hitachi Content Platform. Kontrakt, o maksymalnej wartości 28,77 mln zł brutto, obejmuje również 60-miesięczny serwis i wsparcie techniczne. Zamawiający przewidział opcję rozszerzenia współpracy, co może zwiększyć wartość umowy o dodatkowe 12,07 mln zł brutto.
Kluczowa infrastruktura dla finansów publicznych
Centrum Informatyki Resortu Finansów odgrywa kluczową rolę w utrzymaniu i rozwijaniu infrastruktury IT, która wspiera działanie Ministerstwa Finansów oraz podległych mu instytucji. Systemy składowania danych, takie jak Hitachi Content Platform, są fundamentem dla przechowywania i przetwarzania ogromnych ilości wrażliwych danych finansowych. Rozbudowa tych systemów jest zatem kluczowa dla zapewnienia bezpieczeństwa i efektywności działania całego sektora finansów publicznych.
Prawo opcji: Elastyczność w dynamicznym środowisku
Zastosowanie prawa opcji przez CIRF to przemyślany krok, pozwalający na elastyczne dostosowanie się do dynamicznie zmieniających się potrzeb. Możliwość zwiększenia pojemności danych lub skorzystania z dodatkowych godzin asysty technicznej daje zamawiającemu pewność, że systemy będą mogły być rozbudowywane wraz z rozwojem cyfryzacji w sektorze publicznym.w
Umowa z CIRF to znaczące wydarzenie dla Wasko, które umacnia pozycję spółki jako istotnego dostawcy rozwiązań IT dla sektora publicznego.
Biznesowa codzienność w dużych firmach oznacza stałą współpracę z kancelariami prawnymi, firmami doradczymi, czy zespołową pracę nad dokumentami o różnym stopniu tajności. Zapewnienie ograniczonego dostępu do wrażliwych danych i dokumentów, zachowanie poufności i tajemnicy jest szczególnie ważne w procesach fuzji i przejęć innych organizmów gospodarczych. Nowoczesne systemy informatyczne, często wspierane algorytmami sztucznej inteligencji (AI) są w stanie zapewnić realizację wirtualnych pokojów danych (VDR – Virtual Data Room), które spełniają wyśrubowane wymagania prawne w zakresie bezpieczeństwa, wersjonowania i audytowalności.
Konrad Puchała, Kierownik Działu Składowania i Ochrony Danych w firmie Advatech
„VDR to nowa klasa systemów, która niedawno pojawiła się na rynku jako odpowiedź na potrzebę połączenia pracy zdalnej wielu podmiotów z zadaniami o wysokim stopniu poufności. Cechą charakterystyczną VDR jest zdolność do zapewnienia bezpiecznego i kontrolowanego udostępniania poufnych dokumentów np. doradcom, audytorom, potencjalnym inwestorom, czy partnerom biznesowym oraz prowadzenie bezpiecznej komunikacji między stronami procesu” – mówi Konrad Puchała, kierownika Działu Składowania i Ochrony Danych w firmie Advatech, jednego z największych polskich integratorów rozwiązań informatycznych.
Przedmiotem działania VDR są dokumenty elektroniczne, także te w formie skanów. Znajdują się tam najważniejsze informacje finansowe, kadrowe, prawne, czy te o znaczeniu strategicznym dla firmy. Dostęp do nich jest nadzorowany, ewidencjonowany i poddawany regularnym audytom bezpieczeństwa. Czas przechowywania wybranych kategorii dokumentów może być ograniczony – po zakończeniu zadania są one trwale i skuteczne usuwane. Oprogramowanie może automatycznie klasyfikować dokumenty i przydzielać je do zdefiniowanych kategorii, rozpoznawać tekst przy użyciu technologii OCR (Optical Character Recognition), czy nawet zaczerniać dane wrażliwe, jeśli odpowiednio użyje się algorytmów AI. Czym zatem się VDR różni od zwykłych narzędzi do pracy grupowej?
„Systemy VDR, takie jak np. Hitachi HCP Anywhere, oferują przede wszystkim bardzo wysoki poziom bezpieczeństwa, kontroli dostępu i wersjonowania dokumentów. Wszystkie połączenia zdalne są silnie szyfrowane, a dokumenty dostępne z poziomu dowolnego urządzenia mobilnego oraz przeglądarek internetowych. Oprogramowanie VDR chroni użytkowników przed atakami ransomware lub malware i znacząco ułatwia odzyskiwanie danych w przypadku popełnienia błędu przez użytkownika. Powstaje w ten sposób bezpieczne cyfrowe miejsce wspólnej pracy” – tłumaczy Konrad Puchała.
Dokumenty z VDR są z reguły w repozytoriach w lokalnych centrach danych lub w chmurze. Pozwala to na swobodną współpracę firm z różnych części świata, gdzie pracownicy zdalnie realizują swoje zadania. Pliki i foldery mogą być udostępniane nie tylko własnym pracownikom, ale i osobom z zewnątrz. Co ważne, w zależności od wyznaczonych zadań, w ramach tego samego rozwiązania można definiować wiele pokojów danych VDR – innego do planowania kampanii marketingowej, a jeszcze innego do planowania i realizacji przejęcia konkurencji.
Usługi VDR mogą obejmować także udostępnianie informacji z aplikacji Microsoft Office 365, udziałów NAS lub systemów zarządzania treścią, ale z zupełnie innym poziomem ochrony danych.
„Hitachi HCP Anywhere dostarcza narzędzi do łatwego zarządzania rolami i zasadami dla użytkowników. Funkcjonalność tego rozwiązania znacząco zmniejsza koszty i złożoność usługi udostępniania plików. Administratorzy mogą w prosty sposób zarządzać krytycznymi danymi przedsiębiorstwa” – dodaje Konrad Puchała z Advatech.
Mimo że na rynku dostępnych jest wiele podobnych rozwiązań i narzędzi takich, jak OneDrive, Teams, SharePoint, które świetnie sobie radzą ze współdzieleniem plików, to jednak nie spełniają one wymagań stawianych przed Virtual Data Room. Przyczyna leży w ograniczonych funkcjach audytowania operacji na plikach, kontroli wersji, czy konieczności ograniczenia udostępniania plików w ramach polityki DLP (Data Loss Prevention), która ma zapobiegać wyciekom danych.
Z reguły firmy nie zezwalają na przechowywanie wrażliwych danych i plików poza własną infrastrukturą IT.
„Od strony technicznej VDR najczęściej realizuje się w chmurze jako usługę SaaS (Service as a Software). Oczywiście dostępne są także wersje do instalacji lokalnych, bez komponentów chmurowych, ze wsparciem 24/7. VDR musi oferować wysoką dostępność i wyjątkową odporność na awarie. Wbudowane mechanizmy wersjonowania zapewniają niezmienność plików w określonym czasie retencji. Logowanie do takich systemów jest wieloskładnikowe, a sesje wygasają po krótkim czasie” – wyjaśnia Konrad Puchała.
Virtual Data Room posiadają zabezpieczenia nie gorsze niż systemy bankowe. VDR używają szyfrowania komunikacji bezpiecznym protokołem EV SSL 256 bit, logowania przy użyciu bezpiecznych haseł i kodów sms, czy wymuszają okresowe zmiany hasła. Spotyka się także wbudowane mechanizmy ograniczające pulę adresów IP, z których użytkownicy mogą logować się do VDR, blokowanie równoczesnych logowań przy użyciu tego samego loginu.
„Dzięki temu VDR są aktualnie najbezpieczniejszym sposobem na udostępnianie i wspólną pracę nad dokumentami niewielkich, zadaniowych grup pracowników i współpracowników” – podsumowuje Konrad Puchała z Advatech.
Dowiedz się więcej o Virtual Data Room i zapoznaj się ze szczegółami oferty u:
Według danych z raportu Research And Markets „Globalny rynek zarządzania hasłami według typu, użytkownika końcowego, wielkości organizacji, dostępu, regionalnych prognoz, raportu z analizy branżowej i prognozy, 2021–2027”, do 2027 r. wielkość globalnego rynku zarządzania hasłami osiągnie 2,9 miliarda USD. Oznacza to coroczny wzrost na poziomie 20,7% w okresie prognozy.
Hasło to ciąg znaków, który umożliwia dostęp do usługi lub urządzenia, jednocześnie chroniąc przed nieautoryzowanym dostępem. Zarządzanie hasłami to oprogramowanie, które pomaga administratorom IT zarządzać i organizować hasła na serwerach, urządzeniach sieciowych i systemach komputerowych. Jest zwykle używane przez użytkowników końcowych do audytu, ochrony, monitorowania działań powiązanych z kontami uprzywilejowanymi jako narzędzie do bezpieczeństwa informacji i zarządzania. Te programy są przeznaczone nie tylko dla firm; są również wykorzystywane jako narzędzie bezpieczeństwa przez osoby fizyczne. Chronią krytyczne dane, pliki, dokumentację finansową i informacje prawne przed cyberatakami.
Analiza wpływu COVID-19
Wybuch pandemii COVID-19 jest uważany za jedną z najbardziej śmiertelnych infekcji na przestrzeni wieków. COVID-19 nie tylko spowodował katastrofę dla ludzkości, pozbawiając życie milionów ludzi, ale także spowodował gwałtowny upadek gospodarek na całym świecie. Ponadto, pandemia COVID-19 stanowiła poważne wyzwanie dla wszystkich firm na całym świecie, jeśli chodzi o kontynuację działalności w warunkach powszechnego zamykania biur. Zmiany w kulturze pracy miały istotny wpływ na bezpieczeństwo IT. Cyberataki, naruszenia danych i włamania do sieci zakłóciły działalność firm i stały się poważnym problemem dla przedsiębiorstw z różnych branż.
Rosnąca liczba cyberataków
Zarządzanie hasłami to solidne podejście do zapewnienia bezpieczeństwa przedsiębiorstwa poprzez ułatwienie przechowywania i zabezpieczania złożonych danych uwierzytelniających konta. Każda osoba w firmie jest odpowiedzialna za inne konta, z których każde wymaga osobnego i bezpiecznego hasła. Ze względu na rosnącą liczbę cyberataków na całym świecie istnieje duże zapotrzebowanie na bezpieczne metody pracy w celu ochrony baz danych oraz innych niezbędnych i poufnych dokumentów cyfrowych.
Rosnąca adopcja baz danych i procesów opartych na chmurze
Rozwój chmury obliczeniowej, Internetu rzeczy (IoT) i innych platform cyfrowych na całym świecie napędza rynek. Globalne organizacje coraz częściej korzystają z rozwiązań do zarządzania hasłami, aby po prostu resetować swoje hasła i zarządzać nimi. Systemy te są powszechnie używane do automatycznego resetowania haseł, częstej randomizacji kodów dostępu i rejestrowania sesji ze względu na ich opłacalność i oszczędność czasu. Co więcej, wraz ze wzrostem liczby transakcji online, zarządzanie hasłami staje się coraz ważniejsze dla ochrony informacji online i zapobiegania oszustwom online.
Zagrożenia związane z bezpieczeństwem i prywatnością
Menedżery haseł to narzędzia umożliwiające odczytywanie i poznawanie wszystkich haseł przechowywanych na urządzeniu wraz z adresem e-mail każdego konta lub inną unikatową identyfikacją użytkownika. Przechowywanie wielu haseł w jednej pamięci staje się bardzo krytycznym tematem, gdy nieautoryzowany dostęp zaatakuje tę pamięć. Ponadto w przypadku zarządzania hasłami, chociaż narzędzia te przechowują wszystkie hasła w jednej pamięci, mają one również wadę polegającą na tym, że jeśli jakakolwiek toksyczna substancja, na przykład złośliwe oprogramowanie, z powodzeniem uzyska dostęp do pamięci, możliwe jest odczytanie wszystkich hasła przechowywane w tej pamięci.
Kluczowi gracze na tym rynku to: IBM Corporation, Broadcom, Inc. (CA Technologies, Inc.), Dell Technologies, Inc., Hitachi, Ltd. (Hitachi ID Systems, Inc.), Microsoft Corporation, Knowledge Secure Systems Ltd., Avatier Corporation, Centrify Corporation (TPG Capital), FastPassCorp A/S i Core Security (HelpSystems, LLC).
Wyobraźmy sobie, że mamy szybki, sportowy samochód. Wyruszamy w trasę z Wrocławia do Krakowa autostradą A4 i planujemy dotrzeć do celu w jak najkrótszym czasie. Przy wjeździe na autostradę pod Wrocławiem popisowo wyprzedzamy Fiata Multiplę, utwierdzając się w przekonaniu, że jest to jedno z najbrzydszych aut na świecie. Podczas podróży udaje nam się jechać szybko na krótkich odcinkach, ale po drodze stoimy 4 razy na bramkach, kilkanaście razy jedziemy za wyprzedzającymi się ciężarówkami i docieramy na miejsce po 3 godzinach i 30 minutach. Wyjeżdżając z ostatnich bramek przed Krakowem mijamy tego samego Fiata Multiplę, którego tak dynamicznie wyprzedziliśmy na początku trasy. Wskazania statystyk pokonanej trasy nie kłamią – średnia prędkość 77km/h. Coś tu nie gra.
NVMe jak rozwiązanie problemu z autostradami
Gdybyśmy mogli zapytać o samopoczucie moduły NAND montowane w tradycyjnych macierzach SCSI, to ich wrażenia mogłyby być podobne do wrażeń kierowcy tego sportowego samochodu. I choć w historii było wiele nie do końca udanych porównań IT z motoryzacją, to właśnie takie porównanie pozwala dokładnie zobrazować, co zyskujemy wkraczając w nową erę macierzy opartych o NVMe (Non-Volatile Memory Express). Wyobraźmy sobie tę samą trasę z Wrocławia do Krakowa, ale dołóżmy po cztery pasy ruchu w każdą stronę, usuńmy bramki z opłatami, zlikwidujmy ograniczenia prędkości. Nasz kierowca w sportowym samochodzie mógłby pokonać tę trasę w jedną godzinę jadąc ze średnią prędkością 272km/h.
Protokół SCSI jest z nami 30 lat i powstał w czasach dysków obrotowych, które rządziły się zupełnie innymi prawami niż moduły półprzewodnikowe. Aby wykorzystać potencjał modułów flash potrzebna była nowa technologia komunikacji, zoptymalizowana do specyfiki pracy dysków SSD, w których nie musimy czekać na obrót talerza i pozycjonowanie głowicy, bo każdy obszar pamięci flash może być dostępny niemal natychmiast. Interfejs SAS oferuje jedną kolejkę z 256 komendami, natomiast NVMe to 64 tysiące kolejek i 64 tysiące komend w każdej kolejce. To tak, jakbyśmy zbudowali dodatkowe pasy ruchu na naszych autostradach, a same autostrady wielokrotnie wydłużyli.
Co nam da zrównoleglenie operacji I/O w macierzach NVMe? Najważniejszy aspekt to niski czas odpowiedzi niemal w każdych warunkach. Dzisiaj uzyskanie satysfakcjonujących parametrów w tym zakresie jest niemożliwe do osiągnięcia dla dysków SAS SSD, bo gdy w naszej kolejce jest duży tłok, mamy wiele operacji odczytu i zapisu, to czas odpowiedzi znacznie spada. To przypadek naszego sportowego samochodu, który utknął za wyprzedzającymi się ciężarówkami na wąskiej autostradzie.
Nadszedł czas na macierze w pełni oparte o NVMe, bo już dzisiaj wymagają tego nasze aplikacje i bazy danych, a moduły flash należy projektować w sposób zoptymalizowany dla NVMe. Konstrukcja macierzy NVMe jest też zupełnie inna niż dotychczasowe konstrukcje SAS, do których zdążyliśmy się przyzwyczaić. Zapomnijmy o instalowaniu 20 spółek i 500 dysków w jednej macierzy. Pojemność i wydajność modułów NVMe jest na tyle wysoka, że obecne konstrukcje to często jeden moduł wysokości 2U bez możliwości dokładania półek, gdyż wąskim gardłem i tak są kontrolery, zatem dokładanie dysków nie przyniosłoby przyrostu wydajności.
Optymalizacja parametrów według potrzeb
Przyjrzyjmy się nowej generacji macierzy Hitachi E590, E790 i E990. Pierwsze dwa modele oferują możliwość instalacji maksymalnie 24 dysków bez możliwości dokładania półek. Dyski NVMe są na tyle wydajne, że już nawet 15-20 dysków potrafi przewyższyć wydajnością kontrolery, zatem montowanie więcej niż 24 dysków pod jedną parą kontrolerów nie ma uzasadnienia ekonomicznego i technologicznego. Czy to jest jednak dla nas problem? W macierzach Hitachi możemy instalować moduły NVMe o pojemności nawet 30TB, zatem w jednym urządzeniu o wysokości 2U mamy 720TB surowej pojemności. Dołóżmy do tego mechanizm Adaptive Data Reduction (ADR) i możemy zyskać 4-krotnie więcej dzięki deduplikacji (poziom 4:1 gwarantowany przez Hitachi), osiągając nawet 2PB efektywnej pojemności z jednego urządzenia wysokości 2U. Imponujące! Kiedyś do uzyskania takiej pojemności musieliśmy wypełnić dyskami kilka szaf 42U.
Hitachi gwarantuje zwrot z inwestycji 7:1 oraz dostępność 100%. Jest się to możliwe dzięki nowym narzędziom do zarządzania i monitorowania oraz mechanizmom zaszytym w modułach flash. Do zarządzania pojedynczą macierzą służy wbudowana w kontrolery konsola VSP Embedded Management, natomiast do zarządzania większą ilością macierzy służy aplikacja Hitachi Ops Center, w której zawarte są narzędzia analityczne zapobiegające pojawieniu się potencjalnych problemów. Hitachi jest właścicielem ponad 400 patentów w obszarze flash, które pozwalają m.in. przewidywać czas życia modułów SSD, co w długim okresie zapobiega przestojom i gwarantuje najwyższą niezawodność.
Czym zatem różnią się te trzy modele macierzy? Model E590 został zoptymalizowany kosztowo dla klientów wymagających niskich czasów odpowiedzi dysków NVMe, ale którzy nie wymagają maksymalnej możliwej wydajności operacji I/O. Macierz oferuje 384GB cache i 24 rdzenie CPU. Wracając do analogii motoryzacyjnej może to być nowoczesny samochód kompaktowy. Macierz Hitachi E790 oferuje z kolei maksymalną możliwą wydajność, bo tutaj znajdziemy 64 rdzenie CPU i 768GB pamięci cache. Ten model jest jak nasz sportowy samochód. Model E990 zoptymalizowano pod maksymalną pojemność, bo tylko w tej macierzy możemy zainstalować dodatkowo 3 półki z dyskami NVMe, osiągając maksymalnie 96 dysków NVMe w jednej macierzy. Jest to cecha unikalna wśród macierzy klasy midrange, bo zwykle, nawet jeżeli macierz NVMe pozwala na instalację półek, to są to półki SAS, a nie NVMe. Aby zoptymalizować wydajność tak dużej ilości dysków, macierz wyposażono w 1024GB pamięci cache oraz 56 rdzeni CPU. Model E990 możemy porównać do dużego vana lub ciężarówki z mocnym silnikiem i dużą skrzynią ładunkową.
Jak najlepiej wykorzystać możliwości NVMe?
Przede wszystkim, z tego rozwiązania skorzystają bazy relacyjne i noSQL, analityka, big data. Dyski NVMe działają najwydajniej, gdy są blisko aplikacji, zamontowane w serwerze jako DAS, obsługiwane przez kontroler PCIe procesora. Wtedy opóźnienia są najniższe, a wydajność najwyższa. Użycie konfiguracji DAS ma jednak swoje ograniczenia, w niewielu sytuacjach możemy jej użyć, więc dla rozległych wysokodostępnych konfiguracji i klastrów potrzebujemy macierzy NVMe obsługujących NVMeoF (NVMe over Fabrics). Testy wydajnościowe pokazują, że wydajność konfiguracji NVMeoF z obsługą RDMA w standardzie RoCE jest niemal identyczna, jak dla dysków DAS i bywa prawie dwukrotnie wyższa niż dla połączenia z użyciem SCSI (FC/iSCSI). Jeżeli do nowoczesnej macierzy NVMe podłączymy hosta przy wykorzystaniu sieci SAN (FC lub iSCSI), ale z użyciem protokołu SCSI, to zaobserwujemy wysoką wydajność wynikającą z technologii NVMe wewnątrz macierzy, ale nie będzie ona tak spektakularna, jak w przypadku, gdybyśmy w pełni wykorzystali NVMe end-to-end. Aby to było możliwe, musimy przejść na najnowszej generacji sieci FC o prędkości 32Gb/s, wymieniając zarówno przełączniki, jak i karty FC HBA. Alternatywą jest użycie Ethernet i przejście na karty sieciowe CNA zgodne z RoCEv2. Do tego aplikacje i systemy operacyjne muszą zacząć szeroko wspierać NVMeoF oraz RDMA.
NVMeoF to jeszcze nie wszystko. Potrzebujemy także szerokiego zastosowania PCIe 4.0, zarówno po stronie serwerów, kart HBA, jak i macierzy NVMe. Standard PCIe 4.0 właśnie wchodzi na rynek, a dzisiaj niemal wszędzie korzysta się z PCIe 3.0, w którym port x4 oferuje maksymalnie 3,8GB/s. To i tak więcej niż SAS 12Gb/s, w którym nie przekroczymy 1,5GB/s, jednak dla potencjału NVMe i dzisiejszych modułów NAND to wciąż za mało. Nawet jeżeli włożymy do serwera kartę FC 32Gbps, to szyna PCIe 3.0 nie pozwoli na uzyskanie pełni wydajności. Dopiero popularyzacja PCIe 4.0 uwolni wydajność drzemiącą w protokole NVMe i nowoczesnych układach NAND.
Nowa era
Widzimy zatem, że przygoda z NVMe dopiero się zaczyna, a największe korzyści dopiero przed nami. W ostatnich latach w Polsce obserwowaliśmy wiele dużych inwestycji w sieci SAN najnowszej generacji wspierających NVMeoF. Mamy na rynku bardzo ciekawe macierze NVMe, jak wspomniane wcześniej macierze Hitachi E590/790/990. Wszystko wskazuje na powolny zmierzch leciwego SCSI i początek ery NVMe oraz RDMA.
Tech Data poinformowała o powierzeniu stanowiska Hitachi Vantara Business Development Managera Mariuszowi AL-Dilaimi posiadającemu 9-letnie doświadczenie w branży IT wyniesione z pracy po stronie uznanego vendora (Lenovo Group) oraz uznanego integratora (ADT Group). Obejmując nowe stanowisko Mariusz AL-Dilaimi stawia sobie za cel zbudowanie siatki merytorycznych
i kompetentnych Partnerów Biznesowych, którzy wspólnie z Tech Data będą rozwijać biznes oparty o produkty Hitachi Vantara – to nie tylko rozwiązania storage’owe, ale również szeroko rozumiana analityka, która powoli staję się częścią naszego codziennego życia.
Mariusz AL-Dilaimi swoją przygodę z IT rozpoczął w 2012 r. od pracy po stronie integratora, ADT Group (Account Manager). Był odpowiedzialny za pozyskiwanie nowych klientów, przede wszystkim z zakresu rozwiązań dotyczących przetwarzania, przechowywania i zabezpieczenia danych: serwery, macierze, rozwiązania backupu i archiwizacji, rozwiązania Disaster Recovery oraz Business Continuity. W 2020 r. zdecydował się na rozpoczęcie pracy u vendora, Lenovo Group (Storage Solution Account Manager). Był odpowiedzialny na rozwój produktu storage, obejmujący działania sprzedażowe, marketingowe, edukacyjne skierowane do klientów końcowych oraz partnerów biznesowych. Przed przyjściem do branży IT, Mariusz AL-Dilaimi przez 6 lat był związany z operatorem telekomunikacyjnym, Polkomtel, gdzie zajmując różne stanowiska (Junior Konsultant, Starszy Konsultant, Key Account Manager) odpowiadał za szeroko rozumiane działania sprzedażowe.
Mariusz Ziółkowski, Country General Manager, Tech Data, Polska, komentuje:„Mariusz AL-Dilaimi stał się częścią doświadczonego, doskonale sprawdzonego w realiach rynkowych Zespołu. Zasilając go nową energię oraz niemałą wiedzę merytoryczną przyczyni się, jestem tego pewien, do dalszego wzmacniania pozycji Tech Data w obszarze rozwiązań Hitachi Vantara oraz rozwoju ekosystemu Partnerów Biznesowych. Z ogromną przyjemnością powitałem swojego imiennika w naszej organizacji i życzę mu wielu sukcesów”.
Mariusz AL-Dilaimi ma wykształcenie wyższe. Ukończył Wydział Zarządzania na Uniwersytecie Warszawskim uzyskując stopień magisterski. Dodatkowo ukończył drugi kierunek studiów – filologię rosyjską.
Mariusz AL-Dilaimi raportuje do Pawła Pastora, Lenovo DCG | Hitachi Vantara Business Unit Managera.
Inwestycje publiczne są najlepszą receptą na gospodarcze spowolnienie. – Branża budowlana stanowi 10 proc. PKB Polski, bez niej nie odbudujemy wzrostu i nie wrócimy do normalnego funkcjonowania państwa – ocenia Artur Popko, wiceprezes Budimeksu. Pandemia wstrzymała część inwestycji, zwłaszcza tych, które wymagały ścisłej współpracy z zagranicznymi podwykonawcami. Większość jest jednak realizowanych terminowo. W przypadku Budimeksu 80 proc. kontraktów jest oddawanych przed czasem.
Kryzys związany z koronawirusem sprawił, że niemal wszystkie kraje borykają się z problemami gospodarczymi. W Polsce według szacunków rządu PKB ma się zmniejszyć o 4,6 proc. Remedium na spowolnienie będą inwestycje publiczne, o czym podczas Europejskiego Kongresu Gospodarczego w Katowicach mówił też Mateusz Morawiecki.
– Szczególnie ważne jest uruchomienie wielkich programów inwestycji publicznych i zachęcanie przedsiębiorców do inwestowania – podkreślał premier.
– Każda inwestycja, którą realizuje państwo, bardzo mocno wspiera gospodarkę. Bez branży budowlanej, która stanowi 10 proc. PKB Polski, nie odbudujemy swojego wzrostu. Ona daje możliwość pracy polskim pracownikom, producentom i dostawcom, bo 90 proc. materiałów pochodzi od polskich firm – przekonuje podczas EKG Katowice Artur Popko, wiceprezes Budimeksu. – To wszystko powoduje, że 70 proc. środków, które zainwestuje państwo, wraca z powrotem w formie podatków, ZUS-u czy innych należności.
Raport Polskiego Związku Pracodawców Budownictwa wskazuje, że pandemia uderzyła w ten sektor znacznie mniej dotkliwie niż w inne branże, przede wszystkim dzięki temu, że nie było odgórnej decyzji o wstrzymaniu robót w czasie lockdownu, jak to miało miejsce w Austrii czy Belgii. Duże firmy wykonawcze kontynuują prace budowlane w nowym reżimie sanitarnym z wydajnością ok. 5–20 proc. niższą niż przed pandemią, a kondycja finansowa sektora jest stabilna.
W czerwcowym badaniu BIG InfoMonitor firmy budowlane były najbardziej optymistycznie nastawione do przyszłości spośród pięciu badanych branż (transport, przemysł, handel i usługi). PZPB wskazuje, że optymizmem napawają zapowiedzi o utrzymaniu wysokich nakładów na inwestycje publiczne, głównie w segmencie drogowym, kolejowym, energetycznym i hydrotechnicznym. Branża spodziewa się, że wypełni to lukę po nieuniknionym spadku inwestycji prywatnych i samorządowych. Z drugiej strony wskazuje, że kumulacja projektów publicznych zaostrzy konkurencję między firmami, a to rodzi ryzyko spadku rentowności małych i średnich firm.
Większość przedsiębiorców z branży zabezpiecza się też na wypadek drugiej fali pandemii i ewentualnego lockdownu.
– Podejmujemy środki zaradcze związane ze współpracą z zamawiającymi, zastanawiamy się, jak można prowadzić prace zdalnie czy realizować je tak, żeby nie wstrzymać prac na budowie. Dla każdej firmy wstrzymanie prac to jest ogromna strata. Grupa Budimex zatrudnia 7,5 tys. pracowników, co oznacza miesięcznie 70 mln zł kosztów. Robimy wszystko, co możliwe, żeby nie wstrzymać prac na budowie, żeby nie nastąpił lockdown w drugiej części roku – tłumaczy Artur Popko. – Podpisujemy też umowy z wieloma ośrodkami medycznymi na wykonywanie testów wśród pracowników.
Pandemia koronawirusa miała wpływ na wyniki Grupy Budimex w pierwszej połowie 2020 roku, szczególnie w segmencie budowlanym. Firma oszacowała je na 36 mln zł, na co składają się koszty związane z wydłużeniem czasu realizacji kilku projektów oraz dostosowania przestrzeni pracy do nowych warunków i zakupu środków ochrony osobistej. Jak wskazuje Popko, firma realizuje obecnie jednocześnie 300 inwestycji, a 80 proc. kontraktów jest oddawanych przed terminem.
Pomimo ograniczeń wynikających ze stanu epidemii firma zachowała jednak ciągłość działania we wszystkich segmentach operacyjnych. W segmencie budowlanym od początku roku Budimex podpisał kontrakty o wartości 3,8 mld zł, dzięki czemu portfel zamówień na koniec czerwca wzrósł do 11,6 mld zł.
– Nasze inwestycje można podzielić na infrastrukturalne, tzw. liniowe, realizowane w okresach dwuletnich, i inwestycje energetyczne, przemysłowe, które faktycznie zostały dotknięte problemem pandemii. Bardzo wiele urządzeń i materiałów do nich dowożonych jest spoza granic Polski – dostawy są z Japonii, Włoch czy Niemiec, więc pandemia miała duży wpływ na realizację tych kontraktów – tłumaczy wiceprezes Budimeksu.
Ten problem dotknął m.in. Elektrownię Turów budowaną w konsorcjum z Mitsubishi Hitachi Power System oraz Tecnicas Reunidas.
– Niektóre urządzenia dojeżdżały z półrocznym opóźnieniem. Do dzisiaj odczuwamy te problemy z uwagi na to, że przy zamkniętych granicach i utrudnionym transporcie w ruchu lotniczym część inwestorów czy dostawców w ogóle nie może dojechać na teren Polski. To bardzo mocno i istotnie wpływa na realizację tej inwestycji – przekonuje przedstawiciel Budimeksu.
W lipcu firma podpisała kontrakt na przebudowę stacji Warszawa Zachodnia o wartości 1,8 mld zł. Oprócz tego w poczekalni znajdują się kontrakty o wartości ponad 1,5 mld zł. Wyzwaniem w najbliższych kwartałach będzie pozyskanie kontraktów w części kubaturowej, gdzie widać ograniczenie nowych inwestycji prywatnych oraz częściowe wstrzymanie planowanych inwestycji publicznych.
– To, na czym mocno chcielibyśmy się skupić w najbliższych dwóch latach, to hydrotechnika i linie kolejowe. To są dwie odnogi, które bardzo mocno absorbują nasze inwestycje – zapowiada Artur Popko.
Tech Data poinformowała o powierzeniu stanowiska Business Development Managera Hitachi Vantara Marcinowi Długoszowi, który do zespołu Tech Data dołączył w sierpniu b.r. mając za sobą dwie dekady doświadczenia w branży IT. Obejmując swoją funkcję, Marcin Długosz za główny cel postawił sobie pomoc partnerom w ich podróży przez cyfrową transformację.
W zakresie odpowiedzialności Marcin Długosza znalazły się: rozwój biznesu w oparciu o produkty Hitachi Vantara, współpraca z nowymi partnerami biznesowymi, utrzymywanie dobrych relacji z producentem, wsparcie działu marketingu w promowaniu produktów Hitachi Vantara na polskim rynku.
Marcin Długosz posiada 20-letnie doświadczenie w branży IT. Przed dołączeniem do zespołu Tech Data pracował w 3S Data Center na stanowisku Regional Presales and Business Development Manager. W latach 2015 – 2018 był zatrudniony w K3System jako Presales and Head of Backup&Storage. W latach 2011 – 2015 pracował w Vayana Technologie Informatyczne jako Inżynier wsparcia, Wdrożeniowiec, Integrator. W latach 2000 – 2009, z przerwą w latach 2004 – 2006 na pracę w Dominanta Praska – Office Building (IT Manager), był związany z największymi wydawnictwami prasowymi, w których zajmował stanowiska techniczne: 2009: Hubert Burda Media, IT Support Engineer; 2007 – 2008: Ringier Axel Springer Media AG, IT Specialist; 2000 – 2004: Edipresse Polska, Kierownik w dziale IT.
Mariusz Ziółkowski, Country General Manager, Tech Data, Polska, komentuje: „Witamy serdecznie Marcina na pokładzie Tech Data. Jest to bardzo dobry czas, aby wzmocnić nasze szeregi i wziąć udział w transformacji modelu dystrybucyjnego firmy oraz wzmocnić kompetencje w zakresie Hitachi Vantara. Trzymam kciuki i życzę powodzenia!”
Marcin Długosz studiował europeistykę w warszawskiej Szkole Głównej Handlowej. Obecnie kształci się w Akademii Leona Koźmińskiego studiując zarządzanie przedsiębiorstwem.
Prywatnie Marcin Długosz jest miłośnikiem dobrej kuchni oraz samochodów marki Saab.
Hitachi Capital Polska złożył wniosek w sprawie przejęcia Prime Car Management do Urzędu Ochrony Konkurencji i Konsumentów (UOKiK). Wniosek wpłynął 28 grudnia i jest rozpatrywany przez UOKiK.
Jednocześnie, Hitachi ogłosił wezwanie do sprzedaży akcji PCM. Kurs akcji PCM po ogłoszeniu informacji o zakupie tej spółki przez Hitachi wzrósł o ponad 10 proc. Hitachi ma zamiar kupić 100 proc. akcji PCM, których jest prawie 12 mln, co oznacza, że Hitachi może wydać prawie 144 mln zł.
Hitachi zamierza kupić co najmniej 2/3 akcji PCM, jednak jeśli spółce uda się skupić 90 proc. i więcej, wówczas zapowiedziano rozpoczęcie procedury wycofywania akcji z obrotu na GPW.
Akcjonariusze będą mogli zgłaszać chęć sprzedaży w wezwaniu od 18 stycznia 2019 roku do 18 lutego. Przewidywany dzień zawarcia transakcji ustalono na 21 lutego, a dzień rozliczenia pieniężnego na 26 lutego.
Na dzień ogłoszenia wezwania Hitachi nie posiadał żadnych akcji PCM.
Firma IDC przewiduje, że do 2020 r. rynek analityki związanej z Internetem Rzeczy osiągnie wartość ponad 23 mld USD, a liczba inteligentnych urządzeń generujących dane wyniesie 20,4 mld. Rozwój IoT pozwala poważnie myśleć o realizacji wizji inteligentnych miast, w których analiza zebranych informacji wpływa na poprawę jakości życia mieszkańców. Specjaliści SAS podkreślają, że prawdziwe korzyści wynikające z projektów smart city są dopiero przed nami i zwracają uwagę na fakt, że wiele prowadzonych obecnie inicjatyw skupia się jedynie na niewielkim wycinku miejskiej rzeczywistości. Rozwój inteligentnych miast sprawi, że będziemy musieli uporać się z ogromem danych wymagających analizy w czasie rzeczywistym.
Inwestycje związane z inteligentnymi miastami stanowią priorytet dla władz Unii Europejskiej, które w latach 2014–2020 na szeroko rozumianą ideę smart city przeznaczą nawet 18 mld euro. Na świecie istnieją już inteligentne miasta, których najbardziej wyrazistym przykładem jest Masdar w Zjednoczonych Emiratach Arabskich. Docelowo ma ono być pierwszą samowystarczalną pod względem energetycznym metropolią. Prace nad tym projektem wciąż trwają, a data jego zakończenia była przesuwana kilkukrotnie. To pokazuje jak złożone są to inicjatywy i jak dużo przygotowań wymagają.
Projekty z zakresu smart city nie są tworzone raz na zawsze. Analiza zgromadzonych danych pozwala na wprowadzanie ciągłych usprawnień i korekt. Musimy pamiętać, że ich celem jest przede wszystkim poprawa jakości życia mieszkańców miast, w których są realizowane – tłumaczy Patryk Choroś, Business Development Director w SAS Polska. – Inicjatywy te ewoluują i musi minąć jeszcze dużo czasu, zanim będziemy mogli mówić o prawdziwie inteligentnych miastach, których funkcjonowanie zarówno w obszarze ekonomii, transportu, zarządzania, ochrony środowiska, jak i życia codziennego jest wspierane przez technologie.
W Polsce można już odnaleźć fundamenty dla kompleksowych strategii smart, jednak obecnie realizowane inicjatywy skupiają się na rozwiązaniu konkretnych problemów. Przykładowo w tym roku, w Gdańsku ma zacząć działać system wskazujący wolne miejsca parkingowe w miejskich strefach parkowania, z kolei w Bielsku Białej funkcjonuje jednorodna platforma zarządzania energią. Innym przykładem inteligentnego miasta w Polsce jest Rzeszów, w którym dzięki e-usługom obywatele mogą załatwić sprawy bez potrzeby fizycznej obecności w urzędzie.
Zapanować na danymi z inteligentnych miast
W praktyce droga od idei do realizacji projektów smart city jest bardzo daleka. Mniej lub bardziej inteligentne miasta funkcjonują od tak dawna, że wydawać by się mogło, że koncepcja ta spowszechniała i nie jest już tak atrakcyjna dla inwestorów, jak miało to miejsce jeszcze kilka lat temu. Nic bardziej mylnego. Firma badawcza Frost & Sullivan prognozuje, że rynek inteligentnych miast będzie wart ponad 2 biliony USD już do 2025 r. Oznacza to, że rozwój smart city będzie postępował, a wraz z nim gwałtownie wzrośnie liczba generowanych danych. Stanowi to ogromną szansę dla firm analitycznych, których systemy stanowią integralną część projektów smart city.
Globalne partnerstwo na rzecz IoT i smart city
Dostrzegając rosnącą rolę narzędzi analitycznych w inicjatywach związanych ze smart city oraz Internetem rzeczy, SAS rozpoczął współpracę z Cisco i Hitachi czego efektem jest uczestnictwo w pracach dwóch biznesowych laboratoriów IoT w Lizbonie. Firma realizuje także wspólne projekty z uczelniami wyższymi: Uniwersytetem Technologicznym w Sydney (UTS) i Wyższą Szkołą Inżynierii na Politechnice Nanyang. We wrześniu tego roku SAS został strategicznym partnerem analitycznym Wuxi High-Tech Zone, chińskiego centrum innowacji i transformacji przemysłowej, w dziedzinie analizy Internetu rzeczy. Chiny są obecnie liderem smart city. Jak wynika z danych Deloitte, połowa projektów pilotażowych inteligentnych miast, które realizowane są obecnie na świecie, zlokalizowana jest właśnie w Państwie Środka.
Ponadto SAS rozpoczął budowę sieci biur dedykowanych Internetowi rzeczy i smart city. Na początku tego roku otwarto globalny oddział IoT, którego celem jest wspieranie wykorzystania inteligentnych urządzeń w przestrzeni miejskiej. Ponadto biura SAS w Sao Paulo i Mexico City zostaną rozbudowane o IoT Experience Centers, w których poza przestrzenią demo znajdzie się również miejsce do pracy dla lokalnych startupów poszukujących wskazówek i wsparcia w zakresie Internetu rzeczy. W 2019 roku, w globalnej siedzibie SAS, w Karolinie Północnej planowane jest otwarcie laboratorium IoT.
Przykłady wykorzystania analityki w projektach smart city:
Analiza danych pochodzących m.in. od uczniów, z autobusów szkolnych oraz inteligentnych urządzeń z danego sąsiedztwa pozwoliły na zmniejszenie liczby środków transportu szkół publicznych w Bostonie o 50 pojazdów oraz przyczyniły się do ograniczenia liczby pokonywanych przez nie kilometrów aż o milion rocznie.
Urząd miasta Cary w Karolinie Północnej korzysta z systemów analitycznych SAS do monitorowania zużycia wody, co ma kluczowe znaczenie przy planowaniu rozbudowy instalacji wodnych i pozwala na prowadzenie działań na rzecz ochrony środowiska.
Departament Finansów w hrabstwie Wake County w Karolinie Północnej wykorzystuje narzędzia SAS do prognozowania wartości rynku nieruchomości.
Lokomotywy GE Transportation są wyposażone w czujniki umożliwiające zbieranie danych dotyczących m.in. zużycia paliwa. Analiza informacji pochodzących z pojazdów pozwala również na organizację ruchu w taki sposób, aby pociągi kursowały zgodnie z rozkładem.
Zważywszy na to, że dysk jest najważniejszą, dla wielu, częścią komputera, nie każdy z użytkowników przykłada wagę do jego stanu. Być może dlatego, że nie jest to najdroższy z elementów w komputerze. Martwimy się o temperaturę procesora, czy grafiki, ale to właśnie na dysku przechowujemy wszystko co najcenniejsze- zdjęcia, dokumenty, kontakty, pocztę i wiele innych plików. Usterki dysków twardych niestety nie zdarzają się rzadko i tylko właściwe działanie w odpowiednim momencie może nas uchronić od wydatków na skomplikowane i kosztowne odzyskiwanie danych. Rafał Smoliński z Centrum Odzyskiwania Danych z Warszawy przybliży z jakimi objawami można się spotkać przed awarią dysku twardego.
Objawy uszkodzonego dysku twardego
Uszkodzenia dysku mogą być logiczne lub fizyczne. Błędy logiczne to najczęściej uszkodzenia partycji, tablic partycji lub systemu plików.
W tym artykule dokładniej przyjrzymy się uszkodzeniom fizycznym.
– Objawy uszkodzonej elektroniki sterującej: Uszkodzona elektronika dysku twardego objawia się na ogół tak, że dysk nie rozkręca talerzy i wydaje się nie działać w ogóle.
– Objawy związane z uszkodzeniami mechanicznymi dysku: W odróżnieniu od uszkodzonej elektroniki w dysku uszkodzonym mechanicznie możliwych jest kilka objawów, które można łatwo zaobserwować:
Komputer pracuje znacznie wolniej niż normalnie. Dysk zawiesza komputer/laptop lub powoduje wyświetlanie niebieskich ekranów tzw. bluescreen-ów. Tego typu problemy pojawiają się przeważnie gdy na dysku są Bad Sectory czyli sektory o spowolnionym lub bardzo długim czasie dostępu lub głowice mają problemy ze skutecznym zapisem i odczytem.
Brak dostępu do niektórych folderów czy nietypowe zachowanie systemu operacyjnego
Dysk wydaje nietypowe odgłosy – klika, piszczy, chrobocze. To typowe symptomy uszkodzeń mechanicznych dysku. Niestety najczęściej w takich przypadkach problemem są newralgiczne elementy mechanizmu – głowice, silnik, bądź, w niektórych przypadkach, powierzchnia talerzy.
Wymienione objawy są charakterystyczne dla wszystkich dysków talerzowych bez względu na producenta. Nie ma znaczenia czy dysk został wyprodukowany przez HGST, Seagate-a, WD, Samsung-a, Hitachi czy Toshibę. Technologia ich wykonywania jest bardzo podobna. Wszystkie zachowują się podobnie jeśli dojdzie do uszkodzenia.
Jest tylko jedna metoda by zapobiec utracie Danych – systematyczne wykonywanie kopii zapasowych. Jeżeli masz problem z odczytem informacji z dysku – nie postępuj pochopnie. Staraj się nie używać już tego dysku, ani nie skanować go różnymi programami. Odłącz go i przyjdź do naszego laboratorium – a u nas otrzymasz fachową POMOC.
Firma Micfo, dostawca usług Infrastructure as a Service (IaaS), ogłosiła otwarcie pięciu biur w nowych lokalizacjach. Tym samym firma poszerza swój globalny zasięg, który obecnie obejmuje 45 centrów danych na pięciu kontynentach. Dwa nowe biura znajdują się na terenie Stanów Zjednoczonych: w Las Vegas i Minneapolis. Pozostałe biura są w Moskwie, Paryżu i Johannesburgu.
Ponadto firma ogłosiła także, że do jej kadry kierowniczej dołączy dwóch doświadczonych w branży specjalistów: David Park i Melyssa Banda. Siedziba firmy znajduje się w Charleston w Karolinie Południowej i stąd w ciągu minionych prawie dwudziestu lat firma Micfo rozbudowała wiodącą w branży platformę. Obecnie firma prowadzi jedną z największych sieci rozproszonych po całym świecie platform chmury obliczeniowej na potrzeby aplikacji typu fog i edge.
Micfo w znaczący sposób przyczyniła się do powodzenia naszej działalności we wszystkich latach wykładniczego wzrostu – skomentował Uzair Gadit, główny dyrektor wykonawczy firmy PureVPN. – Firmy jest dość spora, ale bez minusów dużego rozmiaru. Wyżej postawieni pracownicy, aż po samego dyrektora, zawsze mają pełny wgląd w sytuację, co odzwierciedla skupione na kliencie podejście firmy – dodał dyrektor.
Micfo planuje dalszy wzrost w nadchodzących miesiącach. Nowi członkowie kadry kierowniczej David Park i Melyssa Banda wniosą lata doświadczenia, które wesprą szybki rozwój firmy. Zajmujący uprzednio stanowiska kierownicze w zakresie technologii w firmach Hitachi Data Systems, Samsung i Microsoft Park będzie nadzorował innowacje inżynieryjne w firmie Micfo. Natomiast Banda, uprzednio na stanowiskach dyrektora produktu i marketingu w firmach Western Digital i TP-Link, zajmie się sprzedażą i operacjami.
W teście SAP BW Edition for SAP HANA dla wolumenu danych 1,3 mld rekordów w jednym węźle najlepszą na rynku wydajność oferuje 4-procesorowy serwer Lenovo x3850 X6 z procesorami Intel Xeon E7-8894 v4. Poniżej przedstawiamy podsumowanie wyników osiągniętych w teście SAP BW Edition for SAP HANA (BW/4HANA) przez System x3850 X6, które zostały opublikowane 7 lutego br. Tekst prezentuje szczegółowe wyniki, główne komponenty testowanej konfiguracji i zawiera odsyłacze do stron internetowych
z dodatkowymi informacjami związanymi z wynikiem.
7 lutego br. Lenovo przedstawiło rekordowe wyniki osiągnięte w teście SAP BW Edition for SAP HANA przez serwer x3850 X6, z 4 procesorami Intel Xeon, SAP HANA 1.0 oraz SAP NetWeaver 7.50. Benchmark pokazuje wydajność aplikacji SAP BW (Business Warehouse) uruchamianej na platformie SAP HANA.Czteroprocesorowy serwer Lenovo x3850 X6 z procesorami Intel Xeon E7-8894 v4 osiągnął najlepszy na rynku wynik w teście wydajnościowym (1) SAP BW Edition for SAP HANA Benchmark (4) dla wolumenu danych 1,3 mld rekordów w konfiguracji jednowęzłowej.
Standardowy test SAP BW Edition for SAP HANA (BW/4HANA) to najnowsza pozycja na liście benchmarków SAP BW. Znacznie wykracza on poza zakres i oferuje nowe funkcje zastosowane w teście BW-AML. Nowy benchmark pozwala na wykorzystanie w pełni nowych możliwości SAP HANA do przetwarzania obciążeń testowych.
Benchmark składa się z trzech etapów:
Fazy ładowania danych
Fazy przetwarzania zapytań
Fazy wykonywania zapytań
Czteroprocesorowy serwer Lenovo x3850 X6 na SAP HANA zademonstrował ogromną przewagę wydajności, biorąc pod uwagę wszystkie wskaźniki KPI (Key Performance Indicators) w każdej fazie testu. Zaprezentowano to w poniższej tabeli.
Data certyfikacji
Partner technologiczny
Faza 1: całkowity czas trwania procesów ładowania/transformacji danych (w sekundach)
Faza 2: liczba przetworzonych zapytań w ciągu godziny/wybrane rekordy
Faza 3: całkowity czas trwania fazy złożonych zapytań (w sekundach)
2/7/2017
Lenovo
14,939
4,273/215,902,670,995
154
12/7/2016
Hitachi (2)
17,711
3,464/176,268,276,419
178
8/24/2016
Dell (3)
21,473
1,972/102,183,318,183
202
Zgodnie z danymi zaprezentowanymi w tabeli, Lenovo jest lepsze od Hitachi (2) oraz Della (3), biorąc pod uwagę wszystkie trzy wskaźniki KPI:
W Fazie 1- Lenovo jest lepsze od Hitachi o 15,7% oraz lepsze od Della o 30,4%
W Fazie 2 – Lenovo jest lepsze od Hitachi o 23,4% oraz lepsze od Della o 116,7%
W Fazie 3 – Lenovo jest lepsze od Hitachi o 13,5% oraz lepsze od Della o 23,8%
Od lat serwery Lenovo oferują firmom konkurującym w warunkach cyfrowej gospodarki istotne przewagi w zakresie obsługi różnorodnych obciążeń związanych z aplikacjami SAP. Poczynając od dużych przedsiębiorstw posiadających wielkie centra danych, po niewielkie biura z ograniczonymi zasobami IT – aplikacje SAP uruchamiane na serwerach x86, pamięciach i za pomocą oprogramowania Lenovo pomagają organizacjom dopasowywać do swoich potrzeb i integrować procesy biznesowe. Ułatwiają również wprowadzanie nowych sposobów komunikacji z pracownikami, partnerami, dostawcami i klientami.
Lenovo pomaga klientom zwiększać efektywność oraz w pełni wykorzystywać inwestycje
w IT do osiągania większej wartości biznesowej. Lenovo x3850 X6 zapewnia niezawodność oraz dostępność charakterystyczną dla rozwiązań klasy enterprise, które są niezbędne do uruchamiania krytycznych aplikacji biznesowych na SAP HANA. Lenovo dostarcza prostei skalowalne rozwiązania dla SAP HANA. Dzięki temu jest globalnym liderem w tym obszarze, mając na swoim koncie ponad 6,8 tys. wdrożeń SAP HANA.
Opis wyników jest aktualny na dzień 7 lutego 2017 r. Najnowsze wyniki testów SAP znajdują się na stronie http://www.sap.com/benchmark.
(1) Ten test jest w pełni zgodny z regulacjami SAP Benchmark Council oraz był poddany audytowi, a następnie został certyfikowany przez SAP SE (numer certyfikacji 2017003). Dodatkowe szczegóły można uzyskać, zwracając się do Lenovo i SAP. Test został przeprowadzony w ośrodku Lenovo Data Center Performance Lab w Research Triangle Park w USA przez inżynierów Lenovo. Konfiguracja: Lenovo System x3850 X6, 4 procesory/96 rdzeni/192 wątki, procesor Intel Xeon E7-8894 v4, 2,40 GHz, 64 KB cache L1 oraz 256 KB cache L2 per core, 60 MB cache L3 per CPU, pamięć główna – 2048 GB
(2) Publikacja Hitachi dla wolumenu danych 1,3 mld rekordów w jednym węźle (numer certyfikacji: 2016062): Hitachi Compute Blade 520XB3, 4 procesory 88 rdzeni/176 wątków, procesor Intel Xeon E7-8880 v4, 2,20 GHz, 64 KB cache L1 oraz 256 KB cache L2 per core, 55 MB cache L3 per CPU, pamięć główna – 2048 GB, SAP HANA 1.0, SAP NetWeaver 7.50 oraz SUSE Linux Enterprise Server 12
(3) Publikacja Dell Dell dla wolumenu danych 1,3 mld rekordów w jednym węźle (numer certyfikacji: 2016043): Dell PowerEdge R930, 4 procesory/96 rdzeni/192 wątki, procesor Intel Xeon E7-8890 v4, 2,20 GHz, 64 KB cache L1 oraz 256 KB cache L2 per core, 60 MB cache L3 per CPU, pamięć główna – 1024 GB, SAP HANA 1.0, SAP NetWeaver 7.50 oraz SUSE Linux Enterprise Server 12
(4) Standardowy test wydajnościowy SAP BW Edition for SAP HANA to najnowsza pozycja na liście benchmarków dla SAP BW. W pełni wykorzystuje możliwości SAP HANA do przetwarzania obciążeń testowych. Dopuszczalne wolumeny danych to wielokrotność 1,3 mld wstępnych rekordów w konfiguracji jedno- lub wielowęzłowej. Benchmark został udostępniony w lipcu 2016 r.
Zarządzaj swoją prywatnością
Żeby zapewnić najlepsze wrażenia, my oraz nasi partnerzy używamy technologii takich jak pliki cookies do przechowywania i/lub uzyskiwania informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam oraz naszym partnerom na przetwarzanie danych osobowych, takich jak zachowanie podczas przeglądania lub unikalny identyfikator ID w tej witrynie. Brak zgody lub jej wycofanie może niekorzystnie wpłynąć na niektóre funkcje.
Kliknij poniżej, aby wyrazić zgodę na powyższe lub dokonać szczegółowych wyborów. Twoje wybory zostaną zastosowane tylko do tej witryny. Możesz zmienić swoje ustawienia w dowolnym momencie, w tym wycofać swoją zgodę, korzystając z przełączników w polityce plików cookie lub klikając przycisk zarządzaj zgodą u dołu ekranu.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.