Tag: Dell

  • Microsoft i Google zainwestują nad Wisłą ponad 3 mld USD

    Microsoft i Google zainwestują nad Wisłą ponad 3 mld USD

    Google i Microsoft zadeklarowały, że w najbliższych latach zainwestują w Polsce w sumie 3 mld dol., tworząc kilka tysięcy miejsc pracy. Dzięki inwestycjom big-techów – które dadzą impuls krajowej gospodarce – Polska ma stać się głównym hubem cyfrowym w regionie Europy Środkowo-Wschodniej. Amerykanie już w tej chwili są drugim największym inwestorem nad Wisłą – zarówno pod względem zainwestowanych środków, jak i nowo utworzonych miejsc pracy. W ciągu ostatnich 20 lat dzięki inwestycjom firm z USA do Polski trafiło ok. 17 mld zł, a zatrudnienie znalazło ponad 70 tys. osób. Co istotne, średnio co czwarty projekt amerykańskiej firmy w naszym kraju jest związany z rozwojem nowych technologii.

    – Stany Zjednoczone są drugim największym w Polsce inwestorem pod względem nakładów inwestycyjnych. To blisko 60 mld zł zainwestowanych od początku lat 90., choć nasze szacunki pokazują, że ta kwota może sięgać nawet 200 mld złmówi Jan Kamoji-Czapiński, dyrektor Centrum Inwestycji Strategicznych Polskiej Agencji Inwestycji i Handlu.

    PAIH obsługuje łącznie inwestycje o wartości kilkunastu miliardów złotych rocznie. W ciągu ostatnich trzech lat odnotowała ponaddwukrotny wzrost – z 6 mld zł w 2016 roku do blisko 13 mld zł w ubiegłym roku. Wśród 260 projektów, które wsparła w tym czasie, ponad 1/4 (26 proc.) pochodziła właśnie ze Stanów Zjednoczonych. To 70 amerykańskich inwestycji o łącznej wartości blisko 5 mld zł, dzięki którym powstało w Polsce 22 tys. nowych miejsc pracy. W tej chwili agencja wspiera ponad 30 kolejnych amerykańskich inwestycji nad Wisłą.

    – Główne atuty polskiego rynku to z pewnością jakość pracowników, ich wykształcenie, znajomość języków obcych. To przyciągało dotąd wszystkich inwestorów, nie tylko amerykańskich. Akurat w ich przypadku atutem Polski jest również bliskość geopolityczna ze Stanami Zjednoczonymi. Nasze partnerskie stosunki są ważnym czynnikiem, podobnie jak dostępność i jakość infrastruktury, która znacząco poprawiła się w ostatnich latach – mówi Jan Kamoji-Czapiński.

    W sumie, począwszy od 2000 roku, PAIH (wcześniej jako PAIiIZ) wsparła już ponad 200 amerykańskich inwestycji w Polsce, których łączna wartość przekroczyła 4 mld euro (17 mld zł) i dzięki którym powstało nad Wisłą blisko 70 tys. miejsc pracy.

    – Szacujemy jednak, że ta kwota może być wielokrotnie wyższa i sięgać ok. 60 mld zł, ponieważ amerykańskie firmy wielokrotnie reinwestują tu swoje zyski – mówi dyrektor Centrum Inwestycji Strategicznych PAIH.

    Tylko w tym roku Polska Agencja Inwestycji i Handlu wsparła już siedem amerykańskich inwestycji z takich branż jak nowoczesne usługi dla biznesu (BSS), elektronika i AGD. Wśród nich jest m.in. projekt firmy Hyland Software, która planuje utworzyć w Polsce centrum badawczo-rozwojowe, gdzie blisko 80-osobowy zespół inżynierów będzie rozwijać nowe produkty i usługi na potrzeby międzynarodowej grupy. Również w tym roku specjalizująca się w przetwarzaniu danych firma Mohawk zatrudniła 30 programistów i otworzyła swoje biuro w Krakowie. Tam też ruszył najnowszy projekt amerykańskiej spółki Aptiv. Należące do niej centrum badawczo-rozwojowe zatrudnia już ponad 2 tys. inżynierów i 900 specjalistów korporacyjnych i jest jednym z największych laboratoriów B+R firmy na świecie.

    Prawie 60 proc. amerykańskich projektów nad Wisłą dotyczy sektora nowoczesnych usług dla biznesu, który odpowiada za ok. 340 tys. miejsc pracy. Jednak średnio co czwarta jest związana z rozwojem wysokich technologii (procesy IT i B+R). To istotne o tyle, że udział tego typu projektów wśród wszystkich obsłużonych przez PAIH od 2000 roku wyniósł raptem 10 proc.

    – Branża nowoczesnych technologii IT z pewnością pozostaje perspektywiczna. Ogłoszona niedawno inwestycja Microsoftu i Google’a pokazuje, że będą to gigantyczne inwestycje w centra danych, ale również usługi z nimi związane. W przyszłości liczymy głównie na nowoczesne technologie czy sektor motoryzacyjny, w szczególności związany z elektromobilnością – mówi Jan Kamoji-Czapiński.

    Jak poinformował w tym tygodniu szef Polskiego Funduszu Rozwoju Paweł Borys, Google i Microsoft zadeklarowały, że w najbliższych latach zainwestują w Polsce w sumie 3 mld dol. Na początku przyszłego roku nad Wisłą ma wystartować najpierw warta 1,5–2 mld dol. inwestycja w Google Cloud, dzięki której powstanie kilka tysięcy nowych miejsc pracy. Z kolei Microsoft w maju podpisał z operatorem Chmury Krajowej porozumienie, na mocy którego utworzy w Polsce wart około 1 mld dol. regionalny hub technologiczny, czyli pierwszy region przetwarzania danych tej firmy w Europie Środkowo-Wschodniej. Oba projekty mają znacząco napędzić krajową gospodarkę i uczynić z Polski główny, cyfrowy hub w tym regionie Europy.

    Jak dotąd trójkę największych pod względem nakładów inwestorów z USA stanowiły GM Manufacturing, Dell i Guardian Częstochowa. Z kolei największą liczbę nowych miejsc pracy nad Wisłą utworzyły Amazon, IBM i Dell.

  • Z powodu pracy zdalnej podczas pandemii gwałtownie wzrosła ilość przesyłanych danych

    Z powodu pracy zdalnej podczas pandemii gwałtownie wzrosła ilość przesyłanych danych

    W ciągu ostatniego roku ilość danych, którymi zarządzają firmy na świecie, wzrosła o 40 proc. Pandemia koronawirusa sprawiła, że tempo to przyspieszyło w pierwszych miesiącach tego roku, chociażby ze względu na przejście większości przedsiębiorstw na tryb pracy zdalnej. Wzrost ilości danych to jednak przede wszystkim wzrost ryzyka ich utraty, co może skutkować dużymi stratami finansowymi. Jak wynika z nowego badania Dell Technologies, największym zagrożeniem dla bezpieczeństwa danych jest dziś rosnąca liczba cyberataków. Może być to także awaria sprzętu czy zwykły błąd ludzki skutkujący wykasowaniem danych. W ciągu ostatniego roku aż 82 proc. organizacji miało do czynienia z takimi zakłóceniami w swojej działalności.

    Jak wynika z opublikowanego w marcu badania Dell Technologies „Global Data Protection Index 2020 Snapshot”, organizacje na całym świecie zarządzają o prawie 40 proc. większą ilością danych niż jeszcze rok wcześniej. To w tej chwili 13,53 petabajtów (PB) danych, co stanowi wzrost nie tylko względem ubiegłego roku (9,70 PB), ale również znaczący skok – bo aż o 830 proc. – w porównaniu z 1,45 PB w 2016 roku.

    – Spodziewamy się, że w 2025 roku będziemy globalnie mieć już 175 zetabajtów danych – mówi Daniel Olkowski, architekt rozwiązań Dell Technologies.

    Pandemia koronawirusa spowodowała, że w ostatnich miesiącach ogromne wzrosty zanotowały serwisy do zdalnego komunikowania się. Według serwisu Apptopia zyskały takie aplikacje jak Zoom (z 2 do blisko 7 mln użytkowników), Google Classroom (z 2 do 5 mln użytkowników) czy Microsoft Teams (z 0,5 do ponad 2 mln). Tymczasem w mediach pojawiają się informacje, że niektóre aplikacje służące do komunikacji nie zawsze gwarantują pełną ochronę przesyłanych danych.

    Im więcej danych gromadzi firma, tym większe wyzwania związane z ich ochroną. W badaniu Dell Technologies 81 proc. respondentów zadeklarowało, że ich obecne rozwiązania do ochrony danych nie będą w stanie zaspokoić wszystkich przyszłych potrzeb biznesowych. Największym zagrożeniem dla bezpieczeństwa jest zaś rosnąca liczba zakłóceń – od cyberataków do przestojów i utraty danych. W ciągu ostatniego roku 82 proc. organizacji (wobec 76 proc. w 2018 roku) miało do czynienia z takimi zakłóceniami w swojej działalności, a 68 proc. obawia się ich również w ciągu nadchodzących 12 miesięcy.

    – Większość firm doświadczyła cyberataku. Niektóre doświadczają nawet kilkunastu bądź kilkudziesięciu tego typu incydentów dziennie, choć większość z nich jest nieudana. Te ataki mogą być różnego typu: phishing mail, atak hakerski, exploit wpuszczony ze środka. Metod jest bardzo wiele, a kreatywność hakerów nieograniczona. Są nawet strony, gdzie można zamówić wirusa, który zostanie stworzony specjalnie dla nas. Dlatego nasi respondenci zdecydowanie podkreślają, że cyberataki są jednym z głównych zagrożeń dla ochrony danych i biznesu jako całości – wskazuje Daniel Olkowski.

    Jak podkreśla, cyberatak to niejedyne ryzyko utraty danych. Częstą przyczyną bywają również: awaria sprzętu, wadliwie działająca aplikacja czy zwykły błąd ludzki i przypadkowe wykasowanie istotnych informacji.

    – Utrata danych pojedynczej firmy to jest problem punktowy, ewentualnie problem kilku powiązanych z nią firm. Zdarza się jednak, że niemożność działania pojedynczego kontrahenta skutkuje zatrzymaniem całego łańcucha dostaw, a często też niemożnością funkcjonowania całych branż. Można to sobie wyobrazić na przykładzie dostaw samochodów. Jeżeli fotele do aut nie dojeżdżają na czas, wówczas cała produkcja staje, co powoduje perturbacje na rynku samochodowym. To ma wpływ na całą światową gospodarkę – przekonuje ekspert.

    Utrata danych zawsze bowiem wiąże się ze stratami finansowymi. Z badania Dell Technologies wynika, że w ciągu ubiegłego roku średni koszt utraty danych wzrósł do ponad 1 mln dol. z 995,6 tys. dol. rok wcześniej. Z kolei średni koszt przestoju z tego powodu wzrósł o 54 proc. – w 2019 roku ich szacowany koszt przekroczył już 800 tys. dol. rocznie.

    – Nieważne, czy jesteśmy firmą marketingową, produkcyjną, czy finansową – w każdym przypadku utrata danych bądź brak możliwości kontynuowania produkcji wiąże się z konkretnymi stratami, ale te skutki są dalekosiężne, gdyż klienci odwracają się i przechodzą do konkurencji – mówi Daniel Olkowski.

    Co istotne, koszty finansowe są znacznie większe w przypadku organizacji korzystających z rozwiązań do ochrony danych pochodzących od różnych producentów. Takie przedsiębiorstwa mają do czynienia z prawie dwa razy wyższymi kosztami przestojów i prawie pięciokrotnie wyższymi kosztami utraty danych. Organizacje korzystające z usług więcej niż jednego dostawcy rozwiązań są też prawie dwa razy bardziej narażone na incydenty, które mogą uniemożliwić im dostęp do danych. Mimo to korzystanie z produktów wielu dostawców jest coraz popularniejsze – 80 proc. organizacji zdecydowało się na wdrożenie rozwiązań do ochrony danych pochodzących od więcej niż jednego producenta (wzrost o 20 pkt proc. od 2016 roku).

    – Dzisiaj IT przeżywa transformację: mamy Internet of Things, systemy sztucznej inteligencji, wirtualizację, chmurę publiczną, cloud native. Nie wszystkie rozwiązania do ochrony danych nadążają za bardzo dynamicznym rozwojem branży. Również wartość danych zmienia się w czasie. Przykładowo, dane z kamery samochodowej są praktycznie bezwartościowe, dopóki nie zdarzy nam się wypadek. Dlatego też zupełnie inna musi być ochrona danych, które są istotne, i takich, które możemy pominąć. Respondenci zwracają uwagę, że powoduje to wzrost złożoności systemów, nad którymi nie są w stanie zapanować – mówi ekspert.

    Jak wynika z nowego badania Dell Technologies, większość firm inwestuje już w nowe technologie, z których najpopularniejsze to aplikacje cloud native (58 proc.), sztuczna inteligencja i uczenie maszynowe (53 proc.), aplikacje typu oprogramowanie jako usługa (SaaS, 51 proc.), sieci 5G i infrastruktura brzegu sieci (49 proc.) oraz internet rzeczy (36 proc.). Mimo potencjalnych korzyści aż trzy czwarte organizacji jest jednak zdania, że zwiększają one złożoność ochrony danych. 61 proc. twierdzi, że stanowią wręcz zagrożenie dla ochrony danych.

    – Firmy potrzebują systemów, które w sposób automatyczny zapewnią im zabezpieczenie całości danych i będą w stanie adaptować się do nowego środowiska, w przypadku zmieniającej się infrastruktury nie będą wymagać udziału człowieka, aby nowe systemy były automatycznie chronione – mówi architekt rozwiąząń Dell Technologies. – Respondenci wskazują też, że potrzebują systemów, które ochronią ich przed cyberatakami. Stąd widoczny w tej chwili trend budowania rozwiązań cyber recovery, cyfrowych bunkrów, które zapewniają bezpieczeństwo i przetrwanie danych w przypadku ataku hakera, ransomware czy jakiegokolwiek innego.

  • Studia online w WSB dzięki technologiom VMware

    Studia online w WSB dzięki technologiom VMware

    Obecna sytuacja związana z COVID-19 sprawiła, że pracownicy akademiccy i studenci muszą pozostać w domach. Czy to oznacza, że większość uczelni musiała przerwać nauczenie? Nie w czasach gdy do komunikacji potrzebne jest tylko stabilne połączenie z Internetem. Na całym świecie uniwersytety przechodzą na nauczanie online. Wśród nich polskie uczelnie m.in. Wyższa Szkoła Bankowa we Wrocławiu, która udostępnia swoim studentom wirtualne laboratoria.

    Gdy dwa lata temu prestiżowy magazyn Times zapytał przedstawicieli najważniejszych światowych uczelni wyższych co myślą o edukacji online, tylko 24 proc. z nich przyznało, że taka forma edukacji może stać się podstawą kształcenia. Dla 63 proc. przebadanych zdalna edukacja miała do 2030 r. stać się stałym punktem oferty edukacyjnej, ale tylko w formie dodatkowych zajęć. Dzisiaj, kryzysowa rzeczywistość weryfikuje te opinie i to w najbardziej dotkliwy sposób.

    Innowacyjna edukacja w czasach pandemii

    Wyższa Szkoła Bankowa we Wrocławiu to największa niepubliczna uczelnia na Dolnym Śląsku. Dzięki nowoczesnym technologiom stosowanym przez uczelnię studenci mają okazję uczyć się pracy w zaawansowanych środowiskach teleinformatycznych oraz na specjalistycznym oprogramowaniu. Dzięki technologiom VMware, amerykańskiego dostawcy oprogramowania i wsparciu polskiej firmy Advatech, WSB we Wrocławiu utrzymała ciągłość tych działań edukacyjnych.

    – Na naszej uczelni cenimy sobie interakcję, żywą dyskusję i bezpośredni kontakt. Wszyscy jesteśmy teraz jednak w sytuacji wyjątkowej, w której musimy się na nowo odnaleźć – mówi Piotr Spychała, Wicekanclerz Wyższej Szkoły Bankowej we Wrocławiu. – Nasze motto brzmi: pomagamy rozumieć świat – innowacyjni, przyjaźni, praktyczni. W myśl tej idei wykorzystujemy nowoczesne rozwiązania technologiczne m.in. od firmy VMware. Dzięki nim nasi studenci mogą dalej studiować w bezpiecznych dla siebie warunkach, w domu, z wykorzystaniem Internetu – dodaje.

    Uczelnia od dawna wykorzystuje technologię VDI (Virtual Desktop Infrastructure), opartą o rozwiązanie VMware Horizon. Dzięki temu, że rozwiązanie to jest funkcjonującym już standardem dla sal laboratoryjnych – w bardzo krótkim czasie możliwe było udostępnienie zasobów na zewnątrz i oddanie studentom do swobodnej dyspozycji tych samych wirtualnych desktopów, z których korzystali na co dzień na uczelnie. W takich okolicznościach jak dzisiaj daje to studentom i wykładowcom dostęp do akademickich systemów z dowolnego miejsca na świecie.

    Kształt cyfrowej edukacji

    Decyzją władz uczelni większość zajęć odbywa się obecnie online z wykorzystaniem różnorodnych platform e-learningowych. Są to zarówno wykłady jak i ćwiczenia. Laboratoria, które wymagają dostępu do specjalistycznych systemów i aplikacji były jednak sporym wyzwaniem. Dzięki technologii VMware Horizon użytkownicy mają pełen, zdalny dostęp do kilkuset wirtualnych stanowisk komputerowych z systemami Windows i Linux. Cały ten system został podzielony na odpowiednie pule zasobowe, umożliwiające nauczenie z różnych specjalizacji.

    – Przy wykorzystaniu technologii VMware praktycznie wszystkie stanowiska laboratoryjne działają w kompletnie wirtualnym środowisku, zapewniając obsługę użytkowników w każdej nawet najbardziej nietypowej sytuacji – mówi Paweł Kołodko, Dyrektor Działu IT Wyższej Szkoły Bankowej we Wrocławiu. – Studenci i wykładowcy wykorzystując jedynie przeglądarkę na swoich komputerach, tabletach lub telefonach uzyskują możliwość zdalnego dostępu do laboratoriów praktycznie z dowolnego miejsca – dodaje.

    Dostęp do wirtualnych desktopów uczelnia zapewnia studentom w trybie całodobowym, przez cały tydzień. Prowadzący zajęcia korzystają także z modułu HelpDesk, z pomocą którego uzyskują szybki dostęp do pulpitu danego studenta oraz możliwość podjęcia interakcji z nim (przejęcia myszki, zdalnej pomocy etc.) i szybkiej pomocy podczas prowadzenia zajęć. Część przedmiotów prowadzona jest z wykorzystaniem aplikacji do telekonferencji. W tym wypadku możliwe jest uruchomienie aplikacji Teams bezpośrednio na pulpicie zdalnym.

    Wdrożenie na miarę ciągłości biznesowej

    Wyższa Szkoła Bankowa we Wrocławiu od lat korzysta z wdrożonych przez Advatech zaawansowanych rozwiązań wirtualizacyjnych od VMware. Samo rozwiązanie VDI w Wyższej Szkole Bankowej we Wrocławiu oparte jest o stos technologii: VMware vSphere, VMware vSAN, a także technologię NVIDIA GRID oraz przełączniki Dell Technologies.

    – Wirtualizując laboratoria akademickie kilku polskich uczelni jeszcze parę lat temu nie spodziewaliśmy się oczywiście takiego rozwoju wypadków i to w takim tempie. Planowaliśmy oczywiście udostępnianie wirtualnych maszyn studentom, aby mogli mieć dostęp do specjalistycznego oprogramowania z domu i móc przygotowywać się do zajęć, ale rozwój wydarzeń dobitnie pokazał, że elastyczność rozwiązań wirtualnych oraz definiowanych programowo potrafi wręcz czynić cuda w najmniej spodziewanych momentach – komentuje Paweł Chrobak, kierownik działu wirtualizacji w firmie Advatech.

    Stworzone środowisko do nauki online jest w pełni funkcjonalne, włącznie z wymagającymi aplikacjami graficznymi do wizualizacji prowadzonych ćwiczeń i symulacji. Komunikacja na linii student-wykładowca jest szyfrowana odpowiednimi certyfikatami SSL, co zmniejsza ryzyku wycieku wrażliwych danych.

  • Adrian McDonald prezesem Dell Technologies w regionie EMEA

    Adrian McDonald prezesem Dell Technologies w regionie EMEA

    Z dniem 3 lutego 2020 r. Adrian McDonald obejmie stanowisko prezesa Dell Technologies w regionie EMEA. Na nowym stanowisku będzie odpowiadać za wszystkie obszary działalności w regionie Europy, Bliskiego Wschodu i Afryki, w tym komputery PC, serwery oraz pamięci masowe i usługi.

    McDonald ma ponad 30 lat doświadczenia w branży informatycznej. Doskonale zna specyfikę całego regionu EMEA. Mieszkał i pełnił ważne funkcje w Mediolanie, Zurychu, Johannesburgu, Sztokholmie, Kopenhadze, Wiedniu, Frankfurcie i Londynie. Idealnie nadaje się do zarządzania działalnością Dell Technologies w tym regionie oraz doradzania zarządom w Europie i wspierania ich w osiąganiu sukcesów w erze cyfryzacji.

    W czasach wielkich zmian Dell Technologie ma wszystko, czego potrzeba, by umożliwić klientom i partnerom czerpanie jak największych korzyści z technologii — powiedział Adrian McDonald, prezes Dell Technologies na region EMEA. – Jestem podekscytowany wizją przyszłości. Jesteśmy w punkcie zwrotnym, jeśli chodzi o innowacje technologiczne. W roku 2020 i w kolejnych latach technologie komputerowe staną się bardziej inteligentne, spersonalizowane i dostępne. Będzie to mieć jeszcze większy wpływ na nasze życie i pracę niż w poprzedniej dekadzie. Nasi klienci to rozumieją. Chcą przekształcać swoją działalność dzięki możliwościom, jakie oferują rozwiązania cyfrowe. Niezmiernie cieszę się, że mogę współpracować z naszymi klientami i partnerami, by to umożliwić.

    Jako prezes Dell Technologies na region EMEA McDonald pozostanie globalnym liderem działu Mosaic Employee Resource Group, który przeciwdziała wykluczeniu ze względu na pochodzenie oraz promuje różnorodność kulturową.

    Powołanie Adriana McDonalda na stanowisko prezesa na region EMEA nawiązuje do grudniowej informacji o tym, że firma wprowadziła zmianę upraszczającą strukturę organizacyjną. Polega ona na skonsolidowaniu działu sprzedaży pod kierownictwem jednego globalnego lidera. Dzięki temu powstał połączony, warty 91 mld USD dział sprzedaży kierowany przez Billa Scannella. Z kolei Aongus Hegarty przejął rolę prezesa ds. sprzedaży międzynarodowej i odpowiada za wszystkie rynki spoza Ameryki Północnej.

  • Sztuczna inteligencja rewolucjonizuje biznes

    Sztuczna inteligencja rewolucjonizuje biznes

    Sztuczna inteligencja będzie mieć kluczowe znaczenie dla biznesu w ciągu kolejnych 3–5 lat – podkreśla Emma Kendrew, specjalistka od AI w Accenture Technology UKI. Jak ocenia, w projektach związanych ze sztuczną inteligencją przoduje w tej chwili biznes w USA i Europie, ale gonią ich także Chiny. AI jest szeroko wykorzystywana we wszystkich branżach i w coraz większym stopniu wkracza też do codziennego życia. Dlatego firmy – zarówno duże, jak i małe i średnie – muszą uświadomić sobie kluczowe znaczenie tej technologii i innowacji dla swojej konkurencyjności.

    Znaczny wzrost zainteresowania sztuczną inteligencją można zauważyć na całym świecie. Rynki, które zajmują czołowe pozycje w tym zakresie, to USA i UE, ale również Chiny inwestują w AI znaczne środki – mówi Emma Kendrew, Artificial Intelligence & Intelligent Automation Lead, Accenture Technology w Wielkiej Brytanii i Irlandii. – Dopiero teraz dostrzegliśmy, że sztuczna inteligencja może zmienić nasze codzienne życie. Zarówno w Polsce, jak i innych częściach świata wiele osób ma kontakt z AI codziennie – za pośrednictwem smartfonów czy przy korzystaniu z wyszukiwarki Google, nawet nie zdając sobie z tego sprawy.

    Jak podkreśla, sztuczna inteligencja jest technologią, która będzie mieć kluczowe znaczenie dla biznesu i konsumentów na całym świecie w ciągu kolejnych 3–5 lat, lecz także w dalszej przyszłości. Już w tej chwili AI (ang. Artificial Intelligence) jest szeroko wykorzystywana w medycynie, finansach czy kancelariach prawnych.

    Bank JP Morgan Chase od dwóch lat wykorzystuje bazujące na AI oprogramowanie o nazwie COIN, które analizuje umowy kredytowe. Maszyna w ciągu kilku minut wykonuje zadanie, które wcześniej zajmowało prawnikom łącznie ok. 360 tys. godzin pracy rocznie. Z ubiegłorocznego badania SAS Accenture Applied Intelligence, Intela i Forbes Insights wynika natomiast, że 72 proc. organizacji na całym świecie prowadzi już projekty z zakresu AI.

    Sztuczna inteligencja może się wydawać czymś tajemniczym, science fiction. Ta technologia bardzo się jednak rozwinęła w ciągu ostatnich kilku lat i teraz już jesteśmy w stanie ją wykorzystać w biznesie. Obserwujemy takie zjawiska, jak wirtualni agenci i inteligencja konwersacyjna. Jesteśmy również świadkami ogromnego wzrostu popularności inteligentnych głośników domowych, dzięki czemu firmy zyskują całkowicie nowy kanał kontaktu z klientami, mogą oferować nowe produkty i usługi. To zaledwie jeden z przykładów, jak AI stwarza nowe możliwości dla biznesu – mówi Emma Kendrew.

    Wirtualni asystenci są już w tej chwili coraz szerzej wykorzystywani m.in. w bankowości. W ubiegłym roku ING Bank Śląski udostępnił chatbota Mój Asystent, który odpowiada na pytania klientów, wykorzystując mechanizmy sztucznej inteligencji. Dell Technologies prognozuje z kolei, że do 2030 roku spersonalizowani, wirtualni asystenci działający w oparciu o AI upowszechnią się również w codziennym życiu (raport „The Next Era of Human-Machine Partnerships”).

    Sztuczna inteligencja może też pomóc firmom w zróżnicowaniu swoich operacji. To swego rodzaju podróż w kierunku inteligentnych rozwiązań, aby firmy mogły w lepszy sposób wykorzystać dane i informacje o klientach, produktach lub rynkach. Dzięki AI mogą też podnieść status swoich pracowników, żeby ci mogli się zająć bardziej wartościowymi zadaniami – mówi Emma Kendrew.

    Jak podkreśla, w realiach cyfrowej gospodarki wszystkie firmy muszą uświadomić sobie kluczową rolę innowacji w ich działalności. Te nie są zarezerwowane tylko dla dużych podmiotów, które same kreują albo pozyskują innowacyjne rozwiązania we współpracy ze start-upami. Innowacje to też warunek konkurencyjności i utrzymania się na rynku dla MŚP.

    Jesteśmy świadkami czwartej rewolucji przemysłowej, czyli połączenia technologii opartych na chmurze i zwiększonej mocy przetwarzania. Blockchain w kombinacji ze sztuczną inteligencją i rzeczywistością rozszerzoną dostarczą całkowicie nowe doświadczenia, produkty i usługi, których być może nie jesteśmy jeszcze w stanie sobie wyobrazić – mówi Emma Kendrew.

  • Dlaczego korporacje nie lubią mrozu?

    Dlaczego korporacje nie lubią mrozu?

    Każdy zgodzi się, że zmiana niesie zagrożenie i obawę o status quo. Natura człowieka w obliczu zmiany w otoczeniu każe mu zwiększyć czujność, podwyższa się poziom stresu, a proces ten jest inicjowany na poziomie hormonalnym. To nieunikniona, wręcz organiczna, reakcja na zmianę. Ci, którzy twierdzą, że każda zmiana ich zachwyca prawdopodobnie nie spojrzeli jeszcze wystarczająco dokładnie w głąb siebie.

    Z drugiej strony, Karol Darwin uczy nas, że najlepiej radzą sobie nie te organizmy, które mają najdłuższe pazury czy składają najwięcej jaj, ale te, które najlepiej potrafią przystosować się do zmian.

    Jak to więc jest z tą zmianą? Czy patrzeć na nią jako na źródło zagrożenia czy raczej wzmocnienia?

    Połączenie dwóch powyższych prawd mówi nam, że przełamywanie własnego oporu przed zmianami jest źródłem siły. Nic tak nie wzmacnia jak nieustanne wychodzenie ze stref komfortu.

    CEO Intela, Andrew Groove, napisał w 1996 roku w swojej książce: „Sukces rodzi samozadowolenie. Samozadowolenie rodzi porażkę. Przeżyje tylko paranoik”. W tym prostym stwierdzeniu zawarta jest głęboka mądrość dotycząca m.in. podejścia do zmian w organizacji. Ciągła otwartość na zmianę i gotowość do zmiany kursu daje nadzieję na przetrwanie w długim okresie.

    Jednak to, co jest receptą na sukces organizacji, niekoniecznie jest receptą na stworzenie dobrego środowiska pracy. Jak skłonić pracowników do tego, by zachwycili się niekończącymi się falami zmian? Czy to jest w ogóle możliwe?

    Aby odpowiedzieć na to pytanie, przyjrzyjmy się podstawowym zasadom zarządzania zmianą w organizacji:

    • zmiana jest procesem, który można uruchomić, ale nie można nim sterować;
    • proces zmiany obejmuje zmiany organizacyjne, systemowe, ale również zmiany postaw i wartości;
    • bez zaangażowania top-managementu nic nie ulegnie zmianie;
    • zmianę realizuje głównie middle management;
    • ciężar zmiany, stres i inne niedogodności spadają na pracowników.

    Jak widać, podstawowym zadaniem każdego, kto wprowadza zmianę w organizacji jest przełożenie strategicznych celów organizacji na język postaw i wartości, zrozumiały z perspektywy każdego pracownika.

    Aby tego dokonać, należy przejść przez proces „rozmrażanie – zmiana – zamrażanie”. Ten model przechodzenia przez zmianę opisany przez Kurta Levina (nota bene urodzonego w Polsce), opisuje zmianę jako pojedynczy proces. „Rozmrażanie” to przygotowanie organizacji do zmiany, pokazanie przyczyny i jej efektu. „Zamrażanie” to etap stabilizacji wprowadzonych zmian – zapewnienia, że procesy nie cofną się do „starych metod”.

    Co jednak w przypadku, gdy otoczenie biznesowe organizacji zmienia się w tempie tak szybkim, jaki możemy zaobserwować obecnie? Zmiany po prostu wirują wokół nas.

    Organizacja, która opiera swoją siłę o sprawdzone pomysły z przeszłości, o zasady niezmienne od lat, może łatwo zejść z kursu rynkowego i, tak jak Nokia, Kodak czy Blackberry, zaprzepaścić lata sukcesów. From hero to zero.

    Jak radzą sobie z tym problemem nowoczesne, dynamiczne korporacje, takie jak np. Dell, Intel czy Apple? Pracując przez lata w tych firmach i porównując je z innymi organizacjami zauważyłem, że jednym ze źródeł ich siły jest utrzymywanie Kultury Ciągłej Zmiany.

    Cechy Kultury Ciągłej Zmiany:

    • zakończenie jednej zmiany oznacza, że następna jest prawie gotowa do rozpoczęcia, a prace nad kolejną właśnie ruszyły;
    • dużo czasu poświęca się na wyjaśnienie, że wszystko w organizacji podlega nieustającym zmianom (systemy, struktura, procesy, metody, rynki, produkty itd.) i dopiero z czasem można do tego przywyknąć;
    • misja, wizja i wartości firmy nie są tylko sloganami, ale realnym wsparciem dla managerów w sytuacji braku pewności.

    Budowaniu większej otwartości na zmiany sprzyjają nawet takie zabiegi, jak systematyczne wymuszanie zmiany miejsc siedzenia w biurze, by poprzez podświadomy przekaz, pokazać zmianę jako naturalny element życia zawodowego.

    Dlatego w dynamicznych korporacjach nie można mówić o etapie zmiany lub stabilności. Zamiast ciągłego zamrażania i rozmrażania panuje raczej ciągły „stan półpłynny”. Korporacje nie lubią mrozu.

    Photo by Gantas Vaičiulėnas from Pexels
    Marcin Babiak – ekspert przywództwa i zarządzania, trener-praktyk i konsultant. Ma za sobą wieloletnią praktykę menedżerską w takich korporacjach jak Intel, Dell, Apple czy Groupon.
    Na co dzień tworzy i realizuje programy doradcze i szkoleniowe dla firm. Pracuje jako konsultant, trener i mentor kadry menedżerskiej. Specjalizuje się w pracy z młodymi liderami, otwartymi na zmiany szefami firm oraz firmami w okresie transformacji.
    Zajmuje się zagadnieniami zarządzania, sprzedaży oraz efektywności personalnej.
  • S4E pozostanie niezależną spółką

    S4E pozostanie niezależną spółką

    S4E został przejęty przez Grupę ALSO w lipcu 2019 roku. Mimo, że jest obecnie częścią jednego z wiodących europejskich dystrybutorów IT, S4E pozostanie niezależną spółką i będzie kontynuować działalność pod własną marką. Dzięki bardzo wysokiej specjalizacji i wyjątkowemu doświadczeniu we wdrażaniu zaawansowanych projektów informatycznych, firma nadal będzie silnym i niezawodnym partnerem dla kanału partnerskiego.

    S4E odnosi duże sukcesy w Polsce, cieszy się też rosnącym zainteresowaniem partnerów spoza naszego kraju. Produkty, rozwiązania i usługi z oferty ALSO będą idealnym uzupełnieniem naszego portfolio – przekonuje Roman Durka, Dyrektor Zarządzający S4E. – Dzięki wsparciu Grupy ALSO mamy możliwość dalszego poszerzania naszej oferty. Dostarczając najwyższej jakości produkty i usługi, jesteśmy w stanie realizować ambitne i złożone projekty IT nawet dla największych korporacji i instytucji w Europie. Właśnie dlatego jesteśmy naturalnym wyborem dla naszych partnerów, wszędzie tam, gdzie wymagana jest wiedza technologiczna, kompetencje inżynieryjne oraz kompleksowe wsparcie przed- i posprzedażowe – dodaje Roman Durka.

    W ciągu ostatnich osiemnastu miesięcy S4E dokonał prawie 120 wdrożeń, w oparciu o rozwiązania takich producentów, jak Dell EMC, CommVault czy Huawei.

    Przejęcie S4E wpisuje się w strategię Grupy ALSO polegającą na wzmacnianiu naszej pozycji jako innowacyjnego dystrybutora IT i dostawcy technologii na rynkach Europy Środkowo-Wschodniej – wyjaśnia Hanna Osetek-Pasquet, Chief Customer Officer w ALSO Polska – Dzięki naszemu partnerstwu będziemy w stanie wspierać klientów w rozwiązywaniu najbardziej wymagających problemów technicznych i biznesowych – dodaje.

    S4E posiada własne centrum szkoleniowe (S4EDU) oraz specjalistyczną kadrę inżynieryjną (S4Engineers). Swoim partnerom oferuje zindywidualizowane i gotowe rozwiązania IT, w tym usługi z zakresu budowy i utrzymania centrów danych, bezpieczeństwa.

    Naszą ofertę w zakresie dystrybucji z wartością dodaną można uznać za kompletną. Niemniej stale ją rozwijamy, systematycznie podnosząc nasze kompetencje – podsumowuje Roman Durka.

  • Dlaczego warto kupić monitor poleasingowy i jaki najlepiej wybrać?

    Dlaczego warto kupić monitor poleasingowy i jaki najlepiej wybrać?

    Wybierając monitor do swojego komputera, warto rozważyć inne opcje niż zakup nowego sprzętu w sklepie sieciowym. Dlaczego? Wysokiej jakości urządzenia znajdziesz mianowicie w sprzedaży poleasingowej. To monitory wykorzystywane między innymi przez programistów i grafików w korporacjach. Nadają się więc nie tylko do użytku prywatnego, ale także profesjonalnego. Przeczytaj nasz poradnik i dowiedz się, co decyduje o wartości monitora poleasingowego oraz czym kierować się podczas jego wyboru.

    Zalety monitorów poleasingowych

    Monitory poleasingowe to w dużej mierze sprzęt pochodzący z zachodnich firm. Cechuje się on więc:

    • stosunkowo krótkim okresem użytkowania (umowy leasingowe trwają zazwyczaj 2 – 3 lata),
    • doskonałymi parametrami technicznymi,
    • bardzo dobrym stanem.

    Ponadto monitory z drugiej ręki pochodzą w tym przypadku z fabryk tak renomowanych producentów jak Lenovo, Dell czy LG.

    Nie musisz obawiać się o stan sprzętu poleasingowego, gdyż zanim trafi on do sprzedaży, jest bardzo dokładnie sprawdzany. Przechodzi także proces regeneracji, dzięki czemu może wydajnie służyć Ci przez kolejne lata. Ważne, że są to monitory używane przez profesjonalistów, a więc wykorzystasz je nie tylko do codziennej pracy, ale i do zadań specjalnych – gier czy edycji zaawansowanych grafik i materiałów wideo.

    Na co zwrócić uwagę podczas zakupu monitora poleasingowego?

    Zanim zdecydujesz się na kupno monitora poleasingowego, sprawdź, jakimi parametrami się cechuje. Największą uwagę zwróć na:

    • Przekątną matrycy oraz jej typ – matryce monitorów mają najczęściej od 19 do 24 cali, mogą być błyszczące bądź matowe i wykorzystywać różne technologie (VA, IPS, TN).
    • Proporcje ekranu oraz jego rozdzielczość – ekrany mogą cechować się proporcjami panoramicznymi (np. 16:9) lub „kwadratowymi” (np. 4:3).

    Jaki monitor poleasingowy najlepiej wybrać? Jeżeli myślisz o bardziej profesjonalnym wykorzystaniu sprzętu, a więc szukasz monitora dla grafika lub dla gracza, postaw na proporcje panoramiczne i większy rozmiar (ponad 21 cali). Minimalna rozdzielczość to natomiast 1920×1080 (Full HD). Wybierając typ matrycy, zastanów się, czy bardziej zależy Ci na głębi kolorów (matryce błyszczące), czy na tym, by nie odbijała ona światła (matryce matowe).

    Kupno monitora poleasingowego to doskonała okazja, aby zaopatrzyć się w profesjonalny sprzęt o doskonałych parametrach. Z szerokim asortymentem sprzętu poleasingowego zapoznasz się na stronie laurem.pl.

  • Nowy Team Leader w S4E

    Nowy Team Leader w S4E

    Z dniem 2 września 2019 r. Marcin Bartkowski obejmuje stanowisko Team Leader’a pionu Dell Technologies w strukturach S4E. Dotychczasowy szef pionu, Robert Rogalski zakończył współpracę ze spółką.

    Marcin Bartkowski pracował w takich firmach jak Alcatel, NextiraOne Polska (obecnie Dimension Data Polska) oraz S&T Services Polska. Od 2017 r. prowadził własną firmę IT.

    Jednocześnie do zespołu dołącza Dominik Themerson, który od 2017 r. w Dell EMC pełnił regionalną rolę Business Development Managera odpowiedzialnego za architekturę HCI w krajach CEE. Od samego początku ściśle współpracował z S4E budując i wzmacniając kompetencje partnerów w zakresie hiperkonwergencji. Obecnie wspólnie z Marcinem będą odpowiedzialni za kompletne portfolio Dell Technologies.

    Od 1 lipca br. w związku z przejęciem przedsiębiorstwa ABC Daty przez Roseville Investments (Also Holding), S4E przeszło pod kontrolę międzynarodowego dystrybutora. ALSO w Europie obecne jest w 18 krajach.
    W portfolio posiada ponad 160 tysięcy produktów od ponad 350 producentów. Ważnym podkreślenia jest fakt, że wsparcie S4E, przez tak potężnego gracza na rynku IT, otwiera nowe możliwości biznesowe dotychczasowym partnerom spółki i co najistotniejsze, to gwarancja stabilizacji finansowej.

    Ponadto spółka S4E S.A. w II kw. 2019 r. znacznie zwiększyła swoją rentowność. Zysk brutto na sprzedaży poprawił się z 3,7 mln zł do 4,5 mln zł.

    Marcin Bartkowski S4ES4E to najbardziej doświadczony dystrybutor Dell EMC w Polsce. Tym bardziej cieszę się, że dołączam do zespołu. Jestem głęboko przekonany, że zarówno dla Dell Technologies, jak i Partnerów będziemy solidnym wsparciem  w cyfrowej transformacji. Skupiamy się na; kompleksowej infrastrukturze Dell EMC, rozwiązaniach HCI i wsparciu wdrożeniowym. Oczywiste jest, że organizacje dzisiaj potrzebują głównie rozwiązań, które pozwalają im przechowywać, transferować i zabezpieczać rosnący wolumen danych. To nasz konik.

    Niezmiennie kanał partnerski jest dla nas kluczowy. On stanowi o naszej sile i zapewni nam sukces w przyszłości. Dlatego w pierwszej kolejności będę docierał do naszych partnerów, aby upewnić się, że nadal utrzymujemy relacje, które zostały zbudowane w ciągu ostatnich lat.- deklaruje Marcin Bartkowski Dell Team Leader S4E S.A.

    Zmiany modeli biznesowych naszych partnerów i ich klientów, wymagają od nas nowego podejścia, również organizacyjnego. Dzisiaj jesteśmy wstanie sprostać oczekiwaniom rynku dzięki naszym kompetencjom z zakresu wsparcia wdrożeniowego i przewadze jaką daje kompleksowa infrastruktura Dell Technologies. Jednocześnie dołącza do nas dwóch bardzo doświadczonych managerów, obaj realizowali największe projekty IT w tym kraju. Ten ruch ma umocnić naszą pozycję VAD’a pierwszego wyboru, jeżeli chodzi o rozwiązania Dell Technologies w Polsce – zapewnia Arkadiusz Możdżeń, Wiceprezes Zarządu ds. Operacyjnych i Handlowych, S4E S.A.

    Dominik Themerson S4EDotychczasowe doświadczenia we współpracy z S4E oraz wsparcie biznesowe ALSO przekonały mnie ostatecznie , by po odejściu z Dell EMC dołączyć do zespołu S4E i rozwijać sprzedaż rozwiązań Data Center na rynku Partnerskim w Polsce. Zespół do którego dołączam jak i potencjał Partnerów Dell EMC stwarzają ogromne możliwości poparte unikalnymi kompetencjami, których dalszy rozwój będę wspierał –  oświadczył Dominik Themerson Business Development Manager DellEMC w S4E.

  • Przeniesienie zasobów do chmury pomaga zmniejszyć rachunki za energię

    Przeniesienie zasobów do chmury pomaga zmniejszyć rachunki za energię

    Usługi chmurowe zdobywają coraz większą popularność. W Polsce wykorzystuje je na razie raptem co 10. przedsiębiorstwo, więc rynek wciąż ma duży potencjał. Przede wszystkim ze względu na korzyści, jakie daje, czyli podniesienie poziomu bezpieczeństwa danych w firmie oraz brak konieczności inwestowania w zakup i utrzymanie sprzętu IT. W kontekście drastycznych podwyżek cen energii dla polskich firm dużą zaletą może się okazać możliwość zoptymalizowania jej zużycia i obniżenia rachunków.

    – W przypadku małych i średnich przedsiębiorstw, które mają swoje lokalne serwerownie, bardzo często ceny prądu były liczone ogólnie, czyli serwerownia i ceny prądu w biurze były liczone jako jeden koszt. Tymczasem według badań Pike Research przeniesienie danych firmy do chmury może zmniejszyć koszty prądu o 38 proc., co jest naprawdę bardzo dużą oszczędnością – mówi Marcin Zmaczyński, dyrektor marketingu Aruba Cloud na Europę Środkowo-Wschodnią.

    Rosnące ceny energii w Polsce powodują, że większość przedsiębiorstw szuka w tej chwili możliwości optymalizacji tego obszaru i sposobów na ograniczanie zużycia. Dzięki tzw. ustawie prądowej mikro- i małe przedsiębiorstwa nie zapłacą w drugiej połowie tego roku wyższych rachunków za energię elektryczną (ustawa zamroziła je na poziomie z czerwca ubiegłego roku), ale w 2020 roku ustawowe mechanizmy gwarancji cen stracą ważność i przedsiębiorstwa muszą się liczyć z tym, że uwolniona cena energii elektrycznej wzrośnie nawet o 30 do 50 proc. Tymczasem dla wielu przedsiębiorstw cena energii jest w budżecie istotnym kosztem.

    – Serwerownie, które są budowane specjalnie dla dostawców chmury, są zoptymalizowane pod kątem wykorzystania energii i prądu w przeciwieństwie do lokalnych serwerowni, które zużywają go więcej – mówi Marcin Zmaczyński.

    Jak podkreśla, usługi w chmurze eliminują również konieczność wyposażenia i utrzymania serwerowni, dzięki czemu firmy mogą zaoszczędzić także na kosztach sprzętu. Infrastrukturą zarządza dostawca usług chmurowych, co pozwala przedsiębiorstwu skupić się na strategicznej działalności.

    – Kolejną kwestią jest tzw. dług technologiczny. Bardzo często małe i średnie przedsiębiorstwa oszczędzają na zaktualizowaniu swojego sprzętu zgodnie z zasadą, że dopóki działa, to jest dobrze. Tymczasem przez to działają na przestarzałym sprzęcie i oprogramowaniu. W przypadku chmury wszystkie części składowe infrastruktury chmurowej są na bieżąco aktualizowane i amortyzowane. Dlatego przedsiębiorstwa, które zdecydują się na przeniesienie swoich danych do chmury, mogą się pozbyć kolejnego problemu, jakim jest dług technologiczny – mówi Marcin Zmaczyński.

    Kolejną istotną zaletą chmury jest bezpieczeństwo. Usługi chmurowe są po pierwsze uniezależnione od czynników zewnętrznych, takich jak pożary czy powodzie, ale i w pełni zabezpieczone przez cyberatakami.

    – Wszystkie dane w chmurze są szyfrowane. Co więcej, my – jako dostawcy chmury – tak naprawdę też nie mamy do nich dostępu. Te dane są bezpieczne. Problemem, jeżeli chodzi o kwestie ataków, z jakimi borykają się dostawcy chmury, są najczęściej ataki DDoS-owe, polegające na zapchaniu łączy, przez co strona czy dane mogą być przez jakiś czas niedostępne. Ale dostawcy chmury świetnie sobie radzą z takimi atakami i potrafią je w odpowiedni sposób odeprzeć, dzięki czemu o wielu z nich nawet nie słyszymy – mówi Marcin Zmaczyński.

    Cloud computing zdobywa coraz większą popularność. Według prognoz Gartnera globalny rynek chmury publicznej tylko w tym roku ma wzrosnąć o 17,3 proc. i osiągnąć wartość 206,2 mld dol. Coraz więcej firm decyduje się też na chmury prywatne i hybrydowe (połączenie chmury prywatnej i publicznej) albo tzw. multicloud, czyli korzystanie z infrastruktury różnych dostawców usług chmurowych.

    – Tzw. multicloud, czyli dywersyfikacja dostawców usług chmurowych, jest najbardziej optymalną strategią, rekomendowaną przez największe instytucje. Także ostatni raport Della potwierdza, że właśnie multicloud, czyli tzw. chmura hybrydowa polegająca na wyborze dwóch do trzech dostawców, jest najbardziej optymalnym rozwiązaniem – mówi Marcin Zmaczyński.

    Według danych GUS-u w Polsce rozwiązania chmurowe wykorzystuje na razie zaledwie 11,5 proc. przedsiębiorstw, przy czym jedną trzecią (ok. 37 proc.) stanowią wciąż duże firmy zatrudniające powyżej 250 pracowników. Dla porównania, według danych Eurostatu z usług chmurowych korzysta ponad połowa przedsiębiorstw w Szwecji (57 proc.) i Danii (56 proc.), a w Finlandii ten odsetek jest jeszcze wyższy (65 proc.). Polskie firmy decydują się też głównie na podstawowe funkcjonalności – spośród usług oferowanych w chmurze w ubiegłym roku najczęściej kupowane były te związane z udostępnianiem poczty e-mail.

  • Google rozpoczyna współprace z VMware

    Google rozpoczyna współprace z VMware

    Marka Google potwierdziła rozpoczęcie współpracy z amerykańską firmą VMware. Innowacyjne oprogramowanie spółki należącej do Dell EMC trafi do chmury giganta z Mountain View. Klienci którzy posiadają już infrastrukturę VMware będą mogli przenieść swoje dane od ręki do chmury publicznej Google i to bez rezygnacji z wcześniej zakupionych rozwiązań. W ciągu ostatnich 3 lat to już trzecia taka umowa ze strony VMware. Spółka od tej pory będzie wspierać wdrożenia chmur trzech rynkowych gigantów – AWS, Azure i Google Cloud.

    Rozwiązania Google, bazujące na cloud computingu, przyniosą firmie w tym roku aż 8 mld dolarów zysku – wynika z prognoz, które amerykański gigant opublikował w zeszłym tygodniu. W skład tego portfolio wchodzą zwirtualizowane zasoby obliczeniowe, dyski, a także pakiety aplikacji biurowych od Google. W porównaniu z wynikami osiąganymi przez Amazon i Microsoft, kwota ta nie wzbudza jednak zachwytu. Według Gartnera, AWS zawłaszczył ponad 47 proc. chmurowego rynku, a Azure ponad 15 proc. Google zawłaszczył sobie zaledwie skromne 4 proc. cloudowego tortu.

    Szukając sojuszników

    To właśnie ta rynkowa sytuacja, zdaniem zachodnich ekspertów, zmusiła internetowego tytana z Mountain View do nawiązania współpracy z popularnymi dostawcami innowacyjnych rozwiązań IT, takimi jak VMware. Potencjał dotarcia jest bowiem ogromny. Oprogramowanie VMware do tworzenia wirtualnych serwerowni wspiera już pół miliarda klientów na całym świecie.

    Nasza współpraca oznacza, że biznes który posiada narzędzia VMware, zbudowane na chmurze prywatnej, może je przenieść do Google Cloud – wyjaśnia Thomas Kurian, dyrektor generalny w Google Cloud. – Zrobiliśmy to ponadto, by zabezpieczyć inwestycje naszych klientów, którzy chcą korzystać zarówno z zalet naszych technologii, jak i VMware – dodaje.

    Thomas Kurian potwierdził, że klienci VMware otrzymają dostęp do sztucznej inteligencji, rozwiązań typu machine learning oraz narzędzi analitycznych Google, wszędzie tam, gdzie firma posiada swoje centra danych. Głównym programem VMware, który trafi do Google Cloud, ma być z kolei oprogramowanie służące do wirtualizacji, czyli symulowania działania sprzętów z konkretnymi systemami wykorzystywanymi m.in. do testowania aplikacji. Jednym z głównych składników tej infrastruktury będzie platforma VMware Cloud Foundation.

    Giganci w jednym worku

    Warto zaznaczyć, że to nie pierwszy taki sojusz z VMware’em w tle. Obecnie ogłoszone partnerstwo wpisuje się bowiem w szerszą strategię firmy z Palo Alto, która już w 2016 r. nawiązała współpracę z Amazonem. Bardzo podobną w swoim charakterze do tej właśnie ogłoszonej, a więc pozwalającej na łatwe korzystanie z rozwiązań VMware’a w chmurze AWS.

    Nie jesteśmy firmą, którą mówi klientom z jakiej chmury publicznej mają korzystać, a z jakiej nie. Klienci wybierający Google Cloud Platform, szukają rozwiązań, które skutecznie wesprą ich biznes, poprzez dostęp do zaawansowanych narzędzi. Jest to m.in wsparcie sztucznej inteligencji – mówi Sanjay Poonen. Ostatnio podczas Dell Technologies World 2019 także Satya Nadella, prezes Microsoftu, zapowiedział kooperację z VMware’em.

    Negocjacje w sprawie współpracy Google z VMware trwały od wielu miesięcy. Teraz, gdy partnerstwo jest już w fazie realizacji, wiadomo że obie firmy w dotarciu do klientów wesprze platforma CloudSimple. Jej zaletą jest możliwość swobodnego doboru komponentów chmury w zależności od aktualnych potrzeb odbiorcy końcowego. Doradcy IT będą czuwać tylko nad tym, by wszystko poszło gładko i sprawnie. VMware udostępni nie tylko rozwiązania do wirtualizacji serwerów czy stanowisk pracy, ale także narzędzia sieciowe wspierające telekomy.

    Nowa era walki hybrydowej

    Thomas Kurian z Google postrzega to partnerstwo jako kolejny krok firmy w stronę rozwoju oferty hybrydowej.

    Takie rozwiązania umożliwiają firmom operowanie danymi zarówno w oparciu o tradycyjne serwery, jak i w chmurach obliczeniowych. Nie wykluczamy, że podobnie jak AWS, wejdziemy do korporacyjnych data center z lokalnie instalowaną infrastrukturą. Tylko tak możemy stworzyć atmosferę realnej rynkowej walki – dodaje Kurian.

    Jak przekonują eksperci, zainteresowanie rozwiązaniami hybrydowymi będzie dynamicznie rosnąć. Biorąc pod uwagę różnorodność stosowanych dzisiaj w biznesie technologii, nie dziwi, że obok chmury hybrydowej popularnym kierunkiem jest dzisiaj jednak także tzw. multicloud. Raport F5 pokazuje, że już dzisiaj 87% przedsiębiorstw działa w środowisku wielochmurowym w celu stymulowania rozwój biznesu poprzez czerpanie korzyści z różnych publicznych platform chmurowych i powiązanych z nimi innowacji.

  • Dell na celowniku UOKiK

    Dell na celowniku UOKiK

    UOKiK przeprowadził przeszukania w siedzibach przedsiębiorców z sektora informatycznego. Miały one związek z postępowaniem wyjaśniającym, w którym urząd sprawdza, czy pomiędzy spółkami należącymi do koncernu Dell, a ich dystrybutorami  nie doszło do niedozwolonego podziału rynku.

    Przeszukania rozpoczęły się 8 kwietnia i trwały sześć dni. Wzięło w nich udział 10 pracowników urzędu. W asyście policji zabezpieczyli dane elektroniczne, głównie e-maile pomiędzy pracownikami spółek.

    Działania UOKiK miały związek z prowadzonym postępowaniem wyjaśniającym, w którym urząd sprawdza, czy pomiędzy polskimi spółkami koncernu Dell Technologies: Dell  i EMC Computer Systems Poland a ich partnerami handlowymi nie doszło do zawarcia porozumienia ograniczającego konkurencję. Chodzi o sprzedaż produktów marki Dell i Dell EMC, m.in. serwerów informatycznych oraz macierzy dyskowych wykorzystywanych do przechowywania, administrowania i udostępniania przetwarzanych danych.

    Podejrzewamy, że mogło dojść do podziału rynku. Firmy i instytucje państwowe, które chciały kupić sprzęt informatyczny mogły być przypisane poszczególnym sprzedawcom. Tym samym mogły nie mieć możliwości uzyskania tańszej oferty od  innych dystrybutorów Dell, nawet jeśli sami się do nich zgłosili. Podejrzewamy również, że producent mógł dyscyplinować partnerów, którzy  nie stosowali się do uzgodnień – mówi prezes UOKiK Marek Niechciał.

    Podejrzewana praktyka mogła naruszać zarówno polskie, jak i unijne przepisy. Dlatego urząd poinformował o sprawie Komisję Europejską.

  • Zamiany w Zarządzie S4E S.A.

    Zamiany w Zarządzie S4E S.A.

    Zmiana na stanowisku Prezesa Zarządu

    Paweł Piętka zrezygnował z członkostwa w Zarządzie S4E S.A. ze skutkiem natychmiastowym.
    Roman Durka został delegowany przez Radę Nadzorczą do czasowego wykonywania czynności Prezesa Zarządu na okres trzech miesięcy od dnia 16.04.2019 roku.

    Roman DurkaRoman Durka ma wieloletnie doświadczenie w branży na stanowiskach kierowniczych i zarządczych w polskich i międzynarodowych firmach. Ostatnio był dyrektorem operacyjnym Mellon Poland (2017 – 2018) i wiceprezesem Sygnity (2015 – 2017). Wcześniej był prezesem Kapsch BusinessCom (2012 – 2015), szefem Fujitsu w Polsce (2009 – 2011), dyrektorem generalnym Sun Microsystems (2008), CEO Nortela (2007 – 2008), Clearwire (2006 – 2007) i Dell’a (1997 – 2006) oraz zastępcą dyrektora IBM (1991 – 1997).

    Zmiana na stanowiskuWiceprezesaZarządu ds. Finansowych

    Aneta Bartnicka zrezygnowała z członkostwa w Zarządzie S4E ze skutkiem na koniec dnia 10 maja 2019 r.
    Marcin Sobka został powołany przez Radę Nadzorczą na Członka Zarządu, Wiceprezesa ds. finansowych, ze skutkiem na dzień 11 maja 2019 r.

    Marcin Sobka od lipca 2017 roku pełni rolę Dyrektor Kontrolingu i Raportowania GK ABC Data. Poprzednio pracował jako Dyrektor Kontrolingu GK Polenergia. Odpowiadał za szereg działań o strategicznym dla spółki znaczeniu m. in. w zakresie analizy projektów inwestycyjnych, pozyskania finansowania. optymalizacji funkcji finansów oraz planowania i budżetowania. Karierę rozpoczął w EY gdzie przez 9 lat pracował w działach audytu, doradztwa biznesowego oraz transakcyjnego.
    Absolwent Szkoły Głównej Handlowej oraz programu menadżerskiego AMP w IESE Business School.
    Posiada uprawnienia biegłego rewidenta oraz certyfikat ACCA.

  • Statim Integrator jako Dell EMC Platinum Partner

    Statim Integrator jako Dell EMC Platinum Partner

    Statim Integrator po raz kolejny otrzymał status Platynowego Partnera Dell EMC. Aby dołączyć do tego grona firma musi zrealizować szereg specjalistycznych szkoleń oraz spełnić wymogi w zakresie przychodów w ramach każdej grupy portfolio producenta.

    Statim Integrator nieprzerwanie od lat realizuje założenia programu dla partnerów Dell EMC, uzyskując coraz lepsze efekty. Firma otrzymała właśnie potwierdzenie spełnienia kryteriów partnerskich na rok 2019 na poziomie Platinum – trzeci rok z rzędu. Otrzymany tytuł wiąże się z osiągnięciem specjalistycznych kompetencji w zakresie produktów i rozwiązań:

    • Stacje klienckie
    • Serwery
    • Networking
    • Software Defined Infrastructure (SDI)
    • Stacje robocze
    • Bezpieczeństwo Danych Klienta
    • Cloud Client-Computing

    Firma posiada również specjalistyczne kompetencyjne w ramach świadczenia usług Pro Deploy Partner – Networking

    Dell EMC jest dostawcą numer 1 na świecie – w zakresie wartości i wolumenów dostaw w obszarze serwerów, stacji klienckich, laptopów. Z firmą Dell EMC współpracujemy od 10 lat. Jeszcze przed połączeniem Dell z EMC udało nam się osiągnąć najwyższy status partnerski – Premier Partner. Dell EMC to synonim wiarygodności i wysokiego poziomu technologicznego, co przekłada się także na nasze działania – mówi Piotr Wypijewski, prezes Statim Integrator.

    Program partnerski Dell EMC niesie za sobą szereg korzyści zarówno dla Partnera jak i jego kontrahentów. Nabycie poszczególnych specjalizacji stanowi dowód na doskonałą znajomość produktów, potwierdzoną licznymi szkoleniami oraz wynikami sprzedaży.

    Wszystkich partnerów DELL EMC można znaleźć w linku.

  • Standard Chartered: pracownicy poszukiwani

    Standard Chartered: pracownicy poszukiwani

    Standard Chartered, jeden z wiodących banków międzynarodowych, podjął decyzję  o utworzeniu w Polsce zespołu ekspertów odpowiedzialnych za tworzenie modeli i platform wspierających zarządzanie jego globalnym bilansem.

    Ewolucja wymagań regulatorów sektora bankowego w zakresie zarządzania ryzykiem płynności i stopy procentowej, dynamicznie zmieniające się warunki na rynkach finansowych, postęp technologiczny i rosnąca konkurencja ze strony nowych graczy sprawiają, że stosowane przez nas rozwiązania służące optymalizacji bilansu muszą umożliwiać precyzyjne prognozowanie i szybkie reagowanie. Od wielu już lat rozbudowujemy nasz globalny zespół specjalistów o zróżnicowanych kompetencjach, zarówno informatycznych i analitycznych, jak i z obszaru zarządzania ryzykiem, projektowania systemów oraz zarządzania projektami. O lokalizacji głównego trzonu tego zespołu w Warszawie zadecydowały wiedza i doświadczenie lokalnych specjalistów oraz lokalizacja na zachodniej półkuli – mówi Sebastian Skowroński, dyrektor zarządzający Grupy Standard Chartered odpowiedzialny za obszar modelowania i platform w globalnym Pionie Skarbu (na zdjęciu głównym).

    Kogo szuka Standard Chartered?

    „Treasury Modelling Hub”, bo tak nazywa się nowy zespół Standard Chartered w Warszawie,  początkowo będzie liczył 40 członków. W jego skład wejdą eksperci do spraw zarządzania ryzykiem płynności i stopy procentowej (np. z kwalifikacjami FRM lub PRM), programiści (ze znajomością języka Haskell, Java i innych), analitycy biznesowi i kierownicy projektów. Ich zadaniem będzie projektowanie oraz wdrażanie najwyższej klasy rozwiązań do prognozowania i analizy ryzyka. „Aby skutecznie zarządzać płynnością banku i ryzykiem stopy procentowej, potrzebujemy szybkiego dostępu do szczegółowych danych, jak również zaawansowanych platform analitycznych. Dostarczają je specjaliści od modelowania ryzyka, wspierani przez ekspertów od analizy danych, zajmujących się m.in. analizą behawioralną. Zadaniem programistów będzie tworzenie rozwiązań technologicznych służących automatyzacji procesu zbierania, przetwarzania i prezentacji danych osobom zarządzającym ryzykiem. Biorąc pod uwagę projektowy tryb pracy, który narzuca na nas konieczność bieżącego wdrażania nowych rozwiązań, do naszego zespołu potrzebujemy także ekspertów od zarządzania projektami – wyjaśnia Sebastian Skowroński.

    „Treasury Modelling Hub” organizacyjnie będzie częścią globalnego centrum usług biznesowych Standard Chartered, które od września 2018 roku działa w Warszawie, a kompetencyjnie – częścią międzynarodowego zespołu tworzącego Pion Skarbu tej instytucji.

    Zadanie zbudowania tego nowego zespołu otrzymał Piotr Kulma, menedżer z kilkunastoletnim doświadczeniem w obszarze zarządzania ryzykiem, zdobytym w bankowości oraz branżach doradczej i informatycznej, certyfikowany ekspert w obszarze zarządzania ryzykiem finansowym (FRM). Rekrutacja ruszyła, oferty pracy w tym i innych zespołach dostępne są na stronie internetowej Standard Chartered, w zakładce „Kariera”.

    Dlaczego Haskell?

    Poszukując programistów do nowego zespołu, Standard Chartered nie bez powodu celuje m.in. w tych, ze znajomością języka Haskell. Bank posiada prawdopodobnie największy zespół programistów Haskell wśród globalnych instytucji finansowych, którego członkowie pracują w Londynie i Singapurze, a niedługo dołączą do nich eksperci zlokalizowani w Warszawie. Kod Haskell rozwijany przez programistów zatrudnionych w Standard Chartered ma 4 miliony wierszy. Bank posiada też własny kompilator, o nazwie zaczerpniętej od greckiej litery „μ”.

    Nowy ośrodek kompetencyjny pod szyldem Standard Chartered w Polsce

    Rowena EversonTreasury Modelling Hub, to kolejny zespół powstający w globalnym centrum usług Standard Chartered w Warszawie, którego funkcjonowanie jest oparte na specjalistycznej wiedzy i doświadczeniu pracowników i który będzie odpowiadał za przeprowadzanie złożonych procesów na skalę międzynarodową. Tym samym do prawie 280 zatrudnionych już przez nas w Polsce specjalistów dołączają kolejni eksperci, tworząc nowy ośrodek kompetencyjny pod naszym dachem – mówi Rowena Everson, dyrektor zarządzająca globalnym centrum usług Standard Chartered w Polsce. – W naszym warszawskim biurze działają już zespoły odpowiedzialne za przeciwdziałanie przestępczości finansowej, cyberbezpieczeństwo, rekrutacje na rynku lokalnym i na rynkach zagranicznych, międzynarodowe projekty z zakresu zarządzania zasobami ludzkimi, negocjowanie kontraktów oraz operacje bankowe. Nie zamierzamy na tym poprzestać. Cały czas analizujemy pulę dostępnych na lokalnym rynku specjalistów i rozważamy ulokowanie w Warszawie kolejnych zespołów – dodaje.

    Standard Chartered planuje utworzyć w Polsce 750 miejsc pracy w ciągu kilku lat.

  • Statim Integrator z Gazelą biznesu

    Statim Integrator z Gazelą biznesu

    Puls Biznesu przyznał Gazele biznesu. W tym roku jedną z firm, które otrzymały nagrodę jest Statim Integrator. Firma zajęła 3. miejsce w rankingu mazowieckim i 15. miejsce w rankingu ogólnopolskim na 4499 nagrodzonych firm. To już 19. edycja „Gazeli Biznesu”, które skupiają najbardziej dynamiczne małe i średnie firmy, doceniając ich przedsiębiorczość i efektywność.

    W tym roku konkurs różni się od poprzednich edycji, ponieważ lista firm obejmuje aż 4499 firm. Konkurs organizowany przez „Puls Biznesu” docenia i wyróżnia te przedsiębiorstwa, w których od lat utrzymuje się dobra koniunktura. Jak podkreślają organizatorzy konkursu, polskie małe i średnie firmy utrzymują coraz większą stabilizację, a ich rozwój jest „wynikiem nowoczesnego zarządzania i długofalowego planowania”.

    „To dla nas ogromne wyróżnienie i zaszczyt znaleźć się w tak doborowym gronie. Od początku istnienia firmy staramy się podążać za naszymi klientami, jesteśmy lojalni i konsekwentni w działaniu. Nasze  zaangażowanie, które prezentujemy na co dzień czyni naszą firmę wyjątkową i nasi partnerzy to widzą i doceniają” – mówi Piotr Wypijewski, prezes Statim Integrator.

    Firma Statim Integrator istnieje na rynku od 1995 roku. Funkcjonuje w branży wielkoformatowych nośników LED w Polsce. W ciągu 3 lat firma zainstalowała na terenie Unii Europejskiej ponad 400 ekranów LED o łącznej powierzchni przekraczającej 2000 m2. W 2017 roku firma opracowała własne moduły LED promowane pod marką xLEDpro.pl. Z rozwiązań Statim Integrator korzystają: MASPEX, ITI Neovision S.A, TUiR Warta S.A., Tubądzin oraz LPP S.A.

    Oprócz działu Audiowizualnego oraz Digital Signage, Statim Integrator od początku działalności wdraża najnowsze technologie informatyczne. Jako DELL EMC Platinium Partner oferuje platformy serwerowe, systemy blade, klastry obliczeniowe, systemy pamięci masowej, infrastrukturę sieciową i serwerową, systemy przechowywania danych, wizualizację systemów operacyjnych i aplikacji.

  • NVIDIA GeForce RTX 2060: rozpoczyna się gaming nowej generacji

    NVIDIA GeForce RTX 2060: rozpoczyna się gaming nowej generacji

    Firma NVIDIA zaprezentowała dziś kartę graficzną NVIDIA® GeForce® RTX 2060, udostępniając architekturę Turing milionom graczy na całym świecie, wybierających rozwiązania ze średniej półki cenowej.

    RTX 2060 zapewnia wysoką wydajność w najnowszych grach z grafiką wzbogaconą o funkcje ray tracingu i sztucznej inteligencji. Wyceniona na 1619 zł RTX 2060 oferuje graczom poziom wydajności i funkcje dostępne wcześniej tylko w kartach klasy high-end.

    RTX 2060 jest o 60 procent szybsza od GTX 1060, aktualnie najpopularniejszej karty graficznej firmy NVIDIA, oraz pokonuje w grach kartę GeForce GTX 1070 Ti. Dzięki rdzeniom RT i Tensor oferowanych przez architekturę Turing, może na niej uruchomić grę Battlefield V z włączonym ray tracingiem w jakości 60 klatek na sekundę.

    Karty RTX 2060 będą dostępne na całym świecie od 15 stycznia i znajdą się w ofercie firm OEM oraz każdego znaczącego producenta komputerów i kart graficznych.

    Moc architektury Turing

    Karta RTX 2060 wyposażona jest w rozbudowany multiprocesor strumieniowy, który pozwala na bardziej wydajną pracę w przypadku obciążających obliczeń w nowoczesnych grach. Wspiera równoczesne wykonywanie operacji na liczbach zmiennoprzecinkowych i całkowitych, adaptacyjną technikę cieniowania oraz nową zunifikowaną architekturę pamięci z dwukrotnie większą pamięcią podręczną niż model poprzedniej generacji. Wykorzystujące te funkcje współczesne gry mogą działać z dwukrotnie większą wydajnością niż w przypadku karty graficznej GTX 1060.

    Karta graficzna RTX 2060 posiada 6 GB pamięci GDDR6 oraz 240 rdzeni Tensor, które wspierają mechanizmy deep learning umożliwiające zwiększenie wydajności gier dzięki funkcji znanej jako Deep Learning Super Sampling (DLSS).

    DLSS wykorzystuje głęboką sieć neuronową do ekstrakcji wielowymiarowych cech renderowanej sceny i inteligentnego łączenia szczegółów z wielu klatek w celu stworzenia wysokiej jakości finalnego obrazu. W rezultacie otrzymujemy wyraźny i ostry obraz o jakości porównywalnej z tradycyjnym renderowaniem, ale uzyskany przy wyższej wydajności.

    NVIDIA GEFORCE RTX 2060

    Battlefield V wkrótce z obsługą techniki DLSS

    Firmy Electronic Arts i DICE wydadzą wkrótce aktualizację do gry Battlefield V, która będzie zawierać obsługę DLSS, jak również dodatkowe optymalizacje dla ray tracingu w czasie rzeczywistym. Połączenie DLSS z ray tracingiem pozwoli graczom uzyskać jednocześnie dużą wydajność, jak i wysoką jakość obrazu.

    Pierwsze testy pokazują, że karty RTX z aktywnym ray tracingiem i włączoną funkcją DLSS zapewniają zbliżoną liczbę klatek na sekundę w porównaniu do rozgrywki z wyłączonym ray tracingiem.

    Potężne narzędzia do przechwytywania i udostępniania rozgrywki w aplikacji GeForce Experience
    Karty RTX 2060 obsługują aplikację GeForce Experience™, która usprawnia zabawę na pecetach i zapewnia unikalne, łatwe w użyciu funkcje w grach, takie jak:

    NVIDIA Highlights — automatycznie rejestruje najciekawsze momenty w grze. Ostatnio wydane gry z obsługą Highlights to m.in.: Deuterium Wars, Dirty Bomb, Dying Light: Bad Blood, Europa (Ring of Elysium), Extopia, GRIP, Hitman 2, Insurgency Sandstorm, Justice, Knives Out PC Plus, Lost Ark, Shadow of Tomb Raider, Switchblade oraz X-Morph: Defense.

    NVIDIA Ansel — pozwala graczom robić wyjątkowe zdjęcia w trakcie rozgrywki. Ostatnio wydane gry z obsługą Ansel to m.in.: Deep Rock Galactic, GRIP, Hitman 2, Insurgency Sandstorm, Ride 3 oraz Shadow of Tomb Raider. Gracze mogą dzielić się swoimi ulubionymi zdjęciami i brać udział w comiesięcznych konkursach na stronie Shot with GeForce.

    NVIDIA Freestyle — pozwala graczom dostosować wygląd ich gier dzięki technice post-processingu. Najnowsze filtry mogą zamieniać rozgrywkę lub zdjęcia w obraz olejny lub akwarelę, bądź też nadawać im wygląd, który przypomina styl retro lat osiemdziesiątych.

    Promocja związana z grami Anthem oraz Battlefield V

    Osoby, które zakupią w sklepach biorących udział w promocji kartę graficzną GeForce RTX 2060 lub komputer stacjonarny wyposażony w taką kartę, otrzymają do wyboru grę Anthem lub Battlefield V. Akcja ta jest ograniczona czasowo oraz dostępna w większości krajów na całym świecie, w tym w Polsce.

    Dostępność i cena

    Karty RTX 2060 będą dostępne od 15 stycznia w komputerach firm Acer, Alienware, Dell, HP i Lenovo, a także innych wiodących producentów.

    Karty autorskie, w tym modele ze standardowym taktowaniem rdzenia jak i fabrycznie podkręcone, będą również dostępne od 15 stycznia, a dostarczą je tacy światowi liderzy jak firmy ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, PNY i Zotac.

    Zaprojektowana i wyprodukowana przez firmę NVIDIA standardowo taktowana karta GeForce RTX 2060 Founders Edition także będzie dostępna od tego dnia w sklepie na stronie www.nvidia.com w cenie 1619 zł.

  • Dell wykrył naruszenie danych, klienci zostali poinformowani dopiero po miesiącu

    Dell wykrył naruszenie danych, klienci zostali poinformowani dopiero po miesiącu

    Prawie miesiąc upłynął, zanim firma Dell poinformowała swoich klientów o ataku hakerskim, który miał miejsce 9 listopada br. Na stronie internetowej producenta sprzętu komputerowego czytamy, że w wyniku incydentu wykradzione zostały dane klientów firmy. Dell resetuje hasła swoich klientów, nie informując wcześniej o możliwości naruszenia ich danych.

    Zgodnie z oświadczeniem firmy, odnotowano nieautoryzowaną ingerencję w jej infrastrukturę IT, z wyraźnym zamiarem kradzieży danych klientów. W jej wyniku naruszone mogły zostać takie dane, jak nazwiska, adresy e-mail i zaszyfrowane hasła kont internetowych klientów. Nie ma jednak mocnych dowodów na to, że przestępcom faktycznie udało się uzyskać te dane. Dell zapewnia, że nie wyciekły zarówno dane kart kredytowych, jak i inne poufne informacje o klientach, a produkty i usługi firmy pozostały nienaruszone.

    Dell próbował powstrzymać incydent i zminimalizować jego skutki poprzez hashowanie i resetowanie haseł klientów.

    Natychmiast po wykryciu próby ekstrakcji danych firma Dell wdrożyła środki zaradcze i wszczęła dochodzenie. Zatrudniła również firmę specjalizująca się w kryminalistyce cyfrowej, w celu przeprowadzenia niezależnego dochodzenia. Zaangażowane zostały także organy ścigania.

    Rozpoczęto niezależne dochodzenie, a organy ścigania zostały poinformowane o naruszeniu.

    Wszyscy klienci Della zachęcani są do pilnej zmiany swoich haseł. Zwraca się też uwagę, że osoby posługujące się hasłami uniwersalnymi, obowiązującymi również dla innych kont, powinny natychmiast zmienić wszystkie te hasła – komentuje Dariusz Woźniak, inżynier techniczny Bitdefender z firmy Marken.

  • Władcy Sieci – ogólnopolskie badanie administratorów IT

    Władcy Sieci – ogólnopolskie badanie administratorów IT

    Na stronie wladcysieci.pl uruchomione zostało ogólnopolskie badanie administratorów IT. Celem akcji jest budowanie szerokiej świadomość roli adminów w organizacjach i podkreślenia znaczenia podejmowanych przez nich zadań i obowiązków dla firm i instytucji. Administratorzy biorący udział w ankiecie otrzymują unikatowy kubek Władcy Sieci oraz biorą udział w rywalizacji o nagrody.

    Dlaczego Władcy Sieci?

    Organizatorzy akcji postawili sobie za cel budowanie świadomości, iż administrator to nie tylko „Pan od komputerów” ale kluczowa rola w organizacji! Badanie ma zdiagnozować pozycję zawodową administratorów sieci w firmach i instytucjach oraz najważniejsze wyzwania z jakimi się zmagają się w swojej pracy.

    Praca admina ma znaczenie

    „Władcy Sieci” to inicjatywa działania na rzecz adminów w organizacjach. Zebrane wyniki opublikujemy w postaci raportu eksperckiego, w którym podkreślimy znaczenie podejmowanych zadań i obowiązków, wskażemy na najważniejsze wyzwania i potrzeby związane z zarządzaniem IT! ­­– tłumaczy Robert Posłajko, PR & Marketing Manager w Axence, organizator akcji.

    Co myślą admini

    Wśród wielu pytań znalazły się te o wykorzystywane narządzania, trudności napotykane w pracy, postrzeganie roli IT przez „szefostwo” oraz najważniejsze wyzwania. Organizatorzy planują zaangażować badaną grupę w budowanie społeczności adminów. Uczestnicy otrzymują benefity w zamian za zaangażowanie – każdy zweryfikowany uczestnik badania otrzymuje nagrodę gwarantowaną – kubek „Władcy Sieci”. Dodatkowo za odpowiedź na pytanie konkursowe można otrzymać cenne nagrody – wysokiej jakości plecak Dell Pursuit i zestaw gadżetów dla 10 najlepszych!

    Organizatorem badania jest Axence – dostawca rozwiązań do zarządzania IT, producent oprogramowania Axence nVision.

    Więcej informacji na: https://wladcysieci.pl/ankieta/

  • Zacznij sprzedawać hybrydy

    Zacznij sprzedawać hybrydy

    czasach cyfrowej transformacji przed inwestycjami w środowiska wielochmurowe nie ma ucieczki. Im przedsiębiorstwa szybciej to zrozumieją, tym lepiej dla nich. Według badań Dell EMC, firmy które wdrożyły chmury hybrydowe, trzykrotnie szybciej wprowadzają innowacje i realizują strategię cyfrowego biznesu. Biznes, który chmur się boi, pozostaje z kolei daleko w tyle. Z pomocą przychodzą jednak dostawcy technologii i ich partnerzy.

    Per aspera ad nubes – przez trud do chmur

    Choć analizy Dell EMC powinny motywować firmy do działania, wielochmurowy krajobraz w Europie nie wygląda na razie obiecująco. Według IDC, mniej niż 10 proc. europejskich organizacji postawiło na rozwój i wdrożenie, dojrzałych środowisk IT opartych na kilku chmurach obliczeniowych. Eksperci amerykańskiej firmy VMware przekonują jednak, że wiele biznesów w wprawdzie inwestuje w różne chmury, ale zapomina często przy tym o modernizacji posiadanych już tradycyjnych centrów danych. W efekcie, implementacja chmury obliczeniowej w firmach na Starym Kontynencie nie wpisują się w szerszą strategię przedsiębiorstw, a brak operacyjnej standaryzacji pozbawia je głównych zalet rozwiązania – elastyczności i skalowalności.

    Dzieje się tak dlatego, że nie ma jednej chmury idealnej do wszystkiego – o czym firmy zapominają. Cloud computing to narzędzie, które daje dostęp do aplikacji i danych niezależnie od urządzenia. Często jednak firmy działają na różnych sprzęcie, w różnych środowiskach, które spełniają rożne cele. Wraz z ich rozwojem działy IT muszą zatem nieustannie walczyć o zachowanie jednolitości, by firma mogła spełniać wymogi, a inwestycja w chmury w pełni się zwróciła. Bez takiego podejścia nic nie zadziała tak jak powinno – tłumaczy Louise Ostrom, wiceprezes ds. sieci i bezpieczeństwa w firmie VMware, region EMEA.

    W poszukiwaniu zaginionych talentów

    Adaptację chmur w firmach utrudnia fakt, że w wielu krajach nadal brakuje odpowiednich kadr. Deficyt specjalistów, którzy mogą umożliwić cyfrową transformację jest dla wielu przedsiębiorców wręcz paraliżujący. Obecnie tylko w polskiej branży IT brakuje przynajmniej 50 tys. pracowników, a pracodawcy często zatrudniają każdego kto wykazuje chęć nauki. Poszukiwania konkretnych specjalistów np. od wdrożeń chmur obliczeniowych to jednak trudniejsze zadanie, które pochłania czas i pieniądze, bez gwarancji, że proces się uda.

    Dla biznesu to ogromne wyzwanie, ale dla licznych dostawców rozwiązań IT jednocześnie ogromna szansa. Ich rola jako pomostu pomiędzy przedsiębiorcami, a firmami cloudowymi rośnie coraz szybciej. Zapewniają doświadczenie i niezbędne ręce do pracy, by sprostać dzisiejszym wymaganiom rynku. Dostawcy chmurowi, którzy umożliwiają partnerom technologicznym zarabianie pieniędzy na ich technologii, zachęcają do zwiększenia tej sprzedaży. Taki model to klucz do szerokiej adaptacji chmur – komentuje Carl Brooks, analityk ds. rynku usług hostingowych i rozwiązań IT w firmie 451 Research.

    Jak zarabiać na chmurze?

    Eksperci nie mają oczywiście złudzeń – by odnieść sukces na cloudowym rynku partnerzy dostawców technologicznych muszą wykazać się nie lada wiedzą i doświadczeniem w realizacji strategii chmurowych.

    Muszą po prostu wiedzieć jaką chmurę wybrać pod kątem danego biznesu. To oznacza konieczność współpracy z tymi dostawcami, którzy posiadają rozwiązania zgodne z oczekiwaniami klientów końcowych. W VMware, by nie zostać w tyle za dynamicznie zmieniającym się rynkiem, rozwinęliśmy usługę VMware Cloud on AWS, a także ogłosiliśmy rozszerzenie naszego programu VMware Cloud Provider Platform. Chcemy umożliwić naszym partnerom sprawne budowanie środowisk hybrydowych i dostarczanie nowych, zróżnicowanych usług klientom – komentuje Louise Ostrom.

    VMware tłumaczy, że wprowadzone w ostatnich miesiącach innowacje nastawione są przede wszystkim na modernizację usług chmurowych i rozwój strategii wielochmurowych. Ogromną rolę odegrała jednak społeczność partnerska.

    To efekt dialogu i wieloletniej współpracy z naszymi partnerami technologicznymi. Są oni kluczowi dla podejmowanych działań. Stanowią łącznik z klientem finalnym i pomagają nam zrozumieć czego tak naprawdę firmy potrzebują, by w pełni wykorzystać możliwości jakie dają dzisiejsze, cyfrowe czasy i sprostać oczekiwaniom klientów – komentuje Louise Ostrom. Zarówno duże, jak i małe firmy IT znajdują się pod nieustanną presją, by dostarczać ludziom wysokiej jakości produkty, bazujące na elastycznych technologiach. Modernizacja posiadanych już systemów i aplikacji lub dostarczenie nowych w chmurach, bywa jednak zadaniem trudnym. Partnerstwo z VMware pozwala naszym  klientom sprostać rynkowym wyzwaniom i zmaksymalizować zysk z wdrożenia środowisk wielochmurowych, dostarczonych jako usługa – dodaje Peter FitzGibbon, wiceprezes i dyrektor generalny w firmie Rackspace, współpracującej z VMware.

    Gartner uważa, że do 2022 roku 28 proc. wydatków w działach IT będzie przeznaczonych na technologie chmurowe m.in. aplikacje udostępnianie w modelu oprogramowanie jako usługa (software as a service) i rozwiązania hybrydowe. Potwierdzają to także analizy Forrester’a – już ponad 89 proc. firm na świecie korzysta z co najmniej dwóch chmur obliczeniowych, a 74 proc. z nich przyznaje, że używało lub używa aktualnie co najmniej trzech chmur publicznych.

  • Świat ludzi i maszyn stanie się jednością

    Świat ludzi i maszyn stanie się jednością

    Do 2050 roku znajdziemy się w punkcie, w którym świat ludzi i maszyn stanie się jednością – ocenia Gerd Leonhard, futurolog i dyrektor The Futures Agency. W najbliższym dziesięcioleciu powstaną nowe superkomputery, szerzej do głosu dojdzie sztuczna inteligencja, a większość ograniczeń technicznych zostanie pokonana. Zdaniem eksperta wyzwaniem jest jednak wykorzystywanie możliwości, jakie dają nowe technologie, przy jednoczesnym zachowaniu kontroli nad nimi. Konieczne jest też przyjęcie tzw. potrójnego fundamentu, czyli skupienie się na trzech celach: ludziach, planecie i dobrobycie, a nie tylko na zyskach.

    – Ludzie i maszyny naprawdę mogą ze sobą współpracować. Obecnie jednak mamy do czynienia z sytuacją, w której cała nasza aktywność skupia się na technologii, a pozostałe aspekty odsuwane są na bok. W najbliższym dziesięcioleciu powstaną nowe superkomputery, dojdzie do głosu sztuczna inteligencja i pojawią się mówiące maszyny. Będziemy mogli robić całą masę różnych niesamowitych rzeczy. Jednak musimy się przy tym upewnić, że wciąż mamy nad tym kontrolę i że to nadal jest dla nas dobre – podkreśla Gerd Leonhard, futurolog i dyrektor The Futures Agency w Szwajcarii.

    Przed nowymi technologiami nie ma ucieczki. Powstają komputery kwantowe o potężnej mocy obliczeniowej, które mogą złamać każdy szyfr, bezbłędnie przewidywać skutki zjawisk atmosferycznych czy stworzyć ultrabezpieczne satelitarne sieci komunikacyjne. Tylko w latach 2010–2016 na inwestycje w rozwój technologii komputerów kwantowych w USA przeznaczono ponad 200 mln dol. Nad superkomputerami pracują też inne światowe mocarstwa, w tym Chiny, Kanada czy Australia.

    Postępuje też robotyzacja. Dell Technologies prognozuje, że do 2030 roku nowe technologie i roboty będą obecne już prawie w każdej dziedzinie życia. Sztuczna inteligencja wkracza w niemal każdy obszar życia, a wirtualna rzeczywistość staje się już powszechna.

    – Niektóre technologie może i są niesamowite, ale nie do końca nam służą. Przykładem jest rzeczywistość wirtualna, która może się wiązać z szeregiem skutków ubocznych. Musimy zatem znaleźć równowagę pomiędzy tym, co byśmy chcieli, a tym, co możemy zrobić za pomocą technologii. Potrzebny jest zatem system, który pozwoli nam to wszystko kontrolować – ocenia Gerd Leonhard.

    Mimo postępującej cyfryzacji społeczeństwa nie są do niej w pełni przygotowane. Korzystają z jej możliwości, ale nie do końca zdają sobie sprawę z zagrożeń.

    – Największym problemem jest ustrój gospodarczy, w którym priorytetem są zyski. Duże firmy technologiczne mają ogromną władzę, która w bardzo niewielkim stopniu podlega jakiejkolwiek kontroli. Te nierówności stają się coraz większe, dobrze prosperujące spółki stają się swego rodzaju kartelem, ponieważ technologia stale się rozwija. To sprawia, że konkurowanie z nimi jest bardzo trudne. Brakuje odpowiednich przepisów, które są potrzebne, aby wyrównać szanse na rynku. Brakuje też sposobów redystrybucji zysków poprzez np. podatki – ocenia futurolog.

    Nowe technologie budują przewagę konkurencyjną firm. Jak wynika z raportu „Accenture Technology Vision 2018”, 84 proc. przedstawicieli kadry zarządzającej ocenia, że dzięki technologiom firmy zyskują większy wpływ na codzienne życie ludzi. Nie zawsze jednak jest to wpływ pozytywny.

    – Jeśli wszyscy skupimy się na zarabianiu pieniędzy poprzez technologię, to wówczas wszystko stanie się technologią. Wtedy, my, ludzie, przestaniemy mieć jakiekolwiek znaczenie, bo jesteśmy zwyczajnie mało efektywni. Myślę, że mamy około dziesięciu lat na to, aby zacząć poważnie pracować nad tym problemem. Do 2050 roku zapewne znajdziemy się w punkcie, w którym świat ludzi i maszyn stanie się jednym. Będziemy musieli wtedy dokonać wyboru, czym chcemy być – mówi Leonhard.

    Zdaniem naukowców lata 2040–2050 będą pierwszym w historii okresem, w którym sztuczna inteligencja dorówna ludzkim możliwościom lub je przewyższy. Konieczne jest jednak, by nowe technologie wykorzystywać na korzyść ludzkości i wdrożyć odpowiednie regulacje, aby uniknąć niebezpieczeństw.

    – Musimy przyjąć tzw. potrójny fundament – ludzie, planeta, dobrobyt. Już teraz w debacie pojawia się temat przejścia na coś w rodzaju postkapitalizmu, nowego sposobu myślenia o tym, czego chcemy od świata – przekonuje dyrektor The Futures Agency w Szwajcarii. – Poradziliśmy sobie z wieloma innymi problemami, więc technologie również zdołamy ujarzmić. 90 proc. tego, co nas czeka w przyszłości, zapowiada się wspaniale, a tylko 10 proc. wygląda mniej obiecująco. Musimy tylko uważać, żeby to 10 proc. nie rozrosło się nagle do 50 proc.

    Gerd Leonhard był gościem konferencji GfK Insight Summit Poland, która odbyła się w tym tygodniu w Warszawie.