Tag: Windows

  • Nowa Yoga 730 od Lenovo

    Nowa Yoga 730 od Lenovo

    Na półki polskich sklepów trafił właśnie najnowszy model od Lenovo – Yoga 730. Najnowsza Yoga 730 wyposażona jest w nowoczesne podzespoły. Posiada krystalicznie czysty ekran IPS o rozdzielczości do 4K. Za dźwięk odpowiadają głośniki JBL z certyfikatem Dolby® Audio Premium™, a dane są chronione za pomocą odcisku palca.

    Yoga 730 posiada matowe, aluminiowe wykończenie w kolorze stalowym, smukłą linię i wąskie ramki wokół ekranu. Nowa propozycja od Lenovo dedykowana jest dla osób, które korzystają z laptopa w różnych miejscach i wykorzystują go do wielu zadań.

    Yoga 730

    Za sprawą oryginalnych zawiasów ekran obraca się w zakresie 360 stopni oferując korzystanie z laptopa na 4 różne sposoby, dzięki czemu to Yoga 730 dostosowuje się do stylu pracy użytkownika. W mgnieniu oka zmienia się w duży tablet lub namiot, który jest dobrą pozycją do uczestniczenia w  wideokonferencjach i oglądania ulubionych seriali.

    Mobilność

    Mobilność Yoga 730 gwarantuje niska masa urządzenia, która wynosi zaledwie 1,89 kg w wersji z 15-calowym ekranem oraz 1,19 kg w wersji 13-calowej. Niewątpliwą zaletą, szczególnie dla osób w częstym ruchu, jest także bateria pozwalająca na nawet 11 godzin działania. Lenovo Yoga 730 może pracować od świtu do zmierzchu, dzięki czemu noszenie zasilacza do pracy nie musi być koniecznością.

    Jakość obrazu i dźwięku

    Jakość ekranu to jeden z najważniejszych parametrów, który bezpośrednio wpływa na komfort pracy i rozrywki na laptopie. Lenovo Yoga 730 została wyposażona w wyświetlacze 13” lub 15”  o rozdzielczości do 4K, które składają się z ponad 8 milionów pikseli i oferują jasność sięgającą 300 nitów.

    Ramki wokół wyświetlacza Yoga 730 liczą 6,55 mm (po bokach) oraz 9,65 mm, co wpływa na większy obszar roboczy. Sam ekran zapewnia szerokie kąty widzenia (178⁰), co jest szczególnie istotne w czasie oglądania filmów i zdjęć bądź prezentowania danych na ekranie podczas biznesowego spotkania. Urządzenie posiada wbudowane głośniki JBL z technologią Dolby® Audio Premium™, które pozwalają doświadczyć przestrzennego dźwięku z mniejszymi zakłóceniami podczas korzystania z multimediów  i połączeń głosowych.

    Yoga 730

    Moc

    Jedną z istotniejszych zmian jakie zaszły w Yoga 730 w porównaniu do poprzednich modeli dotyczy procesora oraz karty graficznej. Laptop dostępy jest z procesorami Intel® Core™ 8 generacji, na czele z nowym, czterordzeniowym i7, który zapewni maszynie aż 40-procentowy przyrost mocy względem poprzedniej generacji. Opcjonalnie laptop wyposażony jest w kartę graficzną NVIDIA® GTX1050 opartą na NVIDIA® Pascal, najbardziej zaawansowanej na świecie architekturze gamingowej, stworzonej z myślą o najnowszych wielowymiarowych środowiskach gier.

    Yoga 730

    Za płynność i stabilność odpowiada również pamięć RAM do 16 GB DDR4 wraz z najnowszymi rozwiązaniami łączności, jak dwuzakresowe WiFi 802.11 ac i Bluetooth 4.1. Dysk SSD o pojemności do 1 TB przyspiesza uruchamianie systemu, aplikacji, a także transfer plików, zaś funkcja Windows Hello wraz z czytnikiem linii papilarnych pozwalają nie tylko bezpieczne, ale też błyskawiczne zalogować się do urządzenia. Yoga 730 jest wyposażona w dwa porty USB-C, które posiadają szybkie złącze Thunderbolt™ 3 dedykowane współpracy z wyświetlaczami o wysokiej rozdzielczości, wydajnymi urządzeniami do przechowywania danych i szybkiemu ładowaniu. Laptop może też rejestrować i edytować wiele strumieni wideo w czasie rzeczywistym lub połączyć szeregowo inne urządzenia, aby ułatwić sobie pracę.

    Yoga 730

    Aktywny rysik Lenovo Active Pen 2 oraz funkcja Windows Ink

    Najnowsza propozycja Lenovo jest dostępna także z rysikiem Lenovo Active Pen 2 i funkcją Windows Ink dzięki czemu wykorzystać laptop także do projektowania, szkicowania oraz tworzenia notatek na wyświetlanych dokumentach. Dzięki niezwykłej precyzji (4096 poziomów nacisku) oraz technologii Palm Rejection, rysik imituje wrażenia charakterystyczne dla notowania na papierze. Funkcja Windows Ink dostępna bezpośrednio z paska zadań umożliwia zapisywanie swoich myśli na bieżąco, jednocześnie mając możliwość ich formatowania lub przesłania do innych urządzeń.

    Yoga 730

    Ceny i dostępność

    Laptopy Lenovo Yoga 730 w wersji 13” i 15” są już dostępne w sprzedaży m.in. w sieci sklepów Komputronik, Euro.com.pl, Media Expert oraz x-kom.pl w cenie od 4 499 zł.

  • Navitel MS700 – nawigacja, która doprowadzi do celu

    Navitel MS700 – nawigacja, która doprowadzi do celu

    Czasy, gdy rynek nawigacji samochodowych był w szczycie swojego rozwoju, już minęły. Nie oznacza to jednak, że producenci rezygnują z tworzenia modeli na miarę klientów, którzy pozostali wierni tej technologii. Do producentów, którzy się nie poddają należy między innymi firma Navitel, która zaprojektowała 7-calową nawigację MS700. Nawigacja od Navitel daje dostęp do map 45 krajów, które możemy dożywotnio aktualizować.

    Obudowa

    Obudowa urządzenia została wykonana z czarnego plastiku. Części są spasowane ze sobą w sposób prawidłowy, ich połączenie jest solidne. Przycisk włączenia MS700 znajduje się w jego górnej części, natomiast z lewej strony jest wejście słuchawkowe, slot na kartę microSD oraz miniUSB. Obudowa jest przyjemna w dotyku, nie palcuje się, całe urządzenie zaprojektowano bez ekstrawagancji, co jest jego niewątpliwą zaletą.

    NAVITEL MS700

    Wyświetlacz

    Nawigacja posiada ekran o przekątnej 7 cali i rozdzielczości 800×480 pikseli. Poza tym, że ekran jest dobrze doświetlony i świetnie sprawdza się nawet, gdy pada na niego mocne światło, to nie jest on raczej mocną stroną tego urządzenia. Pierwszą wadą jest niebyt wysoka rozdzielczość, a do tego ekran jest pokryty nakładką, która zapobiega odbijaniu światła. Spełnia tą funkcję, jednak znacząco wpływa to na jakość obsługi dotyku.

    Akcesoria

    Do MS700 producent dołączył uchwyt do nawigacji, ładowarkę samochodową, instrukcję, kabel miniUSB oraz materiałowy pokrowiec. Ponadto w gratisie otrzymujemy licencję Navitel na smartfona, dzięki czemu, poza samym urządzeniem możemy korzystać z map Navitel przez rok. Dużym minusem jest natomiast długość kabli, która może nie wystarczyć w przypadku niektórych modeli aut.

    Obsługa

    Jeśli chodzi o obsługę urządzeń Navitel, nie należy ona do zbyt trudnych. Łatwo się połapać, wobec czego nie stanowi żadnej żadnego problemu szybkie znalezienie trasy. W MS700 pracuje system Windows CE, do którego jednak użytkownik nie ma bezpośredniego dostępu. Urządzenie posiada w zasadzie dwie funkcje – nawigowanie oraz odtwarzacz plików audio. Sercem nawigacji jest procesor ARM Cortex-A7, 800 MHz i 256 MB pamięci RAM, a do plików audio możemy wykorzystać 8 GB pamięci wbudowanej, jak również możemy skorzystać ze slotu na karty SD. Bardzo ciekawą i zarazem przydatną funkcją jest to, że MS700 posiada wbudowany transmiter FM, co sprawia, że komunikaty i dźwięki odtwarzania możemy odsłuchać z radia samochodowego.

    NAVITEL MS700

    Nawigacja

    Navitel MS700 prawidłowo spełnia swoją podstawową funkcję nawigowania kierowcy. Brak jest problemów z dojazdem, nawet w przypadku małych miejscowości – nawigacja dobrze sobie radzi. Może pojawić się problem z aktualizacją miejsc na mapie, to znaczy restauracje itp., jednak jeśli chodzi o same drogi, nawigacja spełnia wymagania. Większym problemem w tej kwestii okazuje wnętrze urządzenia, które zdaje się nie do końca nadążać, stąd MS700 czasami, kolokwialnie mówiąc, zamula, jednak tylko w przypadku wybierania miejsca docelowego.

    Przy wyborze miejsca, w ogóle przy korzystaniu z MS700 najbardziej irytujące jest archaiczne kliknięcie po każdym dotknięciu ekranu. Nawigacja ma 7 cali, wobec czego jest to urządzenie dość spore, co może nieco przeszkadzać kierowcy. Do tego, jeśli zdecydujemy się sugerować obrazem podczas jazdy, to może to stawić problem, ponieważ na mapie jest dużo ikon, które mogą zaburzyć odczytywanie informacji. Jednak dużym plusem urządzenia są bardzo wyraźne komunikaty głosowe, do wyboru mamy 4 rodzaje głosów, 2 męskie i 2 żeńskie. Najczęściej jednak słuchamy komunikatów nawigacji zamiast wpatrywać się w ekran, wobec czego drobne mankamenty MS700 nie są tak istotne przy normalnym użytkowaniu.

  • T-Bull S.A. w drodze na parkiet główny GPW

    T-Bull S.A. w drodze na parkiet główny GPW

    Wrocławski deweloper gier skierowanych głównie na urządzenia mobilne już od pewnego czasu informował o planach przeniesienia. Dzisiaj spółka robi  duży krok w kierunku głównego parkietu i  prospekt emisyjny. Emisja do 100 tys. akcji ma przynieść środki na rozwój biznesu – w tym wejście w nowy segment gier z rewolucyjnymi tytułami. Inwestorzy indywidualni mogą składać zapisy po cenie maksymalnej wynoszącej 60,00 zł za akcję.

    22 czerwca 2018 roku Komisja Nadzoru Finansowego zatwierdziła prospekt emisyjny studia T-Bull S.A., które po opublikowaniu dzisiaj – 27 czerwca 2018 roku, planuje emisję do 100 tys. akcji serii F, które będą stanowiły do 8,2% udziału w kapitale spółki. Zakładając powodzenie emisji, liczba akcji spółki wzrośnie z 1,124mln do 1,224mln. Emisja akcji nastąpi w formie subskrypcji otwartej przeprowadzanej w drodze oferty publicznej bez prawa poboru.

    – Przeniesienie notowań na główny parkiet giełdy to jeden z najważniejszych kamieni milowych w naszej długoterminowej strategii rozwoju spółki – mówi Damian Fijałkowski, współzałożyciel i członek Zarządu T-Bull S.A. – Ten krok pozwoli nam na ugruntowanie pozycji rynkowej i mocną inwestycję w przyszłość. Niezmiennie pozostajemy pasjonatami tego, co robimy, a nasi współpracownicy dzielą nasze wartości. Skala tego, co robimy musi jednak stale wzrastać.  – dodaje.

    T-Bull jeszcze trzy lata temu mógł pochwalić się przychodem na poziomie 6,8 mln PLN. W zeszłym roku ta wartość była już ponad dwukrotnie wyższa osiągając blisko14,3 mln PLN przychodu.

    T-Bull do dziś

    Studio deweloperskie T-Bull S.A. założone w 2010 roku specjalizuje się w tworzeniu gier na platformy mobilne, oparte na modelu (F2P). Spółka w swoim portfolio ma około 200 aplikacji publikowanych, w tym dwie topowe produkcje, którymi są Top Speed i Moto Rider GO. Specjalnością wrocławian są gry wyścigowe i FPS, które możemy znaleźć we wszystkich najważniejszych sklepach związanych z urządzeniami mobilnymi.

    – Jako firma zaczynaliśmy od niewielkiego pokoiku, gdzie pracowaliśmy w dwie osoby. Dzisiaj zatrudniamy 55 pracowników i staramy się tworzyć nowoczesną i kreatywną przestrzeń dla całej załogi. Specjalizujemy się w produkcji gier na urządzenia mobilne, jednak nie zawsze tworzyliśmy gry typu F2P. Pamiętam, że na swojej pierwszej grze w ciągu tygodnia od premiery zarobiliśmy jedynie 70 centów, a na kolejnej – 3 dolary. Kilka lat później chwaliliśmy się już pierwszą setką milionów pobrań. Dzisiaj to ponad 329 300 000 – mówi Grzegorz Zwoliński, Prezes Zarządu i współzałożyciel studia T-Bull S.A

    W ostatnim czasie spółka z Wrocławia zapowiedziała kontynuację jednej ze swoich najpopularniejszych gier, czyli Top Speed 2. Produkcja ma być dostępna pod koniec tego roku. W między czasie jednak, T-Bull skupia się na rozwoju biznesowym.

    Spółka z doświadczeniem giełdowym w rozwojowej branży

    T-Bull S.A. jest notowana w alternatywnym systemie obrotu NewConnect od 2016 roku. Doświadczenia giełdowe spółki komentuje Damian Fijałkowski:

    – Dużo nauczyliśmy się od czasu wejścia na NewConnect. Zdajemy sobie sprawę, iż kapitał od inwestorów musi zarabiać. Dlatego dziś szczególną uwagę poświęcamy monetyzacji, która w kluczowym dla nas segmencie gier F2P stanowi fundament płynności na rynku. Sięgamy po kapitał, który będzie inwestycją w nową odsłonę naszego studia, czyli nowy gatunek rozgrywki oraz atrakcyjny dla graczy tryb multiplayer. Jesteśmy pasjonatami i dzielimy się tym  z naszymi graczami – to kluczowy element sukcesu T-Bull S.A.

    Od kilku miesięcy firma udostępnia cykliczne raporty, które pozwalają kontrolować zainteresowanie rynku produktami T-Bull S.A. Z ostatniego analitycznego raportu dowiadujemy się, że T-Bull może pochwalić się już łączną liczbą pobrań w wysokości blisko 330 milionów w ponad 230 krajach na całym świecie. W samym maju ta liczba wynosi ponad 7,5 miliona.

    Spółka działa na rosnącym w dwucyfrowym tempie rynku gier mobilnych. Zgodnie z najnowszym (1Q18) updatem raportu rynkowego Newzoo, wartość rynku gier mobilnych w 2017r. wyniosła 70mld USD, co stanowiło 46% całości rynku gier na świecie. Szacunki Newzoo podają, że udział gier mobilnych już w 2018r. powinien przekroczyć 50% wartości całego rynku gier i rosnąć w tym roku w tempie 25%. W kolejnych latach rynek gier mobilnych powinien utrzymać dwucyfrowe tempo wzrostu, by finalnie w 2021r. przekroczyć barierę 100mld USD.

    Perspektywy rozwoju oparte na THE

    Wysoka liczba pobrań gier wydanych przez T-Bull S.A. w połączeniu ze środkami z emisji 100 tysięcy akcji pozwoli uzyskać spółce środki na rozwinięcie kompetencji w zakresie tworzenia dobrze monetyzujących się gier oraz o rozwinięcie mechanik trybu multiplayer, które zgodnie z przewidywaniami zarządu powinni przełożyć się na większa atrakcyjność wydawanych gier.

    – Zaawansowany tryb multiplayer to w dzisiejszych czasach element niezbędny w grach mobilnych. Dla przykładu po wdrożeniu wstępnej wersji systemu dla wielu graczy w grze Top Speed zaobserwowaliśmy prawie dwukrotny wzrost liczby nowych pobrań każdego dnia, który utrzymuje się na stałym poziomie już od dłuższego czasu. – komentuje Grzegorz Zwoliński. – Możliwość porównywania wyników, współzawodnictwa, czy też wręcz przeciwnie – grania ze znajomymi, tworzeniu stałych grup czy gildii to dla nas must have w kolejnych produkcjach – dodaje.

    Głównym celem spółki na najbliższe lata jest znalezienie się w czołówce najlepszych producentów gier mobilnych na świecie, a także poszerzanie swojego portfolio. W dalszym okresie deweloper myśli o wejściu na rynek PC i konsol. Ponadto, nieprzerwanie T-Bull inwestuje w rozwój swoich rozwiązań technologicznych i optymalizacja modelu biznesowego. Przykładem może być projekt G-CAMP realizowany ze środków pozyskanych w ramach programu GAMEINN.

    Do końca tego roku gracze mają dostać w swoje ręce kontynuację flagowej produkcji T-Bull S.A., czyli Top Speed 2. Jednak wraz z publikacją prospektu, spółka ogłosiła jeden ze swoich najbardziej ambitnych projektów gamingowych w postaci gry THE. Produkcja ma być połączeniem team battlera z city builderem, czyli grą z gatunku, które w branży jest jednym z najlepiej monetyzujących się wśród wszystkich dostępnych na platformach mobilnych. To co prawda zupełnie nowe wyzwanie dla T-Bulla, jednak innowacja załodze z Wrocławia nie jest, ani straszna, ani obca. Tytuł opierać się będzie na strategicznej mechanice w połączeniu z rozbudowanym trybem mutliplayer, pozwalającym na rywalizację z innymi graczami w czasie rzeczywistym na całym świecie. Sama rozgrywka ma polegać za głęboko przemyślanym rozbudowywaniu własnej społeczności na zajętych terenach, podboju nowych ziem oraz walkach i dyplomacji z innymi graczami. Gra docelowo planowana jest na początek roku 2020r, a praca nad nią mają rozpocząć się najwcześniej w roku 2019.

    T-Bull w nowym wydaniu

    Dotychczas spółka osiąga duże wolumeny pobrań produkowanych gier, mogąc pochwalić się blisko 330 milionami ściągnięć ich produktów. Najpopularniejszą platformą, na której dostępne są gry T-Bull jest system Android ze sklepem Google Play, który odpowiada za blisko 65% łącznej ilości pobrań . Następnie są to odpowiednio: Apple App Store, Windows Store, Amazon AppStore, BlackBerry World i inne.

    W ostatnim czasie T-Bull S.A. w ramach konkursu „GameINN” z NCBiR dostał dofinansowanie na opracowanie platformy „G-Camp” służącej do zarządzania treścią, zasobami graficznymi oraz interakcjami w multiplatformowych grach mobilnych. Wartość projektu opiewa na 6,2 mln PLN, z czego kwota dofinansowania z NCBiR to 4,3 mln PLN.

    Mając za sobą wyniki, które od wielu miesięcy utrzymują się na wysokim poziomie, stałe wsparcie partnerów biznesowych w postaci kluczowych sklepów na platformach mobilnych, budżet z konkursu „GameINN” oraz ambitne plany na przyszłość, T-Bull S.A. może bez kompleksów  patrzeć w przyszłość i realizować kolejne założenia ogłoszone w dzisiejszym prospekcie emisyjnym.

  • Nowe produkty w ofercie CK Mediator

    Nowe produkty w ofercie CK Mediator

    Nowe produkty poszerzyły ofertę dystrybucyjną CK Mediator. Jest to waga od Xiaomi – Mi Smart Scale 2 oraz seria laptopów Lenovo IdeaPad 320-15.

    Xiaomi Mi Smart Scale 2

    Najnowszy model, jako następca swojego kultowego poprzednika, został rozbudowany o technologię, która umożliwia pełną analizę składu ciała. Waga monitoruje 10 typów danych i zapamiętuje wyniki nawet 16 osób.

    Oprócz podstawowych funkcji, takich jak mierzenie wagi czy BMI, waga umożliwia pełną analizę składu ciała, dzięki zastosowaniu nieinwazyjnej technologii bioimpedancji elektrycznej (BIA), wykorzystywanej przede wszystkim w profilaktyce i leczeniu otyłości. Za jej pomocą Xiaomi Mi Smart Scale 2 mierzy między innymi poziom tkanki tłuszczowej i wody oraz masę mięśniową i masę kostną organizmu.

    Xiaomi Mi Smart Scale 2

    Waga Xiaomi Mi Scale 2 posiada wbudowany moduł łączności Bluetooth służący do synchronizacji danych z aplikacją MiFit na smartfonie. Aplikacja pozwala na śledzenie zaawansowanych danych na temat aktualnego trendu wagowego. Motywuje również do ruchu i wyświetla zalecenia, które mogą pomóc w utrzymaniu ciała w lepszej kondycji. Z poziomu aplikacji dostępne są również historyczne pomiary, widoczne na przejrzystych wykresach.

    Mi Smart Scale 2 posiada wymiary 30×30 cm i ma zaledwie 14.75 mm grubości, dzięki czemu wagę można przechowywać w dowolnym miejscu w domu. Aby zapewnić zintegrowany design i niewielki, kompaktowy wygląd, producent porzucił tradycyjny ekran na rzecz nowoczesnego wyświetlacza LED, schowanego pod odpornym na korozję materiałem ABS. Zaokrąglone narożniki o gładkiej krawędzi zapewniają bezpieczeństwo i zapobiegają zarysowaniom. Duża mata na stopy, pokryta paskami antypoślizgowymi, zwiększa powierzchnię styku i minimalizuje ryzyko poślizgu. Wagę zasilają 4 baterię AAA.

    Cena i dostępność Xiaomi Mi Smart Scale 2

    W ofercie CK Mediator urządzenie jest dostępne wraz z pełnym wsparciem gwarancyjnym i posprzedażowym. Można je nabyć za pośrednictwem oficjalnego sklepu internetowego dystrybutora w cenie 159 zł brutto. Produkt jest objęty 24-miesięczną gwarancją producenta, realizowaną na terenie kraju. Aby być pewnym, że urządzenie pochodzi z oficjalnej dystrybucji należy zwrócić uwagę na hologram CK Mediator.

    Lenovo IdeaPad 320-15

    Lenovo IdeaPad 320-15

    Kolejnymi urządzeniami w ofercie CK Mediatora są laptopy z serii Lenovo IdeaPad 320-15. W laptopie Lenovo IdeaPad 320-15 zamontowano ekran 15,6”, o rozdzielczości Full HD, z matowym pokryciem oraz podświetleniem LED. Jeśli chodzi o dostosowanie laptopa do potrzeb pod względem procesora, do wyboru mamy ich pięć.20-15 – prezentacja wideo

    Wymagający użytkownicy mogą zdecydować się na wersje z Intel Core i3 – 7100, i5 – 7200, i7 – 7500 czy też najnowszym, czterordzeniowym układem Intel Core i5 – 8250. Do tego da się wybrać 8 GB RAM wraz z dedykowaną kartą graficzną NVIDIA GeForce 940MX. Można również, zamiast standardowego, 1-terabajtowego dysku twardego, pokusić się o wersję z SSD o pojemności 128 GB. Tak szeroki wybór ma pozwolić każdemu znaleźć konfigurację na miarę własnych potrzeb.

    Lenovo IdeaPad 320-15

    Lenovo IdeaPad 320-15 dysponuje też sporą liczbą złącz: HDMI, audio jack 3,5 mm, USB 2.0, USB 3.0 i RJ-45. Jest tutaj też moduł WiFi 802.11 ac (2,4 oraz 5 GHz) oraz Bluetooth.

    Za wystarczająco długi czas pracy, wynoszący około 6-7 godzin, odpowiada dwukomorowa bateria o pojemności 4000 mAh. Wielu osobom przypadnie do gustu także obecność odtwarzacza płyt CD/DVD, który aktualnie jest już rzadko spotykanym rozwiązaniem w nowych komputerach, a mimo wszystko bardzo często okazuje się potrzebny. System operacyjny dostarczany z Lenovo IdeaPad 320-15 to Windows 10 w wersji Home.

    Lenovo IdeaPad 320-15

    Sugerowana cena detaliczna najprostszej konfiguracji modelu IdeaPad 320-15 wynosi 1697 PLN brutto. Jest wyposażona w procesor Intel Pentium N4200, zintegrowaną kartę graficzną Intel HD Graphics 505, 4 GB pamięci RAM oraz dysk twardy o pojemności 1 TB. Topowa konfiguracja z Core i7, GeForce 940MX, 8 GB RAM i HDD 1 TB kosztuje 3099 PLN brutto.

  • Czym zachwyca Creative Sound Blaster X Katana?

    Czym zachwyca Creative Sound Blaster X Katana?

    Ze względu na jakość dźwięku i niewielką ingerencję w wystrój wnętrza, coraz większą popularność wśród sprzętu audio zyskują soundbary. Czym można się wyróżnić na tym rynku? Firma Creative zdecydowała się zaprojektować soundbar dla… graczy i wyróżnić go za pomocą designu. Dzięki temu powstał soundbar Creative Sound Blaster X Katana.

    W zestawie od Creative otrzymujemy listwę dźwiękową, subwoofer, pilot, zasilacz, kabel USB. Co istotne, w zestawie znajdziemy również uchwyty montażowe do przymocowania listwy na ścianie. Listwa ma długość 60 cm, co, biorąc pod uwagę gamingowe przeznaczenie sprzętu, jest długością optymalną do ustawienia urządzenia na biurku. Subwoofer z kolei jest wysoki na 33 cm i szeroki na 13 cm, a jego głośnik umieszczony jest z lewej strony. Cały zestaw jest koloru czarnego. Listwa posiada wejście zasilania, wyście do podłączenia głośnika niskotonowego, wejście na mikrofon, wyjście słuchawkowe, wejście audio, wejście optyczne, USB i microUSB do podłączenia komputera. W górnej części listwy znajduje się pięć przycisków funkcyjnych oraz dwa skierowane do góry głośniki tonów średnich. W przedniej części urządzenia umieszczono dwa głośniki wysokotonowe oraz ekran LCD ukryte za metalową, perforowaną membraną. Soundbar jest oparty na dwóch nóżkach, dzięki którym front skierowany jest nieco ku górze.

    Urządzenie sprawia wrażenie zaprojektowanego w przemyślany sposób. Górną część listwy pokrywa eleganckie, szczotkowane aluminium, przechylenie listwy do tyłu jest świetnym pomysłem z uwagi na przeznaczenie soundbara. Urządzenie jest solidnie wykonane, wszystkie elementy są wyprodukowane z materiałów wysokiej jakości i spasowane w prawidłowy sposób. Gamingowy charakter Katany uwydatnia się wraz z uruchomieniem urządzenia. Katana posiada bowiem system oświetlenia Aurora Reactive. Tworzy go 49 diod umieszczonych pod listwą. Ich kolor oraz sposób emisji światła można dowolnie dostosować za pomocą aplikacji. Oświetlenie można dostosować do trybów pracy, brak jest jednak możliwości zintegrowania dynamiki pracy diod do dźwięku.

    Soundbar posiada możliwość podłączenia wielu urządzeń jednocześnie za pomocą standardu Bluetooth 4.2, kabla optycznego, kabla USB i wejścia AUX na jacka 3.5. Na ekranie LCD w przedniej części urządzenia wyświetlają się informacje dotyczące wybieranych przez nas opcji. Z pilota dołączonego do zestawu korzysta się bardzo dobrze, plastik jest dobrej jakości i nie skrzypi, a przyciski posiadają odpowiedni skok. Z pomocą pilota ustawimy najważniejsze funkcje urządzenia, krótko mówiąc – prawidłowo spełnia swoją funkcję.

     

     

    Za dźwięk soundbara odpowiada 5 głośników: wcześniej wspomniane dwa głośniki tonów średnich o średnicy 6,35 cm, dwa głośniki wysokotonowe o dużej amplitudzie o średnicy 3,4 cm oraz głośnik niskotonowy o średnicy ponad 13 cm z przetwornikiem o dużym wychyleniu membrany. Każdy z głośników jest umieszczony w oddzielnej przegrodzie, a za obsługę odpowiada wzmacniacz sterowany przetwornikiem DPS. Producent podaje, że soundbar dysponuje mocą 75 W RMS/150 W. Urządzenie posiada przetwornik DSP, który sprawia, że jest to pierwsze na świecie urządzenie z prawdziwym system audio montowanym pod monitorem (Under Monitor Audio System — UMAS).

    Creative Sound Blaster X Katana

    Katana pod względem jakości dźwięku jest po prostu niesamowita i to już po wyjęciu z pudełka. Dźwięk jest realistyczny, dynamiczny i czysty, co doskonale sprawdza się w przypadku gier, muzyki i filmów.  Słuchając jej, aż trudno uwierzyć, że do dyspozycji mamy tylko niewielką listwę i subwoofer. Wyraźnie słychać, że w Katanie chodzi właśnie o to, żeby niezależnie od tego, z jakim dźwiękiem mamy do czynienia, był on doskonale słyszalny, mocny, wyrazisty.

    Creative Sound Blaster X Katana

    Wyjęcie z opakowania, podłączenie zestawu, uruchomienie i zanurzenie się w dźwięku to dopiero początek magii jaka nas czeka. Cała zabawa zaczyna się po zainstalowaniu oprogramowania Creative na komputerze – wtedy Katana zaczyna pełnić funkcję karty dźwiękowej z najwyższej półki.

    Aplikacja Sound Blaster Connect oferuje dostosowanie do preferencji użytkownika każdego elementu – zarówno jakości dźwięku, efektów świetlnych jak i profili.

    Wszystkie ustawienia możemy zapisać w postaci „szczelin” (trybów) – ustawiamy tam jakość audio za pomocą equalizera, funkcji podzielonych w grupy. Mamy również do dyspozycji panel ustawień oświetlenia, w którym ustawimy podświetlanie w siedmiu obszarach (każdy oddzielnie z ponad szesnastu milionów kolorów oraz kierunek i efekt poruszania się fali światła.

    Urządzenie oferuje bogaty zestaw „szczelin”, które możemy pobrać i zainstalować (w tym predefiniowane tryby dla poszczególnych gier), jak i zapisać nowe – utworzone przez nas.

    Cała aplikacja działa płynnie i nie sprawia problemów – na komputerze, problemy wystąpiły jednak na wersji dla smartfonów. Sam w sobie pomysł aplikacji na urządzenia mobilne jest świetny, ponieważ możemy zarządzać „szczelinami” podczas podłączenia do TV czy konsoli. Jednak brak możliwości przesłania ustawień dyskwalifikuje cały ten pomysł. Kłopoty nie zniknęły nawet po aktualizacji oprogramowania całego zestawu – choć podejrzewam, że to bolączka egzemplarza, który trafił do naszej redakcji.

    DANE TECHNICZNE

    • Wymiary (W x S x G)listwa dźwiękowa: 60 x 600 x 79 mm, Subwoofer: 333 x 130 x 299 mm (5.1 x 11.8 x 13.1 inches)
    • Wagalistwa dźwiękowa: 1.5kg, Subwoofer: 4kg (8.8 lbs)
    • Przetwornikilistwa dźwiękowa: 2 Głośniki wysokotonowe o średnicy 34 mm, 2 skierowane do góry przetworniki tonów średnich (2,5 cala), Subwoofer: 1 subwoofer z przetwornikiem o dużym wychyleniu membrany (5,25 cala)
    • Konfiguracja systemuSystem 2.1
    • Wersja Bluetooth®Bluetooth 4.2
    • Obsługiwane profile BluetoothA2DP (transmisja bezprzewodowa, stereo, Bluetooth)

    WYMAGANIA SYSTEMOWE

    • Bezprzewodowe strumieniowe przesyłanie dźwięku:
      Zgodne urządzenia Bluetooth z obsługą profilu Bluetooth stereo (A2DP)
    • Sterowanie bezprzewodowe:
      Zgodne urządzenia Bluetooth z obsługą profilu Bluetooth Remote Control (AVRCP)
    • Odtwarzanie dźwięku Virtual 7.1 Surround:
      Komputer z systemem Windows
    • Odtwarzanie cyfrowego dźwięku 5.1:
      Wejście optyczne
    • Odtwarzanie dźwięku w wysokiej rozdzielczości 24 bity/96 kHz:
      Komputer za pośrednictwem połączenia USB
    • Odtwarzanie z pamięci flash USB:
      Pamięć o pojemności do 128 GB sformatowana jako FAT/FAT32 /exFAT.
      Popularne formaty audio, takie jak MP3, WMA, FLAC i WAV.
      (Obsługa formatów MP3 i WMA do 320 kb/s oraz FLAC do 1,3 Mb/s).
    • Bezpośrednie połączenie z gniazdem wejściowym AUX:
      Analogowe urządzenia dźwiękowe z wyjściem 3,5 mm

    ZAWARTOŚĆ OPAKOWANIA

    • 1 listwa dźwiękowa Sound BlasterX Katana
    • 1 subwoofer Sound BlasterX Katana
    • 1 zasilacz sieciowy
    • 1 kabel USB (1.8m)
    • 1 kabel USB (0.6m)
    • 1 pilot na podczerwień (z dołączoną baterią)
    • 2 x Wall Mount Brackets
    • Ulotka z informacjami o gwarancji i pomocy technicznej
    • Skrócona instrukcja obsługi
    • Ulotka z informacjami o bezpieczeństwie i zgodności z przepisami

    GWARANCJA

    • 2 ograniczona gwarancja na sprzęt
    Creative Sound Blaster X Katana
  • QNAP: nowa seria NAS-ów

    QNAP: nowa seria NAS-ów

    QNAP wprowadził na rynek nową serię NAS-ów – TS-x63XU. Urządzenia obsługują standard 10GbE, są dostępne w wersjach 4,8 i 12-zatokowych i wyposażono je w czterordzeniowe procesory AMD G-Series GX-420MC 2.0 GHz oraz 4 GB pamięci DDR3L RAM (z możliwością rozbudowy do 16 GB). Nowości są wysoce skalowalne, dzięki czemu stanowią idealne rozwiązanie dla użytkowników biznesowych poszukujących  urządzeń do zastosowań wymagających dużej wydajności, takich jak np. wirtualizacja.

    NAS-y z serii TS-x63XU wyposażone są w preinstalowaną jednoportową kartę sieciową 10GbE 10GBASE-T (która obsługuje również standardy 10G/5G/2.5G/1G/100M), co pozwala na osiągnięcie prędkości odczytu danych sięgających 1038 MB/s (w przypadku korzystania z szyfrowania AES-NI – 985 MB/s). Dzięki obsłudze funkcji SSD caching i auto-tieringu oraz możliwości łatwej rozbudowy pojemności (poprzez podłączenie 12-zatokowej obudowy rozszerzającej QNAP), nowości stanowią idealne rozwiązanie dla organizacji biznesowych planujących stworzenie prywatnej chmury i wydajnej infrastruktury sieciowej bazującej na 10GbE.

    Przystosowana do obsługi łączności 10GbE seria TS-x63XU oferuje nie tylko najwyższą wydajność i skalowalną architekturę, ale również bogactwo aplikacji zastosowań i niezawodność, czyli cechy kluczowe do realizowania potrzeb nowoczesnej firmy w zakresie przechowywania danych, odtwarzania ich po awarii czy wirtualizacji – Jason Hsu, Product Manager QNAP.

    Seria TS-x63XU jest zoptymalizowana pod kątem obsługi wirtualizacji – nowości obsługują VMware®, Citrix®, Microsoft® Hyper-V® oraz Windows Server® 2016 i mogą natywnie hostować maszyny wirtualne (Windows®, Linux®, UNIX® oraz Android™) i kontenery LXC oraz Docker®. Inteligentny system operacyjny QTS stanowi kompletne rozwiązanie do przechowywania, backup i udostępniania danych, a także do centralnego zarządzania nimi. Użytkownicy mogą też korzystać z migawek (na poziomie bloku), które pozwalają na szybkie przywrócenie NAS-a do zarejestrowanego wcześniej stanu, co stanowi idealne rozwiązanie chroniące np. przed skutkami awarii lub ataku oprogramowania ransomware.

    Przestrzeń dyskową urządzeń z serii TS-x63XU można powiększyć podłączając obudowy rozszerzające QNAP ( UX-1200U-RP oraz UX-800U-RP). Możliwe jest również korzystanie z technologii QNAP VJBOD (Virtual JBOD), które pozwala na wykorzystanie nieużywanej przestrzeni dyskowej innych urządzeń QNAP NAS do rozszerzenia pamięci QNAP TS-x63XU.

    Użytkownicy urządzeń QNAP NAS mogą w łatwy sposób zwiększać ich możliwości, korzystając z licznych aplikacji dostępnych w QTS App Center. Qsync jest narzędziem umożliwiającym łatwe synchronizowanie plików pomiędzy różnymi urządzeniami; QRM+ upraszcza centralne zarządzanie urządzeniami z systemami Windows oraz Linux oraz sprzętem kompatybilnym ze standardem IPMI; Qfiling automatyzuje proces organizowania i kategoryzowania plików, zaś QIoT Suite Lite jest narzędziem do tworzenia aplikacji Internetu Rzeczy (IoT), pozwalającym firmom m.in. na łatwe tworzenie prywatnych chmur dla IoT. NAS-y QNAP mogą również być wykorzystywane jako przyjazne na budżety profesjonalne systemy monitoringu – dzięki nowej aplikacji QVR Pro.

    Specyfikacja

    Redundatne zasilacze

    • TS-463XU-RP: 4-zatokowy, montaż 1U rackmount
    • TS-863XU-RP: 8-zatokowy, montaż 2U rackmount
    • TS-1263XU-RP: 12-zatokowy, montaż 2U rackmount

    Pojedyczne zasilacze

    • TS-463XU: 4-zatokowy, montaż 1U rackmount
    • TS-863XU: 8-zatokowy, montaż 2U rackmount
    • TS-1263XU: 12-zatokowy, montaż 2U rackmount

    Czterordzeniowy procesor AMD G-Series GX-420MC 2.0 GHz typu embedded z obsługą szyfrowania AES-NI; 4GB dwukanałowej pamięci DDR3L SO-DIMM RAM (z możliwością rozbudowy do 16GB); dyski 2.5″/3.5″ SATA 6Gbps HDD/SSD z obsługą hot-swap; 1x port 10GBASE-T RJ-45 LAN, 4x port Gigabit LAN; 2x port USB 3.0; 2x port USB 2.0 (w modelach TS-463XU-RP/ TS-463XU – 3x port USB 2.0).

  • Cryptojacking – co warto wiedzieć?

    Cryptojacking – co warto wiedzieć?

    Nowe formy ataku znane również jako cryptojacking są ukierunkowane zarówno na urządzenia końcowe, jak i serwery (te lokalnie, jak i te dostępne z chmury). Cel jest jeden: przejąć sieć urządzeń (botnet) i wykorzystać ich procesory (CPU) do kopania kryptowaluty przy zminimalizowaniu kosztów  własnych i inwestycji w sprzęt.

    Prymitywne organizmy zakaźne zabijają gospodarza, zyskując jednorazową korzyść: podtrzymanie gatunku. Te bardziej zaawansowane żerują na swoich nosicielach, żyją w organizmie gospodarza lub na nim i pobierają składniki odżywcze jego kosztem. Ich głównym celem jest wykorzystywanie żywiciela, a nie niszczenie go. Podobna sytuacja występuje w świecie cyfrowym, pasożyty – najczęściej niewykryte – nie usuwają, nie szyfrują danych ani nie żądają za nie okupu, za to wykorzystują moc obliczeniową „nosiciela”, która jest cennym towarem w świecie wydobywania kryptowalut. Osoby wykorzystujące ten proceder, napędzane szansą zysku, tworzą narzędzia do wydobywania kryptowalut, by wykorzystać obecny boom.

    To zjawisko ukrytego złośliwego oprogramowania, staje się coraz popularniejsze, ponieważ jest skutecznym sposobem generowania przychodów przy mniejszej szansie wykrycia. Celem jest kradzież mocy obliczeniowej procesora (CPU), przez co oprogramowanie w istocie staje się czymś w rodzaju cyfrowego pasożyta.

    Cyfrowa gorączka złota

    Cryptomining częściej nazywany kopaniem kryptowalut jest procesem intensywnym – konsekwentnie realizuje obliczenia matematyczne, które potrafią wykorzystać 100% mocy obliczeniowej procesora. Osoby zajmujące się tym procederem na dużą skalę dokonują sporych inwestycji w specjalistyczny sprzęt i infrastrukturę (hosting, chłodzenie, energię elektryczną itp.), by uzyskać późniejszy zwrot i stać się rentownym. Korzystniejsze jest jednak kopanie kryptowalut poprzez wykorzystanie sieci zainfekowanych komputerów, kradzież cyklu procesora i pozostawienie użytkownikom końcowym obniżonej wydajności, przy jednoczesnym zwiększeniu ponoszonych przez nich kosztów energii. Dotyczy to zarówno infrastruktury on-premise, ale też chmury, której koszty określane są na podstawie jej faktycznego wykorzystania.

    W przypadku Bitcoina, jego uzyskanie z wykorzystaniem procesorów GPU lub nawet starszych specjalizowanych układów scalonych (ASIC) nie jest w stanie dać wymaganego zwrotu z inwestycji – koszt zużycia energii jest większy niż zyski. Z wyjątkami, wydobycie Bitcoina jest zwykle ograniczone do większych operacji, w których koszt energii jest niższy i dotyczy wykorzystania energii wodnej lub energii subsydiowanej (dotowanej). Stąd też duża liczba „altcoinów” (walut alternatywnych dla Bitcoina, które wykorzystują inne algorytmy o niższych poziomach trudności) zyskała na popularności. Należą do nich np. Ethereum i Monero. Podczas, gdy niektóre ‘alty’ mają unikalną użyteczność czy funkcjonalność, to przede wszystkim same w sobie zapewniają możliwość czerpania sporych zysków, gdyż mogą być wymieniane na Bitcoiny. Monero jest popularnym botnetem, w którym kilka tysięcy zainfekowanych systemów może przynosić setki tysięcy dolarów rocznie.

    Cyfrowe pasożyty

    Urządzenia końcowe często są wykorzystywane za pośrednictwem przeglądarki internetowej. Objawem zainfekowania jest zwykle powolne działanie, wysokie użycie procesora i maksymalne obroty wentylatorów. Przeprowadzone przez niezależnego specjalistę ds. bezpieczeństwa Williama DeGroota badanie wskazuje, że ​​wszystkie z 2496 przeanalizowanych przez niego witryn, zawierało nieaktualne oprogramowanie ze znanymi lukami w zabezpieczeniach, które to luki zostały wykorzystane do przejęcia kontroli przez napastników. Atakujący uzyskali dostęp do środowiska, by dodać kod, który niejawnie korzystał z procesorów i energii elektrycznej osób odwiedzających strony, by wygenerować cyfrową walutę znaną jako Monero. Innym wariantem jest „drive-by”, gdzie ukryte i trwale otwarte okienko przeglądarki wisi nawet po zamknięciu strony www.

    Na ataki podatne są również urządzenia mobilne, tym bardziej, że skrypty wyszukujące kryptowaluty  mogą działać w tle, przez co trudniej je zidentyfikować. Jednym z przykładów jest wariant Androida o nazwie ADB.Miner. Zwykle działa na zrootowanych urządzeniach, używających tego samego kodu skanowania, co botnet Mirai i tych samych technik, które pomagają zidentyfikować ‘otwarte’ i dostępne urządzenia. Gdy uda mu się takie urządzenie zidentyfikować, złośliwy program zaczyna je infekować i kopać kryptowalutę Monero jednocześnie rozprzestrzeniając się na inne urządzenia. Aplikacje mobilne takie jak Minergate Mobile do wyszukiwania kryptowalut, oraz dziesiątki innych, dostępne są od 2016 roku do pobrania bezpośrednio z Internetu. Ich wersje są zwykle instalowane na urządzeniach zrootowanych lub z jailbreakiem.

    W przypadku ataków na serwery nie mamy już do czynienia np. ze spamem farmaceutycznym, oprogramowaniem typu „ransomware” lub DDoS. Boty hostują aplikacje takie jak Minergate i Smominru. Aplikacje działają dyskretnie i regularnie kontaktują się z pulą hostów kontrolujących ich funkcjonowanie w celu przesłania obliczeń i odebrania kolejnych bloków zadań. Mogą one zostać przesłane za pośrednictwem spamu zawierającego takie załączniki, jak np. złośliwe dokumenty Word. Częstym celem są systemy podłączone bezpośrednio do internetu oferujące dostęp za pomocą protokołu RDP, ze słabymi hasłami i bez uwierzytelniania wieloskładnikowego. – mówi Sebastian Kisiel z Citrix Systems Poland.

    Atakujący używają brutalnych ataków słownikowych i pozostaje kwestią czasu, gdy hasła zostaną złamane. Gdy tak się stanie, należy liczyć się z założeniem kont backdoor i próbami stworzenia zapasowych form dostępu. Podobnie jak w przypadku innych ataków, cryptojacking po stronie serwera może stać się bardziej złożony i skomplikowany po tym, jak się rozprzestrzeni.

    Jednym z najnowszych zagrożeń typu cryptojacking jest robak WannaMine, który stosuje między innymi takie techniki jak stałe subskrypcje usługi Windows Management Instrumentation (WMI). Rozprzestrzenia się również poprzez exploit EternalBlue. Korzysta on z oprogramowania systemowego, takiego jak WMI i PowerShell, co utrudnia lub uniemożliwia organizacjom blokowanie go bez oprogramowania antywirusowego nowej generacji.

    Jak się chronić?

    Obrona przed atakami typu cryptojacking wymaga holistycznego podejścia i budowy odpowiedniej architektury bezpieczeństwa. Podejście to musi koncentrować się na zapobieganiu, a także na wykrywaniu potencjalnych zagrożeń. Kompleksowa ochrona zarówno różnych punktów końcowych, sieci, serwerów czy środowisk chmurowych często wymaga połączenia kilku technologii naraz.  Należy chronić przeglądarki, uniemożliwiając dostęp do złośliwych stron internetowych i złośliwego oprogramowania, a także poddawać analizie przychodzące dane i w razie potrzeby blokować do nich dostęp.

    Zarządzanie urządzeniami końcowymi przy pomocy odpowiedniego oprogramowania EMM pozwala wykrywać zrootowane urządzenia, a następnie podejmować różnorodne działania prewencyjne, takie jak m.in. powiadamianie administratora, blokowanie aplikacji, czy selektywne wymazywanie urządzenia. Jeśli korzystamy tylko z rozwiązania typu MAM, aplikacje zawierające framework MDX, takie jak np. bezpieczna przeglądarka www (Secure Web), mogą sprawdzać i blokować uruchamianie podejrzanych stron. Aplikacja Secure Web może być skonfigurowana tak, aby blokować strony znane z rozprzestrzeniania szkodliwego oprogramowania, zezwalając tylko na uruchamianie bezpiecznych domen internetowych, określonych w ramach tzw. białej listy adresów URL. – dodaje Sebastian Kisiel.  

    Oddzielną rekomendacją odnośnie bezpieczeństwa przeglądarek jest wyłączanie wykonywania skryptów javascript, flash, java i innych aktywnych treści, za każdym razem gdy jest to tylko możliwe. Dla firm korzystanie z Secure Browser jako usługi może skutkować zmniejszeniem obszaru ewentualnego ataku, poprzez blokowanie skryptów wydobywczych, a także blokowanie okresowych wywołań zwrotnych do hostów kontrolujących działanie koparek kryptowalut.

    W przypadku serwerów i środowisk chmurowych warto skupić się na ograniczeniu ekspozycji i ochronie haseł administratorów. W momencie, gdy atakujący uzyska dostęp na takim poziomie, może pominąć oprogramowanie zabezpieczające i np. białe listy zdefiniowane w organizacji. Złożone hasła i uwierzytelnianie wieloskładnikowe stanowią fundament bezpieczeństwa, ale często ich znaczenie jest deprecjonowane. Znajduje to odzwierciedlenie w badaniu Verizon DBIR z 2017 roku, gdzie czytamy, że „81% naruszeń związanych z włamaniami wykorzystało skradzione i / lub słabe hasła.” Aby ograniczyć ryzyko naruszeń warto rozważyć zastosowanie bramki RDP, która pozwala zastosować nie tylko uwierzytelnianie wieloczynnikowe, ale także funkcję SmartAccess wykonującą analizę punktu końcowego. Tym samym można skanować punkty / urządzenia końcowe np. pod kątem posiadanego certyfikatu, włączonego firewalla, obecności oprogramowania anty maleware, itp. by wykazać, że urządzenia są zarządzanym punktem końcowym, a tym samym bezpiecznym i z wyższym poziomem zaufania.

    Kluczowym elementem w zakresie bezpieczeństwa jest również wczesne wykrywanie anomalii, takich jak pliki w utylizacji procesora, przekraczające normalny zdefiniowany próg (thresold) typowy dla jego normalnej pracy. Dział IT powinien mieć zdefiniowane progi określające normalną pracę procesora wraz ze zdefiniowanymi alertami wysyłanymi do administratorów, gdy jego użycie wzrośnie powyżej wyznaczonego poziomu. Kilka uwag dodatkowych dotyczy tego, by alerty ignorowały nazwy procesów – cyfrowy pasożyt zwykle chce pozostać niewykryty i może być zamaskowany jako usługa systemowa. Osoby odpowiedzialne za ataki są w stanie zestroić proces tak, by ten się zbytnio nie wyróżniał i nie wzbudzał uwagi jednocześnie skutecznie wykorzystując go do swoich celów. Stąd tak istotne jest ustalenie wartości bazowych i szybkie wykrycie anomalii.

    Po wykryciu – przywrócenie serwera do tzw. złotego obrazu, czyli powrót do ustawień bazowych ułatwia proces – zmiany mogą zostać szybko cofnięte. Należy zwrócić szczególną uwagę na to, czy naruszono konta użytkowników i administratorów, gdyż w sytuacji, gdy ma to miejsce, atakujący może wprowadzić złośliwe oprogramowanie bezpośrednio do złotego obrazu. Zarówno w infrastrukturze on-premise czy w chmurze ważne jest regularne, zautomatyzowane sprawdzanie stanu zasobów. Należy szukać nietypowych maszyn, szczególnie tych, z dużą liczbą procesów i wysoką utylizacją CPU.

    Ochrona przed atakami typu cryptojacking jest bardzo podobna do ochrony przed innym złośliwym oprogramowaniem – szukamy różnych symptomów i długotrwałych skutków użycia sprzętu, spadku wydajności użytkownika czy utraty skalowalności. Wyższe koszty zużycia energii lub wykorzystania usług z chmury są pośrednimi wskazówkami, na które należy zwrócić uwagę. Warto jednak być czujnym na wszelkie odstępstwa od reguły, by w odpowiednim czasie móc na nie właściwie zareagować.

  • IBM zakazuje pracownikom korzystania z dysków USB. Dlaczego?

    IBM zakazuje pracownikom korzystania z dysków USB. Dlaczego?

    Z racji luki bezpieczeństwa w systemie Windows wykrytej ostatnio przez jednego z inżynierów firmy Bitdefender, IBM zakazuje używania wszystkich wymiennych nośników danych w całej firmie w ramach nowej polityki, której celem jest uniknięcie szkód finansowych i utraty reputacji wynikających z niewłaściwie umieszczonego lub niewłaściwie używanego dysku USB.

    Główny informatyk IBM, Shamla Naidoo, powiedział personelowi w wewnętrznej wiadomości e-mail, że firma „rozszerza praktykę zakazu przesyłania danych na wszystkie przenośne urządzenia pamięci przenośnej (np. USB, kartę SD, pamięć flash).”

    Chociaż niektóre działy już stosowały tę politykę przez jakiś czas, „w ciągu następnych kilku tygodni postaramy się wdrożyć tę politykę na całym świecie,” powiedział Naidoo, jak informuje The Register.

    W świecie pełnym naruszeń bezpieczeństwa danych wprowadzenie tego typu polityki jest dobrze uzasadnione – komentuje Mariusz Politowicz, inżynier techniczny w firmie Marken, która jest oficjalnym przedstawicielem marki Bitdefender w Polsce – przyczyna nowych zasad jest prosta, gdyż ewentualne szkody finansowe i reputacyjne wynikające z niewłaściwie umieszczonych, zagubionych lub niewłaściwie używanych przenośnych urządzeń do przechowywania danych mogą być ogromne – dodaje

    Warto pamiętać, że groźny robak internetowy Stuxnet został napisany w taki sposób, aby „przeskakując” z terminala na terminal poprzez napędy USB poruszające się między nimi, powiększać skalę ataku. Część sieci, do których kierowany był atak, miały szczelinę powietrzną, co oznacza, że ​​nie miały bezpośredniego dostępu do świata zewnętrznego.

    Wiele osób obawia się takiego wydarzenia w swoich sieciach i nic w tym dziwnego, przecież można nabawić się wielu problemów. W tym przypadku warto zainteresować się aplikacją USB Immunizer. Uniemożliwienie szkodliwym programom uruchamiania się na naszych dyskach USB powinno być dla nas istotne, aby uniknąć nieprzyjemnych sytuacji w przyszłości.

  • Nowa aplikacja Plantronics do monitorowania systemu urządzeń do komunikacji

    Nowa aplikacja Plantronics do monitorowania systemu urządzeń do komunikacji

    Plantronics ogłosił rozszerzenie funkcjonalności swojego oprogramowania SaaS o wgląd w słuchawki Plantronics UC połączone z urządzeniami działającymi w oparciu o iOS i Androida w ramach usługi Plantronics Manager Pro v3.11. Dostęp jest możliwy dzięki aplikacji mobilnej Plantronics Hub. Daje to kierownikom działów IT możliwość monitorowania i zbierania cennych informacji na temat użytkowania całej linii biznesowych słuchawek Plantronics, niezależnie od tego, czy są podłączone do komputera, tabletu czy telefonu komórkowego.

    Ponad 53 proc. organizacji wyraziło zainteresowanie diagnostyką, która umożliwi kierownikom IT poznanie perspektywy użytkownika sprzętu do komunikacji głosowej, a ponad 35 proc. firm w coraz większym zakresie wdraża komunikację zunifikowaną (UC). – powiedział Irwin Lazar, Vice President and Research Director w firmie Nemertes Research – W tej sytuacji szczególnie ważne jest zapewnienie działom IT i kierownictwu rozwiązań, które pomogą im uzyskiwać potrzebne statystyki i aktywny wgląd w cały system komunikacji firmy.

    Plantronics Manager Pro to usługa SaaS stworzona do zarządzania urządzeniami do komunikacji marki Plantronics. Dzięki łatwym w użyciu narzędziom dostawcy usług IT oraz ich partnerzy mogą proaktywnie zarządzać wszystkimi słuchawkami Plantronics wykorzystywanymi w przedsiębiorstwie, zapewniając najlepsze możliwe doświadczenie użytkownika oraz aktywny wgląd. Plantronics Manager Pro jest dostępny u autoryzowanych resellerów Plantronics w większości krajów na całym świecie.

    Plantronics Manager Pro v3.11 – nowe funkcje:

    • Możliwość monitorowania i wglądu w całą linię biznesowych urządzeń do komunikacji głosowej marki Plantronics, w tym wszystkich słuchawek podłączonych do komputerów z oprogramowaniem Mac OS i Windows oraz urządzeń mobilnych z systemem Android i iOS.
    • Dostęp przez interfejs Northbound API do bazy danych Plantronics Manager Pro. Oznacza to, że korzystanie z usługi jest teraz prostsze niż kiedykolwiek dla klientów, deweloperów i partnerów, którzy chcą osadzić dane w istniejącej firmowej aplikacji lub stworzyć nową usługę.
    • Usprawnione raporty. Moduł Asset Management and Adoption zawiera wszystkie raporty, które mogą być potrzebne profesjonalistom IT do zaplanowania, wdrożenia i utrzymania systemu komunikacji zunifikowanej.

    Dla działów IT możliwość pozyskania wartościowych informacji ze wszystkich wykorzystywanych w firmie urządzeń, również tych mobilnych połączonych ze słuchawkami Plantronics UC, to zupełnie nowa jakość – powiedział Tom Wesselman, Vice President and General Manager, Software, Plantronics. – Teraz dział IT uzyskuje pełny wgląd we wszystkie dane, co daje do ręki informacje, które pozwalają na podejmowanie znacznie bardziej świadomych decyzji opartych o pełną wiedzę.

    O Plantronics Manager Pro

    Nowoczesne systemy do komunikacji i współpracy powstają w oparciu o otwarte systemy operacyjne i regularnie aktualizowane platformy softfonowe. Aby dostarczyć najwyższej jakość usługi należy aktualizować również ustawienia i oprogramowanie współpracujących z nimi urządzeń. Przy setkach a nawet tysiącach słuchawek czuwanie nad aktualizacjami ustawień zaczyna już stanowić wyzwanie. Zaniedbanie tej kwestii może jednak prowadzić do obniżenia jakości. Plantronics Manager Pro to usługa SaaS dostępna w formie subskrypcji, która pozwala działom IT lub dostawcom usług na konfigurację ustawień, aktualizację oprogramowania i oprogramowania sprzętowego urządzeń do komunikacji głosowej, analizę jakości połączeń oraz utrzymanie odpowiednich standardów.

    Architektura chmurowa wykorzystuje oprogramowanie Plantronics Hub na urządzeniu jako przekaźnik. Do chmury klienta można dostać się z przeglądarki internetowej. Umożliwia to kierownikom IT i ich partnerom zarządzanie bazą słuchawek z poziomu jednego interfejsu.

    Manager Pro oferuje narzędzia do raportowania w formie trzech modułów analitycznych. Należą do nich:

    • Asset Management and Adoption – do zarządzania posiadanymi słuchawkami, aktualizowania oprogramowania sprzętowego, planowania i wdrażania zunifikowanej komunikacji i współpracy (UCC)
    • Call Quality and Analytics – do poprawiania jakości rozmów i rozwiązywania problemów
    • Health and Safety – do utrzymywania natężenia dźwięku na dopuszczalnym poziomie i monitorowania go

    Ceny i dostępność

    Usługa Plantronics Manager Pro jest dostępna w 143 krajach w formie abonamentu na rok lub na 3 lata dostarczanego przez autoryzowanych resellerów Plantronics.

  • Inżynier Bitdefendera znajduje poważną lukę w systemie Windows

    Inżynier Bitdefendera znajduje poważną lukę w systemie Windows

    Wygląda na to, że Microsoft ma dziurę w zabezpieczeniach swoich systemów. Dotyczy to zarówno Windows 7 jak i Windows 10. W lipcu 2017 r. Marius Tivadar z zespołu naukowego Bitdefender odkrył exploit w systemach operacyjnych Windows, który umożliwia każdemu kto ma fizyczny dostęp do komputera, wywołanie BSOD (z ang. Blue Screen of Death – niebieski ekran z poważnym błędem systemu), poprzez proste podłączenie pamięci USB z oprogramowaniem. Badacz powiadomił o błędzie Microsoft, lecz ten niewiele w sprawie zrobił. Teraz Marius pojawia się ze szczegółami i demonstruje swoje odkrycie, aby podnieść świadomość o luce.

    To, co czyni ten exploit tak niebezpiecznym jest fakt, że BSOD można wymusić nawet jeśli system Windows jest zablokowany. Tivadar pisze: „Można wygenerować BSOD za pomocą ręcznego obrazu NTFS. Atak typu Denial of Service (przyp. red. atak, ma na celu uniemożliwienie działania poprzez przeciążenie maszyny lub aplikacji) może być przeprowadzony z trybu użytkownika bez praw administratora”.

    Dalsza weryfikacja doprowadziła do odkrycia, że ta sama luka znajduje się w Windows 7 Enterprise, Windows 10 Pro i Windows 10 Enterprise. Atak jest możliwy, ponieważ funkcja Windows Auto-Play jest domyślnie włączona, co powoduje, że system automatycznie daje dostęp do napędu USB. W efekcie odnaleziony w obrazie NTFS kod jest uruchamiany. Jednak nawet wyłączenie automatycznego odtwarzania nie spowoduje całkowitego wyeliminowania problemu.

    Dowolny program, który próbuje uzyskać dostęp do dysku USB (np. automatyczne skanowanie systemu przez Windows Defender), uruchomi BSOD.

    Ten rodzaj ataku może przynieść wyjątkowo duże straty , szczególnie jeśli luka znajdzie zastosowanie w serwerowym systemie operacyjnym – komentuje Mariusz Politowicz, inżynier techniczny Bitdefender w firmie Marken Systemy Antywirusowe, która jest oficjalnym przedstawicielem marki Bitdefender w Polsce.

    Tivadar jest szczególnie zaniepokojony, że może się to zdarzyć w przypadku zablokowanej maszyny. „Zdecydowanie uważam, że to zachowanie powinno zostać zmienione, nie należy podłączać nieznanej pamięci USB nawet,  gdy system jest zablokowany. Takie zachowanie można w prosty sposób wykorzystać, a scenariuszy wykorzystania takiego złośliwego oprogramowania są tysiące”.

    Jaka była zatem reakcja Microsoftu na wyniki Tivadara? Według pracowników z Redmond „Wiele hałasu o nic”. Odpisali oni bowiem Mariusowi, że jego odkrycie odnosi się tylko do fizycznego dostępu do komputera. Taki błąd według producenta najpopularniejszego systemu operacyjnego nie spełnia wymagań do wydania poprawki bezpieczeństwa. Natomiast analityk Microsoftu docenił Tivadara za ujawnienie luki. W wiadomości zwrotnej żywi nadzieje, że dalej będzie on testować zabezpieczenia ich produktu.

    Tivadar siedział cicho przez prawie rok po swojej początkowej odpowiedzi z Microsoftu i najwyraźniej nadal nie jest zadowolony z braku działania w tej kwestii; stąd jego ostatnie opublikowanie dokumentacji [ PDF ], przykładowe wideo (link) i plik obrazu NTFS na GitHub.

  • Kwietniowa aktualizacja Windows 10 wkracza na salony

    Kwietniowa aktualizacja Windows 10 wkracza na salony

    Opóźniona kwietniowa aktualizacja formalnie zwana „Spring Creators Update” została wprowadzona przedwczoraj. Wprowadza ona szereg zmian i nowości do naszego systemu. Jedną z najważniejszych jest wprowadzanie nowego sposobu pobierania aktualizacji dla naszych komputerów.

    Ogólna zasada działania nowego systemu będzie polega na pobieraniu aktualizacji przez jeden komputer z sieci, który następnie będzie udostępniał ją do pobrania innym komputerom należącym do tej samej sieci. Microsoft chce zredukować wykorzystanie przepustowości łącza co realnie ma się przekładać na zmniejszenie użycia do 90 proc.

    Nowa aktualizacja wprowadza również Windows 10 S Mode oraz Focus Assist, który blokuje wybrane przez użytkownika powiadomienia np. z aplikacji społecznościowych. Po wyłączeniu trybu zostaniemy uraczeni podsumowaniem tego, co nas ominęło. Mamy również możliwość automatycznego włączania Focus Assist w wybranych przez nas godzinach.

    https://www.youtube.com/watch?v=nNdirfTlU4E

    Kolejną nowością jest timeline, który pozwala na przeglądnięcie akcji wykonanych przez użytkownika do 30 dni wstecz. Włączając to odwiedzane strony, uruchomione pliki i programy oraz co ciekawe działania wykonywane na urządzeniach z systemem Android i iOS w przeglądarce Edge i Office 365.

    Aktualizacja wprowadza również nowy moduł głosowy zwany Dictaction, który poprzez włączenie go skrótem „CTRL+H” pozwala na zapisanie dyktowanego tekstu w dowolnym polu tekstowym w Windows 10.

    https://www.youtube.com/watch?v=OEEPWIzlI84&feature=youtu.be

    Dzięki aktualizacji mamy dostęp do również innych nowości jak ulepszenia w przeglądarce Edge oraz umożliwienie sterowania automatyką domową przez asystenta głosowego – Cortanę, a także kilka opcji przeznaczonych głównie dla graczy.

    Jednocześnie warto zaznaczyć, że Microsoft opublikował przedwczoraj linki do pobrania i zainstalowania manualnego a użytkownicy korzystający z automatycznej aktualizacji otrzymają aktualizację w ciągu kilku następnych dni.

  • Red Hat wprowadził najnowszą wersję Red Hat Enterprise Linux

    Red Hat wprowadził najnowszą wersję Red Hat Enterprise Linux

    Red Hat poinformował o dostępności Red Hat Enterprise Linux 7.5, najnowszej wersji platformy linuksowej dla przedsiębiorstw. Rozwiązanie stanowi spójny fundament hybrydowych środowisk chmurowych, zapewniając większy poziom bezpieczeństwa i zgodności z przepisami, narzędzia zmniejszające koszty przechowywania danych i wzbogaconą funkcjonalność. Red Hat Enterprise Linux 7.5 umożliwia również dalszą integrację z infrastrukturą Microsoft Windows zarówno na poziomie lokalnego środowiska, jak i chmury Microsoft Azure.

    W miarę jak korporacyjne systemy IT obejmują swoim zasięgiem coraz więcej środowisk, od systemów fizycznych po chmury prywatne i publiczne, wiele organizacji stara się połączyć istniejącą infrastrukturę i aplikacje z nowymi rozwiązaniami informatycznymi. Red Hat Enterprise Linux 7.5 może pomóc przedsiębiorstwom sprostać temu wyzwaniu, zmniejszając złożoność infrastruktury i związane z nią koszty, a jednocześnie ułatwiając zarządzanie hybrydowymi środowiskami IT.

    Zwiększone bezpieczeństwo chmury hybrydowej i zgodność z przepisami

    Hybrydowe środowiska IT zapewniają przedsiębiorstwom wiele nowych możliwości, ale mogą także stwarzać specyficzne zagrożenia, ponieważ zespoły IT muszą obecnie zabezpieczać wiele różnych środowisk wdrożeniowych. Aby lepiej zaspokoić zróżnicowane potrzeby w zakresie ochrony hybrydowego przetwarzania danych, Red Hat Enterprise Linux 7.5 oferuje ulepszone mechanizmy kontroli bezpieczeństwa oprogramowania, które ograniczają ryzyko, jednocześnie wspomagając, a nie utrudniając operacje IT.

    Ważnym komponentem tych środków kontroli jest automatyzacja poprzez integrację OpenSCAP z Red Hat Ansible Automation. Umożliwia to tworzenie skryptów Ansible Playbooks bezpośrednio ze skanów OpenSCAP, których następnie można użyć do szybszego i bardziej spójnego rozwiązywania problemów w całym hybrydowym środowisku IT. Teraz można również skuteczniej zabezpieczyć wrażliwe dane w różnych środowiskach dzięki ulepszonej funkcji Network-Bound Disk Encryption, która obsługuje automatyczne deszyfrowanie woluminów danych.

    Większa wydajność i efektywność pamięci masowej

    Jako że obecnie przedsiębiorstwa rozważają rozszerzenie istniejących inwestycji IT, aby lepiej wspierać wdrożenia w chmurze hybrydowej i ograniczyć koszty dodatkowe, optymalizacja pamięci masowej staje się ważną częścią ich strategii. Red Hat Enterprise Linux 7.5 może w tym pomóc dzięki nowemu wirtualnemu optymalizatorowi danych (virtual data optimizer, VDO), który według wewnętrznych badań Red Hat ogranicza koszty przechowywania danych w chmurze i systemach lokalnych nawet o 83 proc. VDO ogranicza redundancję danych i zwiększa pojemność pamięci masowej poprzez deduplikację i kompresję danych przed zapisaniem ich na dysku.

    Uproszczone zarządzanie

    Red Hat Enterprise Linux 7.5 może ułatwić naukę nowym administratorom, diagnostykom i deweloperom Linuksa, upraszczając skomplikowane zadania, takie jak zarządzanie systemem, dzięki ulepszeniom konsoli administracyjnej. Ulepszenia te – oferowane w postaci uproszczonego interfejsu przeglądarkowego – eliminują wiele trudności związanych z zarządzaniem systemami linuksowymi, m.in. z konfiguracją sieci i pamięci masowej.

    Ponadto Red Hat Enterprise Linux 7 oferuje nowe integracje i funkcje związane z infrastrukturą Windows, w tym ulepszone zarządzanie i komunikację z Windows Server, bezpieczniejsze transfery danych do Microsoft Azure oraz większą wydajność w złożonych architekturach Microsoft Active Directory. Może to ułatwić migrację organizacjom, które chcą połączyć skalowalność i elastyczność wdrożeń Red Hat Enterprise Linux 7.5 z istniejącymi inwestycjami w technologie Windows.

    Kontenery linuksowe gotowe do zastosowań produkcyjnych

    Aplikacje i infrastruktura oparte na kontenerach stanowią obecnie kluczowy element wielu strategii dotyczących transformacji cyfrowej biznesu, a Red Hat Enterprise Linux 7.5 podkreśla rolę, jaką odgrywa Red Hat w adaptowaniu technologii kontenerowych do użytku produkcyjnego. Zwiększono bezpieczeństwo kontenerów, dodając aktywną konfigurację zabezpieczeń i zgodności z przepisami na etapie budowania kontenera, a także precyzyjniejsze zabezpieczenia i kontrolę dostępu w warstwie hosta.

    W Red Hat Enterprise Linux 7.5 dodano też pełną obsługę Buildah, narzędzia open source, które pomaga deweloperom tworzyć i modyfikować obrazy kontenerów linuksowych bez pełnego kontenerowego środowiska uruchomieniowego lub daemona działającego w tle. Pozwala to zespołom IT szybciej budować i wdrażać aplikacje kontenerowe, zmniejsza potencjalne możliwości ataku i eliminuje potrzebę instalowania mechanizmu kontenerowego w systemie nieprzeznaczonym do użytku produkcyjnego.

    Dostępność w wielu architekturach

    Aby zapewnić klientom swobodę wyboru architektury obliczeniowej, Red Hat Enterprise Linux 7.5 jest jednocześnie dostępny we wszystkich wspieranych architekturach, w tym x86, IBM Power, IBM z Systems oraz 64-bit Arm. Wydanie to oferuje również obsługę wirtualizacji KVM w jednym hoście, a także środowisko uruchomieniowe w formacie Open Container Initiative (OCI) oraz obraz bazowy użytkownikom IBM z Systems.

    Ogólna dostępność

    Red Hat Enterprise Linux 7.5 jest już dostępny w witrynie Red Hat Customer Portal dla wszystkich klientów z aktywną subskrypcją Red Hat Enterprise Linux.

  • Niebezpieczne luki w Microsoft Windows

    Niebezpieczne luki w Microsoft Windows

    Użytkownicy Windowsa powinni zaktualizować system i zastosować najnowsze łatki do pakietu MS Office – ostrzegają analitycy z firmy Fortinet. Wszystko przez liczne luki wykryte w zabezpieczeniach programu Word oraz silnika baz danych Windows JET używanego przez MS Access oraz Visual Basic.

    Luka w MS Word

    W ostatnich miesiącach analitycy z zespołu FortiGuard Labs firmy Fortinet zgłosili liczne luki typu use-after-free w zabezpieczeniach różnych wersji programu Word. Luki te zostały poprawione w styczniowych oraz marcowych aktualizacjach zabezpieczeń produktu firmy Microsoft. Odpowiednie łatki określono jako krytyczne, a użytkownicy zostali zachęceni do aktualizacji pakietu MS Office tak szybko, jak to tylko możliwe.

    Pojęcie use-after-free odnosi się do luki, która umożliwia atakującemu dostęp do pamięci po jej uwolnieniu, co może spowodować m.in. awarię programu, zezwolić na uruchomienie niebezpiecznego kodu, a nawet jego zdalne wykonywanie przez cyberprzestępcę.

    W tej sytuacji, jeżeli użytkownik otworzy złośliwy dokument w MS Word, to nawet po jego zamknięciu może zostać aktywowany dodatkowy kod na prawach aktywnego użytkownika Windows – wyjaśnia Robert Dąbrowski, szef zespołu inżynierów Fortinet.

    Przykładowo, jedna z luk tego typu w MS Word występowała, kiedy program próbował przeanalizować specjalnie spreparowany plik w formacie RTF. Dzięki niemu przestępca mógłby zdalnie wykorzystać lukę, aby uruchomić dowolny kod. Ta luka została uznana za krytyczną, ponieważ istnieje wysokie prawdopodobieństwo, że można ją wykorzystać do przeprowadzenia ataku.

    Luka w MS Windows Jet

    Badacze z laboratoriów Fortinet wykryli także podatność w innym produkcie firmy Microsoft – Windows JET. Jest to silnik baz danych, używany przez MS Access oraz Visual Basic. Poinformowany o sprawie Microsoft opublikował 10 kwietnia poradnik z poprawką dotyczącą tej usterki. W tym przypadku luka istnieje w bibliotece DLL w pliku msexcl40.dll, który jest składnikiem wszystkich obsługiwanych wersji systemów Windows od 7 do 10. Luka mogła zostać wywołana za pomocą odpowiednio spreparowanego pliku Excel.

    Aby uniknąć narażania się na niebezpieczeństwo, wszyscy użytkownicy systemu Microsoft Windows są zachęcani do uaktualnienia systemu Windows lub zastosowania najnowszych łatek.

  • Esri i Microsoft nawiązują współpracę

    Esri i Microsoft nawiązują współpracę

    Firmy Microsoft i Esri nawiązały współpracę w obszarze rozwiązań Data Science Virtual Machine (DSVM) na platformie Azure. Kooperacja zakłada połączenie rozwiązań z obszaru sztucznej inteligencji (AI), technologii i infrastruktury chmurowej oraz wizualizacji i analiz przestrzennych, w celu tworzenia bardziej wydajnych i inteligentnych aplikacji.

    Sercem nowego rozwiązania pod nazwą GeoAI Data Science Virtual Machine jest 64 bitowy system informacji geograficznej (GIS) ArcGIS Pro od Esri, zapewniający mapowanie 2D i 3D za pośrednictwem intuicyjnego interfejsu. ArcGIS Pro jest zainstalowany w środowisku Data Science Virtual Machine (DSVM) od Microsoft. Jest to popularne rozwiązanie do modelowania i eksperymentowania w Azure, zapewniające narzędzia do pracy bazujące na sztucznej inteligencji, uczeniu maszynowym oraz data science. DSVM może działać w instancji maszyn wirtualnych opartych tylko na CPU w Azure lub wykorzystywać instancje maszyn wirtualnych opartych na GPU, co jest szczególnie przydatne w sytuacji trenowania modeli głębokiego uczenia (deep learning) na większą skalę.

    Geo AI Data Science VM poszerza zestaw narzędziowy sztucznej inteligencji i data science dostępny w Windows Server 2016 edition poprzez dodanie ArcGIS Pro i interfejsów zarówno w Phyton i R. Pozwala to na pogłębioną pracę z wykorzystaniem danych przestrzennych, wzbogacenie przetwarzania GIS oraz wizualizację i analizę w ArcGIS Pro, w celu tworzenia lepszych aplikacji bazujących nana sztucznej inteligencji.

    Profesjonalistom z obszaru analiz przestrzennych, produkt ten daje potężne możliwości w obszarze sztucznej inteligencji i analityki predyktywnej, w tym algorytmów deep learning (głębokiego uczenia) i machine learning (uczenia maszynowego). Algorytmy deep learning są bardzo efektywne w poprawnym rozumieniu danych rastrowych, szeregów czasowych i nieustrukturyzowanych danych tekstowych. GeoAI Data Sciene VM ułatwia także rozwój platformy Azure i wykorzystywanie usług big data, takich jak Apache Spark w obrębie maszyn wirtualnych. Wszystkie narzędzia są wstępnie zainstalowane i skonfigurowane, aby analitycy danych i analitycy danych przestrzennych mogli od razu dysponować gotowym do użycia środowiskiem.

    Specjaliści Data Science i badacze w Microsoft i Esri używają GeoAI Data Science VM między innymi do automatyzacji analiz map terenów wododziałowych. Rozwiązanie pozwala  wykorzystać sztuczną inteligencję do klasyfikowania pokrycia terenu z dokładnością do piksela na zdjęciach satelitarnych i wydobywania informacji semantycznych w niespotykanej dotąd skali.

    GIS, sztuczna inteligencja i Data Science Virtual Machine pozwalają na wyciąganie pogłębionych wniosków, co prowadzi do dokładniejszych prognoz i podejmowania lepszych decyzji.

  • Ever wprowadził na rynek nową serię UPS

    Ever wprowadził na rynek nową serię UPS

    Ever wprowadził na rynek nową serię UPS-ów – DUO AVR / DUO AVR USB. Zasilacze w topologii line-interactive (VI) przeznaczone zostały do zabezpieczenia urządzeń przed obniżeniem i podwyższeniem napięcia zasilającego, jego zanikami, zapadami oraz przepięciami. Szeroka funkcjonalność (w swojej klasie UPS-ów), intuicyjność obsługi oraz relatywnie niska cena sprawiają, że UPS-y DUO AVR znajdą swoje miejsce zarówno w zaciszu domu jak i miejscu pracy.

    Zasilacz UPS DUO AVR / DUO AVR USB to kompaktowe, a zarazem bardzo uniwersalne rozwiązanie. W zależności od modelu (moce 350VA/245W, 550VA/330W, 850VA/550W)  może być stosowany do ochrony komputerów PC, urządzeń telekomunikacyjnych (switche, rutery), multimediów oraz urządzeń fiskalnych. UPS posiada układ AVR podwyższający i obniżający pozwalający na dostosowanie nieprawidłowego napięcia wejściowego do poziomu akceptowalnego przez odbiorniki bez użycia akumulatorów zasilacza.

    Sygnalizacja akustyczno-optyczna zastosowana w zasilaczu oparta została o podświetlenie wokół przycisku, które za pomocą koloru (zielony, żółty, czerwony) sygnalizuje tryb pracy jednostki. Dodatkowo UPS sygnalizuje sygnałem dźwiękowym wybrane stany (praca rezerwowa, przeciążenie, awaria). W przeciwieństwie do DUO II Pro, sygnał dźwiękowy, podczas pracy w trybie rezerwowym lub przy niskim poziomie akumulatora (baterii), można skutecznie dezaktywować (za pomocą przycisku lub zewnętrznego systemu zarządzającego  – PowerSoft).

    Zasilacz wyposażony został w zabezpieczenie przeciwzwarciowe, przeciwprzepięciowe i przeciążeniowe. W sytuacji zwarcia automatyczny bezpiecznik, odłącza urządzenie od sieci zasilającej. Powrotne załączenie polega jedynie na usunięciu przyczyny zwarcia i ponownym załączeniu (wciśnięciu bezpiecznika). W przypadku przeciążenia zasilacz wyposażony został w zabezpieczenie elektroniczne. Zabezpieczenie działa zarówno na pracy sieciowej jak i bateryjnej. W przypadku podłączenia obciążenia (do wyjścia UPS-a) w przedziale 110 proc. – 120 proc. po 1 minucie następuje wyłączenie UPS. W przypadku przekroczenia 120 proc. zasilacz zostaje wyłączony natychmiast.

    Zasilacze DUO AVR / DUO AVR USB wyposażone zostały w „komputerowe” gniazda wyjściowe IEC 320 (ich ilość uzależniona została od mocy jednostki). Jedynie najmniejsze rozwiązanie, zgodnie z wcześniejszymi opiniami Klientów, posiada także dwa uniwersalne gniazda typu PL (tzw. mix gniazd wyjściowych). Nic nie stoi jednak na przeszkodzie aby i w dwóch pozostałych modelach otrzymać dodatkowo aż 5 gniazd PL. Wystarczy podłączyć dedykowaną do tego celu listwę antyprzepięciową Ever VARIANT.

    DUO AVR USB posiada możliwość skutecznego współdziałania z innymi urządzeniami bez konieczności instalowania oprogramowania. Dzięki interfejsowi komunikacyjnemu USB HID zgodnemu z HID Power Devices zasilacz widoczny jest w systemie jako bateria. Instalacja bezpłatnego oprogramowania PowerSoft (na Windows, Linux) przynosi jednak wiele dodatkowych korzyści. Użytkownik ma możliwości (brakowało tego w DUO II Pro) podejrzeć stan naładowania baterii (wartości %) oraz czas autonomii (w minutach). Bardziej zaawansowani administratorzy docenią także sposobność zaawansowanej konfiguracji zdarzeń: możliwości przypisania zdarzenia do dowolnego trybu pracy, definiowania reakcji na wystąpienie stanu UPS-a lub wartości parametru czy też szerokie możliwości warunkowania zdarzenia od wielu parametrów (układania tzw. równań logicznych).

    UPS może znaleźć zastosowanie zarówno w domu jak i jako element rozproszonego systemu zasilania w biurze, urzędzie czy sklepie. Produkt objęty został standardowo 2-letnim okresem gwarancyjnym (1 rok na akumulatory) w systemie door-to-door oraz roczną polisą ochrony podłączonego sprzętu o wartości do 2 000 EUR.

  • Dlaczego warto zwirtualizować firmowe środowisko?

    Dlaczego warto zwirtualizować firmowe środowisko?

    Dla firmy działanie w realiach, w których wydajność i konkurencyjność stale powinny być na jak najwyższym poziomie, to jak dla człowieka udział w maratonie. Trzeba dawać z siebie jak najwięcej, stawiać czoła zmiennym czynnikom zewnętrznym, pokonywać własne słabości, a mety z reguły i tak nie widać.

    W biznesowym ‘życiu’ każdej firmy jest podobnie. Te również muszą mierzyć się z wieloma czynnikami zewnętrznymi jak np. zmieniające się uwarunkowania ekonomiczne, czy coraz bardziej wyrafinowane cyberataki. Muszą radzić sobie z wyzwaniami, które przychodzą z wewnątrz organizacji, w tym choćby ze stale rosnącą dywersyfikacją grup pracowników, ich potrzebami, czy coraz większym skomplikowaniem środowiska informatycznego. Wspólnym mianownikiem dla wielu czynników i zarazem jednym z największych wyzwań dla firm jest ochrona informacji.

    Rosnąca złożoność środowisk pracy a bezpieczeństwo

    Ochrona informacji to dziś jedno z najważniejszych firmowych zadań. Takie rozwiązania jak firewalle, czy antywirusy pozostają ważnymi składowymi strategii bezpieczeństwa firm, lecz coraz łatwiej są obchodzone przez cyberprzestępców, którzy na swój cel biorą bezpośrednio aplikacje czy dane. Tworzone przez nich zagrożenia są bardziej przemyślane i różnorodne: począwszy od prostych naruszeń bezpieczeństwa sieci firmowej, przez ataki mallware, aż do ukierunkowanego hakingu, wyrafinowanych ataków phishingowych czy manipulacji w celu kradzieży majątku firmy i jej własności intelektualnej, która często ujawniana jest miesiące po samym ataku. W konsekwencji takie incydenty mają wpływ na reputację firmy, jak i na ciągłość jej działania, która często nie może zostać w pełni przywrócona, dopóki dane zagrożenie nie zostanie odpowiednio zdiagnozowane, a szkody ocenione i usunięte.

    Mimo, że osiągnięcie bezpieczeństwa firmowych informacji jest niezbędne, to jednocześnie zachowanie odpowiedniego poziomu ochrony przez działy IT jest coraz trudniejsze. Szeroko stosowana mobilność oraz konsumeryzacja IT w tym BYO i cloud computing powodują, że coraz więcej różnorodnych grup użytkowników (telepracowników, użytkowników mobilnych, partnerów, dostawców i innych kontrahentów) uzyskuje dostęp do informacji firm, z którymi współpracują.

    Nic dziwnego, że część działów IT czuje się, jakby zostawało w tyle: im więcej pieniędzy wydają na bezpieczeństwo, to i tak bywa, że wprowadzane przez nie rozwiązania nie rozwiązują lub są nieadekwatne do wymagań i wyzwań jakie stawiają przed IT współczesne środowiska pracy. Pozostaje zatem pytanie: jak IT może utrzymać kontrolę nad własnymi zasobami i zmniejszyć ew. zagrożenia? I choć wyeliminowanie wszystkich  z nich nie jest możliwe, to można wprowadzić strategię, w której odpowiednio zdefiniowany poziom dostępu do zasobów wiąże się z maksymalizacją kontroli i ochrony danych, aplikacji i infrastruktury firmy.

    Wirtualizacja aplikacji i desktopów – zaprojektowana z myślą o bezpieczeństwie

    Wirtualizacja aplikacji i stacji roboczych pozwala organizacjom zmniejszyć ryzyko ataku oraz zabezpieczyć własne informacje. Kluczem jest centralizacja zasobów informatycznych w centrum danych. Taka architektura jest nie tylko z definicji bezpieczniejsza, ale także pozwala na łatwiejszą kontrolę  informacji oraz dostępu do nich. Zarządzane z jednego miejsca, zwirtualizowane aplikacje i desktopy Windows oraz Linux są dostarczane na żądanie w formie usługi do każdego użytkownika na dowolne urządzenie z jakiego ten korzysta. Na takich wirtualnych zasobach pracuje się identycznie, jak na tradycyjnym komputerze z zainstalowanym na nim oprogramowaniem.

    Technologia wirtualizacji pozwala zarówno kontrolować dostarczanie aplikacji, dostęp do nich,  odpowiednio szyfrować zasoby, ale również w granularny sposób decydować o uprawnieniach do poszczególnych funkcji środowiska (np. kopiowanie plików, drukowanie itp.). Stąd też bezpieczeństwo to jeden z najważniejszych czynników (choć nie jedyny), dla którego firmy decydują się na jej wdrożenie. Wpisując wirtualizację aplikacji i stacji roboczych w szerszą strategię bezpieczeństwa dział IT może efektywniej zarządzać ryzykiem jednocześnie zapewniając firmie optymalną elastyczność.

    Przedstawiciel Citrix nadmienia, że istnieje sporo czynników zwiększających bezpieczeństwo firmy i powiązanych z wirtualizacją. Według niego warto jednak zwrócić uwagę na następujące z nich:

    1. Wsparcie elastyczności i mobilności

    Dla wielu firm mobilność jest kluczowa. Korzyści z zatrudniania osób bazujących na elastycznej pracy jest wiele: od zwiększonej elastyczności i lepszej ciągłości działania firmy po niższe koszty nieruchomości, podróży służbowych czy ogólne niższe koszty pracy. Jednak zarówno pracownicy kontraktowi, telepracownicy czy niezależni konsultanci swoją efektywność uzależniają od dostępu do informacji i zasobów firmy a także możliwości pracy z nimi (współdzielenia, udostępniania etc.). To z kolei stanowi wyzwanie dla działu IT.

    Wirtualizacja pomaga zarządzać bezpieczeństwem informacji przez wprowadzenie elastycznego dostępu do zasobów IT z wielu miejsc. Zarządzanie scentralizowanymi aplikacjami i danymi z jednego miejsca oraz jasno określone polityki dostępu pozwalają jedynie upoważnionym użytkownikom na korzystanie z zasobów firmy. Dział IT może nie tylko szybko przydzielać, modyfikować, ale i anulować dostęp do danych firmy danemu użytkownikowi, gdy jego praca nad danym projektem jest zakończona lub kontrakt wygasł.

    1. Zapobieganie utracie danych oraz ochrona prywatności i własności intelektualnej

    Do obowiązków IT należy nie tylko zapobieganie utracie danych i ochrona własności intelektualnej, ale także zapewnienie odpowiedniego poziomu prywatności i poufności danych klientów. Należy także honorować zobowiązania zawarte w umowach z firmami trzecimi i partnerami oraz dbać o zgodność z odpowiednimi regulacjami.

    Przez utrzymywanie zasobów firmy w jednym miejscu a nie w wielu lokalizacjach naraz IT może łatwiej i efektywniej zarządzać i zabezpieczać aplikacje i powiązane z nimi dane. Może również określać zestaw polityk, by kontrolować użytkowników odnośnie działań, jakie ci wykonują na zasobach np. odnośnie zapisywania, kopiowania, drukowania etc. W sytuacjach, gdy wymagane jest korzystanie z lokalnych zasobów lub działania w trybie offline, dane zostają zaszyfrowane w wyizolowanym kontenerze na urządzeniu końcowym, który gdy urządzenie końcowe zostanie zgubione lub skradzione można zdalnie usunąć.

    1. Utrzymanie zgodności z przepisami

    Utrzymanie zgodności z krajowymi i międzynarodowymi przepisami, wymogami sektorowymi oraz wewnętrzną polityką firmy bywa trudne. Wprowadzenie zbyt małej kontroli nad informacjami oraz brak danych o lokalizacji poszczególnych sesji może rodzić problemy. Z kolei pełna kontrola może okazać się zbyt restrykcyjna.

    Wirtualizacja pomaga zastosować jedną politykę kontroli. Dla przykładu Unia Europejska posiada określone regulacje odnośnie ochrony ruchu danych i niewyprowadzania ich poza granice krajów członkowskich. Dzięki wirtualizacji dostęp do danych może mieć miejsce spoza Unii, lecz te fizycznie nie opuszczają swojej lokalizacji i nie przemieszczają się pomiędzy państwami, co eliminuje potencjalne problemy regulacyjne.

    1. Zwiększenie wartości inwestycji w bezpieczeństwo.

    Zarządzanie wieloma punktami końcowymi bywa czasochłonne i może prowadzić do opóźnień i przeoczeń we wdrażaniu nowych zabezpieczeń. Wiele badań rynkowych pokazuje, że duża część udanych ataków korzysta z wcześniej znanych luk, dla których poprawka lub bezpieczna konfiguracja została już udostępniona.

    Scentralizowane procesy utrzymania i konserwacji oprogramowania oparte na technologii wirtualizacji zwiększają i jednocześnie upraszczają utrzymanie bezpieczeństwa punktów końcowych. Patche, aktualizacje antywirusów oraz poprawki oprogramowania mogą być szybko instalowane w głównym obrazie (master image) zanim zostaną rozdystrybuowane w całej organizacji.

    1. Ochrona informacji w razie klęski żywiołowej lub innego zakłócenia biznesowego.

    W sytuacji wystąpienia awarii firma musi nie tylko zapewnić, by dane i aplikacje pozostały bezpieczne, ale również, jak najbardziej zbliżony do normalnego tryb działania. Jest to istotne z punktu widzenia potencjalnego naruszenia reputacji firmy, wystąpienia ewentualnych strat finansowych, utraconej produktywności czy zaniedbań relacji z klientami i partnerami.

    Wirtualizacja pozwala na to, aby w razie awarii przekierować cały ruch z jednego centrum danych na zapasowe. Tym samym zgromadzone w jednym miejscu zasoby mogą być w szybki sposób ponownie przydzielone wszystkim użytkownikom. IT może równie łatwo cofnąć dostęp do zasobów dla urządzeń, które w wyniku awarii przestały być bezpieczne.

    1. Minimalizowanie skutków naruszenia bezpieczeństwa informacji
      Żadna strategia nie może zagwarantować stuprocentowego bezpieczeństwa informacji. Jednak w przypadku, gdy maszyna pracownika ulegnie zainfekowaniu można za pomocą wirtualizacji zresetować jej obraz po restarcie i przywrócić do stanu niezainfekowanego. Jeśli środowisko pracy użytkownika jest zagrożone, jak w przypadku ataku zero-day, IT może szybko przełączyć je w tryb offline i przywrócić do stanu podstawowego z wykorzystaniem ‘złotego obrazu’.

    Żadna z firm nie może sobie pozwolić na to, by utracić kontrolę nad posiadanymi informacjami, gdyż to one stanowią siłę napędową każdej z nich. Wirtualizacja pomaga nie tylko zabezpieczyć do nich dostęp, ale także upraszcza sam proces. Dzięki niej można chronić własność intelektualną, zapewniać prywatność danych a także spełniać wymogi zgodności z przepisami. Wykorzystanie wirtualizacji, jako dodatkowej warstwy zabezpieczeń pozwala IT lepiej wspierać nowe inicjatyw biznesowe podejmowane przez organizacje takie, jak: otwarcie nowego oddziału, rozszerzenie działalności na inne lokalizacje, czy połączenie lub wykupienie innego podmiotu, co ma kluczowe znaczenie dla jej wzrostu rynkowego.

    Sebastian Kisiel, Citrix Systems Poland

  • Archos ogłasza partnerstwo z European Crypto Bank

    Archos ogłasza partnerstwo z European Crypto Bank

    Archos, producent Safe-T mini – sprzętowego portfela do kryptowalut, ogłasza partnerstwo z European Crypto Bank – pierwszą europejską organizacją powołaną do ułatwienia inwestycji oraz procedur podatkowych związanych z kryptowalutami.

    European Crypto Bank Card

    European Crypto Bank (ECB) to projekt znajdujący się w trakcie ICO (ang. initial coin offering) – formie crowdfundingu opartego na sprzedaży tokenów bazujących na kryptowalutach. W ramach umowy partnerskiej posiadacze co najmniej 600 tokenów ECB, których ICO zakończy się 1 maja 2018, otrzymają za darmo dedykowaną wersję urządzenia Safe-T mini, pozwalającego na przechowywanie kluczy prywatnych na fizycznym nośniku i bezpieczne wykonywanie transakcji za pomocą kryptowalut. Dostarczone przez firmę Archos portfele wystąpią w wersji sygnowanej marką European Crypto Bank. Urządzenia trafią również do sprzedaży w cenie 49,99 Euro.

    Archos będzie także wspierać pakiet usług European Crypto Bank w ramach wielojęzycznej platformy, która zostanie udostępniona wraz z początkiem maja. Do usług tych zaliczają się m.in.: generowanie oświadczeń finansowych, udzielanie porad inwestycyjnych, wymiana kryptowalut na waluty tradycyjne czy generowanie deklaracji podatkowych zgodnie z regulacjami poszczególnych krajów europejskich.

    Ponadto Archos otrzyma od European Crypto Bank transfer środków w wysokości 150 000 tokenów ECB, w ramach inwestycji w badania i rozwój (R&D).

    Archos Safe-T mini

    Sprzętowy portfel do kryptowalut Archos Safe-T mini został zaprezentowany podczas targów MWC 2018 w Barcelonie. Urządzenie stworzone zostało z myślą dla osobach, dla których kluczowe jest bezpieczeństwo należących do nich środków w kryptowalutach.

    Na Safe-T mini można przechowywać prywatne klucze na fizycznym nośniku, chroniąc je dodatkowymi barierami w postaci kodu PIN oraz mechanizmem autoryzacji transakcji za pomocą przycisku na obudowie. Portfel wyposażony jest także w wyświetlacz OLED. Przed przeprowadzeniem transakcji urządzenie musi zostać podłączone do komputera lub urządzenia mobilnego za pomocą przewodu USB.

    Producent przewidział także możliwość przywrócenia zawartości portfela w przypadku jego zaginięcia, uszkodzenia lub kradzieży. Safe-T mini zaprojektowany został przez inżynierów Archos i produkowany jest we Francji.

    Archos Safe-T mini – specyfikacja:

    • Wymiary: 58 x 7,8 mm (średnica/grubość)
    • Procesor: ARM Cortex-M3 120 MHz
    • Ekran: OLED o rozdzielczości 128 x 64 pikseli
    • Obsługiwane kryptowaluty: Bitcoin, Bitcoin Cash, Dash, Litecoin, Zcash oraz tokeny ECB (wsparcie dla kolejnych kryptowalut jest planowane)
    • Komunikacja: złącze microUSB (możliwość podłączenia zarówno pod komputery jak i urządzenia mobilne)
    • Wspierane systemy operacyjne: Windows/Linux/Mac OS X, Google Android
    • Przyciski fizyczne do potwierdzania transakcji przez użytkownika
  • NVIDIA RTX urzeczywistnia marzenia o kinematograficznym renderingu w czasie rzeczywistym

    NVIDIA RTX urzeczywistnia marzenia o kinematograficznym renderingu w czasie rzeczywistym

    NVIDIA zaprezentowała dziś technikę raytracingu NVIDIA RTX™ przeznaczoną dla twórców treści oraz deweloperów gier, która pozwala uzyskać kinową jakość renderingu w czasie rzeczywistym.

    NVIDIA RTX to efekt 10 lat pracy nad algorytmami grafiki komputerowej i architekturami procesorów graficznych. To wysoce skalowalna technika raytracingu działająca na kartach graficznych opartych na architekturze NVIDIA Volta. Nowe rozwiązanie obsługuje procesy raytracingu przez wiele różnych interfejsów. NVIDIA ściśle współpracowała z firmą Microsoft, aby umożliwić pełną obsługę techniki RTX w aplikacjach wykorzystujących nowy interfejs API DirectX® Raytracing (DXR) tej firmy.

    Raytracing jest od dawna uważany za technikę, która nieporównywalnie lepiej odwzorowuje oświetlenie, odbicia oraz cienie, zapewniając poziom realizmu znacznie wykraczający poza to, co można osiągnąć przy użyciu tradycyjnych technik renderowania. Raytracing w czasie rzeczywistym zastępuje większość technik obliczeniowych, które odtwarzają zachowanie światła w czasie rzeczywistym w ramach tradycyjnego potoku renderowania, pozwalając uzyskać obrazy, które bardziej przypominają rzeczywistość.

    „Raytracing w czasie rzeczywistym to odwieczne marzenie branży graficznej i deweloperów gier, a NVIDIA RTX wprowadza je w życie”, powiedział Tony Tamasi, wiceprezes ds. treści i technologii w firmie NVIDIA. „Procesory graficzne dopiero teraz stają się wystarczająco potężne, by umożliwić zastosowanie raytracingu w czasie rzeczywistym w grach i rozpocząć nową erę wizualizacji ich oprawy graficznej.”

    Technika raytracingu jest od lat stosowana w branży filmowej do tworzenia renderowanych, realistycznych światów w filmach. Jednak do tej pory była ona zbyt wymagająca obliczeniowo, by można było ją stosować w grach, wymagających zwykle wysokiej płynności oraz szybkiej reakcji na sygnały sterowania. Technika NVIDIA RTX pokonuje te ograniczenia.

    Duże wsparcie branży

    „DirectX Raytracing to najnowszy przykład zaangażowania firmy Microsoft w tworzenie rozwiązań, dzięki którym twórcy oprogramowania będą mogli kreować niesamowite dzieła przy użyciu najnowocześniejszych innowacji graficznych”, powiedział Max McMullen, menedżer ds. rozwoju rozwiązań graficznych Windows oraz sztucznej inteligencji w firmie Microsoft. „Nasza ścisła współpraca z firmą NVIDIA w zakresie DirectX Raytracing oraz techniki NVIDIA RTX,  sprawia że z raytracingu w czasie rzeczywistym skorzystają miliony graczy korzystających z systemu Windows”.

    Liderzy branży gier, w tym 4A Games, Epic, Remedy Entertainment i Unity prezentują technikę NVIDIA RTX podczas konferencji Game Developers Conference, odbywającej się w San Francisco. Materiały demonstracyjne przygotowane przez te studia pokazują, jak raytracing w czasie rzeczywistym może wzbogacić przyszłe gry niesamowitą, realistyczną oprawą. Ponieważ RTX obsługuje Microsoft DirectX Raytracing, przełomowa technika będzie dostępna dla użytkowników systemu Windows na całym świecie.

    „Dostępność techniki NVIDIA RTX sprawi, że raytracing w czasie rzeczywistym stanie się rzeczywistością”, powiedział Kim Libreri, dyrektor ds. technologii w Epic Games. „Udostępniając społeczności programistów gier tak potężną technikę wraz z obsługą nowego interfejsu API DirectX Raytracing, NVIDIA staje się siłą napędową nowej generacji grafiki w grach i filmach”.

    „Integracja NVIDIA RTX z naszym silnikiem Northlight była stosunkowo prostym zadaniem”, powiedział Mikko Orrenmaa, kierownik zespołu ds. technologii w Remedy Entertainment. „Pracując wyłącznie na platformie NVIDIA RTX byliśmy zaskoczeni, jak szybko udało nam się stworzyć prototypy nowych technik oświetlenia, odbić i globalnej iluminacji, zyskując znaczne większą jakość obrazu niż w przypadku tradycyjnych technik rastrowania. Jesteśmy bardzo podekscytowani tym, co osiągniemy w przyszłości dzięki technice NVIDIA RTX. Graczy czeka nie lada gratka”.

    Raytracing dostępny w GameWorks

    Firma NVIDIA ogłosiła również, że pakiet SDK NVIDIA GameWorks™ zostanie uzupełniony o moduł denoisera raytracingu, który pozwoli twórcom gier wykorzystać nowe możliwości w praktyce. Ten zestaw narzędzi i zasobów dla programistów znacząco zwiększy realizm i skróci cykle produkcyjne tytułów opracowanych przy użyciu nowych interfejsów API Microsoft DXR i NVIDIA RTX.

    Nowa wersja pakietu SDK, która będzie obsługiwać architekturę Volta oraz kolejne architektury procesorów graficznych, pozwoli na stosowanie cieni, błyszczących odbić oraz globalnej iluminacji w technice raytracingu.

    Dzięki temu twórcy oprogramowania będą mogli tworzyć realistyczne, wysokiej jakości odbicia, które wiernie oddają otaczającą scenę i odwzorowują fizykę światła i cieni. Udostępnienie tych możliwości na standardowej w branży platformie, takiej jak Microsoft DXR, oznacza że każdy twórca gier na PC będzie miał dostęp do POZIOMU realizmu, jakiego dotychczas jeszcze nie osiągnięto.

  • Ransomware nadal straszy – raport Microsoft

    Ransomware nadal straszy – raport Microsoft

    „Stare i nowe” typy złośliwego oprogramowania (np. malware) nadal rozprzestrzeniają się za pośrednictwem botnetów, a atakujący coraz częściej koncentrują się na łatwiejszych metodach ataków, takich jak np. phishing (podszywanie się pod inną tożsamość). Z drugiej strony ataki typu ransomware (oprogramowanie służące do wymuszania okupów) stają się coraz szybsze i są realizowane na większą skalę. Najnowsza odsłona raportu Microsoft Security Intelligence Report jest poświęcona głębszej analizie każdego z kluczowych tematów, jednocześnie oferując dodatkowe informacje o cyberzagrożeniach.

    Raport został oparty na analizie systemów lokalnych (on-premise), jak i usług chmurowych Microsoft, wykorzystywanych zarówno w celach prywatnych, jak i komercyjnych, takich jak Windows, Bing, Office 365 i Azure. Badanie koncentruje się na tendencjach pojawiających się w zakresie cyberzagrożeń od lutego 2017 roku. W ramach tych usług każdego miesiąca specjaliści firmy skanują 400 miliardów wiadomości e-mail wysyłanych w celach wyłudzania informacji i złośliwego oprogramowania, przetwarzają 450 miliardów uwierzytelnień, wykonują ponad 18 miliardów skanów stron internetowych i monitorują ponad 1,2 miliarda urządzeń pod kątem zagrożeń.

    Raport wskazuje na następujące obszary zagrożeń:

    Botnety nadal atakują miliony komputerów na całym świecie

    W listopadzie 2017 roku, w ramach globalnego partnerstwa publiczno-prywatnego, Microsoft zablokował jedną z największych na świecie operacji malware – botnet Gamarue/Andromeda. Specjaliści Microsoft przeanalizowali ponad 44 000 próbek szkodliwego oprogramowania, które pomogły odsłonić rozbudowaną infrastrukturę botnetu. W efekcie odkryto, że dystrybuował on ponad 80 różnych typów złośliwego oprogramowania typu malware. Trzy najwyższe klasy złośliwego oprogramowania dystrybuowane przez botnet Gamarue/ Andromeda to oprogramowanie typu ransomware, trojany i tzw. backdoory. W efekcie liczba zainfekowanych urządzeń spadła o 30 proc. zaledwie w ciągu trzech miesięcy.

    Cyberprzestępcy wciąż wykorzystują metody łatwego dotarcia, takie jak np. wyłudzanie informacji

    Dostawcy oprogramowania wprowadzają w swoich produktach coraz bardziej rygorystyczne środki bezpieczeństwa. Hakerzy mają w związku z tym coraz więcej trudności w swobodnym penetrowaniu oprogramowania. Dla porównania, o wiele łatwiejsze i mniej „kosztowne” jest nakłonienie użytkowników do kliknięcia w złośliwe linki lub otworzenia wiadomości e-mail wyłudzającej informacje. W 2017 r. atakujący koncentrowali się częściej na metodach tzw. „łatwo osiągalnych celów”, takich jak np. phishing – aby nakłonić użytkowników do przekazania danych logowania lub innych wrażliwych informacji. W rzeczywistości druga połowa 2017 roku pokazała, że ataki typu phishing były głównym zagrożeniem dla klientów poczty e-mail opartej na Office 365. Inne metody łatwego osiągania celów, z których korzystają atakujący, to słabo zabezpieczone aplikacje w chmurze. W naszych badaniach stwierdziliśmy, że 79 proc. aplikacji do przechowywania danych SaaS i 86 proc. aplikacji do współpracy SaaS nie szyfruje danych zarówno w trybie spoczynku, jak i podczas ich przesyłania.

    Ataki typu ransomware wciąż są siłą, z którą należy się liczyć

    Pieniądze są jednym z tych czynników, który w dużej mierze napędza cyberprzestępców, tak więc jedną z głównych strategii ataków są procesy uzyskiwania kryptowalut i innych form płatności (również tych związanych z całkowitą utratą danych). W 2017 r. wybuchły trzy globalne ataki ransomware – WannaCrypt, Petya / NotPetya i BadRabbit – które miały wpływ nie tylko na sieci korporacyjne, ale także szpitale, transport czy systemy ruchu. Ataki ransomware zaobserwowane w zeszłym roku miały bardzo dużą siłę rażenia i poruszały się w niesamowicie szybkim tempie. Ze względu na zautomatyzowane techniki rozpowszechniania, zainfekowały komputery szybciej niż jakikolwiek człowiek był w stanie na nie odpowiedzieć i pozostawiały większość ofiar bez jakiegokolwiek dostępu do plików. Microsoft odkrył także, że regionem z największą liczbą napadów ransomware jest Azja.

    Kluczowym wnioskiem z raportu jest to, że zagrożenia są ze sobą powiązane. Dla przykładu, oprogramowanie ransomware było jednym z najbardziej znanych typów złośliwego oprogramowania dystrybuowanego przez botnet Gamarue/Andromeda. Innym przykładem jest to, że cyberprzestępcy wykorzystują legalne funkcje platformy, aby dołączyć “uzbrojony” dokument (na przykład dokument Microsoft Office) zawierający oprogramowanie ransomware w zakażonej wiadomości e-mail.

    Jaka jest rekomendacja działania dla biznesu? Ważne są przede wszystkim standardowe praktyki w zakresie bezpieczeństwa informacji, takie jak utrzymywanie aktualnego oprogramowania i rozwiązań bezpieczeństwa. Jednocześnie rozprzestrzenianie się „tanich” metod ataków, takich jak mechanizmy inżynierii społecznej (technik służących osiągnięciu określonych celów dzięki manipulacji społecznością), przypomina o znaczeniu szkoleń w zakresie podnoszenia świadomości bezpieczeństwa dla pracowników, aby pełniej informować ich o najnowszych technikach wyłudzania informacji. W raporcie zostały zawarte bardziej szczegółowe zalecenia na ten temat.

    Raport powstał we współpracy z zespołami badawczymi i inżynieryjnymi takich jednostek Microsoft, jak Windows Defender, Office, Azure, Bing oraz Digital Crimes Unit.

  • Luka w Windows 10

    Luka w Windows 10

    Izraelscy badacze Tal Be’ery i Amichai Shulman odkryli sposób użycia poleceń głosowych tak, aby zablokowany komputer z zainstalowanym systemem Windows 10 umożliwił odwiedzanie różnych witryn. Dzięki temu hakerzy mogą za pomocą tej luki instalować na naszym komputerze złośliwe oprogramowanie!

    Luka w asystencie głosowym

    Winnym całego zamieszania jest asystent głosowy Cortana, który posiada Windows 10. Niestety przez ten błąd w oprogramowaniu nieautoryzowani użytkownicy mogą wykonywać różne funkcje z ekranu blokady. Przykładowo haker za pomocą luki może włączyć niezaszyfrowaną stronę http. To sprawia, że istnieje możliwość aby osoba atakująca uruchomiła stronę ze złośliwym oprogramowaniem.

    Problemem jest również to, że Cortana nie jest nastawiona na wysłuchiwanie tylko głosu posiadacza komputera. Mianowicie aplikacja nasłuchuje wszystkich poleceń, niezależnie od tego kto je wydaje. Z tego powodu zaleca się użytkownikom wyłączenie poleceń głosowych całkowicie, gdy komputer jest zablokowany.

    Chroń swój komputer

    Eksperci Bitdefender podkreślają, że aby uruchomić Cortanę atakujący musi się znaleźć w pobliżu komputera, ale jak widać w życiu codziennym wiele osób zabiera swój sprzęt do kawiarni czy innych publicznych miejsc. To właśnie tam może dojść do ataku. Hakerzy potrafią podpiąć się szybko do naszego komputera, ustawić w BIOS-ie tymczasowe uruchomienie z pamięci USB, która posiada złośliwe oprogramowanie, a gdy wrócimy tak naprawdę nie będziemy mieli pojęcia co działo się podczas naszej nieobecności.

    Luka została naprawiona, ale warto zastanowić się nad działaniami prewencyjnymi

    Microsoft szybko naprawił lukę w Cortanie. Polecenia przeglądarki będą przekierowywane bezpośrednio do wyszukiwarki Bing. Nasuwa się jednak pytanie. Czy hakerzy nie będą wyszukiwali kolejnych luk w oprogramowaniu aby uzyskać dostęp do naszego komputera?” – informuje ekspert Bitdefender.

    Należy zastanowić się, czy rzeczywiście asystenci głosowi są nam niezbędni? Czy chcemy być podsłuchiwani? Jeśli nie korzystamy z tej funkcji warto ją po prostu wyłączyć na stałe. Dzięki takim ograniczeniom zmniejszymy podatność naszego komputera na ataki z zewnątrz. Niestety czasami „postęp” i korzystanie z wygodnych funkcji ma swoją cenę.

  • Zakłady produkcyjne są słabo zabezpieczone przed cyberatakami

    Zakłady produkcyjne są słabo zabezpieczone przed cyberatakami

    Sieciom przemysłowym brakuje wielu wbudowanych systemów ochrony, które są powszechnie stosowane w sieciach IT, co sprawia, że ryzyko cyberataku rośnie – wynika z badania* CyberX, którego rezultaty znalazły się w raporcie specjalnym opublikowanym przez ASTOR. Podnosząc świadomość bezpieczeństwa wśród pracowników i wprowadzając innowacyjne rozwiązania techniczne, można zabezpieczyć sieć przez zagrożeniem, unikając wielomilionowych kosztów przestojów spowodowanych cyberatakiem na sieć OT (ang. Operational Technology).

    Analiza zebranych przez CyberX danych wskazuje, że sieci przemysłowe stają się łatwym celem dla coraz bardziej zdeterminowanych przestępców. Wiele z nich ma wyjście do publicznego Internetu – łatwo jest się do nich dostać ze względu na takie podatności, jak np. nieszyfrowane, proste hasła. Często brakuje podstawowych zabezpieczeń, nie stosuje się kluczowych mechanizmów ochrony przed cyberatakami. To umożliwia atakującym zrealizowanie tzw. rozpoznania w niezauważalny sposób, przed podjęciem próby sabotażu instalacji produkcyjnych, takich jak linie montażowe, zbiorniki mieszające, wielkie piece itp.

    Ochrona sieci OT często traktowana jest powierzchownie, a większą uwagę koncentruje się na zabezpieczeniu sieci IT, uważając, że to głównie na nich skupiają się cyberataki. Tymczasem coraz częściej również sieci przemysłowe padają ofiarą przestępców. Ułatwia to fakt rezygnacji zakładów z oczywistych rozwiązań, takich jak zautomatyzowane aktualizacje czy kilkustopniowe mechanizmy uwierzytelniania. Aż jedna trzecia zakładów jest podłączona do Internetu, stając się tym samym kuszącym celem dla hakerów i złośliwego oprogramowania. Walkę z cyberprzestępczością należy zatem zacząć od podstaw – mówi Igor Zbyryt, Dyrektor ds. Cyberbezpieczeństwa w Przemyśle, ASTOR.

    Połączenie z publiczną siecią internetową ujawnione w 32 proc. analizowanych zakładów to nie jedyne niepokojące wyniki badania. W aż 76 proc. placówek działają niewspierane systemy operacyjne Windows, takie XP i 2000. Komputery w nie wyposażone nie tylko mają problem z uruchomieniem nowoczesnych programów, ale również nie są wspierane aktualizacjami zabezpieczeń od firmy Microsoft. 59 proc. zakładów posiada natomiast nieszyfrowane hasła w postaci zwykłego tekstu, które są bardzo łatwe do przechwycenia. Niepokojący jest też fakt, że w niemal 50 proc. firm nie funkcjonuje program antywirusowy.

    W prawie połowie badanych zakładów pracuje co najmniej jedno nieznane lub nieautoryzowane urządzenie, a 20 proc. z nich wyposażona jest w bezprzewodowe punkty dostępowe (WAP). Aż 82 proc. obiektów przemysłowych korzysta z kolei z protokołów służących do zdalnego połączenia RDP, VNC i SSH. Wszystko to sprawia, że hakerom łatwiej jest uzyskać dostęp do systemu. Średnio 28 proc. urządzeń w każdym zakładzie uznawanych jest za „podatne”, czyli ich wynik bezpieczeństwa (ustalany na podstawie oceny wszystkich odnalezionych luk w zabezpieczeniach) jest mniejszy niż 70 proc.

    Powyższe dane składają się na ogólny wynik bezpieczeństwa, który wyniósł średnio 61 proc., przy czym w żadnym zakładzie nie przewyższył 66 proc. Zaleceniem firmy CyberX jest osiągnięcie tej wartości na poziomie 80 proc., co wyraźnie wskazuje, że przed branżą przemysłową wciąż stoi wiele wyzwań. Zbyt słabe zabezpieczenie sieci może skutkować zainfekowaniem jej złośliwym oprogramowaniem (takim jak Conficker, WannaCry i NotPetya), co w konsekwencji prowadzi do utraty zdolności produkcyjnych i tym samym strat finansowych.

    Zabezpieczyć przedsiębiorstwo przed cyberatakami można poprzez wymianę infrastruktury sieci OT i zastąpienie jej nowoczesnymi rozwiązaniami. To jednak proces czasochłonny, który generuje bardzo wysokie koszty. Ochronę przed intruzami warto zatem rozpocząć od edukacji pracowników na temat ryzykownych zachowań. Istotne jest też stałe monitorowanie sieci, wykrywanie i usuwanie nieprawidłowości. Pomocne okazuje się również nawiązanie współpracy pomiędzy działami IT i OT. Poprzez wzajemną wymianę doświadczeń łatwiej jest wykryć wszelkie anomalie, a dzięki temu zapobiegać niechcianym zdarzeniom – rekomenduje Igor Zbyryt.

    *Źródło: RAPORT SPECJALNY: Jak chronić sieci przemysłowe przed cyberatakami?, 2017