Tag: Google

  • Wyprowadzić shadow IT z cienia

    Wyprowadzić shadow IT z cienia

    Shadow IT to cały oddolny ruch w organizacji, który poza departamentem IT, a często nawet poza jego wiedzą, ma na celu wykorzystanie technologii informatycznej, a w szczególności aplikacji biznesowych. Wiadomo, że może on być zagrożeniem dla firmy, ale czy może też stanowić szansę?

    Niestety, pracownikom większości organizacji wdrożenie systemu informatycznego przez centralny dział IT nieodparcie kojarzy się z miesiącami walki o uzyskanie zgody na jego uruchomienie w infrastrukturze firmy i kolejnymi miesiącami trudnego wdrożenia. Dostępne w chmurze rozwiązania są dziś alternatywą nie tylko dla działów IT, a dla wszystkich tych osób, które potrzebują aplikacji biznesowych by lepiej, bardziej efektywnie wykonywać swoje obowiązki.

    Chmura jest oczywiście bardzo kusząca. Firmowe działy IT i osoby odpowiedzialne za infrastrukturę informatyczną rozważają chmurę jako alternatywę dla posiadania własnych serwerowni. Z oczywistych względów wydaje się to być fantastyczną alternatywą, kiedy mówimy o firmach małych lub nowych. Nie muszę inwestować w koszty infrastruktury fizycznej czy zabezpieczeń przeciwpożarowych, jestem w stanie skupić się na tym, co przynosi mi wartość biznesową, a cały sprzęt potraktować jako coś, za co płacę miesięczny abonament. Co więcej, jeśli okazuje się, że korzystam z tego sprzętu przez 8 godzin na dobę, a nie przez 24, to płacę proporcjonalnie mniej, a kiedy czegoś już nie potrzebuję, to po prostu płacić przestaję.

    Co prawda dość ciężko jest wykazać, że chmura faktycznie przynosi istotne korzyści finansowe, bo porównanie kosztów rozwiązań chmurowych do posiadania własnej serwerowni i opłat z tym związanych raz wypada lepiej w jedną stronę, raz w drugą, ale trzeba pamiętać o jeszcze jednym ważnym, często decydującym aspekcie. Wybór chmury ogranicza potrzebę rozwijania części kompetencji IT wewnątrz firmy, dobrze wpasowując się w strategię koncentracji na podstawowej działalności operacyjnej.

    IT w cieniu

    Tutaj pojawia się zjawisko shadow IT, które najczęściej dotyczy kierowników departamentów, ale nierzadko również pojedynczych pracowników, którzy po prostu ułatwiają sobie codzienne zadania, wykorzystując oprogramowanie zewnętrzne. Najpopularniejszym przykładem będzie stosowanie aplikacji typu Asana do zarządzania firmowymi projektami, albo YouTube do konwertowania wewnętrznych materiałów video.

    Osoby pracujące z poziomu biznesu, które nie są odpowiedzialne za infrastrukturę aplikacyjną w firmie, bardzo często są w stanie znaleźć sobie samodzielnie rozwiązanie, którego potrzebują. Wiedzą jednak, że jeżeli zaczną je wdrażać w organizacji z udziałem departamentu IT, to natkną się na całe mnóstwo różnego rodzaju problemów z gatunku ‘nie do przeskoczenia’.

    Chmura wydaje się być doskonałym rozwiązaniem. Nie musimy się przejmować działem infrastruktury, który znajdzie milion przeciwskazań, dotyczących chociażby bezpieczeństwa, czy szeroko rozumianego compliance. Nie musimy zabiegać o czas i zaangażowanie osób odpowiedzialnych za dział aplikacji w firmie, które mają w tej chwili kilkanaście innych ważnych projektów i ten nasz będzie dopiero piętnasty w kolejce. Możemy po prostu, finansując zakup z karty służbowej i wrzucając go sobie w wydatki operacyjne, zacząć korzystać z rozwiązań, które sprawiają, że nasze życie staje się łatwiejsze. Kto by z tego nie skorzystał?

    Chmura, daje prostą alternatywę, dzięki której działy IT w firmach mogą być pominięte. I wcale nie są z tego powodu zadowolone.

    A więc wojna?

    Czy zatem shadow IT należy traktować jako poważne zagrożenie dla firmy?

    Z jednej strony tak, bo ryzykujemy wyciekiem firmowych danych, kiedy nasi pracownicy wykorzystują oprogramowanie, które nie spełnia warunków bezpieczeństwa danych. Co więcej, może się okazać, że użytkownicy biznesowi mogą kompletnie nie wybiegać w przyszłość. To, że dziś zaczynają korzystać z danego rozwiązania w chmurze, w średnio- czy długoterminowej perspektywie może spowodować więcej szkód niż korzyści. Może się nagle okazać, że te pierwsze dwa kroki przyszły nam łatwo, ale kolejne siedem, które i tak musimy zrobić, żeby doprowadzić do celu, są wręcz nie możliwe do realizacji w przypadku rozwiązania chmurowego. Myślę tu na przykład o integracji z obecnymi już innymi wewnętrznymi systemami w firmie.

    Z drugiej strony, chmura daje dużą możliwość eksperymentowania. Jeżeli dział IT ustawi się w stosunku do chmury w sposób defensywny czy nawet agresywny, reagując źle na wszelkie próby wyjścia poza firmową infrastrukturę, to doprowadzamy do otwartej wojny. Co gorsza – w tym konflikcie obydwie strony mają rację. Z jednej strony IT, bo ono jest odpowiedzialne za bezpieczeństwo, niezawodność i zgodność z polityką firmy, ale z drugiej strony rację mają też użytkownicy biznesowi, którzy potrzebują odpowiednich narzędzi, aby móc lepiej realizować zadania, które są głównym przedmiotem działalności firmy.

    Mądrość w cenie

    Mądre IT, zamiast siłowo walczyć z shadow IT, modyfikuje swoje struktury. Największą przewagą rozwiązań chmurowych jest to, że nie trzeba ich uruchamiać – po prostu się je kupuje i zaczyna z nich korzystać. Natomiast w przypadku dowolnego wewnętrznego produktu informatycznego w firmie, mamy do czynienia z całym cyklem zakupowym, przetargami, prawnikami, licencjami itd. Zatem to, co może zrobić dział IT, to znaleźć sposób na szybsze dostarczanie i dostosowywanie aplikacji biznesowych. Rozwiązaniem mogą być na przykład platformy takie jak Business Process Management czy – coraz popularniejsze – Rapid Application Development, dzięki którym departament IT jest w stanie z dnia na dzień uruchomić nowy projekt, kiedy tylko pojawia się taka potrzeba biznesowa. Wystarczy, że platforma i kompetencje zostały nabyte jednorazowo, więc w praktyce kolejne aplikacje realizuje się z wykorzystaniem tej samej technologii oraz z pominięciem zatwierdzania każdorazowo zakupu czy działań przez dział prawny. Zatem korzystanie z takich platform może być jednym z elementów, które sprawią, że shadow IT nie będzie wymykał się spod kontroli, bo znacznie zmniejszy się potrzeba biznesu do samodzielnych poszukiwań na zewnątrz. Użytkownicy będą mogli skupić się na korzystaniu z narzędzi, a ich organizowanie i wdrażanie znowu wróci do kompetencji działu IT.

    Natomiast trzeba mieć na uwadze, że zjawisko to nigdy całkowicie nie zniknie. W praktyce w każdej organizacji mamy do czynienia z shadow IT. Ma to bardzo duży związek również ze smartfonami, które mamy w rękach. Dziś każdy, kto potrzebuje prostej aplikacji narzędziowej, po prostu wchodzi do App Store albo Google Play, pobiera ją i działa. Mądrzy dyrektorzy IT starają się więc nie doprowadzić do sytuacji, kiedy pracownicy firmy zaczynają się ukrywać z faktem korzystania z zewnętrznych systemów. Bo największe zagrożenia czają się zazwyczaj tam, gdzie brakuje świadomości zagrożeń. Większość sytuacji zagrażających bezpieczeństwu IT firmy spowodowanych przez pracowników jest nieintencjonalnych i wynika z błogiej nieświadomości konsekwencji własnego działania. Dlatego lepiej, kiedy dział IT może przynajmniej monitorować, jakie aplikacje są wykorzystywane w firmie i reagować w razie potrzeby.

    Dobrze prowadzony dział IT reaguje wtedy, kiedy ryzyko związane z samodzielnym wykorzystaniem aplikacji SaaS czy tych dostępnych w chmurze zaczyna być duże. Natomiast, kiedy jest ono nieznaczne, a przy tym efekty są zdecydowanie pozytywne, dopuszcza takie użycia. Bo prawda jest też taka, że użytkownicy, korzystając przez kilka miesięcy z konkretnej aplikacji (np. do zarządzania projektami) są w stanie nabyć dużo cennego doświadczenia. Można powiedzieć, że pracownicy spełniają w takiej sytuacji rolę testerów. Jeśli stwierdzą, że dana aplikacja jest dokładnie tym, czego potrzebują, dużo łatwiej będzie podjąć decyzję o inwestycji i o budowie odpowiedniego rozwiązania w wewnętrznych strukturach IT.

    IT, które umożliwia

    Nowocześnie prowadzony dział IT doprowadza wręcz do sytuacji, kiedy pracownicy chętnie zgłaszają, że korzystają z zewnętrznych rozwiązań, dzięki czemu shadow IT wychodzi z cienia. Nadal nie jest w pełni kontrolowane przez dział IT, bo użytkownicy sami dokonują wyborów, ale to co zyskujemy, to możliwość opiniowania, doradzania oraz trzymania pieczy nad tym, jakie aplikacje są wykorzystywane w firmie. Co więcej, zbieramy feedback. Dzięki temu, kiedy pojawi się informacja, że dane rozwiązanie  przynosi rzeczywiste, sprawdzone a nie tylko potencjalne korzyści biznesowe, śmiało możemy podjąć decyzję o jego wdrożeniu z wykorzystaniem posiadanej już struktury IT.

    Gartner nazywa takie podejście Enabler Role of IT. Zgodnie z nim dział IT jest tym, który umożliwia, tj. wyszukuje i dostarcza właściwych narzędzi, zamiast być policjantem, który mówi tylko „nie wolno”. Rozumie potrzebę biznesową i znajduje takie rozwiązanie, które w danej  chwili jest najmniej ryzykowne, a jednocześnie daje to, czego potrzeba, aby realizować główne cele organizacji.

  • Korzystasz z Bluetooth – jesteś zagrożony!

    Korzystasz z Bluetooth – jesteś zagrożony!

    Zaleca się ostrożność w korzystaniu z technologii Bluetooth w związku z wykryciem nowego eksploita BlueBorne. Luki w systemach Bluetooth sprawiły, że narażone na ataki są miliardy urządzeń na całym świecie.

    BlueBorne to hybrydowy malware o cechach trojana i robaka, który rozprzestrzenia się za pomocą technologii Bluetooth. Cechy robaka sprawiają, że każdy zainfekowany przez BlueBorne system jest także potencjalnym roznosicielem infekcji, aktywnie szukającym kolejnego, podatnego na atak urządzenia. Narażone są wszystkie sprzęty, w których można włączyć łączność Bluetooth i działające na systemach Android, iOS, Mac OSX oraz Windows. BlueBorne działa poprzez skanowanie urządzeń obsługujących Bluetooth, a następnie sprawdza, czy mają one istotne luki w zabezpieczeniach.

    Nie ma jeszcze dowodów na to, że ten wektor ataku został już przez kogoś wykorzystany do realnego ataku. Możliwe jednak, że działanie eksploita potwierdzono w warunkach laboratoryjnych i można go łatwo rozpowszechnić

    Rozwiązanie problemu BlueBorne jest trudne, ponieważ protokół Bluetooth nie jest protokołem komunikacyjnym, który jest monitorowany i kontrolowany przez większość narzędzi zabezpieczeń sieciowych – tłumaczy Robert Dąbrowski, szef zespołu inżynierów Fortinet. – Z tego powodu tradycyjne urządzenia zabezpieczające najprawdopodobniej nie będą w stanie wykryć tych naruszeń.

    Konsekwencje wykorzystania tego wektora ataku mogą być dalekosiężne. Bluetooth jest jednym z najbardziej rozpowszechnionych i używanych protokołów łączności na świecie. Korzystają z niego smartfony, tablety i coraz więcej urządzeń IoT, w tym Smart TV, inteligentne gadżety samochodowe, a nawet systemy zabezpieczeń domowych.

    Gdy BlueBorne zidentyfikuje już swój cel, włamanie trwa krócej niż 10 sekund, a zaatakowane urządzenia nie muszą nawet akceptować przychodzącego połączenia, aby mogły zostać naruszone – ostrzega Robert Dąbrowski. – Po zainfekowaniu urządzenia napastnicy mogą uruchamiać na nim dowolne polecenia, a nawet uzyskać dostęp do danych i wykradać je. BlueBorne również natychmiastowo rozpoczyna poszukiwania kolejnego celu do ataku.

    Aby ochronić swoje urządzenia z Bluetooth należy wdrożyć trzy podstawowe kroki:

    • Wyłączyć w nich Bluetooth, chyba że jest on absolutnie niezbędny. Jeśli został włączony, wyłącz go natychmiast po zakończonej czynności.
    • Zidentyfikuj posiadane przez siebie i podłączone do sieci urządzenia. Uważnie monitoruj, czy nie pojawiły się dla nich nowe aktualizacje sterownika Bluetooth.
    • Instaluj patche, jak tylko zostaną udostępnione. Apple iOS został poprawiony w 2016 roku z wersją iOS 10. Microsoft wydał w lipcu poprawkę dla systemu Windows, a w Google podobno trwają prace nad poprawką dla systemu Android .
  • Microsoft wprowadza detektor fake newsów

    Microsoft wprowadza detektor fake newsów

    Fake news to ostatnio bolączka wielu internautów. Już nie do końca wiadomo w co można wierzyć. Microsoft postanowił rozprawić się z tym poprzez zastosowanie w swojej przeglądarce Bing systemu oznaczania fake newsów.

    Fact Check to narzędzie, które będzie miało za zadanie wyszukiwać i oznaczać informacje uznane za nieprawdziwe. Podczas wyświetlenia wyników wyszukiwania, niektóre z nich mogą być oznaczone, jako informacja sprawdzona przez Politifact lub Snopes z oznaczeniem prawdziwe lub nieprawdziwe. Może to znacznie zwiększyć wiarygodność danych krążących w Internecie. Jednak warto pamiętać, że takie systemy nie chronią w pełni przed nieprawdziwymi informacjami.

    Systemy takie jak Fact Chech mają już Google i Facebook, ale w przypadku tego ostatniego ochroną objęci są tylko amerykańscy użytkownicy. Zapowiada się jednak, że system trafi także do użytku w Europie.

  • Część HTC trafia do Google za ponad miliard dolarów

    Część HTC trafia do Google za ponad miliard dolarów

    Od kilku tygodni zastanawiano się, czy HTC powieli los Nokii lub może Motoroli, czy Google rzeczywiście zdecyduje się na przejęcie, czy może są to zwykłe plotki. Dziś wiadomo już na pewno, że Google przejmuje tylko część HTC związaną z Pixelami.

    HTC za ubytek około 2 tysięcy pracowników, podzielenie się technologią i patentami otrzyma sumę ponad miliarda dolarów. Nie zatrzyma to w żaden sposób produkcji flagowców z logo HTC, ale o 20 proc. zmniejszy zatrudnienie w przedsiębiorstwie.

    Do tej pory Google był zaangażowany w Pixele, ale teraz będzie miał nad nimi pełną kontrolę. Jednak większość pytań i spekulacji dotyczących tej transakcji nie dotyczy amerykańskiego giganta, lecz HTC, które boryka się z problemami. Firma zakończyła drugi kwartał 2017 roku stratą sięgającą ponad 64 mln USD i był on dziewiątym z kolei, w którym nie odnotowano zysków. Duży zastrzyk w postaci miliarda dolarów może okazać się leczniczy dla firmy. Tylko czy HTC będzie potrafiło wykorzystać taki potencjał finansowy?

  • 6 najbardziej przydatnych aplikacji mobilnych dla ucznia

    6 najbardziej przydatnych aplikacji mobilnych dla ucznia

    Jeszcze kilka lat temu w salach lekcyjnych i wykładowych aulach królowała kreda, tablica i przezrocza z rzutnika. Obecnie sytuacja zmienia się, a urządzenia elektroniczne pozwoliły wnieść do szkół i uczelni element interaktywności, dzięki czemu zajęcia są ciekawsze a wiedza przyswajana jest łatwiej. Szczególnie praktyczne w takich zastosowaniach okazują się być aplikacje mobilne, które możemy zainstalować na smartfonach.

    IFTTT

    IFTTT – łatwa automatyzacja zadań

    Choć ta aplikacja nie pełni w bezpośredni sposób funkcji edukacyjnej, to pozwala zwiększyć produktywność i zaoszczędzić czas. Nazwa programu to skrót wyrażenia  If This Then That. Jej zasada działania pozwala na tworzeniu własnych instrukcji warunkowych (Jeżeli ___ , zrób ___), których kombinacje są praktycznie nieograniczone dzięki współpracy z wieloma producentami i usługami.

    Przykładowe algorytmy, które możemy zastosować:
    – Automatycznie wycisz smartfon kiedy będę w szkole (jeśli dane pobrane z modułu GPS urządzenia będą wskazywały lokalizację Twojej szkoły, to smartfon automatycznie wyciszy dźwięki)
    – Zapisuj załączniki z poczty na moje konto Dropbox
    – Zapisuj swoje zdjęcia z Instagrama na dysku Google
    – Prześlij na mój adres e-mail skrót najważniejszych newsów dnia z danego portalu

    Pobierz aplikację dla systemu Android lub iOS.

    MemriseMemrise – łatwa nauka języków obcych

    Memrise to darmowa aplikacja, która ułatwia naukę obcojęzycznych słówek. W jej zasobach dostępnych jest ponad 188 kursów z podziałem na różne języki i kategorie. Przez kolejne etapy nauki przechodzimy wyświetlając karty ze słówkiem, którego znacznie musimy odgadnąć. Dodatkowo możemy też posłuchać wymowy, a także skorzystać ze wskazówek. Dzięki częstym powtórkom i zadaniom testowym nauka jest skuteczna.

    Pobierz aplikację dla systemu Android lub iOS.

    Office LensOffice Lens – nie przepisuj, rób zdjęcia!

    Fotografowanie notatek i zapisanych przez wykładowców tablic to szkolna i uczelniana codzienność. W takich sytuacjach sprawdzi się przygotowana przez Microsoft aplikacja Office Lens, która odpowiednio kadruje nasze zdjęcie sprawiając, że jest ono bardziej czytelne i przypomina wydruk zeskanowanego dokumentu. Ważną zaletą Office Lens jest możliwość zapisania dokumentów w różnych formatach, a po zeskanowaniu pliki można bezpośrednio przetworzyć do formatu .doc lub .docx.

    Pobierz aplikację dla systemu Android lub iOS.

    Wolfram AlphaWolfram Alpha – zaawansowane obliczenia na wyciągnięcie dłoni

    Wolfram Alpha to zaawansowany silnik obliczeniowy wykorzystujący sztuczna inteligencje, który jest w stanie odpowiadać na pytania użytkownika. Uczniowie najczęściej korzystają z funkcjonalności polegającej na rozwiązywaniu działań matematycznych (funkcje, pochodne, całki, trygonometria i inne), ale Wolfram Alpha potrafi odpowiadać też na pytania związane z fizyką, geografią, chemią, inżynierią, astronomią, historią, kulturą, muzyką, ekonomią, biologią, pogodą i wieloma innymi naukami.

    Pobierz aplikację dla systemu Android lub iOS.

    My Study LifeMy Study Life – zorganizuj swoje sprawy

    My Study Life to elektroniczny plan zajęć wzbogacony o listę zadań i możliwość przypominania o pracach domowych i zbliżających się sprawdzianach. Kreator wykładu umożliwia wpisanie m.in. sali, budynku, nauczyciela. Ważną zaletą programu jest dostępność podziału na rok akademicki, którego m.in. zakres czasowy można samemu zdefiniować. Z aplikacji można korzystać również na komputerze stacjonarnym, a konkretniej w przeglądarce internetowej.

    Pobierz aplikację dla systemu Android lub iOS.

    NoisliNoisli – sposób na koncentrację

    W jakim miejscu najbardziej lubisz się uczyć? Cichy pokój, głośna kawiarnia, las, deszczowy dzień, burza, a może śpiew ptaków? Aplikacja Noisli posiada wbudowane zestawy dźwięków, które pomogą się skoncentrować. Użytkownik może łączyć wiele dźwięków w jeden, a także zmniejszać lub zwiększać ich natężenie. Nie bez znaczenia jest również piękny i minimalistyczny interfejs graficzny.

    Pobierz aplikację dla systemu Android lub iOS.

    Wymienione aplikacje pomogą uczynić naukę łatwiejszą i efektywniejszą, zorganizować czas, a także poprawić koncentrację.  W połączeniu z odpowiednim sprzętem komputerowym w klasach oraz plecakach najmłodszych, edukacja ma szansę stać się znacznie efektywniejsza.

  • Czy znów będziemy porozumiewać się za pomocą głosu?

    Czy znów będziemy porozumiewać się za pomocą głosu?

    Ostatnio pojawiło się wiele cyfrowych asystentów osobistych, takich jak Siri, Cortana i Google Assistant, a coraz więcej firm debiutujących, tzw. start-upów, tworzy podobne rozwiązania z wykorzystaniem funkcji analitycznych i sztucznej inteligencji. Nie ulega wątpliwości, że zaczynamy komunikować się z technologiami w nowy sposób ― za pomocą głosu.

    Należy się spodziewać, iż systemy uaktywniane głosem, które znalazły już swoje miejsce na rynku klientów indywidualnych, wkrótce pojawią się również w środowiskach przedsiębiorstw, gdzie mogą przynieść ogromne korzyści dzięki uproszczeniu i automatyzacji zadań. Craig Walker, Director Cloud Services at Alcatel-Lucent Enterprisez firmy ALE objaśnia, że choć upłynie jeszcze trochę czasu, zanim pojawi się coś w rodzaju systemu HAL z „Odysei kosmicznej 2001”, to istnieje już technologia, która może znacznie usprawnić sposób funkcjonowania wielu firm.

    Światła, kamera, akcja!

    Wyobraźmy sobie, o ile łatwiejsze byłoby życie lekarza, gdyby mógł po prostu powiedzieć: „Systemie, wprowadź do karty Anny Kowalskiej następującą informację: «Pacjentka ma bóle brzucha, zamówienie do apteki na 200 mg leku SuperAntiGas, podpisano: doktor Zdrówko»”. A gdyby w sali konferencyjnej nie trzeba było ciągle szukać pilota, bo do włączenia projektora i ekranu wystarczyłyby słowa: „systemie, włącz projektor i telewizor oraz zmniejsz natężenie oświetlenia”?

    Nowe wyzwania

    Wkraczamy w epokę rozwiązań obsługiwanych głównie za pomocą interfejsu głosowego (ang. voice-first). Na jakim etapie znajdujemy się obecnie? Firma analityczna VoiceLabs, która specjalizuje się w rynku technologii głosowych, opublikowała materiał na temat różnych warstw potrzebnych do rozwoju technologii voice-first dla klientów indywidualnych. Obecnie mamy do czynienia głównie z prostymi przypadkami użycia zorientowanymi na klienta. Aby przedsiębiorstwa zaczęły wdrażać środowiska, w których rozwiązania voice-first są używane na szerszą skalę, musi zostać spełnionych kilka warunków.

    Podstawowe znaczenie ma bezpieczeństwo. Jeśli chcemy, aby systemy w naszych przedsiębiorstwach były sterowane głosem, musimy odpowiedzieć sobie na pytanie: czy każdy powinien mieć możliwość wydawania poleceń urządzeniom lub systemom o znaczeniu newralgicznym?  Odpowiedź jest oczywiście przecząca. Kolejna ważna sprawa to prywatność. Przedstawiony powyżej przykład dotyczący lekarza jest prosty, ale musimy o nim pomyśleć w kontekście obowiązujących przepisów. Czy prawa pacjenta zostaną naruszone, jeśli takie słowne polecenie spowoduje ujawnienie osobom trzecim jego informacji medycznych?

    Bezpieczny dostęp

    Rozwój technologii rozpoznawania mowy wkroczył w kolejny etap. Dziś można je już wykorzystywać w celu zapewnienia bezpiecznego dostępu do systemów.

    Przykładem są banki, które wprowadzają uwierzytelnianie na podstawie głosu w swoich systemach bankowości telefonicznej. Choć niektórzy klienci mogą się obawiać o bezpieczeństwo swoich kont, uważam, że będziemy mieć do czynienia z podobnym cyklem akceptacji nowych rozwiązań przez rynek, jak w przypadku handlu elektronicznego. Z początku klienci bali się, że ich karty kredytowe zostaną wykorzystane przez oszustów, ale gdy strach ten okazał się bezpodstawny, nastąpił bardzo dynamiczny wzrost na rynku zakupów online.

    W dziedzinie technologii rozpoznawania mowy należy się spodziewać kolejnych innowacji i udoskonaleń, które zapewnią bezpieczeństwo systemów uaktywnianych głosem w środowiskach przedsiębiorstw. Chodzi o to, aby określone działania mogli wykonywać tylko autoryzowani użytkownicy z odpowiednimi uprawnieniami.

    Trzeba również zdawać sobie sprawę, że o ile kuchenka mikrofalowa nie może śledzić użytkownika, to niektóre urządzenia będą zawsze działać, zawsze słuchać i, być może, nagrywać. Kilka dobrze nagłośnionych przypadków naruszenia prywatności, szpiegostwa gospodarczego czy złamania prawa może zniechęcić klientów do zakupu takich produktów. Warto byłoby więc wyposażyć urządzenia voice-first w duże wyłączniki, dzięki którym użytkownicy będą mogli korzystać z tych urządzeń bez obawy o swoją prywatność.  Przydałoby się też niezawodne zabezpieczenie, które nie tylko zapewni bezpieczny dostęp do oprogramowania produktu, ale umożliwi wykrywanie ataków hakerskich i zapobieganie im.

    Tworzenie jeszcze efektywniejszych systemów rozpoznawania mowy

    Pierwsze technologie rozpoznawania mowy znalazły zastosowanie głównie w systemach informacji głosowej w telecentrach, jak również samochodach i smartfonach. Wiele osób wie jednak z własnego doświadczenia, że nie są one zbyt zaawansowane. Aby narzędzia do rozpoznawania mowy i kontekstualizacji mogły być szeroko stosowane w przedsiębiorstwach, muszą zostać udoskonalone z wykorzystaniem nowych technologii.

    Możliwości systemów rozpoznawania mowy są cały czas poszerzane dzięki takim programom badawczym, jak projekt Sphinx realizowany przez Uniwersytet Carnegie-Mellon. Z raportu „Internet Trends” opracowanego przez Mary Meeker wynika, że w 2016 roku system rozpoznawania mowy firmy Google był w stanie rozpoznać ponad pięć milionów słów z około 90-procentową dokładnością. To jednak wciąż za mało. Czy dokładność na poziomie 90% jest wystarczająca w przypadku interakcji z systemem podtrzymującym życie w szpitalu lub siecią usług użyteczności publicznej?

    Ponadto chodzi nie tylko o rozpoznawanie słów, lecz również o to, co z tymi słowami zrobić. W tym miejscu wkraczają do gry mechanizmy poznawcze i sztuczna inteligencja. Niektórzy spośród największych producentów oferują rozwiązania, które pomagają w zrozumieniu kontekstu słów. Przykładem jest Microsoft ze swoim mechanizmem poznawczym rozpoznawania mowy z otwartym dostępem do kodu źródłowego. Pytanie „Jak dojść do stacji?” wydaje się proste, lecz wymaga uwzględnienia kontekstu. Świadomość lokalizacji pozwala stwierdzić, że najprawdopodobniej chodzi o najbliższy dworzec kolejowy. Osoba siedząca w kawiarni w centrum miasta odpowiedziałaby: „Proszę na końcu ulicy skręcić w prawo, a następnie iść prosto pół kilometra”. Przyjęła jednak założenie, że chodzi o pobliską stację kolejową, a nie, powiedzmy, stację metra czy dworzec autobusowy znajdujący się na drugim końcu miasta.s

    W poszukiwaniu głębszego sensu

    Prawdziwe wyzwania wiążą się z głębszymi aspektami systemów rozpoznawania mowy. Chodzi zarówno o integrację urządzeń Internetu rzeczy z tymi systemami, jak i zapewnienie sensowności wydawanych poleceń. Należy lepiej wykorzystać mechanizmy poznawcze jako systemy kontroli i weryfikacji. Wyobraźmy sobie kogoś, kto przez pomyłkę wydał polecenie „Wyłącz system chłodzenia dla reaktora 4” zamiast wyłączonego wcześniej „reaktora 3”, lub lekarza, który przepisuje pacjentowi szkodliwą dawkę leku, ponieważ przypadkowo powiedział „400 gramów” zamiast „400 miligramów”. Przykłady te mogą wydawać się ekstremalne. Jeśli jednak chcemy wyeliminować błędy człowieka, musimy całościowo spojrzeć na automatyzowane zadania oraz analizować działania powiązane z poleceniami głosowymi za pomocą szerszego zestawu inteligentnych funkcji. Na przykład polecenie „Wyłącz system chłodzący dla reaktora 4” mogłoby spowodować prawidłowe działanie, gdyby w celu jego wykonania system zastosował odpowiedni zestaw procedur operacyjnych.

    Platforma API dla zintegrowanych rozwiązań opartych na komunikacji głosowej

    Innowacje w świecie tradycyjnych rozwiązań opartych na komunikacji głosowej pozwoliły na utworzenie ciekawego rozwiązania, które można strategicznie powiązać z procesem budowania środowisk sterowanych głosem dla przedsiębiorstw. Chodzi o platformę komunikacyjną jako usługę (ang. Communication Platform as-a-Service ― CPaaS), którą wdraża obecnie coraz więcej firm. Umożliwia ona, z wykorzystaniem interfejsów API, przekształcanie używanych obecnie aplikacji w zintegrowane rozwiązania oparte na komunikacji głosowej. Niektórzy spośród największych dostawców usług komunikacyjnych wchodzą obecnie na ten rynek. Oferowane przez nich infrastruktury CPaaS ze standardowym zestawem interfejsów API umożliwiają przedsiębiorstwom integrację technologii komunikacyjnych z procesami biznesowymi.

    Tradycyjnie rozumiemy integrację jako np. włączenie usług głosowych i wideo w używane dotychczas aplikacje. Przykładem jest aplikacja bankowa, która pozwala przejść z aplikacji online do połączenia głosowego z doradcą. Uważam, że integracja taka odegra ważną rolę w środowisku voice-first, ponieważ umożliwi wykorzystanie bogatej w funkcje infrastruktury API platformy CPaaS do komunikacji z aplikacjami i urządzeniami.

    Sprawna komunikacja między CPaaS lub innymi platformami a urządzeniami wymaga nie tylko odpowiedniej infrastruktury komunikacyjnej, lecz również standaryzacji. Jest to warunek dalszego szybkiego rozwoju technologii komunikacji głosowej. Każdy z dostępnych obecnie systemów sterowanych głosem, które są przeznaczone dla klientów indywidualnych, ma własne interfejsy oraz zintegrowane infrastruktury API, co może prowadzić do szybkiego starzenia się produktów, podobnie jak w przypadku historycznej bitwy między standardami Beta i VHS sprzed kilkudziesięciu lat. Klient nie chce inwestować w najnowszy „inteligentny ekspres do kawy” tylko po to, aby się dowiedzieć, że sterująca nim platforma właśnie wyszła z użycia. Producenci powinni więc zagwarantować klientom, że zakupione przez nich nowe technologie nie staną się przestarzałe zanim przyniosą zwrot z inwestycji.

    Najlepsze dopiero przed nami

    Obecnie trwają prace nad technologiami, które ograniczą do minimum starzenie się produktów. To z pewnością dobra wiadomość. Tworzone są infrastruktury, takie jak IOTivity, które umożliwiają budowanie standardowych platform. Nowe aplikacje głosowe dla klientów indywidualnych szybko zdobywają rynek. Dostrzegamy już ich wartość oraz korzyści wynikające z ich używania. W najbliższym czasie podstawowe technologie tego typu zobaczymy również w przedsiębiorstwach. W odleglejszej perspektywie czeka nas dalszy rozwój technologii rozpoznawania głosu i zabezpieczania komunikacji głosowej, jak również uproszczenie i standaryzacja łączności za pomocą urządzeń mobilnych. W rezultacie zarówno użytkownicy indywidualni, jak i przedsiębiorstwa będą wykonywać coraz więcej zadań i czynności za pomocą produktów voice-first, co uprości procesy i zwiększy naszą produktywność.

  • Cybersquatting, typosquatting, phishing i… napad z bronią w ręku

    Cybersquatting, typosquatting, phishing i… napad z bronią w ręku

    Próby nielegalnego przejęcia domen internetowych to dziś chleb powszedni. Przykładów takich działań można mnożyć – to cybersquatting, typosquatting czy phishing. Czasem domenę można stracić przez własną nieuwagę, czasem w efekcie… napadu z bronią w ręku. Sprawdziliśmy, jak oszukują cyberprzestępcy w 2017 roku i co zrobić, gdy padniemy ich ofiarą?

    Domanier czy cybersquatter?

    Domanierzy to osoby zajmujące się kupowaniem, sprzedawaniem, parkowaniem i kolekcjonowaniem domen internetowych. Nierzadko i niesłusznie myleni są z cybersquatterami, których działanie polega na celowej rejestracji domen z nieużywanymi przez daną firmę rozszerzeniami, celem odsprzedania ich po odpowiednio zawyżonych cenach.

    Cybersquatterzy działają w złej wierze, bazując na renomie firmy korzystającej z danej nazwy czy znaku towarowego. Co zatem zrobić, jeżeli padnie się ich ofiarą? Wszystko zależy od ustalonych priorytetów. Jeżeli rozszerzenie domeny nie jest zbyt popularne (to np. „.net.pl” czy „.co”), być może warto pogodzić się ze stratą. Drugą opcją jest podjęcie negocjacji z cybersquatterem i odkupienie domeny. Trzecim rozwiązaniem – skierowanie sporu do sądu, np. Sądu Polubownego ds. Domen Internetowych przy Polskiej Izbie Informatyki i Telekomunikacji w Warszawie lub Sądu Arbitrażowego przy Krajowej Izbie Gospodarczej w Warszawie. Jeżeli udowodni się, że osoba, która zajęła domenę naruszyła prawo ochronne na znak towarowy czy dobra osobiste powoda, działała w złej wierze lub dopuściła się czynu nieuczciwej konkurencji, można doprowadzić do wycofania takiej rejestracji.

    Jak ustrzec się cybersqattingu? Najlepiej zastosować profilaktykę i wykupić wszystkie najpopularniejsze rozszerzenia dla danej domeny, zatem nie tylko „.pl”, ale również „.com.pl”, „.com” i „.eu”.

    Typosquatting, czyli celowa literówka

    W tym przypadku oszustwo polega na rejestracji domeny o nazwie bardzo podobnej lub niemal identycznej do nazwy danej firmy lub marki. Przykładem może być adres tvn23.pl czy urządzamy.pl. Ten drugi można zakupić za nie bagatela 72 tys. złotych.

    tvn23

    Dlaczego cyberprzestępcy stosują typosquatting? Ponieważ dzięki wykorzystaniu domeny o podobnie brzmiącej nazwie, mogą przechwytywać ruch internauty, kierując go na strony z reklamami lub własne portale (zwiększając w ten sposób liczbę odwiedzin i czerpiąc korzyści finansowe). Na szczęście sądy kładą coraz większy nacisk na kwestie związane z ochroną własności intelektualnych w internecie, traktując typosquatting jako korzystanie z cudzej marki i renomy dla uzyskania własnych korzyści.

    Jak ustrzec się typosquattingu? Trzeba zarejestrować wszystkie alternatywne nazwy z możliwymi do popełnienia literówkami. Dobrze na tę okoliczność zabezpieczył się serwis aukcyjny allegro.pl. Po wpisaniu w wyszukiwarkę adresu z literówką – alllegro.pl, następuje słuszne przekierowanie na adres allegro.pl (choć allgero.pl kieruje już do typowego parkingu, czyli strony z reklamami).

    allgero

    Phishing, czyli uważaj na maile

    Kolejną praktyką jest phishing, w którym cyberprzestępca podszywa się pod inną osobę czy firmę w celu wyłudzenia informacji lub nakłonienia do wykonania określonych działań. Ofiara najczęściej otrzymuje maila z adresu do złudzenia przypominającego adres właściwego dostawcy usług, z fakturą proforma do opłacenia lub zachętą do zalogowania się lub podania jednorazowego kodu SMS. Jeżeli wykona się tego rodzaju działanie -konsekwencje zazwyczaj są poważne.

    Jak uchronić się przed phishingiem? Przede wszystkim należy dokładnie sprawdzać nadawcę maili, szczególnie jeżeli w załączniku znajdują się dokumenty obligujące do płatności lub generują konieczność kliknięcia w link. Dobrą ochroną jest też sprawdzanie certyfikatów SSL, szczególnie w dobie najnowszej aktualizacji Google Chrome, która oznacza jako niebezpieczną każdą stronę wymagającą podania danych i nieposiadającą SSL. Jeśli jesteś operatorem strony, koniecznie pamiętaj o ochronie swojej domeny odpowiednim certyfikatem – tłumaczy dr inż. Artur Pajkert.

    Pilnuj terminów

    Pamiętajmy, że sam fakt rejestracji domeny nie oznacza, że stajemy się jej właścicielem. Formalnie otrzymuje się czasową możliwość jej użytkowania. Dlatego, jeżeli nie przedłuży się domeny w odpowiednim czasie, trafi ona na giełdę, skąd będzie mógł kupić ją każdy, zgodnie z zasadą: „kto pierwszy, ten lepszy”.

    Przykładem jest sytuacja, jaka spotkała Klub Parlamentarny „Prawo i Sprawiedliwość”. Klub nie przedłużył domeny kppis.pl, w wyniki czego obecnie pod tym adresem można znaleźć stronę Klubu Przyjaciół Pieczywa i Sera. Według wielu spektakularną gafą na rynku domen była też sytuacja z Tchibo z początku tego roku. Z niewiadomych powodów firma nie przedłużyła wartej kilkaset tysięcy złotych domeny kawa.pl. Przypomnijmy, że adres należał do Tchibo przez ponad 10 lat.

    Jak więc uchronić się przed taką sytuacją? To proste – wystarczy ustawić sobie przypomnienie o przedłużeniu domeny.

     Podsumowując, jak zabezpieczyć domenę?

    1. Zarejestruj domenę we wszystkich popularnych rozszerzeniach
    2. Zarejestruj alternatywne nazwy domeny z możliwymi do popełnienia literówkami
    3. Zwracaj uwagę na maile z załącznikami, szczególnie fakturami do opłacenia
    4. Pamiętaj o regularnym odnawianiu domen
    5. Nie daj się domenowym naciągaczom, zgłaszając problem do odpowiedniego sądu

    Na koniec dość ciekawy przykład z życia wzięty. Kilka tygodni temu 43-letni Sherman Hopkins z Iowa w Stanach Zjednoczonych dokonał próby przejęcia domeny, grożąc jej właścicielowi… bronią palną. W efekcie strzelaniny obaj mężczyźni zostali ranni. Niestety nie udało się ustalić, o jaki adres chodziło.

    Rynek domen rozwija się w sposób dynamiczny, a wraz z nim rośnie pomysłowość cyberprzestępców, szukających sposobów na łatwy i szybki zarobek. Obecnie najpopularniejszymi praktykami domenowych hakerów jest cybersquatting, typosquatting oraz phishing, choć domenę można stracić także na skutek własnych zaniedbań. Warto zabezpieczyć się na wszystkie te sytuacje, aby uniknąć bolesnych finansowo i wizerunkowo konsekwencji – podsumowuje Jakub Dwernicki, prezes Hekko.pl.

  • Lexmark: Nowe rozwiązania w zakresie druku A3

    Lexmark: Nowe rozwiązania w zakresie druku A3

    Kolejna generacja laserowych drukarek kolorowych A3 oraz inteligentnych urządzeń wielofunkcyjnych jest już dostępna w Polsce za pośrednictwem autoryzowanych dealerów firmy Lexmark.

    Drukarki z serii CS920 oraz urządzenia wielofunkcyjne z serii CX920 zostały zaprojektowane w taki sposób, aby umożliwić znacznie szybszy wydruk i skanowanie, również niestandardowych formatów, obsługę większej liczby mediów oraz jak najbardziej niezawodną pracę. Nowe produkty zapewniają firmom każdej wielkości, nastawionym na sukces, skuteczne rozwiązania, technologie i usługi w obszarze przetwarzania obrazów.

    Linie Lexmark CS920 oraz CX920 oferują najszybsze urządzenia do druku i skanowania oraz najwyższą pojemność podajników papieru, co sprawia, że są w stanie sprostać najtrudniejszym wyzwaniom, przed którymi stoją firmy.

    Urządzenia są wyposażone w 10-calowe ekrany dotykowe z intuicyjnymi interfejsami, konfigurowalne aplikacje i pełne spektrum zabezpieczeń, posiadają też możliwość drukowania mobilnego z urządzeń z aplikacjami iOS, Android lub Google Cloud, zintegrowaną obsługę głosową i wiele innych właściwości. Dodatkowe informacje dotyczące nowej linii są dostępne na stronie firmy Lexmark.

  • IFA 2017: premiery Epsona

    IFA 2017: premiery Epsona

    Firma Epson przedstawiła na targach IFA w Berlinie premiery swoich nowych produktów. Epson poszerzył swoją ofertę o rozwiązania EcoTank i ReadyInk, które rozwiązują typowe problemy, takie jak wyczerpywanie się tuszu.

    Firma Epson po raz pierwszy w Europie zaprezentowała technologię ReadyInk – usługę drukowania opartą na płatnościach wyłącznie za zamówienia, bez miesięcznego abonamentu oferowanego przez sprzedawców oraz dystrybutorów.

    Zajmujemy się opracowywaniem ważnych dla naszych klientów produktów i innowacji. Znajdujemy odpowiedź na codzienne problemy, takie jak brak czasu – za pomocą zautomatyzowanych usług umożliwiających użytkownikom skupienie się na czynnościach, które są naprawdę ważne, ograniczenia miejsca i powierzchni – dzięki kompaktowym. dobrze zaprojektowanym, stylowym rozwiązaniom czy ograniczony budżet – za pomocą dostępnych cen produktów wyposażonych w wiodące na rynku funkcje – Krzysztof Modrzewski, National Sales Manager w Epson Europe

    Produkty

    epsonGoście targów jako pierwsi zobaczą nową generację drukarek EcoTank wyposażonych w dwa najważniejsze usprawnienia: dedykowaną serię drukarek fotograficznych wyposażonych w pięciokolorowy układ tuszu (modele ET-7700, ET-7750) oraz zaprojektowany na nowo system zbiorników i butelek z atramentem zapewniających czystą pracę (modele ET-2700/50, ET-3700/50, ET-4750, ET-7700/50). Drukarki wyposażone w technologię EcoTank pozwalają klientom decydującym się na jednorazową inwestycję uzyskać wyjątkowo niski koszt wydruku strony, dzięki załączonemu zapasowi tuszu, który wystarcza na trzy lata drukowania.

    Najnowsze rozwiązania firmy Epson w zakresie kina domowego również cechują się istotnymi innowacjami. Pierwszy projektor laserowy o ultrakrótkim rzucie do zastosowań domowych (model EH-LS100) to elastyczne rozwiązanie, pozwalające na oglądanie filmów na dużym ekranie. W przeciwieństwie do standardowych projektorów, laserowe źródło światła odznacza się długim czasem eksploatacji oraz prostym montażem tuż przy powierzchni wyświetlania obrazu. Z tego względu nie wymaga skomplikowanej instalacji i stanowi doskonałe rozwiązanie do mieszkań o ograniczonej przestrzeni. Projektor jest także rozwiązaniem znacznie bardziej elastycznym niż telewizor – dzięki możliwości regulacji przekątnej obrazu od 1,77 m do nawet 3,3 m.

    epsonPoszerzona seria projektorów została zmodernizowana i zaprojektowana tak, by udostępnić w przystępnej cenie szeroką gamę funkcji różnym odbiorcom: od entuzjastów kina domowego, po użytkowników poszukujących połączonych rozwiązań do pracy i rozrywki.

    Także seria drukarek firmy Epson dla użytkowników domowych została przystosowana do wymagań nowoczesnego stylu życia. Serie Expression Premium (model XP-6000/5) i Expression Photo (model XP-8500) w dalszym ciągu oferują imponujący zestaw funkcji do zastosowań domowych i drukowania zdjęć, ale zostały uzupełnione o nowoczesną, kompaktową stylistykę. W uznaniu faktu, że drukarki przestają być wyłącznie elementami tradycyjnie pojmowanego wyposażenia biurowego, ich nowy styl pozwala na łatwiejsze dopasowanie drukarki do wystroju pomieszczenia dzięki smukłym, prostym kształtom.

    epsonDrukarki firmy Epson dla niewielkich przedsiębiorstw i biur domowych pracują szybciej i inteligentniej dzięki nowoczesnym funkcjom. Wysokiej jakości ekonomiczne drukarki atramentowe A3 (modele WF-7210DTW, WF-7710DWF, WF-7715DWF i WF-7720DTWF) zostały wyposażone w funkcje łączności NFC (wymagane jest urządzenie obsługujące funkcje NFC i Wi-Fi Direct z systemem operacyjnym Android 4.0 lub nowszym; wymaga pobrania aplikacji Epson iPrint z Google Play) oraz smukły panel sterowania i nowy interfejs użytkownika (w modelach WF-7710DWF, WF-7715DWF, WF-7720DTWF).

  • IFA 2017: Nowy głośnik od Sony z asystentem Google

    IFA 2017: Nowy głośnik od Sony z asystentem Google

    LF-S50G to nowy głośnik firmy Sony, który można obsługiwać poleceniami głosowymi. To nieduże, stylowo wyglądające urządzenie jest nie tylko źródłem dźwięku o wysokiej jakości, lecz także informacji z Internetu.

    Głośnik emituje dźwięk we wszystkich kierunkach. Wbudowany asystent Google przypomina osobistego asystenta: można go poprosić o odtworzenie ulubionego utworu, a nawet zadawać mu pytania.

    sony ifa

    Obsługa poleceniami głosowymi

    Po wypowiedzeniu frazy „Ok Google” głośnik uaktywni się i umożliwi nastawienie budzika albo sprawdzenie, jaki jest ruch na drodze do pracy, o której godzinie odlatuje samolot itp. W taki sam sposób można zarządzać kalendarzem spotkań i listą spraw do załatwienia, dowiedzieć się, jaka ma być jutro pogoda, czy zapoznać się ze skrótem wiadomości.

    Możliwości głośnika S50G nie ograniczają się do bezproblemowej współpracy z podobnymi urządzeniami w celu słuchania tej samej muzyki w różnych pomieszczeniach — asystent Google pomoże też w obsłudze poleceniami głosowymi wielu innych urządzeń smart, które wykorzystują do pracy kompatybilne platformy: wbudowany Chromecast, Nest, Philips Hue czy IFTTT. Dzięki temu można więc będzie na przykład nastawić w pokoju idealną temperaturę lub stonować oświetlenie.

    Wypowiadając proste polecenia głosowe, można także poprosić asystenta Google o odtwarzanie muzyki, podcastów bądź radia z serwisu Spotify, Google Play Music, Pandora, TuneIn czy iHeartRadio.

    sony ifa

    Emisja dźwięku we wszystkie strony

    Zastosowany w głośniku bezprzewodowym S50G dwudrożny, pionowy system emitujący dźwięk we wszystkich kierunkach pozwala wypełnić dźwiękami pokój. Naturalny bas i jednakowa jakość dźwięku w całym pomieszczeniu są efektem połączenia szeregu elementów: pełnozakresowego głośnika wyraźnie reprodukującego głos i tony wysokie, dedykowanego subwoofera służącego do reprodukcji basu, wytłumionego kanału bass reflex, którego zadaniem jest zapewnienie neutralnych tonów niskich mimo małych wymiarów głośnika, oraz dwustopniowego dyfuzora, powodującego rozchodzenie się dźwięku we wszystkie strony. O uzyskaniu wysokiej jakości brzmienia decyduje montaż tych kluczowych podzespołów, przy którym firma Sony wykorzystuje własne doświadczenie w technologii audio.

    sony ifa

    Niepowtarzalna funkcjonalność

    Sterowany głosem model S50G zaprojektowano tak, by pozostawał on w harmonii z wyglądem każdego pomieszczenia. Dotyczy to również kuchni: głośnik jest odporny na zachlapanie wodą zgodnie z wymogami dla klasy ochrony IPX3, a hydrofobowa powłoka pozwala utrzymać go w czystości nawet na blacie roboczym. Równie dobrze prezentuje się w sypialni, gdzie wskazanie zegara pozwala jednym rzutem oka sprawdzić aktualną godzinę.

    Lautsprecher LF S50G von Sony mit Google Assistant 5

    Dzięki technologiom Bluetooth i NFC głośnik S50G pozwala podłączać urządzeni i odtwarzać muzykę z telefonów komórkowych z systemem Android lub iOS.

    Daty rozpoczęcia działania serwisów i warunki świadczenia usług mogą zależeć od kraju.

    Głośnik LF-S50G będzie dostępny w Wielkiej Brytanii, Niemczech i Francji od grudnia 2017 r. w cenie około 230 EUR / 200 GBP. Ostateczne ceny będą zależały od sprzedawcy.

  •  5 powodów, dla których uczeń powinien mieć czytnik e-booków

     5 powodów, dla których uczeń powinien mieć czytnik e-booków

    Wielu rodziców zastanawia się, jak przekonać dziecko do czytania. Najprostszym sposobem jest dawanie dobrego przykładu – spędzanie wolnego czasu z książkami i audiobookami, to naturalny sposób na zaszczepienie w pociechach zamiłowania do lektury.

    Zachęcenie dzieci i nastolatków do czytania może przybierać różne formy – jedną z nich jest dostarczenie im nowoczesnego sprzętu, służącego do czytania, jednak znacznie bezpieczniejszego dla oczu niż tablet czy smartfon. Takie zadanie spełnia czytnik e-booków z ekranem E Ink, który pozwala na komfortową lekturę, bez szkodliwego oddziaływania na wzrok.

    1. Lżejszy plecak

    Uczniowie, już na początku swojej przygody ze szkołą, noszą na swoich barkach dosłownie kilogramy wiedzy. Dorzucanie im papierowych, nierzadko ciężkich książek, stanowi dodatkowe obciążenie dla ich kręgosłupów. Dlatego lekki, ważący niewiele ponad 150 g czytnik e-booków, jest doskonałym uzupełnieniem papierowych książek. Smukłe, odpowiednio wyprofilowane urządzenie, jak inkBOOK Classic 2, ułatwia pewny chwyt nawet w dziecięcych rękach, dzięki czemu pociecha może czytać w drodze do szkoły, czekając na zajęcia dodatkowe czy jadąc na angielski.

    1. Bezpieczny ekran

    Współcześnie dzieci przyzwyczajone są do dotykowych ekranów urządzeń, z których korzystają, stąd obsługa inkBOOKów jest dla nich intuicyjna. Dodatkowo, możliwość zmiany wielkości i kroju czcionki, pozwala na dostosowanie wyświetlanej treści do własnych upodobań. Na ekranach E Ink litery wyświetlane są tak samo, jak druk na na białej kartce, co daje efekt analogiczny do tradycyjnych książek, w których kartki nie świecą, lecz ukazują tekst w świetle odbitym. Kolejną zaletą niektórych nowoczesnych czytników e-booków jest opcja czytania nawet w warunkach słabego oświetlenia. Ekran nie jest wówczas podświetlany diodami LED w kierunku oczu czytającego, jak w tablecie czy smartfonie, ale doświetlany.

    1. Tysiące tytułów za darmo

    W ramach projektu „Wolne Lektury” dostępne są tysiące e-publikacji za darmo, wśród których można znaleźć wiele lektur szkolnych, od podstawówki do szkoły średniej. Dzięki temu rozwiązaniu można legalnie, w kilka sekund, pobrać literaturę polską i światową, którą uczniowie analizują później na lekcjach. Dodatkowo, wiele elektronicznych wydań można zgodnie z prawem czytać bez ponoszenia kosztów, pobierając je ze stron internetowych Projektu GutenbergOpen Library. Warto wspomnieć, że kupując niektóre czytniki, np. inkBOOKi, otrzymuje się dostęp do 3 tysięcy publikacji, w tym wielu lektur szkolnych. Co ważne, w urządzeniu mniejszym niż zeszyt A5, można zapisać tysiące tytułów, a jego pamięć dodatkowo powiększyć o kartę pamięci MicroSD.

    1. Wygodne czytanie, notowanie, lepsze wypracowania

    Często młodzież, analizując treść czy pisząc rozprawkę, odwołuje się do cytatów z dzieła. Wówczas niezastąpione okazują się zakładki i krótkie notatki. W inkBOOKach rozwiązanie to zostało zaczerpnięte bezpośrednio z papierowych książek, bowiem na czytnikach można oznaczać treści, zaznaczać fragmenty i pisać własne notatki. Korzystanie z nich w czasie lekcji czy nauki w domu jest intuicyjne. Dodatkowo, czytniki e-booków mieszczą w sobie tysiące publikacji, pozwalając wykorzystywać informacje i cytaty z wielu książek, które są dosłownie na wyciągnięcie ręki. Niektóre czytniki wyposażone są w specjalną czcionkę ulatwiającą czytanie i zapamiętywanie tekstu dzieciom dotkniętym dysleksją. Przykładem takiej czcionki jest Open Dislectic na inkBOOKach – można nią wyświetlać e-booki na czytniku.

    1. Wiele aplikacji, zero rozpraszaczy

    Ważną cechą wyróżniającą inkBOOKi na rynku czytników e-booków jest wyposażenie ich w Android, czyli otwarty system operacyjny. W praktyce, pozwala to na instalowanie aplikacji zewnętrznych, również innych dostawców treści, zarówno polskich, jak Empik, e-Kiosk, Legimi, jak i zagranicznych – amerykański Amazon, niemieckie Skoobe, francuski Youboox, czy hiszpańskie Nubico i wiele innych. Aby pomóc w nauce języków, czytniki wyposaża się w słowniki tłumaczące zaznaczone przez czytelnika w tekście słowo. Co istotne, w przeciwieństwie do tabletów i smartfonów, ze względu na budowę ekranu E Ink, czytniki e-booków nie dają dostępu do rozpraszaczy, jak gry z Google Play, serwisy Instagram czy Snapchat. Takie rozwiązanie daje pewność, że mając w ręce czytnik dziecko rzeczywiście czyta, a nie gra.

    Początek roku szkolnego dla wielu rodzin oznacza konieczność pokrycia znacznych kosztów wyprawki, podręczników, dodatkowych kursów i zajęć pozalekcyjnych. Warto rozważyć zakup czytnika, biorąc pod uwagę nie tylko samą cenę urządzenia, ale fakt otrzymania dodatkowych korzyści, np. kompletu lektur. Pamiętajmy, że możliwość dostarczenia dziecku narzędzia ułatwiającego mu czytanie, bez żadnego dodatkowego obciążenia tornistra czy torebki, może okazać się szansą na zaszczepienie w nim zamiłowania do książek na całe życie.

  • IFA 2017: 77-calowy telewizor od Sony

    IFA 2017: 77-calowy telewizor od Sony

    Firma Sony podała informację o dostępności w Europie 77-calowego telewizora OLED 4K HDR BRAVIA A1. To nowy model z wysoko ocenianej serii OLED Sony — oferowanej dotąd w wersjach 55″ i 65″. Rozpoczęcie dostaw przewidziano na końcówkę września.

    sony ifa telewizor

    Telewizory OLED 4K HDR Sony BRAVIA A1 mają bardzo dobrą jakość obrazu i całkowitą czerń matrycy OLED, której możliwości rozszerza układ Sony 4K HDR Processor X1 Extreme, wytwarzający obraz 4K HDR. Aby umożliwić oglądanie coraz popularniejszych materiałów HDR, telewizor obsługuje standardy HDR10, HLG oraz Dolby Vision (zgodność z tym ostatnim zapewni aktualizacja wewnętrznego oprogramowania, która pojawi się pod koniec roku). Technologia Acoustic Surface, wykorzystana po raz pierwszy w modelach BRAVIA OLED A1 55″ i 65″, zmienia ekran nowego, 77-calowego telewizora w ogromny głośnik i nadaje mu oryginalny wygląd — bez żadnej podstawy. Ekran telewizora składa się z ponad 8 milionów samorzutnie świecących pikseli.

    sony ifa telewizor

    Telewizory OLED 4K HDR BRAVIA A1 wykorzystują platformę Android TV™, będącą przepustką do filmów, programów telewizyjnych i tysięcy aplikacji. Dzięki niej można z łatwością oglądać tradycyjną telewizję i programy z oferty operatorów kablowych, pobierać materiały rozrywkowe i używać telewizora do gier. Miłośnicy telewizji mają dostęp do najnowszych hitów oraz filmów z repertuaru serwisów Google Play, Netflix, Amazon Video, YouTube i innych.

    sony ifa telewizor

    Nabywcy nowych, 77-calowych telewizorów OLED BRAVIA A1 i innych modeli BRAVIA z platformą Android z oferty na rok 2017 otrzymają ponadto pakiet Google Play (pakiet Google Play jest dostępny w Wielkiej Brytanii, Francji, Niemczech i Włoszech; daty dostępności mogą zależeć od kraju). Od jesieni uzyskają oni bezpłatnie 3-miesięczny dostęp do zasobów muzycznych serwisu Google Play, specjalny booster pack do gry Real Racing 3 firmy EA, a do tego możliwość wybrania jednego filmu 4K UHD z proponowanych przez Google Play przebojów.

    sony ifa telewizor

    Więcej informacji o 77-calowym telewizorze A1 i pakiecie Google Play zawiera blog Sony na targach IFA.

  • Licencja czy abonament? E-biznes okiem resellera

    Licencja czy abonament? E-biznes okiem resellera

    Wybór dotyczący oprogramowania dla sklepu internetowego, czy w formie licencji, czy w modelu SaaS, to dylemat nie tylko właścicieli e-sklepów, ale również osób stawiających witryny. Który model daje resellerom więcej możliwości? Który wymaga więcej pracy? Na którym bardziej skorzystają?

    Model SaaS-owy jest świetnym rozwiązaniem dla naszych klientów, którzy dopiero zaczynają przygodę z e-commerce. Dostają cały pakiet usług, w tym hosting, który bywa problematyczny, szczególnie jeśli źle się wybierze serwer. A cały sklep potrafimy postawić kilkoma kliknięciami – powiedział Mirosław Smużniak, właściciel agencji interaktywnej Getecom.pl

     Licencja czy abonament – oto jest pytanie. Wybór oprogramowania i modelu jego udostępniania powinien być dopasowany do specyfiki sklepu i potrzeb jego klientów. Każda forma ma swoje plusy i minusy. Z punktu widzenia sprzedawcy SaaS (ang. Software as a Service) jest rozwiązaniem szybszym i wygodniejszym. Płacąc abonament, dostaje on niemal od ręki gotowy sklep, który musi tylko dopasować do swojego asortymentu. Kwestie techniczne, utrzymanie infrastruktury czy aktualizacje leżą po stronie dostawcy usługi, dzięki czemu właściciel e-sklepu ma więcej czasu na obsługę zamówień, zwiększanie sprzedaży czy budowanie relacjami z klientami.

    Na zakup licencji samodzielnej pozwolić może sobie osoba lub firma dysponująca zasobami (czasem, ludźmi czy budżetem) niezbędnymi do tego, by adaptować kod do indywidualnych potrzeb sklepu. Przyjęło się, że w takich wypadkach częściej mogą się popisać zdolnościami agencje tworzące e-sklepy. Mogą ingerować w kod, budować od podstaw, oferować dedykowane rozwiązania. Mają więcej pracy, ale mogą więcej zarobić.

    Agencje stawiają na SaaS

    Tymczasem wśród resellerów współpracujących z platformą Shoper coraz silniejszy staje się trend proponowania klientom rozwiązania dla sklepu w modelu SaaS. Niektóre agencje oferują jedynie takie rozwiązanie. Głównym argumentem dla twórców witryn jest bardziej przewidywalny i opłacalny model biznesowy – długofalowe opłaty abonamentowe dają agencji stabilizację finansową.

    Biznesowo sprzedawanie modelu abonamentowego nie jest mniej korzystne niż licencji samodzielnej. Jeśli sklep chce się rozwijać, zawsze jest przy nim co robić. Klienci ciągle chcą zmian, aktualizacji, nowych funkcji – te prace stanowią główną część zamówień składanych u wykonawcy. Tym bardziej, że na SaaSie pojawia się coraz więcej możliwości. Dzięki udostępnieniu przez platformę Shoper front api praktycznie można uzyskać większość funkcjonalności. Zaciera się tu już różnica między abonamentem z licencją samodzielną, która kiedyś jako jedyna gwarantowała dostęp do kodu i dostosowanie sklepu do potrzeb sprzedawcy – Mirosław Smużniak, właściciel agencji interaktywnej Getecom.pl

    Korzyść z modelu abonamentowego czerpie również klient – ma niższą barierę wejścia na start, bo uruchomienie sklepu kosztuje go mniej. Nie zostaje też pozostawiony sam ze sklepem, ale może liczyć na wsparcie techniczne i wprowadzanie niezbędnych zmian na bieżąco w kolejnych miesiącach po uruchomieniu.

    Wsparcie dla agencji

    Przy rozwiązaniu SaaSowym wsparcie techniczne otrzymuje zresztą sam reseller. Nie musi on zajmować się serwerem i planem hostingowym czy aktualizacjami. Te zadania spoczywają na dostawcy systemu, który gwarantuje aktualność i bezpieczeństwo oprogramowania. Ewentualne usterki w obrębie platformy usuwane są błyskawicznie. A agencja może skupić się na opracowaniu dodatkowych usług dla klienta. Na start resellerzy proponują klientom prace graficzne, a w modelu abonamentowym wsparcie sprzedaży, np. prowadzenie kampanii w Google Shopping czy na Facebooku, wdrażanie w sklepie programu lojalnościowego i kodów rabatowych, indywidualnego opiekuna i doradztwo biznesowe.

    SaaS jest przy tym również bezpieczny dla nas, jako wykonawców. Dostęp do wszystkich plików sklepu bywa pokusą dla osób, które mogą dokonać zmian w kodzie. Robiąc to nieumiejętnie powodują problemy z integralnością programu. Dzięki licencji SaaS nie ma więc sytuacji, gdy klient namiesza coś w systemie i my musimy to potem naprawiać. W sytuacjach awaryjnych ktoś z platformy ma wgląd do sklepu, mówi, gdzie jest problem i jak go naprawić. Przy licencji samodzielnej wykonawca musi sobie radzić sam – Mirosław Smużniak, właściciel agencji interaktywnej Getecom.pl

    Agencje współpracujące z dostawcami oprogramowania korzystają również z możliwości promowania własnych produktów. Tworzą aplikacje gotowe do integracji ze sklepami na danej platformie, które są później dostępne dla wszystkich korzystających z niej sprzedawców. Przykładem może być aplikacja do fakturowania favato, stworzona przez agencję Intertele, którą zainstalowało ponad 700 sklepów korzystających z platformy Shoper. Pole do popisu dla programistów jest ogromne – sklepy potrzebują nowych rozwiązań z obszaru marketingu, obsługi klienta, kanałów sprzedaży, księgowości, magazynowania i logistyki, raportowania i analiz czy social media. W tym przypadku zarabiają na prowizji ze sprzedaży. A ta, dla twórcy aplikacji, wynosi 70 proc.

    Model współpracy między resellerem a dostawcą

    Wykonawca sklepu może się rozliczać z dostawcą oprogramowania na dwa sposoby. Domyślny model to taki, w którym reseller sam kupuje licencję w niższej cenie i potem rozlicza się z klientem, który płaci mu cenę detaliczną. Drugą możliwością jest założenie przez resellera sklepu w imieniu klienta z fakturą wystawianą na klienta w cenie detalicznej. Po opłaceniu faktury, reseller otrzymuje prowizję od dostawcy oprogramowania. Późniejsze operacje również są wykonywane przez klientów, dzięki czemu agencja nie musi ich nadzorować.

    Gdy liczy się cena

    Możemy wymieniać dużo argumentów za jednym i drugim rozwiązaniem, ale ostatecznie i tak liczy się… cena. Zarówno dla klienta, jak i agencji. Z danych platformy Shoper, która oferuje resellerom oba rodzaje licencji, wynika, że trzyletnie utrzymanie sklepu w abonamencie okazuje się tańsze niż korzystanie z licencji samodzielnej. Warto zauważyć, że sama prowizja, stanowi tylko dodatek do dochodu z prac, które wykonawca przygotowuje dla klienta w ramach uruchomienia i obsługi sklepu internetowego. W przypadku abonamentu na platformie Shoper, resellerzy zarabiają również na wdrożeniu w sklepie Płatności Shoper, czyli własnego systemu płatności internetowych. Otrzymują oni automatycznie prowizję za każdą transakcję dokonaną z jego wykorzystaniem w sklepie klienta.  

    Rok: Platforma SaaS Licencja samodzielna
    1 350 zł netto* 1449 zł netto + koszt hostingu (~250 zł netto)
    2 1299 zł netto Asysta: 999 zł netto + koszt hostingu (~250 zł netto)
    3 1299 zł netto Asysta: 999 zł netto + koszt hostingu (~250 zł netto)
    Razem: 2948 zł netto 3447 zł netto + koszty hostingu (~ 750 zł netto)

    *średnia cena abonamentu

  • Przyspiesz swoje przed nowym rokiem szkolnym!

    Przyspiesz swoje przed nowym rokiem szkolnym!

    Przed Twoim komputerem czas intensywnej pracy. Tworzenie dokumentów, grafik, projektów, praca w specjalistycznym oprogramowaniu to tylko niektóre zadania, z którymi Twój sprzęt będzie musiał zmagać się przez najbliższe 10 miesięcy. Zadbaj o to, aby był w dobrej formie, co przyczyni się do lepszej efektywności i wyników Twoich zadań.

    plextor

     

    System operacyjny tak jak Twoja głowa – przed rozpoczęciem nowego roku szkolnego powinien nie zawierać zbędnych elementów, które tylko spowalniają jego działanie. A takich jest niestety bardzo dużo. Przez tygodnie, miesiące, a może nawet lata, komputer bez naszej wiedzy pobiera tysiące plików tymczasowych. Gdy są już niepotrzebne, niektóre usuwają się automatycznie a inne – gromadzą się w systemie zabierając miejsce na dysku twardym i spowalniając działanie systemu.

    CCleaner

    Co robić? Skorzystaj z systemowego narzędzia Oczyszczanie Dysku (wpisz w wyszukiwarkę w Menu Start) lub pobierz darmowy program CCleaner.

    Menedżer Zadań

    Jeśli Twój komputer uruchamia się długo, koniecznie sprawdź listę programów startujących razem z systemem i pracujących w tle. Często znajdziesz tam oprogramowanie, z którego nie korzystasz a może nawet nie masz pojęcia o tym, że jest zainstalowane. Dzieje się tak dlatego, że niektóre programy automatycznie przy instalacji “pozwalają sobie” dopisać się do takiej listy. Często nieuważnie przechodząc przez kroki instalatora oprogramowania, zgadzamy się na zainstalowanie dodatkowego oprogramowania, które nie jest nam potrzebne. Wszystko to wpływa na długi czas uruchamiania oraz wyraźne spowolnienie pracy systemu operacyjnego.

    Co robić? Uruchom Menedżer Zadań kombinacją klawiszy CTRL+SHIFT+ESC, a następnie przejdź do zakładki “Uruchamianie”. Wybierz niepotrzebny program i kliknij “Wyłącz”.

    Malwarebytes

    Możliwe, że spotkałeś się z sytuacją kiedy na pulpicie wyświetlają się dziwne reklamy, a po uruchomieniu przeglądarki internetowej widzisz wyszukiwarkę do złudzenia przypominająca Google? Jest to oprogramowanie typu PUPA (Potentially Unwanted Program), które do komputerów dostaje się na własne życzenie użytkownika! Tak, dokładnie taką samą drogą jak wyżej omówiony przykład programów działających w tle – poprzez nieuważne przechodzenie kolejnych kroków w instalatorze lub przez klikanie w podejrzane reklamy w przeglądarce. Niestety, tego typu oprogramowania najczęściej nie usuniesz tradycyjnymi metodami.

    Co robić? Skorzystaj z oprogramowania usuwającego zagrożenia typu malware, np. Malwarebytes. W przyszłości pobieraj programy wyłącznie z oficjalnych witryn producenta, a instalując oprogramowanie wybieraj opcje “instalacja użytkownika” lub “instalacja zaawansowana” zamiast domyślnie zaznaczonej opcji “szybka” – będziesz wtedy mógł wybrać tylko to oprogramowanie, które faktycznie chcesz zainstalować.

    sformatuj partycje

    Pamiętaj, że na partycji, na której zainstalowany jest system operacyjny, wolne miejsce powinno stanowić około 10% jej całkowitej pojemności. Przykładowo: posiadając partycję o pojemności 128 GB, około 12,8 GB przestrzeni powinno pozostać wolne. Pamiętaj też, że dysk powinien zostać podzielony na minimum dwie partycje – jedna zarezerwowana dla systemu operacyjnego, a druga – na Twoje własne dokumenty, zdjęcia, muzykę, gry i filmy.

    Co robić? Jeśli Twój dysk nie jest podzielony na partycje, zrób to za pomocą systemowego narzędzia “Utwórz i sformatuj partycje dysku twardego”. Następnie zadbaj o 10% wolnej przestrzeni na partycji systemowej. Jeśli jest to dla Ciebie nieosiągalne, skorzystaj z darmowych usług przechowywania plików w chmurze lub zainwestuj w dodatkowy przenośny nośnik danych (np. przenośny dysk SSD Plextor EX1).

    SSD Plextor EX1

    SSD Plextor EX1

    Jeśli wszystkie powyższe metody zawiodą, jedynym skutecznym rozwiązaniem okaże się aktualizacja podzespołów. Najpopularniejszym i najskuteczniejszym rozwiązaniem jest zakup dysku SSD i pamięci RAM.

    Jeśli pojemność Twojego dysku twardego jest wystarczająca, to prawdopodobnie nie myślałeś o tym, żeby go wymieniać. Jak się okazuje, winna okazuje się ich konstrukcja. Przez wiele lat w komputerach montowano talerzowe dyski HDD, które zbudowane są z wirującego talerza i głowicy, która odczytuje i zapisuje dane. Każda operacja wymaga jej poruszenia, odnalezienia na talerzu konkretnej ścieżki, odczytania jej, przetworzenia i zwrócenia użytkownikowi odpowiedzi. Taki proces nazywamy czasem dostępu do plików.

    Z czasem, gdy plików na dysku przybywa operacje stają się coraz wolniejsze. Dodatkowo, talerzowe dyski twarde są głośne i bardzo wrażliwe na upadki i wstrząsy.

    Alternatywą są dyski SSD. Jeszcze kilka lat temu była to technologia zarezerwowana dla komputerów z najwyższych półek cenowych, ale obecnie na rynku można znaleźć propozycje dostępne dla każdego (przykładowo dysk SSD Plextor S3C można kupić już za 230 zł.). Takie nośniki zbudowane zostały z pamięci półprzewodnikowej, podobnie jak karty pamięci i pendrive’y. Nie ma tu mechanicznych elementów, dlatego czas dostępu do plików jest błyskawiczny. Jest to zauważalne zarówno przy starcie systemu operacyjnego, uruchamianiu programów jak i przy przenoszeniu i kopiowaniu plików. Co więcej, dyski SSD są bezgłośne i odporne na upadki i wstrząsy. Dobrym rozwiązaniem jest wykorzystanie dysku SSD i HDD jednocześnie. Na nośniku SSD powinien znaleźć się system operacyjny, programy i najczęściej używane pliki, natomiast na dysku HDD multimedia, z których korzystamy sporadycznie.

    Kolejnym czynnikiem, który może wpłynąć na wydajność pracy komputera jest RAM. To rodzaj pamięci, w której przechowywane są aktualnie wykonywane programy i dane dla tych programów oraz wyniki ich pracy. Obecnie jej wartość dla komputera, który pozwala na komfortową pracę wynosi minimum 4 GB.

    Co robić? Najlepsze efekty zagwarantuje jednoczesny zakup pamięci RAM i dysku SSD. Koszt zakupu 4 GB pamięci RAM to około 130 zł. Dysk SSD kupisz już za 230 zł. Za mniej niż 400 zł zapewnisz swojemu komputerowi drugą młodość.

    Chcąc korzystać z szybkiego komputera, wcale nie musisz wydawać ogromnych sum na zakup nowego sprzętu. W wielu przypadkach wystarczy jedynie odpowiednio skonfigurować i oczyścić system operacyjny ze zbędnych plików. Nie bez znaczenia jest też sposób, w jaki pracujemy. Warto poświęcić kilka sekund więcej segregując zapisywane pliki w folderach zamiast zapisywać je na pulpicie aż do momentu, w którym zabraknie na nim miejsca. Jeśli mimo to komputer nie przyspieszy, to konieczna będzie aktualizacja podzespołów, która nie okaże się jednak kosztowna. Najlepszym sposobem na uniknięcie zakupu nowej maszyny będzie dokupienie pamięci RAM i inwestycja w szybki dysk SSD.

  • Jak dobrać certyfikat SSL do strony internetowej?

    Jak dobrać certyfikat SSL do strony internetowej?

    Certyfikat SSL powinna mieć każda strona www, na której dokonuje się płatności lub która obliguje do pozostawienia danych osobowych. Ponieważ istnieją certyfikaty o różnej walidacji, dziś podpowiadamy, który wybrać – DV, OV czy EV, aby zagwarantować witrynie odpowiedni poziom ochrony.

    Dzięki HTTPS, czyli szyfrowanej wersji protokołu HTTP, chroni się dane internauty przed przechwyceniem, zapobiega ryzyku ich zmienienia oraz zapewnia autentyczność dla źródła pochodzenia strony www. Dlatego posiadanie certyfikatu SSL powinno być standardem, szczególnie że żyjemy w czasach, w których zakupy w internecie są normą, a wiele stron daje możliwość pozostawienia swoich danych, takich jak: imię i nazwisko, adres czy numer karty kredytowej.

    [miptheme_quote author=”dr inż. Artur Pajkert, ekspert z firmy hostingowej Hekko.pl” style=”text-center”]Nie da się ukryć braku certyfikatu SSL. Wystarczy, że internauta sprawdzi adres strony www czy sklepu internetowego. Jeżeli nie zaczyna się od „HTTPS”, a z boku paska adresowego nie pojawia się zielona kłódka, oznacza to, że witryna nie korzysta z bezpiecznego połączenia. Ostrzega też przeglądarka Google Chrome, która oznacza takie strony jako „niebezpieczne”.[/miptheme_quote]

    Jak certyfikat SSL wpływa na konwersję?

    Trzeba pamiętać, że witryna wyposażona w protokół HTTPS daje internaucie pewność, że jego dane są bezpieczne – i to zarówno podczas procesu rejestracji, logowania na konto, składania zamówienia i podawania danych osobowych, jak i w momencie wybierania płatności online, dokonywania przelewu czy płatności kartą kredytową.

    Nic dziwnego, że dziś mało który klient odważy się kupować w e-sklepie czy pozostawić swoje dane osobowe na stronie www, która nie jest odpowiednio chroniona. Witryny bez certyfikacji tracą na wiarygodności, a ich potencjalni odbiorcy rezygnują z konwersji na rzecz stron z działającym certyfikatem. Warto też dodać, że SSL dobrze wpływa na pozycję strony w wyszukiwarce Google, która chętniej winduje witryny z certyfikatem niż te, które go nie posiadają.

    Poziom walidacji SSL, czyli czym różnią się certyfikaty DV/OV/EV?

    Trzeba pamiętać, że istnieją certyfikaty SSL o różnej walidacji, czyli poziomie zagłębienia weryfikacji danej strony, np. sklepu internetowego, przez centrum certyfikujące. Ogólnie można wyróżnić trzy: DV, OV oraz EV. Co dają i czym się od siebie różnią?

    [miptheme_quote author=”dr inż. Artur Pajkert z firmy hostingowej Hekko.pl” style=”text-center”]Główne różnice występują w obrębie poziomu wiarygodności, opinii na temat wydawcy, ilości informacji zawartych w certyfikacie, okresu ważności, oznaczenia w przeglądarce, liczby domen objętych certyfikatem oraz wysokości kwoty ubezpieczenia, która może wynieść nawet 1,5 mld dolarów.[/miptheme_quote]

    DV, czyli „Domain Validation”, to certyfikat, w którym dochodzi do weryfikacji jedynie domeny. Nie zawiera informacji o stronie www, a walidacja następuje automatycznie. Innymi słowy, DV potwierdza bezpieczeństwo witryny, ale nie daje użytkownikowi wglądu do wiedzy na temat jej wydawcy. Z tego powodu Domain Validation należy do najtańszych certyfikatów, a jego uzyskanie trwa najkrócej, bo zaledwie kilka minut. Można go polecić kiedy budżet jest ograniczony, szczególnie właścicielom prostych, wizerunkowych stron www, mających służyć jako wizytówka firmy.

    OV, czyli „Full Organization Validation”, to certyfikat, w którym internauta znajdzie nazwę i dane firmy, a także potwierdzenie, że dany podmiot jest właścicielem odwiedzanej strony www. Walidacja jest więc zdecydowanie bardziej dogłębna, przez co sam certyfikat jest droższy, a jego uzyskanie wymaga zapewnienia pełnej zgodności danych podmiotu wnioskującego z danymi w urzędowych rejestrach (CEIDG, KRS). Czasem pojawia się też element walidacji telefonicznej. Ten certyfikat poleca się stronom www, które zbierają dane o użytkownikach, np. wymagają wypełniania ankiet czy umożliwiają zapis na newsletter.

    EV, czyli Extended Validation, to najbardziej szczegółowy rodzaj walidacji, podczas której centrum weryfikacyjne sprawdza dane rejestrowe firmy, umowy spółki oraz prawo do posługiwania się daną domową. Ten certyfikat wybierają przede wszystkim sklepy internetowe, banki oraz duże firmy. Jego przyznanie trwa najdłużej (bywa, że do 10 dni) i jest najdroższą opcją.

    [miptheme_quote author=”Jakub Dwernicki, prezes Hekko.pl” style=”text-center”]Im wyższa walidacja, zatem i weryfikacja tożsamości właściciela strony www, tym wyższy poziom zaufania ze strony internatów. – Między innymi z tego powodu certyfikat SSL należy postrzegać nie w kategorii zbędnego wydatku, ale inwestycji, która z pewnością zwróci się, owocując większą liczbą konwersji i przyrostem lojalnych, kupujących klientów.[/miptheme_quote]

  • Cyfrowa transformacja stawia na relacje międzyludzkie

    Cyfrowa transformacja w Polsce wchodzi w fazę dojrzałości. W rozwoju systemów klasy BPM liderzy digitalizacji stawiają na budowanie relacji z klientami oraz własnymi pracownikami, podczas gdy promowana dotychczas doskonałość operacyjna schodzi na dalszy plan.

    Cyfrowa transformacja ma w Polsce zróżnicowane oblicze. Wśród polskich firm są zarówno podmioty, które dopiero stawiają pierwsze kroki w digitalizacji, wdrażając np. systemy ERP, jak i takie, które już od kilku lat swobodnie korzystają z rozwiązań służących do automatyzacji procesów biznesowych i ich bieżącej adaptacji, zgodnie z rytmem zmian zachodzących zarówno wewnątrz organizacji, jak i w jej otoczeniu.

    Digitalizacja to nie sztuka dla sztuki

    Przejście z rozwiązań analogowych na cyfrowe i kreatywne korzystanie z nich do budowania przewagi biznesowej przestało być wyłącznie domeną rynkowych innowatorów, a stało się powszechnie przyjętym elementem nowoczesnej strategii biznesowej.

    Jak wynika z obserwacji firmy Forrester, jednej z czołowych firm badawczych, zajmujących się śledzeniem trendów w IT i biznesie, redukcja kosztów coraz częściej przestaje być głównym motorem zarządzania procesami biznesowymi. Zaczyna ją zastępować bardziej strategiczne dążenie do digitalizacji procesów (Business Process Management Playbook, Forrester, 2016). Jednak eksperci wskazują, że doskonałość operacyjna nie powinna być celem samym w sobie. Dopiero optymalizacja skoncentrowana na wsparciu cyfrowych punktów styku z klientem będzie oznaczać skuteczną digitalizację.

    Tego rodzaju podejście można zaobserwować wśród coraz większej grupy działających w Polsce firm, które należą do swego rodzaju cyfrowej awangardy na tle rodzimego biznesu. Organizacje te korzystają już z rozwiązań klasy BPM/RAD (Business Process Management / Rapid Application Development) i opracowują własne cyfrowe rozwiązania tak, aby dostosować je do potrzeb biznesowych, skoncentrowanych wokół cyfrowych oczekiwań klientów.

    Fakt ten potwierdzają wyniki ankiety przeprowadzonej w maju 2017 r. przez firmę WEBCON na próbie 126 klientów. Jako najważniejsze obszary wdrożenia BPM w przyszłym roku firmy wskazują właśnie sprzedaż i relacje z klientami (40 proc.).

    Co ciekawe, równie ważna dla ankietowanych firm jest digitalizacja obszaru kadr i HR (39 proc.), co wskazuje, że w dobie stopniowej cyfryzacji dotykającej właściwie każdej z branż, organizacje dostrzegają konieczność dbania o swój najważniejszy kapitał, czyli pracowników. Natychmiastową korzyścią dla obu stron jest oczywiście zautomatyzowanie prostych, powtarzalnych czynności, a przez to uwolnienie czasu i kompetencji pracowników do wykonywania zadań bardziej kreatywnych. Jednak dostarczenie pracownikom nowoczesnych systemów to nie wszystko. Nie bez znaczenia jest też równy i łatwy dostęp do informacji, sprawiedliwy i uporządkowany udział w procesach decyzyjnych, czy sprawna i szybka obsługa ze strony działu HR. Klasycznie rozumiana optymalizacja procesów, czyli dążenie do doskonałości operacyjnej schodzi powoli na dalszy plan, choć oczywiście nadal pozostaje w kręgu zainteresowania, w szczególności kadry zarządzającej.

    Wśród wskazanych przez użytkowników obszarów do cyfrowego zagospodarowania znalazły się również finanse (33 proc.), zarządzanie inwestycjami i projektami (29 proc.) oraz zarządzanie jakością (28 proc.). 23 proc. wskazało takie kierunki dalszego rozwoju narzędzi BPM jak: integracja z systemami zewnętrznymi (np. SAP), wsparcie IT i obsługa zgłoszeń, rozwój i planowanie produkcji, zamówienia, zakupy, procesy operacyjne, logistyka/spedycja, reklamacje oraz prowadzenie projektów. Należy podkreślić, że wielu respondentów planuje tworzyć procesy dedykowane, zgodnie ze ścisłymi wytycznymi klienta wewnętrznego.

    To pokazuje, że wiodące firmy wyszły już z pierwszej fazy cyfrowej transformacji, czyli tworzenia procesów klasycznych, sprawdzonych, takich jak obiegi faktur i urlopów, a zaczęły w pełni doceniać i wykorzystywać potencjał posiadanych narzędzi BPM, można rzec: poczuły apetyt na więcej – Radosław Putek, prezes firmy WEBCON

    Nie tylko budżet spowalnia

    Raporty w skali globu wskazują, że choć popularność cyfrowej transformacji wzrosła w roku 2015 o połowę w stosunku do roku 2014 (Google Trends, 2016), 47 proc. firm jeszcze nie rozpoczęło u siebie tego procesu (Progress, 2016), choć 55 proc. z nich ma zamiar wystartować ze zmianą właśnie w roku 2017 (Progress, 2016).

    Co powstrzymuje polskie firmy przed śmielszym rozwojem cyfryzacji? Ankietowane firmy wskazały cztery kluczowe przeszkody we wdrażaniu platformy BPM w organizacji, za główną podając brak zasobów ludzkich (49 proc.), a następnie opór przed zmianą (42 proc.). Co ciekawe, brak przekonania decydentów okazał się tak samo ważnym hamulcem do wdrażania automatyzacji procesów biznesowych, jak brak budżetu (37 proc.).

    Na dalszych miejscach badani klienci wymienili trudności w wykazaniu ROI (18 proc.), obawa przed długim czasem wdrożenia (15 proc.) oraz inne powody (w sumie 5 proc. ankietowanych), takie jak chociażby duża liczba innych projektów.

    Odpowiednie narzędzie to efektywniejszy rozwój

    Cyfrowa transformacja rozprzestrzenia się z procesów wertykalnych na horyzontalne, przenikając poszczególne działy i funkcje oraz sięgając na zewnątrz organizacji, co Gartner nazywa tworzeniem cyfrowego ekosystemu. Wymaga on bardziej kreatywnego niż tradycyjne zarządzania procesami biznesowymi, co umożliwiają tylko odpowiednie narzędzia, na tyle zwinne, by nadążyć za zmieniającym się jak w kalejdoskopie otoczeniem biznesowym.

    Z badań firmy Gartner wynika, że mniej innowacyjne rozwiązania BPM (które np. nie zapewniają skutecznego zarządzania zmianą) uniemożliwią 80 proc. firm osiągnięcie pożądanych celów ich strategii cyfrowej w roku 2017. Zdaniem ekspertów Gartnera, tylko 40 proc. zadań w firmie można uznać za rutynowe, dające się obsłużyć za pomocą tradycyjnych systemów BPM. 60 proc. charakteryzuje się pewnym stopniem niepewności i nie da się ich przewidzieć ani modelować z wyprzedzeniem. Gartner podkreśla, że w roku 2017 aż 70 proc. skutecznych modeli biznesowych będzie się opierać na realizacji procesów niestabilnych, zmieniających się wraz z potrzebami klienta.

    W przypadku procesów wymagających ciągłej adaptacji zarówno do wymagań zewnętrznych, rynkowych, jak i wewnętrznych, wypływających z potrzeb pracowników, narzędziami, które sprawdzą się na dłuższą metę, są rozwiązania klasy Rapid Application Development (RAD). Umożliwiają one nie tylko zwinne tworzenie aplikacji biznesowych, ale przede wszystkim prostą i szybką ich modyfikację, nawet przez osoby nie będące programistami. To właśnie szybka reakcja firmy na pewne sytuacje i zjawiska, a nawet wyprzedzenie ich, może zapewnić firmie pozycję lidera na rynku – Radosław Putek, prezes firmy WEBCON

  • Polskie organy ścigania wnoszą do Google o udostępnienie danych

    Polskie organy ścigania wnoszą do Google o udostępnienie danych

    Z Raportu Przejrzystości Google wynika, że Polskie organy ścigania w okresie od lipca do grudnia 2016 roku wystosowały 499 wniosków o udostępnienie informacji dotyczących 834 kont prowadzonych na Google lub YouTube.

    Spośród 499 wniosków, jakie Google otrzymało z Polski w drugiej połowie 2016 roku, tylko 24 nie były wnioskami instytucji państwowej. 475 wniosków (dotyczących 791 kont) było wystosowanych przez instytucje państwowe i dotyczyły ujawnienia informacji użytkownika (np. nakazy sądowe). Google może udostępnić polskim organom m.in. informacje użyte do utworzenia konta (imię i nazwisko, powiązane adresy e-mail) oraz adresy IP, z których logował się użytkownik. Jeśli zaś chodzi i większy zakres uprawnień to posiadają go amerykańskie służby – im Google udostępnia też m.in. treści wiadomości użytkowników.

    Wniesiono o pilne ujawnienie danych (np. w celu uratowania lub zapobiegnięcia poważnym obrażeniom ciała) 24 razy (43 konta), trzy razy (cztery konta) wniesiono o odłożenie kopii danych na czas podjęcia środków prawnych wymaganych do ujawnienia tych danych (wnioski o zachowanie).

    Średnia dla ujawnianych przez Google danych wynosi 33 proc. wniosków. Dla pilnych wniosków to 63 proc., w przypadku wniosków standardowych pozytywnie odpowiedziano na 32 proc., a wnioski o zachowanie zostały w całości odrzucone.
    W pierwszej połowie 2016 roku było 497 wniosków, a Google udostępniło dane w 34 proc. przypadków. To znacznie mniej, niż wynosi średnia dla wniosków z całego świata – 60 proc.

  • Jakich chmur nie boi się branża turystyczna?

    Jakich chmur nie boi się branża turystyczna?

    O zaletach korzystania z chmury przekonuje się coraz większa ilość przedsiębiorców. Postęp w tym zakresie rozlewa się na różne branże, poprawiając wydajność pracy. O zaletach stosowania chmury w branży turystycznej wypowiada się ekspert – Marcin Zmaczyński, dyrektor regionalny Aruba Cloud w Europie Środkowo-Wschodniej.

    Pochmurne niebo, deszczowe i chłodne tygodnie mogą popsuć letni wypoczynek urlopowiczów a także negatywnie wpłynąć na obroty firm z branży turystycznej. Jest jednak taki rodzaj chmury, który w świecie gospodarki cyfrowej przyczynia się do szybkiego rozwoju sektora usług turystycznych a podróżnikom ułatwia dotarcie do wybranych destynacji. Chodzi o chmurę obliczeniową, która zmienia sposób, w jaki firmy prowadzą biznes. Doniosłość modelu cloud podkreślają analitycy Gartnera. Według nich do 2020 roku niewykorzystywanie chmury będzie w przedsiębiorstwach zjawiskiem tak rzadkim, jak obecnie brak dostępu do Internetu. Co zatem sprawia, że usługi chmurowe szybko zyskują popularność wśród touroperatorów i podróżnych?

    Branża turystyczna coraz ważniejszą gałęzią polskiej gospodarki

    Wraz ze wzrostem stopy życiowej obywateli rośnie ich zapotrzebowanie na usługi turystyczne. Według danych Ministerstwa Sportu i Turystyki w 2016 roku gospodarka turystyczna stanowiła już 6 proc. PKB, zaś łączne wydatki w tym sektorze wyniosły 25,3 mld euro. Polacy coraz częściej wyjeżdżają za granicę a spośród tych wyjazdów 58 proc. ma na celu zwiedzanie i wypoczynek. Polska staje się także coraz częstszym celem podróży dla turystów z Europy i świata. W minionym roku nasz kraj odwiedziło blisko 17,5 mln turystów, z których każdy podczas swojego pobytu wydał przeciętnie blisko 460 dolarów.

    Popularność usług w modelu cloud rośnie także w sektorach związanych z podróżowaniem

    Jak wskazuje Gartner jednym z głównych trendów w gospodarce światowej jest dziś Cloud Shift, czyli coraz silniejszy nacisk na wykorzystanie chmury obliczeniowej. Nie inaczej jest wśród touroperatorów, hotelarzy i przewoźników, którzy coraz śmielej wykorzystują możliwości oferowane przez model SaaS (oprogramowanie jako usługa), a także IaaS, czyli infrastrukturę IT ulokowaną w chmurze. Przykładowo linie lotnicze, które w ostatnich latach notorycznie borykały się z nieplanowanymi przestojami, wynikającymi z przestarzałego zaplecza IT, obecnie stawiają na jego modernizację z wykorzystaniem cloud computingu.

    O wzroście zainteresowania usługowym IT decyduje m.in. to, że dostawca może zaoferować klientowi zarówno serwery w chmurze, hosting, jak też aplikacje, czy dodatkowe narzędzia, np. do backupu, awaryjnego odzyskiwania danych, monitoringu lub zwalczania cyberzagrożeń. Niemniej ważne jest to, że firmy z branży turystycznej potrzebują rozwiązań dostępnych online bez względu na lokalizację. Serwery i oprogramowanie w chmurze idealnie wpisują się w te potrzeby. Co więcej, w przypadku outsourcingu usług IT, przedsiębiorca w ogóle nie musi martwić się o inwestycje we własną infrastrukturę. Może on powierzyć dużą część odpowiedzialności za obszar IT zaufanemu usługodawcy, który wydatnie odciąża firmę, pozwalając jej skupić się na rozwijaniu działalności.

    Sezonowość wyzwaniem dla organizatorów ruchu turystycznego

    Specyfika sektora turystycznego sprawia, że jego przedstawiciele największe obroty notują w letnim sezonie urlopowym. Według danych Eurostatu szczyt sezonu w Polsce przypada na sierpień, w którym obywatele wybierają się w podróż 4,2 razy częściej niż w listopadzie, miesiącu najmniejszego popytu na wycieczki. Oprócz szczytu w sierpniu i lipcu, także czerwiec i grudzień charakteryzują się zwiększoną aktywnością turystów. Sezonowość popytu ma w tej branży wiele wymiarów i powoduje szereg wyzwań. Jednym z rzadziej wspominanych jest zwiększone obciążenie infrastruktury informatycznej. Wzmożony ruch na stronie popularnego biura podróży stanowi wyzwanie nie tylko dla pracującego w nim personelu, ale także dla infrastruktury IT, na której zainstalowana jest witryna i aplikacje sprzedażowe. Niewydolne IT może spowodować, że strona, aplikacja webowa lub mobilna (jak wyszukiwarka hoteli, połączeń czy ofert last minute) zacznie się zawieszać lub zupełnie przestanie działać. Dla współczesnego internauty taki przestój jest nie do zaakceptowania. Jakiekolwiek trudności w korzystaniu z witryny lub aplikacji danego touroperatora sprawiają, że szybko sięga on po alternatywne rozwiązanie konkurencyjnej firmy.

    Chmura a problem zwiększonego obciążenia systemów IT w szczycie sezonu

    Wzmożony ruch w letnim sezonie urlopowym na stronie dostawcy usług turystycznych, oraz wyraźnie mniejszy w innych okresach roku, powodują, że firma powinna posiadać odpowiednio dopasowane do tej specyfiki zasoby IT. Optymalnym sposobem poradzenia sobie z sezonowością popytu jest wykorzystanie chmury obliczeniowej. Zaletą takiego rozwiązania, jak np. wirtualny serwer prywatny w modelu cloud, jest elastyczność i skalowalność, co oznacza zdolność do zwiększania oferowanych zasobów IT wraz ze zmieniającymi się potrzebami firmy. Touroperator – spodziewając się, że w danym okresie jego stronę będzie chciało odwiedzić wielokrotnie więcej użytkowników niż zazwyczaj – może błyskawicznie, bezpośrednio z panelu użytkownika, zamówić dodatkowe zasoby. Pozwolą mu one bezproblemowo obsłużyć spiętrzony ruch, nawet jeśli wyjątkowo atrakcyjne oferty last minute przyciągną zaskakująco dużą liczbę urlopowiczów. Warto wspomnieć, że w przypadku usługowego IT firma płaci tylko za realnie wykorzystane zasoby, co jest niewątpliwym atutem tego rozwiązania.

    Nie tylko biznes. Turyści także korzystają z zalet rozwiązań chmurowych

    Cloud computing przenika dziś coraz więcej usług internetowych i wiele z nich staje się naturalnym wyborem dla konsumentów, choć nie zawsze zdają sobie oni sprawę z ich chmurowego charakteru. Nikogo nie dziwi już, że podróżujący planują swoje eskapady ze smartfonem w ręku, szukając najlepszych hoteli i połączeń np. przez aplikację Booking.com lub Skyscanner. Ta pierwsza dostępna jest w przeszło 40 językach a za jej pośrednictwem turyści każdego dnia rezerwują ponad 1,2 mln noclegów. Jedynie na system Android pobrało ją ponad 50 mln użytkowników. Z kolei podobną aplikację TripAdvisor ściągnęło już przeszło 100 mln użytkowników Androida a zainteresowanie wciąż rośnie.

    Wysoką dostępność aplikacji webowych i mobilnych coraz powszechniej gwarantuje elastyczność i skalowalność modelu cloud. Dzięki temu aplikacje z mapami, wyszukiwarkami noclegów, przelotów i atrakcji turystycznych pozostają dostępne na każde żądanie, nawet gdy jednocześnie logują się do nich miliony użytkowników na całym świecie. Zarówno webowe rozwiązania w modelu SaaS, jak też mobilne wersje usług internetowych stale zyskują na znaczeniu. Tylko w sklepie Google Play jest już blisko 110 tys. aplikacji z kategorii „Podróże”, a wśród nich niemal 3400 zostało pobranych przez minimum 50 tys. użytkowników. Aplikacje mobilne nie tylko ułatwiają podróżowanie ale także porozumiewanie się z obcokrajowcami. Mobilne usługi tłumaczące rozmowy w czasie rzeczywistym pozwalają ludziom z całego świata prowadzić dyskusje, wyzwalając ich od barier językowych. Baza słów i wyrażeń idiomatycznych może być uzupełniana w tych aplikacjach i udostępniania na bieżąco właśnie dzięki przetwarzaniu danych w chmurze.

    Biznes stawia na chmurę … ale co z kwestią bezpieczeństwa?

    Pomimo obaw niektórych organizacji, większość nowoczesnych przedsiębiorstw wykonuje zdecydowany zwrot ku chmurze, m.in. właśnie w celu lepszej ochrony zasobów IT. Niedawne badanie firmy NetApp, technologicznego partnera Aruba Cloud, pokazało, że główną motywacją przedsiębiorstw z regionu EMEA przy wdrażaniu chmury jest chęć zwiększenia poziomu bezpieczeństwa. 60 proc. dyrektorów ds. IT z tego regionu dostrzega możliwość usprawnienia ochrony zasobów informatycznych poprzez wykorzystanie modelu cloud. Jedynie oszczędności oraz elastyczność oferowane przez chmurę w podobnie dużym zakresie motywują firmy do implementacji usługowego IT. Wnioski z 19. Światowego Badania Bezpieczeństwa Informacji firmy doradczej EY również sugerują, że obecnie organizacje chętnie wdrażają chmurę w ramach strategii bezpieczeństwa. Spośród 1735 dyrektorów i menadżerów IT, blisko 40 proc. stwierdziło w tym sondażu, że w bieżącym roku w ich firmach chmura otrzymała wysoki priorytet. Co więcej 45 proc. ankietowanych przyznało, że w 2017 roku przeznaczy na chmurę więcej środków finansowych niż rok wcześniej.

  • Pojedynek na slajdy: PowerPoint vs. Google Slides

    Pojedynek na slajdy: PowerPoint vs. Google Slides

    PowerPoint zdobył ogromną popularność na całym świecie, wspierając użytkowników w tworzeniu prezentacji. Aplikacja Microsoftu ma kilku konkurentów. Jednym z nich jest Google Slides.

    Twórcy prezentacji mają wybór. Poza PowerPointem mogą wykorzystywać w pracy Keynote, Prezi czy Google Slides. Alternatywy mają jednak pewne ograniczenia. Pierwsza z wymienionych aplikacji znajduje zastosowanie wśród użytkowników Apple. Prezi zyskuje wysokie oceny wśród specjalistów od marketingu, jednak wciąż jej daleko do popularności PowerPointa. Z wymienionej trójki największą konkurencję dla rozwiązania Microsoft stanowi Google Slides. Aplikacja rozwija się dynamicznie i ma szansę zdobyć szerokie grono zwolenników. W materiale przyjrzymy się bliżej Google Slides i PowerPoint.

    Slajdy od ręki

    Jedną z kluczowych cech aplikacji do tworzenia prezentacji jest intuicyjna obsługa i łatwość projektowania slajdów. PowerPoint oferuje szeroką gamę opcji dla każdej grupy użytkowników: animacje, przejścia, zestawy szablonów, tabel i rozmaite czcionki. Program Microsoftu zapewnia nie tylko łatwe projektowanie slajdów, ale również daje możliwość przeglądania zawartości za pomocą wygodnych narzędzi do sprawdzania pisowni, porównań, tłumaczeń itp.

    Google Slides jest prostą platformą z wieloma funkcjami zbliżonymi do tych proponowanych przez PowerPointa. Ma jednak niewiele do zaoferowania dla zaawansowanych użytkowników, którzy chcieliby tworzyć bardziej złożone wykresy, różne style czcionek czy korzystać z gotowych szablonów.

    Offline i online

    Google Slides od początku był opracowany z myślą o pracy w środowisku chmurowym. Dzięki temu aplikacja sprawdza się online, zapewniając użytkownikowi łatwy dostęp z poziomu przeglądarki internetowej. Microsoft także zapewnia dostępność swojego narzędzia online, oferując je jako jeden z elementów Office 365 lub PowerPoint Online. Warto dodać, że obie aplikacje są zintegrowane z usługami przechowywania danych – PowerPoint z OneDrivem, a Google Slides z Google Drive.

    Największy atut PowerPointa stanowi wersja offline przeznaczona dla użytkowników komputerów PC i Mac. Aplikacja pracująca na urządzaniach mobilnych Android oraz iOS, a także tabletach Surface, pozbawiona jest niektórych funkcjonalności.

    Google Slides próbuje zbliżyć się do Microsoftu, udoskonalając usługi offline. Firma uruchomiła plugin Google Drive dla MS Office, który umożliwia bezpośrednie zapisywanie plików pakietu Office na Google Drive.

    Praca na różnych platformach

    PowerPoint posiada wersje na Windows, MacOS, Androida, iOS, Windows Phone, a także dostęp online poprzez przeglądarkę dla użytkowników Office 365 i Office Online.

    Dużo skromniej prezentują się w tym zakresie możliwości Google Slides. Aplikacja bazuje głównie na przeglądarkach internetowych, zwłaszcza Chrome z różnymi rodzajami wtyczek. Wprawdzie Google Slides posiada wersje na Androida, iOS i dostęp do trybu offline dzięki systemowi Chrome OS i przeglądarce Chrome, niemniej droga do zapewnienia dostępności na wielu platformach jest jeszcze dość daleka. Nie istnieje aplikacja na urządzenia z systemem operacyjnym Windows Phone, a także solidna wersja przeznaczona dla użytkowników komputerów z systemami operacyjnymi Windows oraz MacOS.

    Szablony na każdą okazję

    Twórcy prezentacji starają się nadać slajdom profesjonalny wygląd i odpowiednio dostosować do tematyki wystąpienia. Szczególnie pomocne są w tym zakresie szablony. PowerPoint dostarcza szeroką gamę rozwiązań zarówno własnych, jak i zewnętrznych autorów. W sieci znajduje się już ponad 10 tysięcy szablonów.

    Oferta Google Slides jest w tym obszarze mocno ograniczona, chociażby ze względu na to, że nie może liczyć na wparcie autorów zewnętrznych.

    Wideo w prezentacji

    Osadzanie treści takich jak strony internetowe czy filmy z YouTube stało się standardem w prezentacjach multimedialnych. Zamiast tracić czas na objaśnianie złożonych koncepcji, łatwiej posłużyć się kilkuminutowym filmem.

    Nowsze wersje programu PowerPoint ułatwiają dodawanie zdjęć i wideo z różnych źródeł online. Użytkownik może wstawić zdjęcia za pośrednictwem Bing, Flickr, OneDrive czy innych witryn, a także dodawać filmy m.in. za pomocą kodu YouTube i Facebooka.

    Prezentacje Google oferują mnóstwo opcji do osadzania treści online za pośrednictwem przesyłanych plików, Google Drive, adresu URL, albumów Google oraz przez wyszukiwarkę Google.

    Konwersja plików

    Pliki PowerPoint można konwertować na wiele formatów, takich jak PDF, XPS, RTF, ODP, a także zdjęcia (JPEG, BMP, PNG, TIFF i GIF), wideo (MP4 i WMV), wspierających PowerPoint (PPT, PPTX, PPTM, THMX i formatu PPTM z włączoną funkcją makro). Istnieją również inne, rzadziej wykorzystywane formaty, takie jak EMF i WMF, które również obsługuje PowerPoint.

    Google Slides jest kompatybilny z formatami PPTX, PDF, TXT, PNG i SVG. Natomiast brak opcji zamiany plików może być uzupełniony poprzez połączenie aplikacji internetowej CloudConvert z Google Drive, która obsługuje konwersję między setkami formatów plików.

    Dostępność produktów

    PowerPoint jest aplikacją płatną, wyjątek stanowi wersja edukacyjna oraz online. W przypadku tej drugiej należy się jednak liczyć z mniejszą funkcjonalnością niż Google Slides. Aby skorzystać z którejkolwiek z tych aplikacji, trzeba posiadać konto pocztowe. Wielu internautów posiada konta Gmail, co zwiększa prawdopodobieństwo, że szukając wersji darmowych, wybiorą właśnie Google Slides. Wiąże się to jednak ze wspomnianymi wyżej ograniczeniami.

    Kto jest zwycięzcą?

    PowerPoint wyprzedza Google Slides w większości obszarów. Jednak aplikacja opracowana przez twórców wyszukiwarki jest ciekawym produktem. Wartą uwagi alternatywą jest także dostępna w ramach Office 365 usługa Sway. Oferując zupełnie nowe podejście do prezentacji, pozwala na korzystanie z zaawansowanych rozwiązań, zapewniając intuicyjną i prostą obsługę. Dzięki synchronizacji w chmurze aplikacja i przygotowane projekty dostępne są z każdego urządzenia. Można przewidywać, że Sway z czasem umocni i tak stabilną pozycję Microsoftu w tym zestawieniu – podsumowuje Konrad Nieboj, specjalizujący się w rozwiązaniach chmurowych w firmie Senetic.

  • Panasonic wprowadza na rynek ekrany interaktywne z technologią ShadowSense

    Panasonic wprowadza na rynek ekrany interaktywne z technologią ShadowSense

    Panasonic zapowiedział dwie serie ekranów interaktywnych Multi-Touch, które wyposażone będą w technologię ShadowSense. Urządzenia AF1-SST i LF80-SST (AF1/LF80 – ShadowSense Technology) przeznaczone są do instalacji w przestrzeniach publicznych, wyróżnia je wytrzymała konstrukcja oraz precyzja wykrywania dotyku.

    panasonic 33 pananonic 22

    Nowe wersje wyświetlaczy AF1 i LF80, wyposażone w technologię wielodotykową ShadowSense dostępne będą w trzech rozmiarach: 42, 49 i 55 cali. Można je będzie zamontować w orientacji pionowej lub poziomej, co ułatwi stworzenie punktów samoobsługowych lub sprzedażowych. Technologia ShadowSense wykorzystuje wiele czujników ukrytych w ramce monitora, które pozwalają na wykrycie cienia obiektu i ustalenie jego dokładnej pozycji oraz ruchu. Dzięki temu ekran zapewnia bardzo krótki czas reakcji i sprawdza się nawet przy bardzo intensywnym oświetleniu.

    AF1-SST

    AF1-SST (AF1- ShadowSense Technology) to najwyższej klasy ekran Panasonic wyposażony w OpenPort PLATFORM, rozwiązanie opracowane przez Panasonic, oparte na systemie Android, które umożliwia korzystanie z aplikacji i oprogramowania różnych producentów, dostępnych w sklepie Google Play. Pozwala ono także klientom samodzielnie opracowywać aplikacje dla ekranów AF1-SST dostosowane do ich indywidualnych potrzeb. Ponadto urządzenia mają wbudowaną pamięć i zapewniają możliwość przetwarzania danych, dzięki czemu do ich obsługi nie jest potrzebny zewnętrzny komputer.

    Seria LF80-SST jest wyposażona w funkcję Digital Link, która umożliwia przesyłanie sygnałów wideo, audio i sterujących na odległość do 150 m przy użyciu pojedynczego kabla LAN. Oprócz tego urządzenia wykorzystują funkcję klonowania USB, która pozwala skopiować ustawienia z wyświetlacza głównego do pozostałych monitorów za pomocą pamięci USB. Takie rozwiązanie umożliwia zmniejszenie nakładu pracy, maksymalizując efektywność systemu Digital Signage.

    panasonic 33

  • Nowe standardy zabezpieczania danych

    Nowe standardy zabezpieczania danych

    IBM zaprezentowała dziś IBM Z, najnowszą generację systemu transakcyjnego, zdolnego do przeprowadzania 12 miliardów zaszyfrowanych transakcji dziennie. Nowy system po raz pierwszy został także wyposażony w technologicznie przełomowy silnik, umożliwiający szyfrowanie wszystkich danych, na każdym etapie ich przetwarzania i przechowywania, pochodzących z aplikacji, usług chmurowych oraz baz danych.

    Rozbudowane funkcje kryptograficzne IBM Z zostały zaprojektowane jako odpowiedź na problem cyberprzestępczości, która do 2022 r. może przynieść światowej gospodarce nawet 8 bilionów dolarów strat. W ostatnich 4 latach, z ponad 9 miliardów utraconych lub skradzionych rekordów, zaszyfrowanych było zaledwie 4 procent. Oznacza to, że większość danych jest narażona na zorganizowane zewnętrzne ataki hakerów, lub wewnętrzne działania pracowników, którzy nadużywają dostępu do wrażliwych informacji.

    To największa zmiana technologii mainframe od ponad 10 lat, kiedy platforma Z została zmodernizowana w kierunku rozwiązań opartych o system operacyjny Linux i oprogramowanie open source. Dziś IBM Z rozszerza sferę szyfrowania i zabezpieczeń, opierając się na najbardziej zaawansowanych technologiach kryptograficznych oraz ochrony kluczy kryptograficznych. Technologia ta obejmuje ochronę każdego rodzaju danych, sieci, urządzeń zewnętrznych i aplikacji – jak na przykład usługę IBM Cloud Blockchain – bez wprowadzania zmian w aplikacji i bez wpływu na operacyjne działania usług biznesowych.

    Większość incydentów związanych z kradzieżą czy wyciekiem danych wynika z tego, że szyfrowanie na dużą skalę jest trudne i bardzo kosztowne, więc organizacje przechowują je w otwartych środowiskach. Stworzyliśmy silnik pozwalający chronić dane w czasie rzeczywistym, przystosowany do wymogów przetwarzania w chmurze i jesteśmy przekonani, że efekty jego wdrożenia w krótkim czasie będą miały widoczny wpływ na bezpieczeństwo informacji – powiedział Jarosław Szymczuk, dyrektor generalny IBM Polska i Kraje Bałtyckie

    Technologiczny przełom: szyfrowanie danych w erze rozwiązań chmurowych

    Według niedawno przeprowadzonych badań, szyfrowanie danych jest kluczowym czynnikiem zabezpieczającym przedsiębiorstwa przed szerokim wyciekiem informacji i stratami wynikającymi z takiego zdarzenia. Jak podają autorzy  IBM X-Force Threat Intelligence Index, w 2016 roku liczba incydentów bezpieczeństwa wzrosła o 556 procent w porównaniu z 2015 rokiem. Jednak na poziomie korporacyjnych i chmurowych centrów przetwarzania danych, szyfrowanie często jest pomijane, ponieważ obecne rozwiązania kryptograficzne znacząco spowalniają działanie systemów, a ich wdrożenie i zarządzenie nimi wymaga dużych nakładów finansowych. W rezultacie, zaledwie około 2 procent danych korporacyjnych jest dziś zaszyfrowanych, podczas gdy dla danych pochodzących z urządzeń mobilnych ten odsetek wynosi aż 80 procent.

    Dziś, standardową praktyką jest szyfrowanie jednorazowo małych porcji danych, przy zaangażowaniu dużego nakładu pracy w selekcję indywidualnych pól. Zaawansowane rozwiązania kryptograficzne w serwerze IBM Z – tzw. pervasive encryption –  pozwalające na szyfrowanie wszystkich danych (aplikacji, serwisu w chmurze czy bazy danych) przy pomocy jednego kliknięcia – jest odpowiedzią IBM na potrzeby wyrażone przez ekspertów zajmujących się bezpieczeństwem, oraz przez ponad 150 klientów IBM z całego świata, którzy współuczestniczyli w pracach nad systemem przez ostatnie 3 lata.

    Tak szeroki zakres szyfrowania danych w chmurze jest możliwy dzięki siedmiokrotnemu wzrostowi wydajności kryptograficznej w porównaniu z poprzednią wersją systemu – Z13. Finalnie, kryptografia w najnowszych IBM Z jest 18 razy szybsza niż w serwerach opartych na procesorach x86, a jej koszt przy zastosowaniu porównywalnych obciążeń to zaledwie 5 proc. tego, ile trzeba byłoby wydać w przypadku rozwiązań bazujących na x86.

    Nowy mainframe IBM zapewnia również ochronę kluczy szyfrujących. W dużych organizacjach są one wystawione na ataki hakerskie, gdy znajdują się w pamięci podręcznej podczas przetwarzania. IBM Z jest w stanie zabezpieczyć zarówno same klucze, jak i proces ich generowania i ponownego wprowadzania do obiegu. Działa to na zasadzie natychmiastowych reakcji na jakiekolwiek próby włamania – klucze ulegają automatycznemu unieważnieniu, po czym są odtwarzane w momencie, kiedy środowisko znowu staje się bezpieczne. Możliwości te rozciągają się nie tylko na same urządzenia mainframe, ale również na systemy pamięci masowej i serwery w chmurze.

    IBM Z pozwala również na szyfrowanie interfejsów programistycznych aplikacji, prawie 3 razy szybciej niż w przypadku systemów opartych o procesory x86.

    Dodatkową zaletą IBM Z zintegrowanych z oprogramowaniem IBM Security, jest zautomatyzowanie weryfikacji bezpieczeństwa baz danych, aplikacji i innych systemów, której dotychczas audytorzy dokonywali samodzielnie. Teraz ocena zgodności przechowywania danych z obowiązującymi regulacjami prawnymi zajmie im mniej czasu, a dodatkowo zmniejszą się jej koszty. Co ważne dla organizacji działających na terenie Unii Europejskiej, nowe mainframe’y IBM spełniają wymogi regulacji o ochronie danych osobowych (GDPR). Regulacja będzie nakładała na nie obowiązek raportowania przypadków wycieku danych do instytucji nadzorujących w ciągu 72 godzin od zdarzenia. Organizacje mogą również spotkać kary finansowe w wysokości do 4 procent globalnego przychodu, jeśli dane nie będą właściwie szyfrowane, a klucze chronione.

    Najbezpieczniejsze usługi Blockchain

    Ponieważ aplikacje Blockchain są coraz częściej integralną częścią kluczowych procesów biznesowych, wzrasta również znaczenie ich bezpieczeństwa, możliwości szyfrowania i odporności na zagrożenia. Kombinacja nowej technologii szyfrowania IBM Z z możliwością posadowienia usług Blockchain w bezpiecznym kontenerze, doskonale wspiera zaufane modele, których wymaga nowa sieć blockchain. Usługi chmurowe Blockchain w ośrodkach IBM w Dallas, Londynie, Frankfurcie, Sao Paolo, Tokioi Toronto są zabezpieczane z wykorzystaniem wiodącej na rynku technologii kryptograficznej IBM Z.

    IBM we współpracy z AngelHack organizuje konkurs „Unchain the Frame” – skierowany do programistów z całego świata turniej z pulą nagród o wartości ponad 50 tysięcy dolarów. Mogą się do niego zgłosić osoby pragnące zademonstrować swoje umiejętności w zakresie technologii blockchain, oprogramowania open source, interfejsów API dla aplikacji finansowych oraz najnowszej technologii IBM – Machine Learning for z/OS.

    Serwery IBM Z stanowią największą maszynę transakcyjną, obsługując między innymi:

    • 87% wszystkich transakcji kartowych i blisko 8 bilionów dolarów płatności rocznie;
    • 29 miliardów wypłat z bankomatów o wartości blisko 5 miliardów dolarów dziennie;
    • 4 miliardy lotów pasażerskich rocznie;
    • Ponad 30 miliardów transakcji dziennie – więcej niż całkowita liczba wyszukiwań w Google w ciągu doby;
    • 68% światowego produkcyjnego przetwarzania cyfrowego, stanowiąc jedynie 6% całkowitych kosztów IT;
    • 92 ze 100 największych banków na świecie.

    Aby zapewnić płynność działania światowych systemów finansowych, w każdej sekundzie jest przetwarzanych tysiące transakcji. Wykorzystując nowe funkcjonalności IBM Z, ogromne ilości wrażliwych danych produkowane przez te transakcje, mogą być teraz lepiej chronione przed oszustwami i cyberprzestępczością i bezpieczniej przechowywane i przetwarzane w chmurze.

    Nowy mainframe IBM Z wyposażony jest w najmocniejszy procesor o taktowaniu 5,2 GHz i nową, skalowalną strukturę, dzięki której jego wydajność przy przetwarzaniu w systemach z/OS jak i systemach Linux jest o 35 proc. wyższa niż w przypadku modelu z13. W porównaniu do poprzedniej generacji, może być wyposażony w trzy razy większą pamięć operacyjną o pojemności do 32 TB oraz trzy razy szybciej działający podsystem I/O. Osiągająca najlepsze na świecie czas odpowiedzi Storage Area Network wyposażona w zHyperLink umożliwia 10-krotną redukcję opóźnień w porównaniu do z13. Powyższe, nowe możliwości systemu I/O oraz zwiększona pamięć operacyjna, mają kluczowe znaczenie dla wydajności rozwiązań analitycznych stawiając nowe serwery IBM Z w światowej czołówce. Dodatkowo, dzięki powyższym innowacjom, nowe serwery są w stanie przetwarzać aplikacje oparte o Java o 50% szybciej niż serwery x86.