Tag: Google

  • Nowe funkcjonalności Cisco Webex

    Nowe funkcjonalności Cisco Webex

    Cisco ogłosiło połączenie platform Cisco Spark oraz Webex, aby zwiększyć efektywność spotkań służbowych. Firma zaprezentowała nową wersję aplikacji do współpracy Webex Meetings oraz Webex Teams (niegdyś Cisco Spark) dedykowany pracy zespołowej. Nowo powstała platforma będzie wykorzystywała rozwiązania wideo Cisco oraz urządzenia, które sprawią, że każde pomieszczenie wyposażone w telewizor zmieni się w salę konferencyjną. Firma uprościła również proces sprzedażowy oraz wdrożyła technologie uczenia maszynowego i sztucznej inteligencji, co ułatwi organizację spotkań.

    Zmiany wprowadzone w Cisco Webex

    Najważniejszym usprawnieniem w Webex Meetings jest silny nacisk na funkcje wideo. Użytkownicy będą zachęcani do włączenia kamer, gdyż możliwość zobaczenia swojego rozmówcy stanowi fundament skutecznej pracy zespołowej. Dawno minęły czasy, kiedy spotkania opierały się na wspólnym oglądaniu slajdów wyświetlanych na ekranie komputera. Obecnie użytkownik będzie mógł zobaczyć wszystkich członków zespołu w ramach przejrzystego układu, niezależnie od tego czy korzysta z komputera, rozwiązania Cisco do telekonferencji czy urządzenia mobilnego.

    Ponieważ aplikacja działa w chmurze, sto milionów ludzi korzystających z Webex na całym świecie będzie mogło dokonać automatycznej aktualizacji w nadchodzących miesiącach.

    Nowa wersja Cisco Spark

    Nowe rozwiązanie – Webex Teams łączy w sobie technologie komunikacji Cisco, dzięki czemu użytkownicy mogą korzystać z funkcjonalności Webex w ramach platformy Meetings. Ponadto otrzymują oni rozbudowany zestaw narzędzi, włączając w to współdzielenie ekranu, funkcje czatu czy tablicy do notatek, łatwy dostęp do wszystkich uczestników spotkania, wymianę materiałów oraz inne narzędzia przydatne zarówno podczas, jak i po spotkaniu.

    Zmiany dotyczą również urządzeń Cisco – Spark Board zostanie zastąpione przez Webex Board.

    Sala konferencyjna na wyciągnięcie… pilota

    Podczas wizyt u klientów specjaliści Cisco widzą wiele przestrzeni konferencyjnych, w których wiszące na ścianie telewizory często nie są wykorzystywane. Cisco postanowiło nadać im drugie życie tworząc Webex Share™ – proste w obsłudze narzędzie do wyświetlania informacji na dużym ekranie. Wystarczy podłączyć niewielki adapter i sparować go z telewizorem, aby udostępnić dokument lub pulpit. Następnie można płynnie kontynuować spotkanie w ramach Webex Teams. Dzięki funkcji Webex Share uczestnicy spotkania mogą łatwo dokonywać rezerwacji przestrzeni konferencyjnej, sprawdzać jej dostępność itp. Webex Share będzie dostępna dla aplikacji Webex Meeting oraz Teams pod koniec 2018 roku.

    Dialog na rzecz biznesu

    Swobodny wybór narzędzi jest podstawą skutecznej realizacji zadań. Cisco umożliwia użytkownikom wybór technologii, która jest dla nich najlepsza. Nic nie stoi na przeszkodzie, aby podczas spotkań korzystali z Webexa, a na potrzeby pracy zespołowej np. z rozwiązania Microsoft. Aplikacja jest również kompatybilna z narzędziami Google, Slackiem i innymi rozwiązaniami do komunikacji i współpracy.

    Również sam zakup rozwiązań Cisco jest prosty. Obecnie, przedsiębiorstwa mogą w łatwy sposób dokonać płatności za dostęp do usług dla każdego użytkownika. Cisco zwiększyło także przestrzeń dyskową, wdrożyło zaawansowane zabezpieczenia oraz systemy analityczne. Nawet 1 000 osób może dołączyć do spotkań w ramach Webex Meetings.

    Sztuczna inteligencja i tłumienie hałasu sprawią, że spotkania będą bardziej wydajne

    W listopadzie zeszłego roku Cisco przedstawiło plany dotyczące wykorzystania sztucznej inteligencji w rozwiązaniach do współpracy. Firma realizuje tę wizję za pomocą aplikacji Webex Assistant (wcześniej Cisco Spark Assistant), która będzie posiadała dodatkowe funkcje i będzie dostępna dla użytkowników korzystających z różnych urządzeń. Firma podaje, że nie ustaje w wysiłkach, aby sztuczna inteligencja stała się częścią każdego spotkania, telekonferencji, rozmowy i interakcji. Działający w oparciu o technologię MindMeld, Webex Assistant będzie dostępny w ciągu kilku najbliższych miesięcy dla wszystkich urządzeń do współpracy Cisco (Webex Room Kit oraz Room Series), działających w chmurze.

    Wszystkie rozwiązania Cisco działające w oparciu o chmurę obliczeniową, a także sprzęt znajdujący się w siedzibie klienta, mogą teraz tłumić zewnętrzny hałas. Oznacza to, że gdy następnym razem ktoś zacznie szeleścić kartkami, system automatycznie przyciszy te odgłosy. Gdy hałas ustanie, system automatycznie zwiększy głośność.

  • Senatorowie USA wzywają Google przed Federalną Komisję Handlu

    Senatorowie USA wzywają Google przed Federalną Komisję Handlu

    Dwaj amerykańscy senatorowie z Partii Demokratycznej wezwali amerykańską Federalną Komisję Handlu do śledztwa w sprawie funkcjonowania Google, a w szczególności sposobu, w jaki funkcja „Historia Lokalizacji” zbiera dane użytkowników na smartfonach z systemem Android. Po uzyskaniu zgody od użytkownika na gromadzenie takich informacji, funkcja włącza się na wszystkich zalogowanych urządzeniach.

    Google wykorzystuje fakt, że konsumenci nie mają odpowiedniej wiedzy o tym, jak działa zbieranie danych, co zmusiło ich do podejmowania nieświadomych decyzji o tym, co udostępniają. – komentuje Mariusz Politowicz, inżynier techniczny Bitdefender z firmy Marken – To kolejny przypadek, kiedy okazuje się, że komputerowy gigant mógł przetwarzać nasze dane w nieodpowiedni sposób.

    Google gromadzi ogromne ilości danych i śledzi lokalizację swoich użytkowników od 2009 roku. Mimo, że gigant został poproszony o komentarz w tej kwestii oraz w sprawie stosowanych polityk prywatności w oficjalnym liście w grudniu 2017 roku, senatorowie Richard Blumenthal (D-Conn.) I Ed Markey (D-Mass.) nie byli przekonani co do odpowiedzi firmy. Napisali więc list do przewodniczącego Federalnej Komisji Handlu (FTC) Josepha Simonsa, prosząc go o przyjrzenie się działaniom korporacji.

    Google ma duży wgląd do życia osobistego swoich użytkowników, wie między innymi, czy jego użytkownicy szukają pomocy w dziedzinie zdrowia, angażują się w aktywność obywatelską lub uczęszczają do miejsc kultu religijnego – czytamy w liście.

    Obaj Panowie twierdzą, że użytkownicy nie mogą zrezygnować z aktywowanej usługi. Odkryli, „że proces zgody często źle opisuje usługę, a jego nieakceptacja pogarsza funkcjonalność produktów, aby zachęcić użytkowników do udzielenia pozwolenia”.

    Jesienią 2017 r. firma Quartz zbadała Google i odkryła, że ​​mimo wyłączenia w urządzeniu nadajnika GPS, system Android nadal zbierał informacje o lokalizacji pozorowanej podawanej przez sieci komórkowe i udostępniał je Google, naruszając prywatność użytkowników.

  • Nazwa.pl wycofuje z oferty sklepy internetowe

    Nazwa.pl wycofuje z oferty sklepy internetowe

    Największy w Polsce rejestrator domen i dostawca usług hostingowych wycofuje z oferty sklepy internetowe. Posunięcie to zaskakuje tym bardziej, że polski rynek e-commerce z roku na rok rośnie, a jego wartość w 2018 roku przekroczy 40 miliardów złotych. Dlaczego nazwa.pl wycofuje się z dostarczania tego typu usług?

    U podstawy decyzji leżą dane z polskiego rynku, światowe trendy w zakresie e-commerce oraz zmiany wymuszone dostosowaniem do wymagań europejskiego rozporządzenia w zakresie ochrony danych osobowych – RODO. Jak podkreśla zarząd firmy, wszyscy Klienci, którzy przeszli audyt dotyczący oceny zgodności z unijnym rozporządzeniem, mogą nadal korzystać z usług sklepów internetowych zakupionych za pośrednictwem nazwa.pl.

    Podjęliśmy decyzję o wycofaniu z oferty usługi sklepu internetowego – mówi Krzysztof Cebrat, prezes zarządu nazwa.pl. – Niska rentowność tego produktu, konieczność nieustannego dostosowywania mechanizmów sprzedażowych do zmieniających się przepisów prawa podatkowego oraz narzucone przez europejskie rozporządzenie przepisy z zakresu ochrony danych osobowych, powodują duże ograniczenie w zakresie skali rozwoju tego typu usług. Spółka nie może pozwolić sobie na półśrodki i oferować produktów, które nie są w stanie sprostać obecnym przepisom i regulacjom, stąd nasza decyzja – tłumaczy Cebrat.

    Rosnące wymagania wobec dostawców

    Nowe przepisy dotyczące przetwarzania danych osobowych zaczną obowiązywać od 25 maja i będą dotyczyć wszystkich podmiotów przechowujących takie informacje. Wiąże się to z dodatkowymi kosztami, na co zwracali uwagę już na początku tego roku autorzy raportu „E-commerce 2018”, sporządzonego przez portal Interaktywnie.com[i]. Warto dodać, że naruszenie przepisów może wiązać się z nałożeniem znaczących kar finansowych. Ich wysokość będzie zależała od tego, który zapis prawny zostanie naruszony, jednak widełki, w jakich porusza się ustawodawca, pokazują powagę zagadnienia. Kary mogą wynieść od 10 do 20 milionów euro lub od 2 do 4% wartości rocznego światowego obrotu przedsiębiorstwa[ii]. Jednak regulacja RODO to tylko jeden z powodów, dla których nazwa.pl wycofuje z oferty sklepy internetowe.

    Nazwa.pl, jako firma nr 1 w Polsce, dostarcza usługi o najwyższym poziomie jakości oraz bezpieczeństwa, wytwarzane i administrowane przez wysokiej klasy specjalistów i inżynierów pracujących dla spółki. W przypadku aplikacji sklepowych konieczna jest jednak współpraca z zewnętrznymi, wyspecjalizowanymi Partnerami dostarczającymi oprogramowanie, co niesie ze sobą różne ryzyka w zakresie działania tych aplikacji, oraz profesjonalizmu obsługi posprzedażowej oferowanej Klientom nazwa.pl. Z jednej strony przyzwyczajamy Klientów do najwyższych standardów świadczonych usług, takich jak hosting czy VPS, z drugiej zaś – w przypadku sklepu – nie mamy wpływu na jakość samego oprogramowania oraz jego wsparcia posprzedażowego oferowanego przez Partnerów, co dla spółki nazwa.pl jest nieakceptowalne z uwagi na naszą dbałość o poziom dostarczanych usług – dodaje Krzysztof Cebrat.

    Sklep internetowy to duża inwestycja

    Właściciele sklepów, aby móc realnie konkurować z największymi, muszą cały czas inwestować zarówno w szeroko rozumiany marketing, jak i rozwiązania wspierające bezpieczeństwo. Jak pokazują wyniki „Raportu z polskich sklepów internetowych 2017”[iii], w związku z ostrzeżeniem Google o niewyświetlaniu „niebezpiecznych” stron, prawie połowa badanych sklepów wprowadziła certyfikat SSL, który stanowi realny koszt dla właściciela sklepu. A to nie koniec wydatków. Nowoczesny marketing, odświeżenie wizualne sklepu oraz oczekiwania Klientów, takie jak darmowa przesyłka, znacząco obniżają rentowność przedsięwzięcia, co w szczególności odczuwają małe podmioty. Najwięcej, bo aż 40%, sklepów działa poniżej 1 roku, a zaledwie 10% prowadzonych jest od 4 do 5 lat [iv].

    Kurczący się rynek

    Jak wskazują dane, przychody ze sklepu internetowego w początkowym okresie jego działalności dla większości właścicieli są dodatkową formą zarobku[v].

    Rynek e-commerce należy do dużych graczy: Allegro, Amazon, Zalando, to przykłady platform, które zapewniają zarówno jakość, jak i bezpieczeństwo świadczonych usług. Te podmioty inwestują w rozwiązania z zakresu wsparcia sprzedaży oparte o sztuczną inteligencję i sieci afiliacyjne. Mogą także oferować darmową dostawę i szereg innych udogodnień, które są poza zasięgiem małego sklepu. Dominacja dużych platform handlowych oraz polityka sprzedaży sklepów sieciowych, ukierunkowana na synergię wszystkich kanałów w postaci strategii omnichannel, wskazują na kurczenie się rynku małych sklepów internetowych – tłumaczy Cebrat.

    Czy brak oferty dla sklepów internetowych wpłynie na działalność spółki?

    Bezpieczeństwo i jakość usług

    Zarząd firmy jasno określił kierunek, w jakim będzie systematycznie podążać. Jest to przede wszystkim bezpieczeństwo infrastrukturalne, systemowe i prawne.  Takie podejście ma zapewnić firmie odpowiednią skalę działalności.

    Skupienie na szeroko rozumianym bezpieczeństwie to zauważalny trend zarówno na świecie, jak i w Polsce – tłumaczy Cebrat. –W tym obszarze nie idziemy na kompromis, co doceniają nasi Klienci – dodaje.

    W ostatnim czasie firma podpisała wszystkie nazwy domen swoich Klientów protokołem DNSSEC, pokrywając tym samym ponad 90% rynku domen w Polsce zabezpieczonych za pomocą tego rozwiązania. Kolejnym elementem są inwestycje infrastrukturalne gwarantujące podwyższenie poziomu bezpieczeństwa świadczonych usług hostingowych oraz łączny wzrost mocy wszystkich Data Center firmy do wartości 41 MW.

    Skupiamy się na najważniejszych dla nas kwestiach, czyli bezpieczeństwie, jakości oferowanych usług i rozbudowie infrastruktury, która umożliwi nam ciągły rozwój, nie tylko na polskim rynku – mówi Krzysztof Cebrat, prezes zarządu nazwa.pl.

    [i] www.interaktywnie.com/biznes/raporty
    [ii] https://www.pwc.pl/pl/artykuly/2017/kary-finansowe-rodo.html 
    [iii] https://www.shoper.pl/static/raporty/raport-shoper-2017.pdf
    [iv] Idem
    [v] Idem
  • Jak działa pozycjonowanie lokalne?

    Jak działa pozycjonowanie lokalne?

    Każdy z nas codziennie wykorzystuje wyszukiwarkę Google w celu znalezienia interesujących nas informacji – a także produktów, usług, lokali itd. Wyszukiwarka Google jest w stanie samodzielnie wskazać najbliższe nam większe miasto, określając naszą lokalizację i dopasowując wyniki do naszych zapytań.

    Wykorzystując możliwości Google skutecznie może rozpocząć działania, dzięki którym możliwe będzie łatwe wypromowanie lokalnego biznesu. Pozycjonowanie lokalne składa się z różnorodnych elementów, które współdziałając umożliwiają pozyskanie nowych klientów, zwiększenie sprzedaży oraz sukcesywne budowanie wizerunku danej firmy.

    Jak działa pozycjonowanie lokalne?

    Pozycjonowanie lokalne w nieznacznym stopniu różni się od pozycjonowania ogólnego. W obu przypadkach najważniejszą rolę odgrywa optymalizacja strony oraz ilość i jakość linków prowadzących. W przypadku pozycjonowania lokalnego często stosuje się również promowanie za pomocą Google Maps. Najważniejsza różnica polega na tym, że w przypadku pozycjonowania lokalnego istotną część frazy stanowi odniesienie do lokalizacji – miasta, regionu czy nawet kraju. Czym charakteryzują się techniki lokalnego SEO?

    • Zdobywanie linków prowadzących do naszej strony jest jednym z bardziej efektywnych sposobów na wypromowanie danej strony internetowej w wynikach wyszukiwania Google. W przypadku pozycjonowania lokalnego zazwyczaj wykorzystuje się linki z lokalnych serwisów dotyczących np. wiadomości z miasta, lokalnych forów czy innych form zamieszczenia linku pozwalających na wskazanie lokalizacji.
    • Pozycjonowanie w Google Maps sprawia, że po wpisaniu przez zainteresowaną osobę frazy związanej z daną działalnością zostanie ona przedstawiona w wynikach wyszukiwania na mapie Google. Dodatkowo dołączone powinny zostać informacje na temat kontaktu, adresu. Koniecznie należy sprawdzić czy wszystkie dane umieszczone w internecie są zgodne – algorytm Google odnotowując, że wszystkie dane są jednakowe na różnych serwisach i stronach uzna daną stronę za wiarygodną. Dodatkowo umieszczenie odpowiednich zdjęć zagwarantuje wzrost zainteresowania potencjalnych klientów. Istotną rolę mogą również odegrać opnie. Pozytywne, ale także negatywne – bo przecież naturalną rzeczą jest to, że klienci różnią się w opiniach. Warto jednak dbać o to, by zapewnić swoim klientom taką jakość, aby przeważał pozytywny feedback.
    • Optymalizacja witryny – przygotowując witrynę pod kątem pozycjonowania należy zadbać o to, aby w treściach na stronie znalazły się czytelne odniesienia do obszaru działalności. Jeśli firma działa na kilka obszarach – np. w kilku sąsiednich miastach – warto utworzyć osobne, dedykowane podstrony, tak aby ułatwić botom Google zidentyfikowanie usług w powiązaniu z określoną lokalizacją.

    Co można zyskać decydując się na pozycjonowanie lokalne?

    Korzystając z możliwości lokalnego wypromowania własnej działalności każdy przedsiębiorca może liczyć na długotrwały wzrost zainteresowania klientów. Obecnie internet jest podstawowym źródłem czerpania informacji na wszelkie tematy. Każdy z nas decydując się na wybranie np. lokalnego fryzjera czy restauracji w pierwszej kolejności sprawdza informacje na jej temat w internecie. Wykorzystanie pozycjonowania lokalnego sprawia, że więcej osób zainteresuje się oferowanymi usługami lub towarami. Z pozycjonowanie mogą skorzystać również wszelkie organizacje non profit, np. fundacje.

    Stosując metody pozycjonowania na lokalnym rynku każda działalność, niezależnie od jej konkurencyjności czy tego jak długo funkcjonuje na rynku może znacznie polepszyć wyniki finansowe poprzez zwiększenie sprzedaży i zdobycie nowych klientów. Zadbawszy o dobre miejsce w rankingu stron w Google z większą skutecznością można budować pozytywny wizerunek firmy, który zapewni lepszy odbiór przez osoby z zewnątrz oraz wpłynie na wiarygodność przedsiębiorstwa.

    Pozycjonowanie lokalne najlepiej powierzyć profesjonalnym firmom zajmującym się promocją w internecie – Agencja SEO LTB Wrocław to miejsce, w którym znajdziesz rozwiązania dopasowane do potrzeb twojego przedsiębiorstwa.

  • Open source w biznesie – jak wybrać właściwe rozwiązanie?

    Open source w biznesie – jak wybrać właściwe rozwiązanie?

    Rozwiązania informatyczne oparte na kodzie otwartym (open source) są nadal postrzegane jako nieodpowiednie do zastosowań profesjonalnych. Tymczasem na kodzie otwartym jest zbudowana m.in. przeglądarka Google Chrome, czy system Android. Czym się więc kierować przy wyborze rozwiązań open source dla biznesu? Swoimi wskazówkami podzielił się dziś w czasie konferencji „IT w bankowości” Błażej Pabiszczak, prezes zarządu YetiForce sp. z o.o., która dostarcza systemy CRM wielu firmom w Polsce i na świecie.

    Błażej Pabiszczak
    Błażej Pabiszczak

    „Jak wynika z badania „Future of Open Source Survey”, 78% firm na całym świecie korzysta z oprogramowania open source do prowadzenia ważnych operacji”, mówi Błażej Pabiszczak, prezes zarządu YetiForce sp. z o.o.. „Bardzo duża konkurencja w dzisiejszych warunkach rynkowych wymusza na firmach wprowadzanie innowacji w szybkim tempie, co wyklucza budowanie wszystkiego od zera. Według szacunków, nowoczesne aplikacje zawierają od 80 do 90% kodu open source.”, dodaje Pabiszczak.

    Kluczem do wyboru właściwego systemu dla danego przedsiębiorstwa jest jego weryfikacja według czterech kluczowych kryteriów, jakimi są licencjonowanie, bezpieczeństwo, jakość i wydajność.

    W open source możemy znaleźć ponad 100 licencji, w tym kilkanaście najbardziej popularnych – od liberalnych, przez słabo chroniące i silnie chroniące, aż do mocno chroniących. Jednym z najlepszych wyborów jest licencja liberalna, ponieważ zapewnia największą swobodę wykorzystania i rozbudowy danego systemu. Taka licencja pozwala na samodzielne wprowadzanie zmian do używanego systemu, dzięki czemu firma nie jest zależna od dostawcy oprogramowania.

    Bezpieczeństwo systemu jest kolejnym ważnym kryterium jego wyboru. Rekomendujemy wykorzystanie Standardu Weryfikacji Bezpieczeństwa Aplikacji (ASVS), który zawiera listę wymagań i testów, które należy spełnić i przeprowadzić, aby sprawdzić rzeczywisty poziom bezpieczeństwa danej aplikacji.

    Kryteria jakości i wydajności są szczególnie istotne w dużych strukturach biznesowych, w których dany system obsługuje jednocześnie nawet 20 000 użytkowników. Ważną rolę odgrywa język, w jakim została napisana dana aplikacja – należy wybierać najbardziej popularne i najlepsze technologie, które dają komfort wyboru np. kolejnych funkcjonalności. Trzeba również stosować się do standardów budowania aplikacji, aby kolejny programista był w stanie programować na tym samym poziomie co poprzednik. Do oceny jakości               i wydajności danego systemu rekomendujemy wykorzystanie aplikacji SensioLabs, która kompleksowo oceni dany program.

    Rozwiązania open source są obecnie używane przez większość firm na całym świecie i wszystko wskazuje na to, że ten trend zostanie utrzymany.

  • Wyciek prywatnych danych kilkuset użytkowników Drupe App

    Wyciek prywatnych danych kilkuset użytkowników Drupe App

    Jeśli wciąż wchodzisz w spory odnośnie tego, który system operacyjny na urządzenia mobilne jest lepszy pod względem bezpieczeństwa – iOS albo Android – to wiedz, że robisz to niepotrzebnie.

    Problem z bezpieczeństwem danych na smartfonach nie odnosi się wyłącznie do tego, czy korzystasz z iOSa czy z Androida, ale do aplikacji, jakie instalujesz na swoim urządzeniu.

    Okazało się, iż popularna aplikacja na Androida – Drupe, posiadająca ponad 10 milionów pobrań na Google Store udostępniała wiadomości audio, selfie, snapshoty oraz inne wrażliwe materiały swoich użytkowników każdemu, kto je chciał zobaczyć.

    Aplikacja miała uczynić kontakt ze znajomymi o wiele szybszym i sprawniejszym poprzez udostępnienie opcji takich jak szybki telefon, sms, email, czat Google Hangouts czy konwersacja Skype w jednym miejscu.

    Jak raportuje portal Motherbeard, twórcy aplikacji popełnili ogromną gafę.

    Część danych, którą Drupe zbierał od użytkowników była uploadowana na niechroniony internetowy dysk Amazon Web Services gdzie wrażliwe informacje były dostępne dla każdego użytkownika bez potrzeby wpisywania hasła.

    Simone Margaritelli, ekspert do spraw bezpieczeństwa odkrył problem w ten weekend i oszacował, że fotografii i wiadomości głosowych dostępnych dla każdego, kto umiał je znaleźć było kilka miliardów.

    Margaritelli zareagował szybko i zaraz po tym jak Drupe zostało poinformowane o istniejącym problemie, dysk AWS został skonfigurowany w taki sposób, aby nie był dostępny publicznie.

    Drupe jedynie połowicznie przyznaje się do tego co zaszło twierdząc, że „jedynie mała część użytkowników była narażona na wyciek ich prywatnych danych”

    Jednocześnie firma zaprzecza twierdzeniom Simone’a Margaritelli’ego jakoby zapisów danych, które wyciekły, było parę miliardów.

    Odsuwając na bok kwestie ile faktycznie było wspomnianych zapisów, twórcy aplikacji wykazali się dużą nieodpowiedzialnością nie zabezpieczając odpowiednio danych swoich użytkowników – komentuje Mariusz Osiński inżynier techniczny z firmy Marken, która jest oficjalnym przedstawicielem marki Bitdefender w Polsce – Pamiętajmy, że dając dostęp danej aplikacji do naszych danych, udostępniamy je osobom trzecim. Ten przypadek pokazuje, że istnieją firmy, które nie wiedzą jak odpowiednio takie informacje zabezpieczyć.

    Podobnych przypadków w ostatnim czasie było bardzo wiele jeśli wziąć pod uwagę ilość nagłówków dotyczących dysków Amazona. Z powodu zwykłego niedbalstwa koncernów w ten sposób wyciekło bardzo dużo wrażliwych danych.

    Aplikacja Drupe nie jest już dostępna w Google Play Store. Jej twórcy obecnie rozmawiają z Google w sprawie „przetwarzania przez aplikację danych użytkownika”.

    Apkę można pobrać z Apple iOS store, jednak nie wiadomo czy wersja na urządzenia Apple posiada taką samą lukę.

  • 55 lat temu powstał Internet

    55 lat temu powstał Internet

    Jak wynika z danych Cisco, w roku 2021 na świecie będzie 4,6 miliarda użytkowników Internetu, co stanowi 58% populacji. Przez ostatnie pół wieku globalna sieć połączeń zmieniła sposób w jaki pracujemy, spędzamy czas wolny i zdobywamy wiedzę. W najbliższym czasie rozwój Internetu przyśpieszy jeszcze bardziej dzięki wdrożeniu sieci 5G oraz sieci intuicyjnych, które wykorzystują interakcje między aplikacjami, użytkownikami i urządzeniami.

    Historia Internetu w pigułce

    1963 – 1983: Pierwsze kroki

    W czasach zimnej wojny Amerykanie rywalizowali ze Związkiem Radzieckim niemal na każdym polu. Departament Obrony Stanów Zjednoczonych powołał specjalną komórkę o nazwie ARPA, która odpowiadała za wypracowanie przewagi technologicznej nad rywalem. Efektem pracy zespołu specjalistów był dokument o zawiłej nazwie: Memorandum for Members and Affiliates of the Intergalactic Computer Network, czyli Memorandum dla członków i oddziałów intergalaktycznej sieci komputerowej opisujący jak działa Internet. Pierwsza wersja sieci o nazwie ARPANET została zaprezentowana w 1969 roku i łączyła komputery z uniwersytetów w Los Angeles, Stanford, Santa Barbara oraz Utah. Dwa lata później Raymond Tomlinson wysłał pierwszego maila. Jego treść pozostaje nieznana, jednak najprawdopodobniej był to ciąg przypadkowych znaków[1]. W 1978 roku wysłano natomiast pierwszy spam, który dotarł do 393 urządzeń[2].

    1984 – 1995: Internet obejmuje cały świat

    W 1984 roku globalny ruch sieciowy wynosił 15 GB. Trzydzieści cztery lata temu wszystkie dane wysyłane w ciągu miesiąca mogłyby się zmieścić na trzech płytach DVD oraz jednej CD [3]. W tym samym roku Leonard Bosack i Sandy Lerner założyli firmę Cisco, która stała się największym dostawcą rozwiązań sieciowych na świecie. Dwóch pasjonatów stworzyło pierwszy router, czyli urządzenie służące do łączenia różnych sieci komputerowych.

    Pod koniec lat 80-tych nastąpił kolejny punkt zwrotny w historii rozwoju Internetu. Angielski naukowiec Tim Berners Lee stworzył „www” (ang. World Wide Web), czyli przestrzeń, w której przechowywane są informacje i można je odszukiwać wpisując specjalny adres. Tak powstały podwaliny stron internetowych. W 1990 roku opracowano pierwszą wyszukiwarkę internetową, która została udostępniona do powszechnego użytku rok później [4]. W 1994 roku ruch sieciowy osiągnął 25,83 TB miesięcznie, tj. ekwiwalent aż 5500 płyt DVD. W tym samym roku powstał pierwszy blog, dokonano pierwszej transakcji finansowej (zakupu płyty Stinga Ten Summoner’s Tales) oraz zaprezentowano pierwszy banner internetowy. Rok później powołano do życia pierwszy portal społecznościowy www.classmates.com. Jedenaście lat później w Polsce powstał jego odpowiednik o nazwie nasza-klasa.pl.

    1996 – 2016: Era mobilności i Internetu rzeczy

    W 1996 nastąpił przełom w sferze mobilności, do sieci podłączono pierwszy telefon. Dwa lata później zaprezentowano technologię 3G. Według szacunków Cisco do 2021 roku 12 miliardów urządzeń będzie miało połączenie z Internetem, a więcej ludzi będzie miało telefon komórkowy niż dostęp do bieżącej wody. Kolejny krok milowy w rozwoju sieci nastąpił w roku 1990, kiedy narodził się koncept Internetu rzeczy, sieci połączonych urządzeń, które mogą pośrednio albo bezpośrednio gromadzić, przetwarzać lub wymieniać dane. Niecałe 20 lat później, urządzeń podłączonych do sieci było więcej niż ludzi na świecie. Na przełomie wieków doświadczyliśmy również pierwszego ataku DDoS polegającego na wysłaniu ogromnej liczby zapytań i zajęciu wszystkich wolnych zasobów, co uniemożliwia korzystanie z danego serwisu. Cyberprzestępca wykorzystał narzędzie o nazwie Trinoo do sparaliżowania sieci komputerowej uniwersytetu w Minnesocie na ponad dwa dni. W 2004, po raz pierwszy ruch sieciowy osiągnął ponad 1 Eksabajt. Do przechowania takiej liczby danych potrzebne byłoby 270 milionów płyt DVD. Dziesięć lat później było to już 42,4 Eksabajtów.

    Do 2021 roku, urządzenia Internetu rzeczy będą odpowiadały za ponad 50% wszystkich połączeń internetowych. Wciąż jednak 95% ruchu będzie generowane przez użytkowników, co jest logiczne, gdyż np. streaming wideo konsumuje znacznie więcej danych niż czujniki IoT – Łukasz Bromirski, Dyrektor ds. technologii w Cisco Polska

     

    Sieci intuicyjne i technologia 5G przyszłością Internetu

    W zeszłym roku zaprezentowano nową generację sieci internetowej – sieć intuicyjną. Koncepcja inżynierów Cisco zakłada stworzenie intuicyjnego systemu działającego w oparciu o sztuczną inteligencję, który niweluje zagrożenia, automatycznie łączy nowe urządzenia, a przy tym ewoluuje, uczy się i przewiduje. Stanowi to odpowiedź na potrzeby rynku, gdyż zgodnie z przewidywaniami już w 2020 roku, milion nowych urządzeń będzie podłączanych do sieci co godzinę. Obecnie sieć intuicyjną testuje NASA, które chce wykorzystać rozwiązanie do pierwszego lądowania człowieka na Marsie[5].

    Z kolei cały mobilny świat czeka z zapartym tchem na premierę sieci 5G, która ma zapewnić mniejsze niż kiedykolwiek opóźnienia. Poza zwykłymi użytkownikami z nowego rozwiązania skorzystają producenci samochodów autonomicznych czy firmy logistyczne wykorzystujące drony w procesie dostaw. Ponadto wdrożenie 5G wpłynie na rozwój wirtualnej i rozszerzonej rzeczywistości.

    Najważniejsze daty w historii rozwoju Internetu

    Rok Wydarzenie
    1963 Carl Robnett Licklider prezentuje pierwszy dokument opisujący intergalaktyczną sieć komputerową.
    1969 Uruchomienie ARPANET pierwszej sieci komputerowej.
    1971 Raymond Tomlinson wysłał pierwszą wiadomość e-mail.
    1974 Vint Cerf oraz Bob Kahn stworzyli protokół TCP / IP, który umożliwił transfer danych za pośrednictwem sieci internetowej.
    1978 Pierwszy spam wysłany do 393 komputerów.
    1984 Powstanie firmy Cisco i prezentacja pierwszych produktów, które wpłynęły na rozwój sieci internetowej.
    1985 Rejestracja pierwszej domeny – symbolics.com.
    1988 Pierwszy wirus typu „worm” o nazwie Morris zainfekował sieć internetową. Co ciekawe jego twórca nie chciał narazić nikogo a straty, a jedynie sprawdzić jak duża jest sieć internetowa.
    1989 Liczba użytkowników Internetu sięgnęła 100,000.
    1991 Stworzenie pierwszej przeglądarki internetowej.
    1993 Pierwszy streaming. Relacja live z koncertu zespołu Severe Tire Damage.
    1994 Powstanie pierwszego bloga, przeprowadzenie pierwszej transakcji finansowej online, stworzenie pierwszego bannera internetowego.
    1995 Powstanie pierwszego portalu społecznościowego – www.classmates.com.
    1996 Pierwszy telefon oraz samochód podłączony do Internetu.
    1997 Profesor Ramnath K. Chellappa po raz pierwszy użył terminu „cloud computing”.
    1998 Stworzenie Google oraz prezentacja technologii 3G.
    1999 Kevin Ashton po raz pierwszy użył sformułowania „Internet Rzeczy”. Pierwszy w historii atak DDoS.
    2001 Powstanie Wikipedii.
    2004 Powstanie Facebooka.
    2007 Niemal 90% wszystkich wiadomości e-mail stanowi spam.
    2008 Prezentacja technologii 4G.
    2012 Rekord wyświetleń na portalu YouTube teledysku Gangnam style koreańskiego artysty PSY, który obejrzało ponad miliard ludzi.
    2013 Kontent wideo stanowi prawie 50% ruchu mobilnego.
    2016 Pierwszy dron podłączony do sieci LTE. 3.3 miliarda użytkowników podłączonych do Internetu.
    2017 Prezentacja sieci intuicyjnej.

    [1] http://www.computinghistory.org.uk/det/6116/First-e-mail-sent-by-Ray-Tomlinson/

    [2] https://books.google.cz/books?id=kiuSpz5HLf8C&pg=PT17&lpg=PT17&dq=Gary+Thuerk+393&source=bl&ots=mQr_JW4QUO&sig=qxa-n1lyaCLtTCNe-R74Cc5puNM&hl=cs&sa=X&ved=0ahUKEwj4u–Zu63aAhWJLVAKHVHoDacQ6AEITzAK#v=onepage&q=Gary%20Thuerk%20393&f=false

    [3] https://blogs.cisco.com/sp/the-history-and-future-of-internet-traffic

    [4] https://webfoundation.org/about/vision/history-of-the-web/

    [5] https://newsroom.cisco.com/feature-content?type=webcontent&articleId=1914649

  • RODO: 5 wskazówek, jak wykorzystać czas do 25 maja

    RODO: 5 wskazówek, jak wykorzystać czas do 25 maja

    Chyba nie ma już dziś osoby, która nie słyszałaby o unijnym rozporządzeniu o ochronie danych osobowych (RODO). Przepisy wchodzą w życie 25 maja, co oznacza, że grzywny za niezachowanie zgodności z nowym prawem czają się tuż za rogiem. Zapraszamy do zapoznania się z pięcioma poradami, które pozwolą uniknąć nieprzyjemnych incydentów.

    Warto pamiętać, że droga do sfinalizowania unijnej dyrektywy była długa i wyboista – wszystko zaczęło się w 2012 roku, kiedy Komisja Europejska zaproponowała kompleksową reformę przepisów o ochronie danych z 1995 r. Propozycje zmieniły się w plany, a te stają się wreszcie rzeczywistością. Po wszystkich rozmowach, komentarzach, radach i debatach, okres dostosowawczy dobiega końca. W tym czasie bynajmniej nie brakowało informacji o tym, czego można oczekiwać po nowych regulacjach. Ogromna ilość literatury związanej z RODO (ang. GDPR, General Data Protection Regulation) jest jednak uzasadniona, zważywszy na skutki rozporządzenia.

    RODO wywrze głęboki wpływ na wszystkie organizacje, które są odpowiedzialne za przetwarzanie i przechowywanie danych osobowych obywateli Unii Europejskiej. W praktyce oznacza to, że odczują go również firmy spoza Europy. W istocie każda organizacja, która prowadzi interesy z partnerem w Europie, będzie podlegać nowym regułom. W dzisiejszym cyfrowym świecie bez granic globalne przedsiębiorstwa będą zobligowane przestrzegać tych samych przepisów dotyczących przetwarzania informacji osobowych.

    Przypomnijmy, że grzywny mogą być bardzo wysokie: do 4 proc. rocznego obrotu organizacji albo 20 milionów euro – w zależności od tego, która kwota jest większa. W obliczu nadchodzącego terminu wejścia w życie nowego prawa, warto dokładnie i kilkukrotnie sprawdzić to, czy firma jest odpowiednio przygotowana. Ryzyko niezgodności z przepisami i grożące kary finansowe są zbyt duże, żeby zdać się na łut szczęścia.

    Andrzej Niziołek, starszy menedżer regionalny Veeam Software w północnej i południowej części Europy Wschodniej w prosty sposób opisuje kilka istotnych aspektów, na które warto zwrócić uwagę podczas końcowego odliczania.

    1.Upewnij się, że każdy wie o nowych przepisach

    Niektóre firmy i organizacje przygotowujące się na RODO mianują albo już mianowały inspektora ochrony danych osobowych. W istocie w niedawnym artykule w IT Pro można było przeczytać o firmach nerwowo poszukujących kandydatów na to stanowisko. Nawet jeśli niektóre zwlekały z zatrudnieniem takiego specjalisty zbyt długo, rekrutacja takiej osoby to rozsądna decyzja, ponieważ inspektor nie tylko jest przydatnym ekspertem, ale może być również orędownikiem RODO – kimś, kto zaznajomi całą firmę z najlepszymi praktykami RODO. Co więcej, będzie umiał zarekomendować narzędzia, które pomogą w tworzeniu zapasowych kopii danych na wypadek ataku.

    Ale nawet przedsiębiorstwa, które nie planują zatrudnić inspektora danych osobowych, powinny pamiętać, że RODO jest sprawą całej organizacji. Oznacza to, że wszyscy kluczowi interesariusze powinni dobrze zrozumieć implikacje i wymagania nowych przepisów oraz ich wpływ na procesy w firmie.

    2. Przeprowadź audyt danych

    W tym momencie każda firma powinna już wiedzieć, jakie dane osobowe posiada w swoich zasobach informatycznych, gdzie i jak są one przechowywane oraz skąd pochodzą. Organizacje powinny też wiedzieć, dlaczego są w posiadaniu tych informacji oraz w jaki sposób je uzyskały. Lokalne agencje ds. zgodności z RODO mogą im zadać każde z tych pytań.

    Jeśli Twoja firma nie dysponuje takim poziomem wiedzy, czas się pospieszyć i znaleźć odpowiedzi na pytania. Od końca maja 2018 r. trzeba będzie umieć określić podstawę prawną do przetwarzania danych. Władze nie będą pobłażać firmom, które padają ofiarą ataków, a nie mają kopii zapasowych, które zapewniałyby bezpieczeństwo danych. Grzywny są realne, o czym niebawem przekonamy się na czyimś przykładzie.

    3. Zapoznaj się z prawami konsumentów dotyczącymi prywatności

    Jedną z dużych zmian, jakie przynosi RODO, są większe prawa obywateli związane z zarządzaniem danymi. Warto przywołać w tym miejscu konkretny przykład dowodzący siły tego narzędzia – w ciągu trzech minionych lat do Google wpłynęło 2,4 mln wniosków o usunięcie wyników wyszukiwania. Liczba ta szybko wzrośnie, kiedy ludzie lepiej zrozumieją swoje prawo do bycia zapomnianym.

    Oprócz tego właściciele danych osobowych będą mogli domagać się dostępu do informacji personalnych albo do otrzymania ich kopii (w czytelnym dla nich formacie). Jeśli nie chcesz, żeby prawo to stało się dużym obciążeniem dla Twojej organizacji, upewnij się, że możesz oznaczyć lokalizację każdego zbioru danych, aby w razie potrzeby móc uzyskać do niego dostęp. To mała zmiana, które może przynieść duże korzyści.

    4. Stwórz plan na wypadek naruszenia ochrony danych

    Według przepisów RODO organizacje muszą zgłosić naruszenie ochrony danych w ciągu 72 godzin od jego wykrycia. Nie zostawia to wiele czasu, zwłaszcza że pierwsze godziny po włamaniu będą bardzo nerwowe ze względu na konieczność zabezpieczenia śladów i zapanowania nad sytuacją. W rezultacie trzeba zadbać o przygotowanie właściwego planu, który umożliwi wykrycie, zgłoszenie i opanowanie incydentu, jeśli do niego dojdzie.

    Tu może pomóc dodatkowe oprogramowanie do raportowania. Narzędzia, które pozwalają firmom dokładnie wskazać lokalizację repozytoriów kopii zapasowych, mogą oszczędzić dużo czasu podczas zgłaszania incydentu  A jeśli dane staną się niedostępne z powodu złośliwego oprogramowania, technologie do przywracania umożliwią ich łatwe odzyskanie.

    5. Nie przestawaj udoskonalać wewnętrznych procedur

    Oczywiście dobrze jest mieć plan, ale jeszcze lepiej jest pozostawić miejsce na ciągłe ulepszenia. Zwłaszcza wówczas, kiedy w grę wchodzi dostępność, jakość i bezpieczeństwo danych – kiedy dane stają się jednym z najcenniejszych zasobów naszych czasów.

    Zważywszy na tempo, w jakim zmienia się współczesny świat, jest bardzo prawdopodobne, że w najbliższych latach będzie zmieniał się również krajobraz cyfrowy – nawet jeszcze szybciej niż w ciągu minionej dekady. Dlatego trzeba iść z duchem czasu, testując nowe technologie i ewoluując wraz z nimi. RODO nie kończy się 25 maja, ale właśnie wtedy się dopiero zaczyna.

  • 5 problemów, które blokują rozwój branży IT

    5 problemów, które blokują rozwój branży IT

    Ciągłe podbijanie wysokości pensji. Wymaganie cudów od systemu edukacji. Ignorowanie demografii. Posługiwanie się fałszywymi stereotypami dotyczącymi płci. Gdyby rozwiązać te bolączki, branża IT mogłaby rozwijać się jeszcze szybciej. Dlaczego więc od lat te same problemy, zamiast zniknąć, pogłębiają się?

    Skojarzenia przeciętnego Polaka z branżą IT to brak trudności ze znalezieniem i utrzymaniem pracy, szybki rozwój kariery oraz wysokie zarobki. Jeśli zajrzymy głębiej, zobaczymy jednak olbrzymie problemy, które powstrzymują branżę przed rozwojem.

    1.Droga donikąd w wojnie o programistę

    Przy rosnącym zapotrzebowaniu na specjalistów IT, regułą jest podkupowanie pracowników konkurencji. Długi staż pracy i praktyczne kompetencje są w cenie, tymczasem na rynku po prostu nie ma bezrobotnych programistów z doświadczeniem.

    Dobrze ilustruje to przykład Dominika, 32-letniego programisty z Wrocławia. Dominik co kilka dni dostaje oferty pracy od rekruterów, przez popularny serwis społecznościowy, specjalizujący się w kontaktach zawodowo-biznesowych. Doskonale wie, że zmiana pracodawcy to najprostszy sposób na uzyskanie podwyżki. W większych firmach ścieżki awansu są z góry wyznaczone, a widełki wynagrodzeń jasne, bez możliwości negocjacji. Rekruterzy zgłaszają się więc, oferując Dominikowi pensję zwykle o 1-2 tys. zł wyższą niż ma obecnie oraz ciekawe świadczenia socjalne. Ta popularna praktyka powoduje, że doświadczeni programiści stosunkowo często i chętnie zmieniają pracodawcę.

    W jednej firmie codziennie dostawaliśmy ciepłe śniadania przygotowywane przez zatrudnionych na miejscu kucharzy. W innej mogliśmy oderwać się od codzienności podczas wyjazdu w góry. Zabraliśmy komputery i pracowaliśmy mając za oknem widok na Sudety. Niby drobna zmiana, ale dała masę energii i przede wszystkim trochę odmiany – mówi Dominik.

    Takich przykładów jest na pęczki. Miejmy jednak świadomość, że trwająca od kilku lat regularna wojna między pracodawcami to droga donikąd. Zawsze znajdzie się bogatsza firma, która podkupi pracownika oferując mu wyższe wynagrodzenie i bogatszy socjal. Potwierdzają to badania opublikowane w sierpniu 2017 roku przez Hackerlife, zgodnie z którymi nawet w firmach IT uznawanych za najlepsze pod kątem miejsca zatrudnienia (np. Facebook, Twitter, Google), mediana czasu pracy to odpowiednio 2,2, 1,9 i 2,3 lata. W mniejszych firmach pracownicy z branży IT utrzymują się jeszcze krócej, bo 1,5 roku, a 25 proc. zespołu zmienia pracę po 8 miesiącach lub szybciej.

    Rekrutacja staje się procesem nieustającym i pochłaniającym miliony. To jednak szybko nie zmieni się, bo firmy IT nadal mają z czego powiększać wynagrodzenia. Według danych GUS, udział kosztów w przychodach dla tej branży wynosi 76,7 proc., podczas gdy w całej gospodarce jest to 94 proc.

    2. Nieskończona pętla wymaganego doświadczenia

    Mimo rosnących kosztów zatrudnienia, nadal tylko ok. 30 proc. ofert pracy dotyczy osób początkujących (tzw. juniorów). Od pozostałych 70 proc. programistów wymaga się kilkuletniego doświadczenia (to tzw. regularzy posiadający średnie doświadczenie i seniorzy – czyli osoby z największym doświadczeniem w IT). Wygląda jednak na to, że system powoli zmienia się.

    Jeszcze 2 lata temu, poszukując firm gotowych przyjąć do pracy młodych programistów, zwykle słyszeliśmy, że zatrudniają wyłącznie seniorów. Obecnie przedsiębiorcy coraz częściej preferują tzw. regularów, czyli pracowników mających średnie doświadczenie, a jednocześnie – otwierają się na juniorów. Przy praktycznym braku seniorów i niedoborach w regularach, inwestowanie rozwój niedoświadczonych specjalistów IT staje się istotną strategią dla firm – zdradza Marcin Kosedowski, szef marketingu szkoły programowania online Kodilla.com, i dodaje: – Co ważne dla pracodawcy, wielu juniorów chętniej wiąże się umową lojalnościową, zobowiązując się pracować przez określony, dłuższy czas. W przypadku seniorów to praktycznie niemożliwe. Doświadczeni programiści negocjują jak najkrótsze okresy wypowiedzenia, liczone wręcz w pojedynczych dniach.

    Wielkie firmy dostrzegają ten problem, inwestując w młodych pracowników i organizując własne akademie programowania (np.  NOKIA Academy, IT Camp Comarch czy Google Developers Training). Mniejsi gracze dopiero budzą się, ale proces ruszył. Wiedzą, że muszą zacząć pozyskiwać młodych pracowników. Inaczej wypadną z rynku, bo wszystkich przejmą korporacje gotowe płacić więcej.

    3. Stereotypy, przez które tracimy 9 miliardów euro rocznie

    Nawet jeśli firmy decydują się na kandydata bez doświadczenia, często wysyłają zaproszenia na rekrutację tylko do mocno zawężonej grupy docelowej – młodych mężczyzn po studiach, mieszkających w dużych miastach. Tu dużą rolę odgrywają fałszywe stereotypy.

    Od lat wiadomo, że kobiety-programistki programują równie dobrze jak mężczyźni, ale tylko jeśli oceniający nie zna płci osoby piszącej kod. Ponadto zespoły mieszane cechują się większą efektywnością od takich, w których wszyscy pracownicy są tej samej płci.

    Jak wygląda struktura zatrudnienia w IT? W zależności od badań, podaje się, że kobiety stanowią od 8 do 12 proc. zatrudnionych jako programiści. To zdecydowanie za mało, co zauważa nawet Komisja Europejska. Wskazuje, że PKB Unii Europejskiej zwiększyłoby się o 9 mld euro rocznie, gdyby kobiety w branży informatycznej były reprezentowane tak licznie jak mężczyźni.

    Ironicznie, za niewielkie zainteresowanie kobiet programowaniem w dużej mierze odpowiadają… stereotypy dotyczące programistów. Wielu z nich zaczynało kariery w latach ‘80, ‘90 i na początku XXI wieku, było samoukami zakochanymi w komputerach, którzy całą zdobytą wiedzę zawdzięczali własnym eksperymentom, często poświęcając im tysiące godzin. Przez swoje zaangażowanie, często postrzegali młodszych kolegów i koleżanki jako gorszych, zamiast ich wspierać i przekazywać własną wiedzę dalej. Co ciekawe, nadal słychać takie głosy – wystarczy zapytać na forach czy w mediach społecznościowych o to, od czego zacząć naukę programowania, a prawie zawsze natkniemy się na jedną czy dwie osoby próbujące nas przekonać, że to elitarny zawód wymagający lat nauki.

    W ten sposób mógł się tworzyć wizerunek programisty-gbura, wzmacniany przez popkulturę. W żaden sposób nie pomaga to w przyciągnięciu do branży nowych osób. Na szczęście takie zachowania — mimo że występują — obecnie stanowią margines.

    4. Stawianie tylko na młodych z wykształceniem

    Rekruterzy z branży IT zdecydowanie zbyt rzadko zwracają się do osób po trzydziestce, chociaż wydają się one najbardziej perspektywiczną grupą, w której nadal jest wiele nieodkrytych talentów. W 2006 roku studia informatyczne ukończyło 2,36 proc. ówczesnych 24-latków, a w 2020 będzie to 3,16 proc. Dlaczego? Raczej nikt nie wątpi, że starsze roczniki poradziłyby sobie ze studiami równie dobrze, jak obecni studenci. Po prostu na początku tysiąclecia mało kto spodziewał się, że zapotrzebowanie na programistów będzie tak duże – wtedy modne były takie kierunki, jak psychologia, prawo czy zarządzanie, a informatyka była postrzegana jako trudna i nieciekawa.

    Na szczęście widać światełko w tunelu. Tysiące osób po przekroczeniu trzydziestki zauważają, że wybrały zły kierunek studiów i przebranżawiają się na programistów. Według prognozy szkoły programowania online Kodilla.com, w 2019 roku początkujący programista będzie miał średnio 35 lat. To o 6 lat więcej niż w 2016 roku. Większość z nich zacznie pracę w IT bez studiów technicznych.

    5. Demografia, która szybko się nie zmieni

    Przez gigantyczny niż demograficzny, w 2018 roku studia techniczne zacznie o ok. 40 proc. mniej osób niż w szczycie przypadającym na 2006 rok, jak wynika z danych GUS-u. Mimo że 19-latkowie chętniej niż kiedyś wybierają naukę programowania, nadal liczba absolwentów kierunków informatycznych spada.

    Poza tym formalny system edukacji działa zbyt wolno w stosunku do zachodzących zmian. „Ukończone studia nas nie obchodzą” – takie oficjalne stanowisko EY, globalnej firmy consultingowej (dawniej Ernst & Young) podała Maggie Stilwell, partner zarządzająca firmy. Po przebadaniu 400 absolwentów, EY nie zauważyło żadnej korelacji między studiami, a radzeniem sobie w pracy. To był kamyczek, który poruszył lawinę.

    Drogą EY poszły kolejne korporacje, szczególnie z branży IT. Dla Google przez lata samo wykształcenie techniczne kandydata nie wystarczało. Konieczne było ukończenie jednej z elitarnych uczelni, np. w USA z elitarnego Ivy League. Obecnie wymóg wykształcenia zniknął z większości ogłoszeń o pracę. Nawet od Inżynierów Oprogramowania wymaga się „wykształcenia inżynierskiego w naukach informatycznych lub adekwatnego doświadczenia praktycznego”, a Laszlo Bock, szef HR w Google radzi zaprezentować w CV swoje doświadczenie, zamiast skupiać się na ocenach ze studiów.

    Nawet Steve Woznak, współzałożyciel Apple, twórca komputerów Apple I i Apple II, absolwent prestiżowego Berkeley odznaczony dziewięcioma doktoratami honoris causa, właśnie postawił na naukę programowania poza formalnym systemem edukacji, tworząc akcelerator kariery WozU. Jego celem jest możliwie silnie skoncentrować się na każdym uczącym i przesunąć granice tego, co jest możliwe między przedszkolem, a rozpoczęciem kariery.

    Problemy, które trapią branżę IT same nie znikną. Rozwiązanie może być jednak w zasięgu ręki. To przede wszystkim zmiana podejścia, w tym otwarcie rekruterów na m.in. osoby z mniejszym doświadczeniem, osoby po 30tkce, które zdecydowały się przebranżowić oraz ambitne kobiety, chcące rozpocząć karierę w zawodzie programisty.

    Źródło: www.kodilla.com
  • Komfort czy widzimisię, czyli jaki naprawdę jest dom pełen nowoczesnych technologii

    Komfort czy widzimisię, czyli jaki naprawdę jest dom pełen nowoczesnych technologii

    Technika XXI wieku w niemal wszystkich sferach gospodarki gwarantuje ogromne możliwości. Nie inaczej jest w obszarze związanym z nieruchomościami oraz architekturą – eksperci z tych branż coraz częściej sięgają po rozwiązania inteligentnego domu.

    Popularny dziś termin „inteligentny dom” odnosi się do wielu różnych instalacji mających wpływ na poprawę komfortu i wzrost bezpieczeństwa domowników. Według badania „Barometr zdrowych domów 2016”, 70% Polaków, którzy decydują się na inwestycje i zmiany w domach, robi to właśnie dla poprawy komfortu oraz energooszczędności budynku. Dane te potwierdzają, że Polacy coraz bardziej przekonują się do wysoce zaawansowanych instalacji i chcą poprawić warunki bytowe w budynku, w którym spędzają nawet 90% swojego życia.

    Zamiana ról

    Inteligentne domy to takie, które odwróciły swoją rolę z biernej na aktywną. Ich kluczowym zadaniem jest przejęcie rutynowych zadań, które do tej pory wykonywane były przez domowników oraz asystowanie im w codziennym życiu poprzez dostarczanie różnego rodzaju informacji.
    – Najczęściej stosowane urządzenia w polskich domach to te z zakresu sterowania oświetleniem, roletami, drzwiami i oknami, ogrzewaniem, wentylacją i klimatyzacją, a także instalacje alarmowe oraz sprzęt RTV.  System FIBARO może częściowo przejąć nad nimi kontrolę i ułatwić życie domowników, na przykład poprzez automatyczne gaszenie świateł w pustych pokojach — mówi Krzysztof Banasiak, wiceprezes FIBARO.

    Widać wyraźnie, że wśród popularnych instalacji są te poprawiające komfort, np. sterowanie roletami czy zainstalowanymi w domu urządzeniami RTV, które uruchomić można głosowo bądź też mieć je pod kontrolą dzięki aplikacji na smartfonie, tablecie czy laptopie. Komfortowy może być też system klimatyzacji czy automatycznego nawadniania trawnika.

    – Wiele korzyści z takiego systemu wynieść mogą również osoby niepełnosprawne, których mobilność jest w jakimś stopniu ograniczona. Tutaj świetnie sprawdza się głosowe sterowanie systemem. FIBARO jest kompatybilne m.in. z Amazon Echo, Google Home oraz Apple HomePod – dodaje Krzysztof Banasiak.

    Rentowność inwestycji w inteligentny dom

    Wobec inteligentnych i zaawansowanych rozwiązań pojawiają się pytania dotyczące związanych z tym kosztów. Wiele osób w dalszym ciągu mylnie odbiera opłacalność takich inwestycji, traktując je jako wymagające znacznych  nakładów finansowych. Tymczasem, Starter Kit FIBARO, w którego skład wchodzi centrala oraz 5 urządzeń to koszt dużo niższy niż koszty flagowych telefonów od topowych producentów. Przede wszystkim jednak nie należy  automatyki domowej traktować wyłącznie jako wydatku; o wiele lepiej pasuje tu termin „rentowna inwestycja”. Automatyka oznacza bowiem mniejsze zużycie prądu czy ogrzewania, pozwala też oszczędzać na wiele innych sposobów. Przykładowo, niedawno wprowadzone przez FIBARO głowice termostatyczne mogą zredukować rachunek o nawet 42%.

    Nie ulega wątpliwości, że to, co potrafi automatyka domowa, może przypominać filmy science fiction. Jedyna różnica jest taka, że rozwiązania są dostępne na wyciągnięcie ręki. Pełna kompatybilność należących do systemu inteligentnego domu urządzeń i instalacji pozwala na zarządzanie nimi z poziomu jednej platformy. W systemie FIBARO jest ponad 170 różnych rozszerzeń, które pozwalają na połączenie polskiego systemu z rozwiązaniami producentów takich jak Yamaha, Samsung, Yale czy też D-Link.

    Bez wątpienia inteligentne domy i mieszkania będą coraz bardziej wszechobecne, także w Polsce.  Wygoda i komfort w połączeniu z bezpieczeństwem okażą się tu decydujące, również dlatego, że systemy takie wdrażać można nie tylko w budynkach wznoszonych od podstaw, ale też w tych już wybudowanych. Co więcej, problemem nie jest nawet wzrastająca mobilność społeczeństwa – rozwiązania FIBARO można spakować i ponownie skonfigurować w nowym mieszkaniu. Tak więc możliwości ich zastosowania z każdym rokiem są coraz większe.

  • Co Polacy myślą o RODO?

    Co Polacy myślą o RODO?

    Zdecydowana większość Polaków dostrzega wagę wprowadzanych przez RODO przepisów dotyczących ochrony danych osobowych. Najważniejszą z punktu widzenia respondentów zmianą jest możliwość żądania usunięcia danych lub żądania zaprzestania przetwarzania danych osobowych.

    Pomimo, że Polacy dzielą się informacjami o sobie, swoich zachowaniach, preferencjach i potrzebach, firmy niewystarczająco dobrze zarządzają obszarem doświadczeń klientów. Wysyłane informacje handlowe i marketingowe nie spełniają oczekiwań konsumentów – najlepiej oceniono komunikaty otrzymywane od banków, które zaledwie 21 proc. respondentów uznało za odpowiadające w wysokim stopniu na ich potrzeby. Główną zachętą do udostępnienia danych osobowych dla połowy respondentów są kwestie finansowe – zniżki i rabaty oraz aspekty związane z doświadczeniami klientów, takie jak wygoda realizacji działania (37 proc. wskazań) czy dopasowanie, spersonalizowanie oferty i rekomendacji (36 proc.). Preferowaną przez 81 proc. Polaków formą kontaktu marketingowego jest wiadomość e-mail – wynika z raportu KPMG w Polsce.

    Informacje o klientach, ich zachowaniach, preferencjach i potrzebach są – obok odpowiednich zasobów pozwalających je skutecznie analizować – jednym z fundamentów zarządzania doświadczeniami klientów (ang. Customer Experience). W ostatnim czasie kluczową kompetencją poszukiwaną przez firmy przetwarzające duże zbiory danych jest zaawansowana analityka dająca możliwość dopasowania komunikacji, kanałów kontaktu czy też oferty do możliwie najlepiej zdefiniowanych i opisanych segmentów klientów.

    Skłonność klientów do przekazywania informacji dotyczących ich danych osobowych, zachowań czy potrzeb na użytek sprzedawców i usługodawców nabiera szczególnego znaczenia w związku z wejściem w życie nowych regulacji RODO (Rozporządzenie o Ochronie Danych Osobowych). Celem wchodzących w życie 25 maja 2018 r. przepisów jest zapewnienie swobodnego przepływu danych osobowych pomiędzy państwami członkowskimi Unii Europejskiej, a także ujednolicenie ich przetwarzania.

    Większość konsumentów popiera możliwość żądania usunięcia lub zaprzestania przetwarzania danych osobowych

    Respondenci badania KPMG w Polsce niemal wszystkie zmiany wprowadzone przez RODO postrzegają jako istotne lub bardzo istotne. Najważniejszą dla Polaków zmianą jest możliwość zażądania usunięcia danych osobowych lub zaprzestania ich przetwarzania, które jako istotne lub bardzo istotne wskazało 89 proc. ankietowanych. Obecnie możliwość wniesienia sprzeciwu wobec profilowania w ocenie 58 proc. respondentów uważane jest jako bardzo istotne – wynik ten może w najbliższym czasie ulec zmianie wraz ze wzrostem świadomości klientów na temat procesów profilowania. Najmniej ważną zmianą według badanych jest możliwość wnioskowania o przeniesienie danych osobowych pomiędzy firmami czy instytucjami – 11 proc. respondentów uważa, że ten zapis nie jest istotny.

    Analizując poszczególne wymogi regulacji RODO, jednym z najistotniejszych, z którym przyjdzie się zmierzyć przedsiębiorstwom, wydaje się być możliwość żądania przez klientów usunięcia danych osobowych przetwarzanych przez daną firmę. Takie prawo może stać się dla konsumentów zachętą do bardziej zdecydowanych działań w przypadkach, gdy będą mieli poczucie, że ich dane osobowe nie są przetwarzane we właściwy, ich zdaniem, sposób. I choć takie postrzeganie może być ściśle związane z obawami dotyczącymi faktycznych wycieków danych, to może ono z drugiej strony być również skutkiem zbyt agresywnie prowadzonych działań o charakterze marketingowym (np. masowe kampanie telefoniczne). Większa aktywność w zakresie wniosków o usunięcie danych osobowych przełoży się bezpośrednio na obserwowany odsetek wycofywanych zgód marketingowych, co może wydatnie ograniczyć paletę możliwości i rozwiązań stosowanych w analizach skoncentrowanych zarządzaniu doświadczeniami klientów (Customer Excellence) – mówi Jan Karasek, partner w dziale usług doradczych w KPMG w Polsce.

    9 na 10 Polaków uznaje informacje urzędowe i finansowe za poufne

    Informacje urzędowe (numer PESEL, numer dowodu osobistego czy paszportu) oraz finansowe (zarobki, stan konta, numery kart płatniczych itp.) są postrzegane jako najbardziej poufne przez ponad 90 proc. Polaków. Dane o zdrowiu stanowią poufne dane według ponad 80 proc. respondentów. Informacje uznawane przez Polaków za poufne są jednocześnie tymi, które ich zdaniem wymagają szczególnej ochrony. Dane, które należy chronić to przede wszystkim informacje finansowe, urzędowe oraz zdrowotne. Im wyższy poziom wykształcenia Polaków, tym większa świadomość o konieczności ochrony danych i ewentualnych konsekwencjach ich wycieku czy nieprawidłowego użycia.

    Niezależnie od wieku dane urzędowe, finansowe i dane o stanie zdrowia najczęściej wskazywane są przez Polaków jako poufne. Pomimo, że dane takie jak lokalizacja (42 proc. wskazań), aktywność online, w tym przeglądane strony internetowe, aktywność w portalach społecznościowych itd. (47 proc. wskazań) czy aktywność zakupowa (26 proc. wskazań) mogą dostarczać wielu informacji o danej osobie i umożliwiają profilowanie, są uznawane jako poufne przez mniejszość Polaków. Jest to bardzo skorelowane z poziomem wykształcenia – osoby najlepiej wykształcone istotnie częściej traktują informacje jako poufne (ok. 30-40 punktów procentowych różnicy przy wskazaniach dotyczących danych cyfrowych) – mówi Jan Karasek, partner w dziale usług doradczych w KPMG w Polsce.

    Danymi w celach marketingowych Polacy najczęściej, co nie znaczy najchętniej, dzielą się z bankami i operatorami telekomunikacyjnymi

    Pomimo, że informacje o życiu prywatnym nie są w opinii Polaków uznawane za szczególnie poufne czy wymagające ochrony, traktowane są przez respondentów jako potencjalnie najbardziej wartościowe dla firm i instytucji (blisko 80 proc. wskazań). Informacje o aktywnościach zakupowych, internetowych oraz o lokalizacji, z którymi wiąże się obecnie olbrzymie nadzieje przy profilowaniu i tzw. analizach Big Data, uznawane są jako wartościowe przez ponad 60 proc. respondentów.

    Respondenci świadomi znaczenia swoich danych osobowych dla usługodawców najchętniej udzielają zgód na ich przetwarzanie w celach marketingowych bankom oraz operatorom telekomunikacyjnym (odpowiednio 72 i 64 proc.). Zaledwie 14 proc. ankietowanych nie udzieliło nigdy zgody na przetwarzanie danych, najczęściej były to dorosłe osoby w przedziale wiekowym 40-70 lat.

    Co zaskakujące, zaledwie 30 proc. respondentów badania uważa, że wyraziło zgodę na przetwarzanie danych osobowych do celów marketingowych dostawcom usług cyfrowych, takim jak Google czy Facebook. Wynik ten może być zaniżony – użytkownicy nie zawsze są świadomi, że w pewnym momencie korzystania z usług udzielili już takiej zgody – mówi Andrzej Musiał, menedżer w dziale usług doradczych w KPMG w Polsce.

    Mimo dzielenia się wiedzą o sobie, informacje handlowe i marketingowe nadal nie spełniają oczekiwań klientów

    Z odpowiedzi respondentów wynika, że większość informacji handlowych otrzymywanych od firm i instytucji nie odpowiada lub odpowiada zaledwie w umiarkowanym stopniu na potrzeby odbiorców. Najlepiej ocenione zostały informacje otrzymywane od banków, które jako odpowiadające w wysokim stopniu na potrzeby, oceniło tylko 21 proc. respondentów. Najgorzej pod względem przydatności zostały ocenione informacje otrzymywane od podmiotów handlowych (zaledwie 5 proc. wskazań, że informacja w wysokim stopniu odpowiada na potrzeby), biur podróży (5 proc.) czy dilerów samochodowych (4 proc. wskazań). Przyczyną krytycznych ocen może być fakt, że komunikaty często zawierają ogólne, niespersonalizowane i niedostosowane do sytuacji specyficznego klienta informacje, nastawione na masowego odbiorcę.

    Korzyści finansowe oraz aspekty Customer Excellence najlepszymi zachętami do pozostawienia danych osobowych

    Niezależnie od wieku respondentów, głównym powodem dla udzielenia zgody marketingowej jest możliwość uzyskania zniżek i rabatów – bezpośrednio (55 proc. wskazań) lub w programie lojalnościowym (45 proc. wskazań).

    O ile wzrost skłonności do podzielenia się danymi osobowymi w zamian za możliwość uzyskania korzyści finansowej nie jest zaskoczeniem, to istotnym podkreślenia jest fakt, że na drugim miejscu z niewiele niższym poziomem wskazań znajdują się aspekty związane z zarządzaniem doświadczeniami klientów, takie jak wygoda realizacji danego działania w relacji z usługodawcą lub sprzedawcą (37 proc. wskazań) czy personalizacja oferty (36 proc. wskazań). Dobrze dopasowane i spersonalizowane oferty i rekomendacje stanowią szczególną wartość dla najmłodszych klientów (do 24 lat) – mówi Jan Karasek, partner w dziale usług doradczych w KPMG w Polsce.

    Ponad połowa Polaków wycofała bądź planuje wycofanie zgody marketingowej

    Najbardziej preferowaną formą kontaktu w celach marketingowych wskazaną przez 81 proc. respondentów jest kontakt niebezpośredni przez wiadomość e-mail, dla 44 proc. Polaków wiadomości SMS czy powiadomienia w aplikacji mobilnej (24 proc. wskazań). Zbyt agresywne kontakty marketingowe mogą doprowadzić do cofnięcia udzielonych zgód marketingowych. Ponad 40% respondentów zdarzyło się wycofać udzieloną zgodę marketingową: 17 proc. wycofało zgodę w przeciągu ostatniego roku, 24 proc. zrobiło to wcześniej. Kolejne 12 proc. ankietowanych deklaruje, że planuje wycofać zgodę na przetwarzanie danych osobowych w najbliższej przyszłości. Najbardziej zagrożone na cofnięcie zgód marketingowych są sieci handlowe – 35 proc. Polaków wycofało bądź planuje wycofać udzieloną im zgodę na przetwarzanie danych w celach marketingowych. W świetle wprowadzanych nowych regulacji RODO i dodatkowych uprawnień konsumentów, działania związane z wycofywaniem zgód mogą być jeszcze bardziej intensywne niż deklarowane w badaniu.

    Kradzież danych osobowych nie jest mitem

    Polacy, którzy udzielają zgód na przetwarzanie danych osobowych, najczęściej obawiają się zbyt agresywnych kontaktów marketingowych (73 proc. wskazań), przekazania danych do innych firm (68 proc.) lub wycieku tych danych (64 proc. wskazań). Z kolei co ósmy respondent zadeklarował, że padł ofiarą kradzieży danych. Dodatkowo jedna trzecia z tych osób poniosła z tego tytułu wymierną stratę.

  • Facebook chce produkować chipy

    Facebook chce produkować chipy

    Jak wynika z najnowszych doniesień, tracący na popularności gigant społecznościowy poszukuje osób do zatrudnienia przy pracy nad nowym produktem Facebooka.

    Tym razem nie będzie miało to związku bezpośrednio z serwisem a ze sztuczną inteligencją i uczeniem maszynowym. Poszukiwany jest zespół ludzi do pracy nad nowym, autorskim układem.

    Niestety, nie ma informacji na temat celu, w jakim tworzony jest procesor, jednakże możemy wnioskować, że ma wspomagać obliczenia platformy i odciążać wykonując wybrane instrukcje, przyspieszając tym działanie serwisu.

    To kolejna wiadomość informująca o gigancie, który ma zamiar wytwarzać własne układy. Wcześniej mogliśmy obserwować podobne ruchy ze strony Apple, Google i Microsoftu.

  • Chmura w biznesie, biznes w chmurze

    Chmura w biznesie, biznes w chmurze

    Analitycy przewidują, że przedsiębiorstwa będą coraz częściej korzystać z chmury publicznej. Tempo migracji do środowiska chmurowego w dużym stopniu zależy od zrozumienia zasad jego funkcjonowania.

    W świecie nowych technologii ścierają się dwa obozy. Jeden z nich tworzą zwolennicy rozwiązań chmurowych, zachęcający firmy do współpracy z Microsoftem, Amazonem czy Google. Po drugiej stronie stoją obrońcy starego ładu. Niedawno szerokim echem odbiła się wypowiedź Michaela Della, który oznajmił, że niemal w 90 proc. przypadków lokalna infrastruktura bazująca na systemach zdefiniowanych programowo jest bardziej ekonomiczna niż chmura publiczna. Kto w tym sporze ma rację?

    Migracja do chmury publicznej pozwala zredukować CAPEX, ponieważ nie trzeba inwestować w zakup serwerów, pamięci masowych, sprzętu sieciowego czy oprogramowania. Jednak przeciwnicy cloud computingu często prezentują zestawienia pokazujące, że bardziej opłacalny od miesięcznego abonamentu jest zakup urządzeń lub aplikacji.

    Tego typu wyliczenia nie uwzględniają dodatkowych profitów, które zyskują użytkownicy usług chmurowych, a poza brakiem konieczności posiadania nakładu inwestycyjnego chmura oferuje zawsze aktualne oprogramowanie, elastyczność i mnóstwo dodatkowych funkcji, które usprawniają codzienną pracę. Wielu przedsiębiorców nie bierze tego pod uwagę. Dlatego wraz z postępującą edukacją i wzrostem świadomości klientów, proces adaptacji chmury zdecydowanie przyspieszy – tłumaczy Konrad Nieboj, specjalizujący się w rozwiązaniach chmurowych w firmie Senetic, która jest Partnerem Roku Microsoft w MŚP.

    Chmura a bezpieczeństwo

    Rok 2017 pokazał, że zagrożenia w cyberprzestrzeni przybierają na sile. Nie ulega wątpliwości, że bieżący rok przyniesie kolejne, nowe wyzwania w tym obszarze. Niestety, mniejsze i średnie firmy nie nadążają za działaniami hakerów. Jedną z głównych przyczyn jest ograniczony budżet IT, co nie ułatwia działania w erze globalizacji, gdy organizacje muszą chronić zasoby znajdujące się w różnych lokalizacjach i środowiskach.

    Najwięksi dostawcy usług chmurowych przywiązują bardzo dużą wagę do zabezpieczania zasobów. Na bieżąco aktualizują systemy, wprowadzając niezbędne poprawki. Nie bez znaczenia jest fakt, że bazują na latach doświadczeń – przykładowo Microsoft odpiera półtora miliona ataków dziennie. Przeniesienie danych do chmury pozwala znacznie ograniczyć wydatki na bezpieczeństwo i jednocześnie podnieść jego poziom – mówi Konrad Nieboj z Senetic.

    Część firm oraz instytucji – zwłaszcza w silnie regulowanych branżach, takich jak służba zdrowia czy bankowość – niechętnie odnosi się do przetwarzania zasobów w chmurze. Organizacje obawiają się, że stracą kontrolę nad danymi, jednak zasady bezpieczeństwa narzucane przez renomowanych dostawców usług są bardziej rygorystyczne niż wewnętrzne działy IT banków czy dużych koncernów.

    Skalowalność zamiast marnotrawstwa

    Jednym z największych błędów popełnianych przez działy IT jest kupowanie nadmiarowych powierzchni dyskowych, mocy obliczeniowych czy licencji. Firmy zazwyczaj wykorzystują około 30 proc. mocy obliczeniowej serwerów, z podobnym zjawiskiem mamy do czynienia w przypadku pamięci masowych. W chmurze można łatwo skalować zasoby, dostosowując je do aktualnych potrzeb użytkownika.

    Integrator może dostarczyć klientowi rozwiązania sprzętowe, które sprostają szczytowej wydajności, jednak rachunek ekonomiczny zdecydowanie przemawia na korzyść modelu usługowego – tłumaczy specjalista z Senetic.

    Nie mniej istotna jest presja czasowa, wywierana zarówno na duże przedsiębiorstwa, jak i MŚP. Zakup serwerów i uruchomienie środowisk testowych zajmuje zazwyczaj kilka tygodni. W chmurze Microsoft Azure ten proces jest znacznie krótszy.

    Z raportu McKinsey wynika, iż 40 procent firm ma co najmniej 10 proc. swoich obciążeń w chmurze. Ale liczba ta ma wzrosnąć w ciągu następnych trzech lat. Około 80 proc. firm deklaruje, że w tym okresie przekroczy próg 10 procent lub podwoi swoją penetrację chmury w tym czasie. Interesująco przedstawia się zestawienie obciążeń wszystkich serwerów używanych przez badane przedsiębiorstwa – obecnie 19 proc. znajduje się w chmurze, zaś w ciągu trzech lat ma wzrosnąć do 38 proc. Rosnący trend potwierdzają analizy Gartnera, zgodnie z którymi w 2018 roku ekspansja chmury publicznej przybierze na sile, osiągając ponad 20 proc. wzrost.

    Chmura obliczeniowa rozpoczęła kolejną rewolucję, otwierając możliwości w zakresie tworzenia nowych modeli biznesu, produktów oraz usług, a także podnosząc efektywności pracy. Kolejny rok z rzędu będzie dominować w biznesie, otwierając firmy na coraz to nowsze możliwości.

  • Przeciek nowych funkcji w Androidzie P

    Przeciek nowych funkcji w Androidzie P

    Jak głosi redakcja 9to5google, w najnowszej wersji systemu od Google zostaną nam udostępnione nowe funkcje. Jedną z nich będzie współpraca Androida z telefonami posiadającymi wycięcia w ekranach na wzór Iphone’a X. Co więcej, plotka głosi, iż otrzymamy również nowe gesty zaczerpnięte również z bezramkowca Apple.

    Gdyby tego było mało, zmiany obejmą również systemowy pasek nawigacyjny, który według przecieku łudząco przypomina swoim wyglądem i funkcjonalnością ten z (tutaj niestety brak niespodzianki)  Iphone’a X. Liczba przycisków ograniczy się do cofnij oraz do poziomej belki. Jest szansa, że będzie działał podobnie jak w urządzeniu Apple’a, czyli odpowiadał za nowe gesty. Dodatkowo otrzymamy nowy wygląd ekranu odpowiadającego za pracę z wieloma oknami na raz. Nie powinno nas dziwić takie posunięcie Google’a, ponieważ nie jest to pierwszy raz, kiedy firmy kopiują swoje funkcjonalności. Czy to wyjdzie Androidowi na dobre ? Możliwe, o ile będzie to przemyślane i dorówna wygodą konkurencji.

  • FinTech zrewolucjonizuje finanse? Niekonicznie

    FinTech zrewolucjonizuje finanse? Niekonicznie

    W dobie transformacji cyfrowej przyjęła się koncepcja, że zastosowanie nowoczesnych technologii daje gwarancję sukcesu, niemal w każdej branży. W finansach jest jednak nieco inaczej. Eksperci Capgemini w raporcie „World FinTech Report 2018”, opracowanym w partnerstwie z LinkedIn oraz Efma, dochodzą do wniosku, że rozwiązania technologiczne w istocie mogą zrewolucjonizować finanse, ale tylko pod warunkiem, że będą je wspierać firmy o ugruntowanej pozycji na rynku. Startupy z branży FinTech nie poradzą sobie, jeśli nie będą mogły liczyć na współpracę z dużymi firmami, mającymi zaufanie klientów.

    Klienci nie ufają firmom bez znanej marki

    Firmy z branży FinTech chcą zrewolucjonizować świat finansów. Muszą mieć jednak odpowiednie narzędzia do dyspozycji, by pozyskiwać klientów i móc się rozwijać. To najczęściej niewielkie przedsiębiorstwa, nierzadko startupy, które pracują nad innowacyjnymi rozwiązaniami łączącymi finanse i najnowsze technologie. Wiele z nich zmaga się jednak z problemem, w jaki sposób pozyskiwać klientów, co warunkuje dalszy rozwój. Aż dziewięć na dziesięć firm twierdzi, że w tej walce liczy się tzw. zwinne podejście i wysokie standardy obsługi, co pokazuje najnowszy raport ekspertów Capgemini „World FinTech Report”. Ponad trzy czwarte, 76 proc., przedsiębiorców uważa, że kluczem do sukcesu jest portfolio produktów, które powinno być ciągle rozwijane i udoskonalane.

    Choć FinTech rozwija się w ostatnich latach niezwykle dynamicznie, w raporcie czytamy, że od 2009 roku wartość inwestycji w sektorze wyniosła prawie 110 miliardów dolarów, to jednak sukces branży zależeć będzie przede wszystkim od tego, czy firmom z sektora uda się wypracować trwałe partnerskie relacje z przedsiębiorstwami świadczącymi usługi finansowe zgodnie z tradycyjnym modelem. To niemałe wyzwanie, bo póki co firmy te nie cieszą się dużym zaufaniem ze strony branży finansowej. Z czego ten brak zaufania może wynikać i co zrobić, by zaistnieć na konkurencyjnym rynku? Odpowiada Marek Woźny, Vice President & Managing Director w Application Services w Capgemini Polska.

    Branża finansowa, w trosce o klientów, swoją pozycję rynkową i wyniki, tradycyjnie rozpatruje wszystkie decyzje pod kątem potencjalnych ryzyk. Podejście to wymaga zrozumienia od zainteresowanych współpracą z branży FinTech, że aby zyskać zaufanie branży finansowej, muszą wykazać się podstawową stabilnością biznesową – mówi Marek Woźny.

    Marek Woźny uważa, że powinni oni zadbać o to, by oferowane rozwiązania jasno pokazywały potencjalne korzyści z ich wdrożenia. Oznacza to, że ważne w tej kwestii staną się referencje lub realne studia przypadków. Atrybutem będzie też posiadanie odpowiedniego potencjału do rozwoju i skalowalności. Ważne będą poziomy kapitałów, zabezpieczające działalność firmy w mniej aktywnych projektowo okresach, czy też dające ich klientom podstawowe zabezpieczenie ewentualnych roszczeń. Nie bez znaczenie jest również dogłębna znajomość wymagań sektorowych i regulacyjnych. Wszystko to wiąże się z wcześniejszymi doświadczeniami, będącymi podstawą w budowie marki, której firmy FinTech nierzadko jeszcze nie mają.

    Przepis na sukces

    Budowa zaufania jest jednak wyzwaniem, któremu można sprostać. Firmy z branży FinTech mają bowiem wiele zalet. Są przede wszystkim bardzo skupione na jakości obsługi klienta, a realizowane przez siebie projekty wdrażają szybko, na bieżąco też reagują na potrzeby ze strony klienta, nawet gdy konieczna jest całkowita zmiana założeń danego wdrożenia.

    Autorzy raportu zauważają także, że sukces firm z sektora FinTech gwarantuje fakt, iż z reguły koncentrują się w swojej działalności na obszarach niezagospodarowanych przez innych usługodawców w branży finansowej. Na linii FinTech – tradycyjne firmy, świadczące usługi na rynku finansów, w takiej sytuacji powstają warunki do współpracy, a nie do konkurowania między sobą. Bowiem na współpracy mogą zyskać obie strony.

    Kluczowym warunkiem wykorzystania potencjalnej symbiozy firm FinTech i firm tradycyjnych jest zbudowanie modelu współpracy ukierunkowanego na realizację celów strategicznych obu stron. Wciąż najbardziej preferowanym przez FinTech modelem jest tzw. ”White-Label”, w którym firmy tradycyjne kupują produkty/usługi od FinTechów i wdrażają je pod własną marką w oparciu o swoją infrastrukturę i system dystrybucji – mówi Marek Woźny.

    Woźny tłumaczy, że firmy FinTech mogą sprzedawać swoje rozwiązania wielu firmom tradycyjnym, które z kolei nie muszą ponosić sporych nakładów na rozwój innowacji. – Wśród innych praktykowanych modeli współpracy z firmami FinTech wymienić można zintegrowane rozwiązania hostowane „in house” lub oferowane jako SaaS, pełen outsourcing, czy też wykorzystanie akceleratorów albo inkubatorów umożliwiających FinTechom testowanie skalowalności swoich rozwiązań lub praktyczne zrealizowanie POC. Dzięki oddziaływaniu regulatorów rynku, a w szczególności dzięki wdrożeniu unijnej dyrektywy PSD2 (Payment Services Directive 2), regulującej rynek płatności, modelem który zyskuje w ostatnim czasie olbrzymią popularność są tzw. „open API”, czyli otwarte programistyczne interfejsy aplikacji. Model ten umożliwi zbudowanie swoistego ekosystemu interesariuszy i uczestników rynku finansowego. Pozwoli na przykład na dostęp do naszych rachunków bankowych podmiotom zewnętrznym, oczywiście tylko i wyłącznie za zgodą klientów. Open API, w połączeniu z usługami opartymi na rozwiązaniach chmurowych, umożliwią zaoferowanie klientom nowych, innowacyjnych rozwiązań, a wsparcie ze strony platform mobilnych i urządzeń internetu rzeczy (IoT) sprawi, że oferta ta będzie mogła być odpowiednio szybko spersonalizowana i dostarczona poszczególnym klientom – dodaje Marek Woźny.

    Zbudowanie zaufania partnera biznesowego to jednak tylko jedno z wyzwań, którym sprostać muszą przedsiębiorstwa z sektora FinTech. Najpierw trzeba bowiem takiego partnera znaleźć, co może wiązać się z pewną trudnością, która często wynika choćby z innej kultury organizacji, panującej w obu firmach. Najczęściej wskazywanym powodem, na poziomie 70 proc., jest jednak brak zwinnego podejścia ze strony partnera-tradycyjnej firmy finansowej. Podkreślali przedstawiciele sektora FinTech w raporcie Capgemini, LinkedIn i Efma. Nieco ponad 59 proc. uznało, że trudność sprawia brak chęci współpracy. Wśród innych powodów wymieniono m.in. takie czynniki, jak różnice w stosowanych systemach IT, różnice w skali biznesu, czy wreszcie obawę przed utratą kontroli.

    Jak znaleźć partnera?

    Zdaniem autorów raportu „World FinTech Report 2018” decyzję o rozpoczęciu partnerskiej relacji należy podejmować na podstawie czterech czynników.

    Po pierwsze, czy do współpracy zostali wskazani odpowiedni ludzie. Od nich zależeć może sukces przedsięwzięcia. Po drugie, należy wziąć pod uwagę aspekt finansowy i znaleźć odpowiedź na pytanie, czy współpraca zapewni FinTech-owi istnienie przez najbliższe 12 miesięcy. Udana współpraca jest bowiem długofalowa i już na etapie planowania należy w taki sposób o niej myśleć.

    Liczy się również aspekt biznesowy i ocena, czy współpraca ma realne szanse na sukces. Ostatni czynnik dotyczy samego rozwiązania technologicznego, proponowanego przez FinTech, czy ma ono szansę przetrwać i czy jest skalowalne.

    Marek Woźny wskazuje tutaj przykład udanej współpracy, jakim jest partnerstwo Grupy ING oraz firmy Scalable Capital.

    Ten FinTech, który jest wiodącym dostarczycielem nowoczesnych rozwiązań inwestycyjnych, on-line wealth management, zaoferował, aby ING wprowadził ich spersonifikowane rozwiązania w obszarze optymalizacji portfeli inwestycyjnych klientów sektora detalicznego. Sukces na rynku niemieckim zaowocował decyzją ING o wprowadzeniu tego opartego na sztucznej inteligencji rozwiązania FinTechowego również na innych rynkach. Warto w tym miejscu podkreślić rolę firm tzw. sektora BigTech, czyli np. z firm z grupy GAFA (Google, Apple, Facebook, Amazon), które bazując na swojej natywnej innowacyjności, kapitałach oraz gigantycznych zasobach wiedzy o swoich klientach, już wkrótce z pewnością będą chciały rozszerzyć portfel swoich cyfrowych usług o sektor finansów – mówi Marek Woźny.

    Przyszłość usług dla finansów leży zatem w rękach sektora FinTech i tradycyjnych firm, które mogą i powinny uzupełniać się wzajemnie, by odpowiadać na potrzeby klientów. Nadszedł najwyższy czas, by na nowo zdefiniowały one swoją drogę do sukcesu biznesowego w świecie zdominowanym przez technologię, uważają autorzy raportu.

  • Szkodliwe koparki kryptowalut ukryte nawet w… aplikacjach mobilnych

    Szkodliwe koparki kryptowalut ukryte nawet w… aplikacjach mobilnych

    Badacze z Kaspersky Lab odkryli, że coraz więcej cyberprzestępców zwraca się w kierunku szkodliwego oprogramowania, które kopie kryptowaluty kosztem urządzeń mobilnych użytkowników. Przestępcy ci stają się coraz bardziej chciwi i obecnie wykorzystują nie tylko szkodliwe oprogramowanie, ale zaszywają również koparki w legalnych aplikacjach VPN i związanych z piłką nożną, aby zarabiać na setkach tysięcy ofiar bez ich zgody.

    Cyberprzestępcy, którzy dążą do pomnożenia swoich zysków, nie mogli zignorować popularnego zjawiska kopania kryptowalut. Tak więc kopią na komputerach, serwerach, laptopach oraz urządzeniach mobilnych. Jednak wykorzystują do tego celu nie tylko specjalne szkodliwe oprogramowanie. Eksperci wykryli, że przestępcy dodają funkcje kopania kryptowaluty do legalnych aplikacji i rozprzestrzeniają je pod przykrywką aplikacji VPN oraz transmisji meczy piłki nożnej, a ich ofiary znajdują się głównie w Brazylii i na Ukrainie.

    Według danych Kaspersky Lab najpopularniejszymi koparkami są aplikacje związane z piłką nożną. Ich główną funkcją jest transmisja meczy przy jednoczesnym dyskretnym kopaniu kryptowalut. W tym celu twórcy wykorzystali narzędzie Coinhive. Gdy użytkownicy uruchamiają transmisję, aplikacja otwiera plik HTML z osadzoną koparką JavaScript, przekształcając moc procesora urządzenia mobilnego w kryptowalutę Monero dla swojego autora. Aplikacje były rozprzestrzeniane za pośrednictwem Sklepu Play firmy Google, a najpopularniejsze z nich zostały pobrane około 100 000 razy. Prawie wszystkie te pobrania (90 proc.) miały miejsce w Brazylii.

    Drugim celem szkodliwych narzędzi do kopania kryptowaluty stały się aplikacje służące do nawiązywania połączeń VPN (ang. Virtual Private Network) — wirtualnej sieci prywatnej pozwalającej np. na zwiększenie bezpieczeństwa w niezaufanych sieciach oraz uzyskiwanie dostępu do zasobów internetu, które w przeciwnym razie nie byłyby osiągalne, np. ze względu na ograniczenia regionalne. Kaspersky Lab wykrył szkodliwą koparkę Vilny.net, która potrafi monitorować ładowanie baterii i temperaturę urządzenia – aby móc zarobić przy mniejszym ryzyku dla atakowanych gadżetów. W tym celu aplikacja pobiera plik wykonywalny z serwera i uruchamia go w tle. Vilny.net został pobrany 50 000 razy – w większości przez użytkowników na Ukrainie i w Rosji.

    Badacze zalecają użytkownikom stosowanie następujących środków w celu zabezpieczenia swoich urządzeń i prywatnych danych przed potencjalnymi cyberatakami:

    • Wyłącz możliwość instalowania aplikacji z innych źródeł niż oficjalne sklepy z aplikacjami
    • Dopilnuj, aby wersja systemu operacyjnego na Twoim urządzeniu była aktualna w celu zredukowania liczby luk w zabezpieczeniach oprogramowania i obniżenia ryzyka ataków.
    • Wybieraj jedynie aplikacje zaufanych i rzetelnych dostawców – szczególnie wprzypadku rozwiązań służących do ochrony prywatności online (np. VPN).
    • Zainstaluj sprawdzone rozwiązanie bezpieczeństwa w celu ochrony swojego urządzenia przed cyberatakiem.

    źródło: Kaspersky Lab

  • Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Maszyny zdolne do odczuwania ludzkich emocji

    Temat Sztucznej Inteligencji poruszałem na moim blogu już wielokrotnie. Jestem zafascynowany tą technologią i możliwościami jakie ze sobą niesie. Jestem świadomy też zagrożeń. Jak daleko posuniemy się w rozwoju tej technologii? Na ile jej pozwolimy?

    Sztuczna Inteligencja zrobi za nas wszystko, wynajdzie nawet lek na raka – twierdzą jej entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn. Tak czy inaczej firmy, które angażują się dziś w rozwój AI, będą decydować o naszych losach w najbliższych kilkunastu latach. Tym bardziej, że mają na to pieniądze.

    Oren Etzioni, współtwórca i prezes Allen Institute for Artificial Intelligence, instytutu stworzonego dwa lata temu przez współzałożyciela Microsoftu Paula G. Allena, na pytanie dziennikarza czy maszyny kiedyś będą zdolne do odczuwania, odparł: „Krótka odpowiedź brzmi – nie. Rozszerzona odpowiedź brzmi – nie będą, bo ludzie mają zniekształcone postrzeganie tego, co komputery mogą robić w dzisiejszych czasach”. Zacytujmy jeszcze Stuarta J. Russela, naukowca zasłużonego dla badań nad AI, autora wielu publikacji dotyczących tego zjawiska: „Największą przeszkodą w rozwoju AI jest to, że ciągle nie mamy pojęcia, w jaki sposób nasz mózg wytwarza świadomość. Jeśli ktoś wręczyłby mi miliard dolarów na budowę świadomej maszyny, nie przyjąłbym tego miliarda, bo nie jesteśmy bliżsi zrozumienia mechanizmu ludzkiej świadomości od ludzi, którzy zajmowali się tym problemem 50 lat temu”.

    Spróbujmy jednak przyjrzeć się kilku faktom, którym już nie da się zaprzeczyć i które pokażą nam bez zniekształceń, na jakim etapie jesteśmy w pracach nad Sztuczną Inteligencją. Czy rzeczywiście sceptycyzm wyżej cytowanych ekspertów jest tak bardzo uzasadniony?

    Entuzjazm ogrania nas wszystkich

    Nie ma miesiąca bez kolejnych doniesień o inwestycjach globalnych korporacji takich jak Google, Amazon, IBM, Facebook, Apple, Microsoft, Samsung w AI, czy mnożących się start-upach, które wdrażają projekty z wykorzystaniem ultranowoczesnych, inteligentnych technologii. O trendzie chętnie piszą zarówno mainstreamowe media, jak i specjalistyczne portale o tematyce technologicznej. Towarzyszy temu tradycyjna już dyskusja o tym, do czego może doprowadzić upowszechnienie Sztucznej Inteligencji. Entuzjaści wyliczają korzyści, na jakie możemy liczyć już w ciągu kilku, najwyżej kilkunastu lat, wymieniając: komputery reagujące na ludzką mimikę, emocje i głos; systemy komputerowe, które samodzielnie poprawiają własną wydajność w wyniku kolejnych operacji na zbiorach danych (machine learning); wszczepialne nanoboty zdolne do rozpoznawania i niszczenia komórek rakowych; komputerowe systemy wspomagania decyzji; „smart” technologie w naszych mieszkaniach, czy autonomiczne samochody. Już dzisiaj wysiłki na rzecz wydłużania ludzkiego życia, dążenie do coraz wydajniejszego przetwarzania danych i postępująca personalizacja osobistych komputerów stanowią pewien rodzaj paliwa dla globalnego biznesu i przestają być wyłącznie domeną wyobraźni hollywoodzkich reżyserów, którzy temat AI eksploatują od lat.

    Sztuczna Inteligencja do ogromne pieniądze

    Stopniową komercjalizację AI wspierać będzie upowszechnienie badań, które są nad nią prowadzone i wzrost inwestycji w ten obszar. W ciągu kilku lat zaangażowanie dużego kapitału powinno pozwolić na rewolucyjne zmiany w medycynie i biznesie.  Agencje badawcze prognozują, że przełomowym okresem dla rozwoju zjawiska będzie najbliższych pięć lat. W tym czasie sumy inwestowane we wdrożenia dotyczące AI wzrosną o kilkadziesiąt procent, a fascynacja zjawiskiem zacznie przypominać mechanizm śnieżnej kuli. Według danych CB Insights na globalnym rynku finansowym tylko w 2015 roku pojawiło się około 300 nowych, dużych spółek, które definiowały swoją misję poprzez takie słowa kluczowe, jak: sztuczna inteligencja, uczenie maszynowe, sieci neuronowe. Według raportu przygotowanego przez agencję badań rynkowych TechSci Research w Stanach Zjednoczonych w okresie 2016 – 2021 wartość inwestycji w rozwój AI wzrośnie o 75 procent. Pieniądze będą przeznaczone na: adaptację AI do przedmiotów codziennego użytku, badania naukowe, ulepszanie autonomicznych samochodów i zastosowanie nowoczesnych technologii w medycynie. Z kolei firma badawcza BCC Research, specjalizująca się w rynkach technologicznych, przewiduje że wartość światowego rynku inteligentnych urządzeń (neurokomputery, systemy eksperckie, autonomiczne roboty, inteligentne systemy wspomagania) wzrośnie do 15,3 mld dolarów w 2019 roku, ze średnią roczną stopę wzrostu na poziomie 19,7 procent. Bez wątpienia jest to najszybciej rozwijająca się część przemysłu technologicznego.

    Naukowcy potrzebni od zaraz

    Globalne poruszenie w biznesie ma swoje zaplecze w inicjatywach badawczych. Nie byłoby dzisiejszego boomu na inwestycje w AI bez zaangażowania naukowo-technicznego instytutów, placówek naukowych, technologicznych hubów i organizacji non-profit. Wspomniany już Allen Institute for Artificial Intelligence zatrudnia kilkudziesięciu naukowców, technologów z różnych dziedzin, a jego misją jest, jak można przeczytać na stronie instytutu: „działalność na rzecz ludzkości poprzez zaangażowanie wysoko rozwiniętych technologii i badań”. Oprócz placówek badawczych, w przedsięwzięcia związane ze sztuczną inteligencją, inwestują swoje pieniądze również technologiczne korporacje, które wręcz licytują się w uruchamianiu nowych projektów opartych o wysoko zaawansowane technologie. Przełomowe okazały się tu ostatnie cztery lata. Google zaangażował się już w 2012 roku w przedsięwzięcia związane z AI. W 2014 roku firma zapowiedziała inwestycje rzędu setek milionów dolarów w start-up Deep Mind. W 2014 roku Mark Zuckerberg, Elon Musk and Ashton Kutcher połączyli siły i zainwestowali pokaźne środki w firmę Vicarious FPC angażującą się wyłącznie w najbardziej wizjonerskie projekty AI. Jak deklaruje firma w swej misji, jej celem jest „stworzenie unikalnej architektury algorytmów, po to by osiągnąć poziom ludzkiej inteligencji w urządzeniach wykorzystujących do swego funkcjonowania język, zdolności widzenia i ruchu”. Jednym ze strategicznych celów Facebooka jest stworzenie potężnego systemu przetwarzania danych, a także stworzenia technologii rozpoznawania ludzkiej twarzy przez komputery. Na rozwój AI przeznaczane są ogromne środki – pieniądze, kapitał intelektualny i praca ludzi. To wszystko, w mojej ocenie, może spowodować, że w najbliższych kilku latach odpowiednik prostego AI pojawi się w laboratoriach wielkich firm i instytutach badawczych.

    Maszyny podejmują decyzje za nas

    W kontekście szacowanych inwestycji badawczych i finansowych ciekawe wydają się przewidywania dotyczące najważniejszych kierunków rozwoju AI. Warto tu przytoczyć najświeższe opracowanie firmy analitycznej Gartner dotyczące AI. Kilka przykładów – według Gartnera w najbliższych kilku latach systemy informatyczne będą w stanie przetwarzać duże zbiory danych, tak by podejmować autonomiczne decyzje o charakterze ekonomicznym. Do roku 2020 roku aż 5% realizowanych transakcji biznesowych na świecie będzie rezultatem tego, że algorytmy funkcjonujące w zainstalowanym oprogramowaniu, osiągną zdolność do wyciągania wniosków ze zbioru danych wprowadzonych do komputera. Według Gartnera, do roku 2018 aż 20 procent treści i informacji użytecznych dla biznesu będzie opracowywanych i publikowanych przez komputery. Mówimy tu więc już o inteligentnym lub prawie inteligentnym przetwarzaniu danych różnych kategorii. Na chwilę zatrzymując się na tym wątku, zwróćmy uwagę na rynkową obecność firm, które już dzisiaj oferują systemy samodzielnie przetwarzające dane w czytelne dla odbiorcy raporty. Jedną z nich jest Yseop, oferująca usługę, która może w najbliższej przyszłości zrewolucjonizować pracę księgowych, analityków giełdowych, strategów biznesowych, menedżerów. Dzięki prostemu interfejsowi, użytkownik wprowadza szereg danych do komputera: liczby, wykresy, infografiki, a te następnie są automatycznie kompilowane, zestawiane i przetwarzane przez maszynę. Agencja prasowa Associated Press wykorzystuje już teraz w swej pracy komputery, które samodzielnie tworzą opracowania wykorzystywane później przez dziennikarzy. Jakość ich jest bardzo wysoka, tylko niektóre z nich wymagają poprawienia ludzką ręką.

    Dziecko uczone przez maszyny

    Gartner w swoich przewidywaniach dotyczących najbliższej przyszłości zwraca szczególną uwagę na jeden trend istotny dla dalszego rozwoju systemów AI – jest nim „uczenie się maszyn”. Jedno z podstawowych pytań, zadawanych obecnie przez osoby zaangażowane w rozwój AI, brzmi: w jaki sposób tworzyć systemy AI, które będą  samodzielnie poprawiać swoją efektywność na bazie własnych doświadczeń? Jak wykorzystać w tworzeniu komputerów zasady, które kierują procesami uczenia się u ludzi? Dochodzimy tu więc do największego według wielu specjalistów wyzwania, jakie stoi przed twórcami AI, pomysłu fascynującego i kontrowersyjnego jednocześnie: stworzenia zaawansowanych  systemów, które potrafią zastępować człowieka w podejmowaniu decyzji. W tym miejscu widać, że w całym zjawisku chodzi zdecydowanie o coś więcej, niż automatyzację powtarzalnych procesów, która przecież jest już obecna w biznesie i przemyśle. Mówimy tu bowiem o działaniu maszyn w oparciu o algorytmy zakładające rozpoznawanie wzorców, przewidywanie przyszłych wyników i na tej podstawie podejmowanie decyzji. Jest wielce prawdopodobne, że praktyczną odpowiedzią na to wyzwanie będzie technologia wykorzystująca sztuczne sieci neuronowe działające na zasadach podobnych do działania ludzkiego mózgu (trend technologiczny quantum computing). Wyobraźmy sobie teraz, że maszyny zdolne do analizy danych i wyciągania z niej wniosków, angażujemy do pracy w obszarze medycyny. Komputery na podstawie przeanalizowanych parametrów dokonują diagnozy, wykrywają anomalie, przewidują wystąpienie choroby. Zacytujmy jeszcze raz Orena Etzioni: ”Co, jeśli recepta na lekarstwo na raka jest ukryta wewnątrz nudnych raportów obejmujących tysiące badań klinicznych? To właśnie AI będzie w stanie je odczytać i co najważniejsze – zrozumieć. Połączy dane z odrębnych badań, postawi nowe hipotezy i zaproponuje eksperymenty, które zostałyby zapewne pominięte przez ludzi”.

    Co Pan na to, Panie Watson?

    Kolejnym poważnym zagadnieniem, na którym koncentrują się specjaliści zaangażowani w rozwój AI, jest kwestia przetwarzania języka naturalnego. Wielu menedżerów uważa, że opanowanie przez komputery zdolności rozumienia języka może oznaczać rewolucję w dążeniu do integracji i współpracy inteligencji ludzkiej z inteligencją maszynową. Google twierdzi, że 20% bieżących zapytań klientów w rozmowach telefonicznych obsługiwane jest przez maszyny. Badania związane z tym obszarem podążają w kierunku rozwijania systemów, które są w stanie współdziałać z ludźmi, poprzez dialog, a nie tylko reagować na proste żądania. Niektórzy dodają też przy tej okazji, że przełomem, na który poczekamy około 20 lat, będzie zdolność komputerów do pełnego rozpoznawania ludzkiej twarzy, łącznie ze zdolnością odczytywania ludzkiej mimiki i emocji. Pewne jest, że przełomowe zdarzenia na tym obszarze następują już dzisiaj, wręcz obok nas. Nierzadko mamy kłopoty z oceną ich skali i znaczenia dla przyszłości. Komputer IBM Watson (2880 rdzeni, 15 TB pamięci operacyjnej) został stworzony przez IBM właśnie do odpowiadania na pytania zadawane w języku naturalnym.  Maszyna do swoich standardowych operacji używa więc procesu przetwarzania języka naturalnego. Aby odpowiedzi były możliwe, komputer wyposażono w bazę danych, zawierającą miliony stron różnych tekstów, w tym słowników i encyklopedii i zaprogramowano tak, aby używał setek równolegle działających algorytmów do znalezienia prawidłowej odpowiedzi. Dzięki temu mechanizmowi komputer potrafi przeanalizować ogromne zbiory danych z różnych obszarów, takich jak biznes, ekonomia i medycyna. Watson, wchodząc w kontakt głosowy z człowiekiem, „rozumie” więc zadawane pytania i problemy, a gromadząc kolejne dane „uczy się” z nich – zgodnie z ideą uczenia się maszyn.

    Komputery „nabierając” inteligencji, będą miały coraz bardziej „ludzką” zdolność kontaktu z nami, a ich reakcje będą efektem zdolności odczytywania i przetwarzania złożonych danych o różnym charakterze. Przełomowe badania związane ze stworzeniem IBM Watson ulegną upowszechnieniu i komercjalizacji. Jest niemal pewne, że w najbliższych latach możemy spodziewać się rosnącej popularności autonomicznych asystentów – aplikacji, które będą służyły pomocą w zdobywaniu wiedzy i podejmowaniu decyzji dotyczących naszego życia prywatnego. Już dzisiaj nie trzeba sięgać daleko wyobraźnią. Od kilku lat użytkownicy iPhone’a mogą cieszyć się z towarzystwa aplikacji Siri, która odpowiada głosowo na proste pytania dotyczące na przykład czasu, pogody, daty, ale też finansów, muzyki, zawartości poczty elektronicznej, czy kontaktów umieszczonych w smartfonie. Do podobnych projektów, ciągle udoskonalanych, ale już dostępnych dla indywidualnego użytkownika, należy Amazon Echo. Oprogramowanie to również wykorzystuje do swojego działania mechanizm przetwarzania języka naturalnego.

    Optymiści, realiści i pesymiści

    AI budzi ciągle mieszane uczucia, na które składają się z jednej strony entuzjazm, a z drugiej obawy podsycane przez twórców filmów, pisarzy i pesymistycznie nastrojonych futurologów. Założyciela Facebooka, Marka Zuckerberga, można zaliczyć do grona technologicznych optymistów i biznesowych pragmatyków „(…) AI dojdzie do punktu, w którym będzie przynosiła korzyści, z których będą mogły czerpać zarówno małe, jak i duże firmy. Pracujemy nad AI, ponieważ uważamy, że bardziej inteligentne usługi będą bardziej przydatne”. Jego trzeźwe podejście nie udziela się wszystkim tym, którzy funkcjonują na rynku technologicznym. Według raportu opracowanego dla Baker & McKenzie, spośród 424 specjalistów finansowych, 76 proc. uważa, że organy nadzoru finansowego nie są przygotowane do współpracy z oprogramowaniem AI, a 47 proc. wyraża wątpliwości, czy ich własne organizacje rozumieją ryzyka wiążące się z korzystaniem z AI. Badani wyrazili ponadto przekonanie, że uzależnienie od sztucznej inteligencji będzie oznaczać konsekwencje w postaci redukcji zatrudnienia. W powyższym fragmencie zawarte jest całe spektrum emocji i poglądów dotyczących AI. Bill Joy, swoimi przemyśleniami dotyczącymi AI dzielił się 16 lat temu w legendarnym i często przywoływanym dzisiaj artykule „Dlaczego przyszłość nas nie potrzebuje”, opublikowanym w magazynie Wired. W wielu fragmentach refleksję autora można dzisiaj traktować jednocześnie jako przejaw skrajnego pesymizmu, ale też i przenikliwości. Joy, przy wszystkich korzyściach, jakie dostrzegał w rozwoju AI, nie krył również obaw. Powiedział on, że „Powinniśmy zmierzyć się z faktem, że najbardziej atrakcyjne technologie 21 wieku – robotyka, inżynieria genetyczna i nanotechnologia – stwarzają inne zagrożenia, niż technologie, które pojawiły się wcześniej. W szczególności roboty, inżynieria organizmów i nanoboty posiadają olbrzymi czynnik niebezpieczeństwa: te technologie mogą się same replikować.”

    Czy przyszłość jest „bright”?

    Cóż, wydaje się jednak, że zagadnienie AI jest tak złożone, że zarówno skrajni optymiści i pesymiści mają ciągle szansę na zwycięstwo w pojedynku na opinie o AI i jej roli w naszym życiu, a może życiu całego gatunku. Jedno jest pewne: żyjemy w czasach, w których pojęcie postępu i korzyści dla ludzkości musi być definiowane od nowa. Kategorie wypracowane przed wiekami mogą nam bowiem już nie wystarczyć do pojmowania rzeczywistości i nas samych w dobie osobistych asystentów, komputerowych, autonomicznych decydentów i nanobotów przemieszczających się w naszych organizmach.

    Link do mojego bloga

  • Trzy sygnały, że Bitcoin to jednak bańka

    Trzy sygnały, że Bitcoin to jednak bańka

    Zapewnienia, że „nic nie będzie już takie jak dawniej” i rozmowy o inwestycjach w Bitcoiny w poczekalniach u dentystów to najlepsze argumenty, by trzymać się od kryptowalut z daleka. O kontrowersjach wokół najbardziej znanej kryptowaluty mówi Emil Szweda – Michael/Ström Dom Maklerski.

    W tym roku mija 35 lat od kiedy magazyn Time po raz pierwszy posłużył się terminem „nowa ekonomia”, choć popularność zyskał on w połowie lat dziewięćdziesiątych, a rozkwit w czasie wielkiej technologicznej hossy z przełomu wieków. Choć sam termin miał tylko opisywać przejście z gospodarki przemysłowej na rzecz technologicznej, opartej na wiedzy, w czasie internetowego boomu używano go do odróżnienia firm działających w sektorze przemysłu oraz firm internetowo-technologicznych. Z czasem termin nowa ekonomia zaczął być używany ironicznie, w odniesieniu do firm internetowych, które nie osiągają zysków, lecz dotychczasowe prawidła funkcjonowania przedsiębiorstw miałyby ich nie obejmować.

    Być może najlepszą ilustracją internetowego szaleństwa i późniejszego otrzeźwienia były notowania Yahoo!, którego kapitalizacja wystartowała z 848 mln dolarów w 1996 r. by osiągnąć 125 mld dolarów w 2000 r. i zawrócić do 10 mld dolarów rok później. (Ostatecznie w 2016 r. Verizon kupił internetowe aktywa firmy – wyszukiwarkę, konta mailowe i komunikator – za 4,8 mld dolarów). Pytanie brzmi, w którym miejscu tej historii jest Bitcoin lub inne kryptowaluty?

    Nadchodzi nowe

    Bańka internetowa to najświeższe spośród wielu skojarzeń, a schemat powstawania baniek na przestrzeni dziejów wydaje się zbliżony, począwszy od tulipanowej sprzed 400 lat. W inwestorach narasta przekonanie, że oto stoją przed szansą współuczestniczenia w historii, która na zawsze odmieni oblicze świata (nowa ekonomia), w którym żyją, przy czym same przemiany są na bardzo wczesnym etapie, co ma gwarantować krociowe zyski w długim terminie – gdy rewolucja zmieni się w nową rzeczywistość. I – co najciekawsze – to rzeczywiście działa, tyle, że rzadko w wypadku pionierów. Google debiutował na giełdzie z ceną 50 dolarów za akcję obecnie jest to ponad 1100 dolarów i to Alphabet, a nie Yahoo! zawładnął Internetem i to nie w skali USA, ale wymiarze globalnym.

    Nie zawsze też zyski muszą pochodzić z dziedziny bezpośrednio związanej z nową gospodarką. Najbogatszą firmą na świecie jest wszak Apple, który zarabia na produkcji sprzętu (a więc „po staremu”), a najbogatszym człowiekiem świata – Jeff Bezos – założyciel Amazona, który swoją potęgę buduje na optymalizacji dostaw zakupów internetowych, choć gdyby nie hossa dotcomowa, Amazon nigdy nie mógłby powstać, a użyteczność iPhonów nie zostałaby doceniona.

    Jeśli spojrzymy w ten sposób na Bitcoina, to łatwo dojść do przekonania, że bliżej mu do Yahoo! niż Google’a. Choć sam pomysł na powstanie kryptowaluty był przełomowym, to technologia sprzed dekady, sprawia, że w porównaniu do późniejszych kryptowalut bywa uznawany za walutę przestarzałą, która nie spełni pokładanych oczekiwań. Natomiast firmy, które jako pierwsze zdołają skomercjalizować technologię blockchain na dużą skalę, mogą osiągnąć sukces, pod warunkiem jednak, że zaakceptują płatności także w tradycyjnych walutach.

    Wszyscy o tym mówią

    Już w latach 30. minionego wieku mawiano, że gdy pucybut zapyta jakie akcje ma kupić warto ewakuować się z giełdy. Dekadę temu o inwestycjach giełdowych za pośrednictwem funduszy inwestycyjnych gawędzono w barach, kolejkach do sklepowej kasy i innych miejscach publicznych. Giełdowa hossa przebiła się do głównych wydań wiadomości telewizyjnych, podobnie jak nocne kolejki społeczne pod oddziałami domów maklerskich przyjmujących zapisy na akcje prywatyzowanych przedsiębiorstw, a gotówka całymi miliardami napływała do TFI i to w skali miesięcznej.

    Czy z Bitcoinem jest podobnie? Dziś dzienniki telewizyjne nie mają już tej samej siły oddziaływania, a bieżących informacji częściej szuka się w Internecie, gdzie faktycznie kolejne rekordy notowań Bitcoina (i jego późniejszy spadek) skwapliwie odnotowywały największe serwisy ogólnotematyczne. Sam byłem świadkiem rozmowy o Bitcoinach w poczekalni dentystycznej, co oczywiście niczego jeszcze nie dowodzi.

    Ale już sytuacja, w której firmy porzucają dotychczasowy profil działalności na rzecz bardziej modnego i potencjalnie zyskownego może być takim sygnałem ostrzegawczym. Pod koniec lat 90. wystarczyło ogłosić zamiar stworzenia serwisu internetowego, by kapitalizacja spółki wzrosła o kilkadziesiąt, a nawet kilkaset procent (np. Agora i jej projekt Gazeta.pl lub Softbank i projekt Expander.pl). Dziś podobnie wygląda reakcja inwestorów na spółki, które postanowiły na poważnie zająć się blockchainem.

    To jest uzasadnione

    Problem z bańkami polega na tym, że nawet w ich apogeum zaangażowani w nie inwestorzy na ogół są w stanie używać z pozoru sensownych argumentów uzasadniających wycenę danego aktywa. Dopiero z perspektywy czasu trudno zrozumieć, dlaczego ktoś zapłacił za cebulkę tulipana równowartość domu z ogrodem, albo kupował akcje, gdy ich wycena sięgała kilkuset lat przyszłych zysków czy też metr mieszkania w klasie ekonomicznej za kilkakrotność średniego miesięcznego wynagrodzenia.

    Z Bitcoinem sprawa jest jeszcze trudniejsza, ponieważ za jego wycenę odpowiadają czyste siły popytu i podaży, nie ma w nim natomiast wartości fundamentalnej, chyba, że za taką uznać ilość energii elektrycznej i mocy obliczeniowej potrzebnej do jego „wykopania”. Co prawda zwolennicy krytpowalut twierdzą – nie bez racji – że o tradycyjnych walutach można powiedzieć dokładnie to samo, ponieważ ich wartość opiera się tylko na wierze uczestników gospodarki co do swojej wartości, niemniej dolary, euro czy złote są w pełni wymienialne na godziny pracy, usługi, czy towary, zaś Bitcoin to nadal głównie instrument spekulacyjny, a nie waluta. Hasła o zerwaniu z zależnością wartości pieniądza od nieprzemyślanych lub chroniących partykularne interesy decyzji politycznych brzmią kusząco, a nawet logicznie, ale gdy wstaniemy od stołu, liczy się to, czy Bitcoinem można wygodnie zapłacić za codzienne zakupy. Nie wystarczy bowiem, że pieniądz jest ideologicznie czysty, by zyskał powszechną akceptację – musi być jeszcze w pełni wymienialny i – to najważniejsze – stabilny. Świat nigdy nie zaakceptuje pieniądza, którego wartość – w przeliczeniu na towary, usługi i godziny pracy – skacze i spada o kilkadziesiąt procent w kilka tygodni, dni i godzin, nawet jeśli technologia, która za nim stoi, rzeczywiście może zmienić obieg pieniądza w gospodarce.

  • Archos ogłasza partnerstwo z European Crypto Bank

    Archos ogłasza partnerstwo z European Crypto Bank

    Archos, producent Safe-T mini – sprzętowego portfela do kryptowalut, ogłasza partnerstwo z European Crypto Bank – pierwszą europejską organizacją powołaną do ułatwienia inwestycji oraz procedur podatkowych związanych z kryptowalutami.

    European Crypto Bank Card

    European Crypto Bank (ECB) to projekt znajdujący się w trakcie ICO (ang. initial coin offering) – formie crowdfundingu opartego na sprzedaży tokenów bazujących na kryptowalutach. W ramach umowy partnerskiej posiadacze co najmniej 600 tokenów ECB, których ICO zakończy się 1 maja 2018, otrzymają za darmo dedykowaną wersję urządzenia Safe-T mini, pozwalającego na przechowywanie kluczy prywatnych na fizycznym nośniku i bezpieczne wykonywanie transakcji za pomocą kryptowalut. Dostarczone przez firmę Archos portfele wystąpią w wersji sygnowanej marką European Crypto Bank. Urządzenia trafią również do sprzedaży w cenie 49,99 Euro.

    Archos będzie także wspierać pakiet usług European Crypto Bank w ramach wielojęzycznej platformy, która zostanie udostępniona wraz z początkiem maja. Do usług tych zaliczają się m.in.: generowanie oświadczeń finansowych, udzielanie porad inwestycyjnych, wymiana kryptowalut na waluty tradycyjne czy generowanie deklaracji podatkowych zgodnie z regulacjami poszczególnych krajów europejskich.

    Ponadto Archos otrzyma od European Crypto Bank transfer środków w wysokości 150 000 tokenów ECB, w ramach inwestycji w badania i rozwój (R&D).

    Archos Safe-T mini

    Sprzętowy portfel do kryptowalut Archos Safe-T mini został zaprezentowany podczas targów MWC 2018 w Barcelonie. Urządzenie stworzone zostało z myślą dla osobach, dla których kluczowe jest bezpieczeństwo należących do nich środków w kryptowalutach.

    Na Safe-T mini można przechowywać prywatne klucze na fizycznym nośniku, chroniąc je dodatkowymi barierami w postaci kodu PIN oraz mechanizmem autoryzacji transakcji za pomocą przycisku na obudowie. Portfel wyposażony jest także w wyświetlacz OLED. Przed przeprowadzeniem transakcji urządzenie musi zostać podłączone do komputera lub urządzenia mobilnego za pomocą przewodu USB.

    Producent przewidział także możliwość przywrócenia zawartości portfela w przypadku jego zaginięcia, uszkodzenia lub kradzieży. Safe-T mini zaprojektowany został przez inżynierów Archos i produkowany jest we Francji.

    Archos Safe-T mini – specyfikacja:

    • Wymiary: 58 x 7,8 mm (średnica/grubość)
    • Procesor: ARM Cortex-M3 120 MHz
    • Ekran: OLED o rozdzielczości 128 x 64 pikseli
    • Obsługiwane kryptowaluty: Bitcoin, Bitcoin Cash, Dash, Litecoin, Zcash oraz tokeny ECB (wsparcie dla kolejnych kryptowalut jest planowane)
    • Komunikacja: złącze microUSB (możliwość podłączenia zarówno pod komputery jak i urządzenia mobilne)
    • Wspierane systemy operacyjne: Windows/Linux/Mac OS X, Google Android
    • Przyciski fizyczne do potwierdzania transakcji przez użytkownika
  • Motorola dołącza do programu Android Enterprise Recommended

    Motorola dołącza do programu Android Enterprise Recommended

    Firma Google poinformowała niedawno o rozpoczęciu programu Android Enterprise Recommended, który wyznacza nowe standardy jakości urządzeń i usług klasy korporacyjnej. Do tego prestiżowego programu dołącza też Motorola ze spełniającymi wyśrubowane kryteria modelami Moto Z2 i Moto X4.

    Program Android Enterprise Recommended ustanawia najlepsze praktyki oraz wspólne wymagania dotyczące produktów i usług. Podczas rygorystycznych testów weryfikowana jest zgodność z zaawansowanymi kryteriami w zakresie elementów sprzętowych, wdrażania, zabezpieczeń i obsługi, aby pomóc klientom w doborze produktów i usług sprawdzających się w najtrudniejszych i zróżnicowanych warunkach biznesowych. W pierwszej fazie programu Google będzie wspierać czołowych producentów urządzeń i operatorów w spełnianiu tych kryteriów.

    Urządzenia Motoroli spełniły między innymi następujące wymagania:

    • minimalne wymagania sprzętowe dotyczące urządzeń z systemem Android 7.0 i nowszymi wersjami;
    • możliwość zbiorczego — w tym bezobsługowego — wdrażania urządzeń z systemem Android;
    • udostępnianie aktualizacji zabezpieczeń systemu Android w ciągu 90 dni od ich wydania przez Google przez co najmniej trzy lata;
    • dostępność odblokowanych urządzeń umożliwiająca wdrożenia w skali globalnej;
    • ograniczenie domyślnych aplikacji systemowych w profilu do pracy Androida oraz na urządzeniach zarządzanych.

    Z pełną listą wymagań w programie Android Enterprise Recommended można zapoznać się tutaj.
    Urządzenia Motoroli zawsze oferowały najlepsze funkcje systemu Android. Charakterystyczną cechą smartfonów tej marki jest połączenie Androida z Ulepszeniami Moto — wysoko cenione za wyjątkowo intuicyjny sposób obsługi urządzenia.

    Udział w programie ułatwiającym wybór urządzeń i usług na potrzeby firmowe to cenne wyróżnienie dla Motoroli, która stara się ułatwiać klientom podejmowanie takich decyzji, by mogli skupić się na zadaniach o znaczeniu strategicznym.

  • BenQ TK800 – projektor 4K UHD HDR

    BenQ TK800 – projektor 4K UHD HDR

    Firma BenQ zapowiada wprowadzenie na polski rynek w maju bieżącego roku przystępnego cenowo projektora 4K HDR – model BenQ TK00. Projektor pracuje w technologii DLP (DMD 0,47”) i oferuje rzeczywistą rozdzielczość 4K (3840×2160) – wyświetla 8,3 mln pikseli dla każdej klatki obrazu. Projektor zapewnia ponad 92 proc. pokrycie palety Rec. 709 i obsługuje funkcję HDR (w standardzie HDR10) zoptymalizowaną dla projektorów. Wszystkie te rozwiązania zapewniają uzyskanie dobrze nasyconych żywych kolorów nawet w dobrze oświetlonych pomieszczeniach czy w plenerze, zapewniając realistyczną jakość obrazu szczególnie wydarzeń sportowych i meczów piłki nożnej.

    BenQ TK800

    Ponad 8,3 miliona punktów obrazu

    Do wyświetlania 8,3 mln pojedynczych pikseli gwarantujących obraz w prawdziwej rozdzielczości 4K UHD, projektor TK800 wykorzystuje precyzyjną technologię projekcji DLP z jednym modułem mikro-luster DMD o wielkości 0.47”, dzięki czemu ma kompaktową konstrukcję i smukłą obudowę, tak wygodną w domu. Projektor ma zoptymalizowany pod kątem rozdzielczości 4K układ optyczny – 7 soczewek w 4 grupach – gwarantujący najwyższy poziom precyzji obrazu i wiernego odwzorowania barw.

    Dynamiczny obraz 4K wyświetlany przez TK800 dodatkowo poprawia obsługa szerokiego zakresu dynamiki obrazu – High Dynamic Range (HDR), oferująca dzięki optymalizacji obrazu, szerszy zakres jasności i kontrastu co pozwala zobaczyć każdy szczegół obrazu w najjaśniejszych i najciemniejszych partiach obrazu, potęgując wrażenia wizualne.

    BenQ TK800

    Tryb Football i Sport

    Tryb ustawień Football zapewnia uzyskanie naturalnych odcieni skóry zawodników i żywej zieleni murawy stadionu czy boiska w sportach rozgrywanych na wolnym powietrzu. Tryb Sport działa podobnie, ale zoptymalizowano w nim ustawienia dla sportów halowych i sztucznego oświetlenia.

    Osiągi audiowizualne projektora wzbogaca jeszcze firmowa technologia CinemaMaster Audio+ 2 potęgująca wrażenia dźwiękowe, tak jak odbieramy to będąc w hali sportowej czy na stadionie.

    BenQ TK800

    Nowoczesne wzornictwo i łatwa konfiguracja

    Wyposażenie w funkcje 40° automatycznej korekcji zniekształcenia trapezowego w pionie (Keystone) i optycznemu zoomowi 1,2x, projektor można bezproblemowo zainstalować i szybko stworzyć środowisko do multimedialnej rozrywki w rozdzielczości 4K HDR.

    TK800 można zmienić w projektor inteligentny, podłączając do gniazda HDMI moduł Wi-FI BenQ QCast/QCast Mirror, Google Chromecast lub Amazon Fire TV Stick, aby od razu bezprzewodowo na duży ekran przesyłać ulubione seriale, filmy, mecze i inne wydarzenia sportowe, koncerty czy nawet gry wideo.

    Dzięki wyposażeniu w trwałe rozwiązanie generowania obrazu DLP (ang. Digital Light Processing), technologię, która w roku 2015 zdobyła nagrodę „Academy Award of Merit Oscar” i jest wykorzystywana w 90 proc. cyfrowych kin na świecie, BenQ TK800 zapewnia trwałą jakość obrazu z wiernymi barwami i najwyższą ostrością bez potrzeby konserwacji czy spadku jakości w miarę upływu czasu eksploatacji.