Tag: Sztuczna inteligencja

Kluczowa technologia cyfrowej transformacji. Sprawdzamy, jak AI wpływa na innowacje, automatyzację i rozwój branży IT i biznesu.

  • Sztuczna inteligencja i obsługa klienta

    Sztuczna inteligencja i obsługa klienta

    Według badań przeprowadzonych przez firmę analityczno-doradczą Gartner do 2020 roku 85 proc. kontaktów między konsumentem, a przedsiębiorstwem będzie przeprowadzane maszynowo, bez konieczności interakcji z fizycznym doradcą klienta. Co więcej, Gartner prognozuje, że między 2017 a 2021 r. obsługa klienta dokonywana wyłącznie przez mechanizmy oparte na sztucznej inteligencji (AI) wzrośnie pięciokrotnie.[1] Czwarta rewolucja przemysłowa (Przemysł 4.0) już dziś zmienia charakter obsługi klienta dzięki wykorzystaniu możliwości sztucznej inteligencji.

    Dawno minęły czasy ręcznego zajmowania się każdym zapytaniem, śledzenia alertów i przechowywania zapisów. Obecna technologia umożliwia centrom telefonicznym nie tylko szybszą i bardziej wydajną pracę, ale także identyfikację prawdopodobnych problemów przed ich wystąpieniem i rozwiązywanie ich z wyprzedzeniem. Wszystko to jest możliwe dzięki rozwojowi uczenia maszynowego (machine learning) i algorytmów głębokiego uczenia się (deep learning). Wraz ze wzrostem mocy obliczeniowej i ulepszaniem systemów AI zbliżamy się do momentu, kiedy każdą potrzebę klienta będzie można zaspokoić przy pomocy wysoko wykwalifikowanych wirtualnych asystentów i cyfrowych chatbotów replikujących zachowanie agentów ludzkich. Sztuczna inteligencja może zrewolucjonizować prawie każdy aspekt biznesu, w różnych jego sektorach, a rewolucja w interakcjach między firmą a konsumentem dzieje się na naszych oczach. Jak AI może pomóc w obsłudze klienta? Oto kilka przykładów.

    Poprawa jakości obsługi klienta

    Obsługa klienta dzisiaj jest w dużej mierze reaktywna. Osoba dzwoni do centrum kontaktowego firmy i musi dostarczyć szeroki zakres informacji, takich jak: imię i nazwisko, adres, numer lojalnościowy i opis problemu. Jeśli agent nie może pomóc, osoba dzwoniąca zostaje przekierowana do kolejnej osoby, a proces rozpoczyna się od nowa. Jest z tym wiele problemów, przede wszystkim marnuje czas klienta i frustruje go. Sztuczna inteligencja jest w stanie połączyć aktywność użytkownika z jego telefonem na Call Center i dostarczyć agentowi niezbędnych informacji. Dzięki temu doradca klienta może przewidzieć, dlaczego dana osoba dzwoni i zasugerować, jak rozwiązać problem, nawet przed zapytaniem.

    Wykorzystanie AI w postaci algorytmów maszynowego uczenia w obsłudze klienta nie tylko usprawnia cały proces, ale też może pozytywnie wpływać na wizerunek firmy. Obsługa klienta w przypadku wystąpienia jakiś problemów ma bowiem duże znaczenie w kontekście jej reputacji. Raz niezadowolony klient prawdopodobnie zostawi niepochlebne opinie w internecie, podzieli się nimi ze znajomymi i finalnie może po raz kolejny nie sięgnąć już po nasz produkt czy usługę. Dlatego firma powinna wykorzystać każdą okazję, aby zapewnić klientom doskonałą obsługę, a współczesne technologie bardzo to ułatwiają. Posłużmy się prostym przykładem. Marta często podróżuje naszymi liniami lotniczymi i właśnie dowiedziała się, że jej lot jest odwołany z powodu problemów pogodowych. Marta loguje się na stronie i zaczyna szukać nowych lotów. Jak się okazuje, wszystkie bezpośrednie połączenia są albo pełne albo odwołane, więc rozszerza swoje poszukiwania o loty z przesiadką, ale nie znajduje dla siebie dogodnego rozwiązania. Po kolejnych minutach poszukiwań Marta decyduje się na telefon do naszych linii lotniczych, gdzie wita ją uprzejmy konsultant, prosi o jej dane, numer lotu i pyta jak może jej pomóc. Marta wyjaśnia sytuację, a agent przechodzi wiele kroków, które ona już raz przeszła sama. Marta zaczyna się denerwować i obawia się, że loty szybko się zapełniają i może nie znaleźć biletu na powrót do domu. Ostatecznie po blisko 20 minutowej rozmowie jej lot zostaje zmieniony na lot z przesiadką i Marta cieszy się, że się to udało, choć jest nieco zirytowana, że transakcja trwała tak długo. Jak mogłaby wyglądać ta rozmowa gdyby nasza linia lotnicza używała sztucznej inteligencji wspomagającej obsługę klienta? Załóżmy, że Marta wykonuje wszystkie te same czynności do momentu jej telefonu. Kiedy więc dzwoni do naszych linii lotniczej, AI zebrała już wszystkie informacje i zrozumiała, że lot Marty został odwołany i że rozszerzyła ona swoje poszukiwania o inne regionalne porty lotnicze, AI przekazała to wszystko naszemu konsultantowi wraz z propozycją konkretnego połączenia pozwalającego Marcie wrócić do domu. Agent wie również, że dzwoniąca do niego kobieta często wybiera loty na tej konkretnej linii i jest naszym stałym klientem. Kiedy więc Marta dzwoni do nas to konsultant pozdrawia ją po imieniu i mówi: „Dzień dobry Pani Marto, dziękuję za lojalność wobec naszych linii, widzę, że próbowała Pani zmienić swój odwołany lot. Mogę zaproponować Pani lot jutro o 13:00 z przesiadką w Berlinie? Czy pasuje to Pani?” Marta jest zadowolona i dziękuję za szybką pomoc. W powyższym przykładzie, w oparciu o wcześniejsze działania Marty,  AI była w stanie zrozumieć z jakim problemem ona dzwoni i dostarczyła agentowi odpowiednie informacje, które zdecydowanie skróciły czas obsługi Marty i pozytywnie przełożyły się na jej zadowolenie ze sprawnego rozwiązania jej problemu. Firmy zbierają ogromne ilości informacji na temat nawyków i działań swoich klientów. Wyzwaniem jest to, że ludzie nie mogą analizować dużych ilości danych tak szybko, jak maszyny. Systemy AI mogą być wykorzystywane do badania tych danych i dokonywania wnioskowań, które mogą pomóc firmom szybciej i dokładniej obsługiwać klientów, dzięki czemu każdy pracownik obsługi klienta jest bardziej skuteczny – tłumaczy Jędrzej Fulara, CTO w Sparkbit.

    Prewencja problemów

    Sztuczna inteligencja przewyższa ludzkie możliwości pod względem ilości danych, które może analizować w danym czasie. Pozwala to na stałe monitorowanie i natychmiastowe wykrywanie wszelkich anomalii. AI może przeanalizować miliony danych i rozpoznać wzorce, które pozwalają wykryć problemy, które jeszcze się nie pojawiły, ale prawdopodobnie pojawią się w najbliższej przyszłości. Firmy mogą zapobiegawczo zająć się nimi, zanim przyniosą finansowe straty.

    Już dziś wiele firm wykorzystuje mechanizmy uczenia maszynowego do tworzenia realnej wartości dla klienta. Przykładem takiego działania są m.in. systemy z wbudowaną sztuczną inteligencją monitorujące prawie nieskończoną liczbę stron internetowych pod kątem określonych słów kluczowych. Dzięki temu firmy mogą szybko i efektywnie identyfikować klientów, którzy doświadczają zakupowych problemów. Co więcej przedsiębiorcy mogą w krótkim czasie dowiedzieć się jaki jest charakter i natura tych kłopotów. Przede wszystkim jednak – dzięki algorytmom uczenia maszynowego – inteligentny system może w czasie rzeczywistym pomagać klientom w rozwiązaniu ich problemu, odsyłając ich do sekcji często zadawanych pytań lub oferując proste rozwiązania za pomocą botów – dodaje Jędrzej Fulara ze Sparkbit.

    Według raportu opracowanego przez ośrodek analityczny Forrester w najbliższych latach firmy będą intensywnie badać możliwości wykorzystania inteligentnych agentów i dodawać konwersacyjne interfejsy do statycznych treści samoobsługowych. Będą przewidywać potrzeby na podstawie kontekstu, preferencji i wcześniejszych zapytań oraz będą dostarczać proaktywne alerty, odpowiednie oferty i treści.[2]

    Chatboty – automatyzacja obsługi klienta

    Coraz więcej firm wybiera chatboty, jako narzędzie do obsługi klienta. Obecnie około 30% firm oferujących swoje usługi w internecie, posiada samodzielne “boty”, które mogą odpowiadać na nieskomplikowane pytania i rozwiązywać proste problemy[3]. Wciąż jednak możliwości zaimplementowanych elementów sztucznej inteligencji są znacząco węższe od umiejętności fizycznego doradcy. Mimo to, dla wielu firm wirtualni doradcy przynoszą miliony dolarów zysku. Chatboty mogą tanio, szybko i konsekwentnie odpowiadać na zapytania klientów. Mogą od razu rozwiązywać problemy, bez względu na to czy jest godzina 10:00 w dzień czy 2:00 w nocy. Ma to kluczowe znaczenie dla firm ukierunkowanych na pokolenia millenialsów (którzy mogą być niecierpliwi). Chatboty nie potrzebują też czasu na szukanie odpowiedzi, tak jak robią to ludzie, dzięki czemu idealnie nadają się do szybkich odpowiedzi na najczęściej zadawane pytania. Szacuje się, że systemy oparte o sztuczną inteligencję pomagają skrócić czas obsługi nawet pięciokrotnie. W przypadku, gdy chatbotom nie udaje się rozstrzygnąć sprawy mogą skierować klienta do konsultanta – człowieka. Taki schemat oczywiście zwiększa produktywność pracowników. Wirtualni doradcy popełniają też mniej błędów podczas odpowiadania na zapytania klientów i mogą prowadzić proaktywne interakcje z klientem. Oznacza to, że nie odpowiadają oni tylko na zapytania, ale też rozpoczynają rozmowy informując np. o promocjach i wyprzedażach, oferują samouczki video, pokazują linki do stron produktów czy wpisów na blogu.

    Dobrym przykładem odnoszenia korzyści dzięki wirtualnym agentom jest China Merchants Bank. Ten chiński bank komercyjny, używa bota w popularnej aplikacji WeChat do obsługi od 1,5 do 2 milionów zapytań dziennie. By sprostać takiej ilości pracy bez używania systemów AI, ten sam bank musiałby zatrudnić ponad 7 000 pracowników. Innym przykładem jest hotel i grupa kasyn Caesars oferujących Ivy – wirtualnego concierge, który automatycznie odpowiada na zapytania gości. Dzięki niemu liczba połączeń z hotelowym biurem obsługi (zarządzanym tradycyjnie) zmniejszyła się o 30%. Innym spektakularnym przykładem jest wykorzystanie mechanizmów sztucznej inteligencji przez jeden z australijskich banków. Obecnie eksperymentuje on z samodzielnym, inteligentnym wirtualnym asystentem, którego głównym zadaniem jest przysłuchiwanie się rozmowom pracowników banku na temat pożyczek. Jeśli pracownik banku zapomni o czymś lub popełni błąd, bot automatycznie włącza się w prowadzoną rozmowę. Niektóre firmy używają chatbotów w celu poprawienia efektywności fizycznych pracowników. Dobrym przykładem jest stosowanie systemów sugerowania odpowiedzi na przychodzące zapytania klientów, które pracownik przed wysłaniem może zatwierdzić lub odpowiednio dostosować. W ciągu ostatniego roku umożliwiło to holenderskim liniom lotniczym KLM podwojenie liczby obsługiwanych zapytań klientów – do 120 000 tygodniowo – przy jednoczesnym zwiększeniu liczby pracowników o zaledwie 6 proc. – mówi Jędrzej Fulara ze Sparkbit.

    AI – zmienia zasady funkcjonowania obsługi klienta

    Korzyści z wprowadzenia sztucznej inteligencji do systemu obsługi klienta są wielowymiarowe. AI zwiększa ilość interakcji z klientem poprzez zautomatyzowanie reakcji, radzi sobie z dużym natężeniem zapytań i zapewnia wsparcie 24 godziny na dobę gwarantując cały czas ten sam poziom wydajności. Systemy te nie muszą odpoczywać i są odporne na negatywne ludzkie emocje. Konsultant może się złościć, być rozczarowany lub sfrustrowany, co może wpłynąć na kolejną rozmowę. AI nie ma takich problemów. Dodatkowo pracownicy mogą skorzystać z pomocy sztucznej inteligencji, aby uzyskać lepsze wskaźniki dla swoich indywidualnych celów. Pomaga to zmotywować ich do pracy, zmniejsza zmęczenie i poprawia dobre morale w zespole, a wszystko to przyczynia się do trwałego sukcesu. AI pozwala na szybsze rozwiązywanie problemów, a dzięki temu, że algorytm sam uczy się z gromadzonych danych w dłuższej perspektywie zwrot z tej inwestycji jest bardzo opłacalny dla firmy, ponieważ system znacząco podnosi poziom wydajności. Systemy AI pozwalają też na analitykę w czasie rzeczywistym. Menedżerowie mogą zobaczyć analizę rozmów i działań, a następnie zdecydować, czy kontynuować stosowanie tych samych strategii, czy też modyfikować je w celu lepszej realizacji celów. W przypadku nowych klientów, konsultanci nie znają ich preferencji przez co proces personalizacji oferty jest trudny, tymczasem systemy sztucznej inteligencji mogą pobierać informacje o takich klientach z dowolnej dostępnej publicznej bazy danych, a następnie moderować rozmowę w zależności od potrzeb i zapewnić klientom niespotykany dotychczas poziom personalizacji skierowanej do nich oferty. To z kolei buduje lojalność wobec marki.

    Dobrze działająca obsługa klienta jest jednym z kluczowych czynników pozwalającym firmom osiągnąć przewagę konkurencyjną i finansowy sukces. Poprawa jakości tej obsługi ma bardzo duże znaczenie w budowaniu wizerunku marki, dlatego CIO powinni traktować sztuczną inteligencję jako technologię zmieniającą reguły gry.

    [1]https://www.gartner.com/imagesrv/summits/docs/na/customer-360/C360_2011_brochure_FINAL.pdf
    [2] https://www.forrester.com/report/The+Rise+Of+Intelligent+Agents/-/E-RES128047
    [3] https://media.economist.com/news/special-report/21739432-how-ai-can-make-businesses-look-more-caring-customer-service-could-start-living-up-its
  • Do 2021 wydatki na sztuczną inteligencję wzrosną do 200 mld dolarów

    Do 2021 wydatki na sztuczną inteligencję wzrosną do 200 mld dolarów

    Coraz większa ilość danych oraz tempo rozwoju technologii cyfrowych sprawia, że dotychczasowe funkcjonowanie firm przestaje być efektywne. Wiele przedsiębiorstw rozwiązania swoich problemów upatruje we wdrażaniu sztucznej inteligencji oraz robotyki. Według danych firmy doradczej Deloitte tempo wzrostu wydatków firm na implementację technologii kognitywnych będzie rosło średnio rokrocznie w latach 2017-2021 o 50 proc. w skali globalnej. Osobnym wyzwaniem pozostaje tematyka wpływ robotów na rynek pracy. O znaczeniu automatyzacji i robotyzacji dla biznesu była mowa wczoraj, podczas Europejskiego Kongresu Gospodarczego w Katowicach.

    Zdaniem ekspertów Deloitte kilka czynników napędza rozwój technologii kognitywnych i robotyki.

    Są to przede wszystkim rosnące ilości danych, które firmy muszą przetworzyć. Do tego rozwój internetu i możliwości chmur obliczeniowych sprawiają, że firmy są coraz bardziej obecne w sferze cyfrowej. Dodatkowo powstające algorytmy uczenia maszynowego pozwalają na wykorzystanie robotów w nowych rolach – mówi Paweł Zarudzki, Starszy Menedżer w Dziale Konsultingu Deloitte, Lider zespołu robotyzacji i automatyzacji kognitywnej.

    To wszystko sprawia, że dynamika wzrostu wydatków na wdrożenie systemów sztucznej inteligencji (AI) w latach 2017-2021 ma wynieść 50 proc., a to oznacza łączne wydatki na poziomie 200 mld dolarów. Jak przewiduję eksperci Deloitte w analizie „Cognitive technologies. A technical primer” inwestycje będą ponosić przedsiębiorstwa reprezentujące szeroki wachlarz branż: od służby zdrowia, poprzez handel, bankowość aż do przemysłu wytwórczego.

    Dotyczy to również robotyzacji. Z badania „The robots are ready, are you” wynika, ze spośród tych firm, które znajdują się już na etapie wdrażania robotyki, 78 proc. oczekuje zwiększenia nakładów finansowych w ciągu kolejnych trzech lat. Ich inwestycje w tym obszarze pochłonęły dotychczas średnio 3,5 mln dolarów. Natomiast ci, którzy są w fazie pilotażu planują średnio wydać na ten cel 1,5 mln dolarów.

    Technologie kognitywne oferują różnorodne rozwiązania, wykraczające poza tradycyjne zastosowania, takie jak automatyzacja procesów i redukcja kosztów. Sztuczna inteligencja może zastąpić niektóre ludzkie zadania oraz istotnie wesprzeć proces podejmowania decyzji. Przewaga konkurencyjna będzie osiągana poprzez wzmocnienie ludzkich możliwości, a nie tylko ich zastępowanie czy replikowanie – mówi Paweł Zarudzki.

    Nie bałbym się, że nie będziemy mieli pracy, ta praca będzie po prostu inna – skomentował uczestnik panelu Paweł Sujecki, Prezes zarządu ProService Finteco.

    Te zawody, które wymagają kreatywności pozostaną w rękach ludzkich. Ten obraz utraty pracy nie jest taki czarny. Powinniśmy cały czas podnosić nasze kwalifikacje, aby być bardziej atrakcyjni dla pracodawcy. Inaczej trudno będzie nam konkurować z innymi gospodarkami – dodała w trakcie panelu Jolanta Jaworska, Wiceprezes ds. publicznych i regulacji, IBM Polska.

    Rozbieżności pomiędzy teorią a praktyką

    Zastosowanie automatyzacji, robotyki i sztucznej inteligencji w biznesie gwałtownie przyspiesza. Aż 41 proc. dyrektorów HR biorących udział w globalnym badaniu Deloitte „Human Capital Trends. Rise of the social enterprise” ocenia ten temat jako bardzo ważny. Prawie połowa (47 proc.) respondentów twierdzi, że ich organizacje są głęboko zaangażowane w projekty automatyzacji, 24 proc. wykorzystuje sztuczną inteligencję i robotykę do wykonywania rutynowych zadań, 16 proc. do podnoszenia ludzkich umiejętności i 7 proc. do całkowitej restrukturyzacji.

    W tym roku 42 proc. ankietowanych uważa, że sztuczna inteligencja będzie szeroko stosowana w ich organizacjach w ciągu trzech do pięciu lat. Jednak pomimo tych przewidywań tylko 17 proc. deklaruje zarówno znajomość koncepcji sztucznej inteligencji, jak i możliwości jej zastosowania w swoich firmach.

    Barier wdrażania robotyki i sztucznej inteligencji wciąż nie brakuje. Do najpoważniejszych należy zaliczyć: konieczność ich integracji z istniejącymi systemami, brak zrozumienia wewnątrz firmy, brak odpowiednio wykwalifikowanych kadr oraz konieczność zmiany w zarządzaniu.

    Robotyka umożliwia automatyzację powtarzalnych czynności, pozwalając jednocześnie skrócić czas realizacji procesów, ograniczyć liczbę błędów i obniżyć koszty w stopniu wyższym niż dotychczas wykorzystywanymi metodami. Wdrożenie robotów na dużą skalę musi być powiązane ze zmianą modelu operacyjnego. W nowej rzeczywistości wysokiej klasy specjaliści koncentrują się na rozwijaniu robotów, a nie jak dotychczas na realizacji procesów, które dzięki zastosowaniu nowych technologii są zautomatyzowane – mówi Paweł Zarudzki.

    Rynek pracy dla ludzi i robotów

    Z badań Deloitte wynika, że zdaniem firm roboty mogą zastąpić jedną piątą pracowników zatrudnionych w pełnym wymiarze godzin, a jednocześnie pozwalają na zwiększenie przychodów. W opinii menedżerów inwestycje w robotykę mają szansę zwrócić się już po niespełna dwunastu miesiącach. Inne szacunki, które pojawiają się w raporcie Deloitte „Automation is here to stay, but what about your workforce?” mówią o tym, że roboty są w stanie zastąpić 16 proc. pracujących osób i to już do 2025 roku.

    Automatyka i robotyka powinny pomóc człowiekowi a nie myśleć za niego. Dlatego należy zachować dystans do tego co podpowiadają nam algorytmy – mówi Paweł Zarudzki.

    Dyskusja o zagrożeniu dla rynku pracy ze strony robotów i sztucznej inteligencji trwa od kilku lat i coraz częściej pojawia się również w Polsce. W 2017 roku 40 proc. badanych dyrektorów HR w Polsce twierdziło, że sztuczna inteligencja nie wpłynie na strukturę zatrudnienia w ich firmie. Rok później prawie jedna trzecia osób (31,5 proc.) uważa, że AI będzie miała znaczący wpływ na strukturę zatrudnienia.

    Odpowiedź na pytanie jak będzie wyglądał rynek pracy z zastosowaniem robotów i sztucznej inteligencji nie jest jednoznaczna. W naszej opinii w ciągu najbliższych kilku lat miejsca pracy będą budowane wokół procesów i zadań, a w dalszej kolejności będziemy szukać do nich optymalnych rozwiązań, nie zakładając z góry, kto ma je wykonać: człowiek czy maszyna – mówi Paweł Zarudzki.

  • W walce o klientów sklepy muszą łączyć zalety sprzedaży stacjonarnej i internetowej

    W walce o klientów sklepy muszą łączyć zalety sprzedaży stacjonarnej i internetowej

    Dziś już coraz rzadziej się mówi, że sklepy tradycyjne są zagrożone przez e-commerce. Coraz popularniejsza jest za to idea, tzw. connected stores, łączących zalety sklepu tradycyjnego z możliwościami jakie daje handel w kanałach cyfrowych. Raport „Retail 360 / Connected Stores. Transforming store fleet through technology”, przygotowany przez Deloitte Digital przekonuje, że detaliści muszą odpowiednio planować oraz funkcjonować we wszystkich kanałach, niezależnie od tego, czy ostateczna sprzedaż odbywa się w sklepie czy w Internecie. Aż 56 centów z jednego dolara wydanego w sklepie stacjonarnym to efekt kontaktu klienta z kanałami cyfrowymi, a kilka lat temu było to 36 centów. O przyszłości handlu będzie mowa podczas przyszłotygodniowego Europejskiego Kongresu Gospodarczego w Katowicach.

    Co oznacza pojęcie „connected stores”, czyli „połączonych sklepów”?

    Jest to synergia wyjątkowych cech kanałów on-line i handlu tradycyjnego. Dziś sprzedawcy e-commerce, dzięki możliwościom jakie daje technologia, wiedzą o swoich klientach znacznie więcej niż sprzedawcy tradycyjni. I to będzie się zmienić – mówi Olgierd Cygan, Lider Deloitte Digital w Polsce i Europie Środkowej. – Sprzedawcy stacjonarni powinni zrozumieć, że lojalności klientów nie zdobywa się dzięki promocjom czy obniżkom, a relacja z konsumentami budowana jest w oparciu o wartość marki – dodaje.

    Zacieranie granic

    Eksperci Deloitte wskazują, że dziś różnice pomiędzy sprzedawcami a producentami z punktu widzenia konsumentów są coraz mniej zauważalne.

    Wchodząc na stronę internetową producenta obuwia czy kosmetyków klient oczekuje, że w tym samym miejscu będzie mógł nie tylko obejrzeć towar, ale również go kupić. Coraz więcej firm rozumie ten mechanizm i wykorzystuje możliwości, które on daje – mówi Olgierd Cygan.

    Aż 90 proc. sprzedaży detalicznej na świecie nadal odbywa się w sklepach tradycyjnych. Jednak aby sprostać konkurencji ze strony przyjaznych w obsłudze sklepów online, które mogą zaoferować ogromny asortyment, zasadniczą rolę odgrywa doświadczenie klienta i zaangażowanie marki.

    Sprzedawcy tradycyjni powinni uświadomić sobie, że kontakt klienta z marką nie zaczyna ani nie kończy się na wejściu i wyjściu ze sklepu. Raport Deloitte wylicza etapy „podróży” klienta. Jest to uświadomienie sobie potrzeby posiadania jakiegoś produktu lub usługi, poszukiwanie informacji o sprzedawcy, spełnienie celu, czyli zakup, uczucie satysfakcji oraz podzielenie się wrażeniami z innymi.

    Aż 56 centów z jednego dolara wydanego w sklepie stacjonarnym to efekt kontaktu klienta z kanałami cyfrowymi. Kilka lat temu było to 36 centów. Ci którzy kupują w różnych kanałach wydają ponad dwa razy więcej, niż ci, którzy robią zakupy jedynie w sklepach tradycyjnych.

    Oznacza to, że detaliści muszą odpowiednio i całościowo planować i funkcjonować we wszystkich kanałach, niezależnie od tego, czy ostateczna sprzedaż odbywa się w sklepie czy w internecie – mówi Olgierd Cygan.

    Różne modele działalności

    Eksperci Deloitte uważają, że w przyszłości największy sukces osiągną sklepy, które będzie można określić mianem „placu zabaw dla zmysłów”. Będą one potrafiły zaspokoić wszystkie potrzeby klientów. Na przeciwległym biegunie znajdzie się sprzedawca, któremu będzie zależało jedynie na zawarciu transakcji, nie zważając na potrzeby konsumentów.

    Jedną z koncepcji, która będzie miała coraz większe znaczenie w handlu jest wykorzystywanie sklepów jako centrów dystrybucyjnych. W ten sposób ogranicza się koszty, a także czas dostarczenia towaru zamówionego przez konsumenta. Takie rozwiązanie zastosowała ostatnio firma eobuwie.pl, która we Wrocławiu otworzyła innowacyjny sklep, w którym klienci wybierają buty za pomocą tabletów, a sprzedawcy dostarczają im w ciągu trzech minut od złożenia zamówienia.

    Kluczowa technologia

    Funkcjonowanie nowoczesnego sklepu nie jest i nie będzie możliwe bez technologii. Według raportu Deloitte szczególnie cztery z nich będą miały duże znaczenie dla handlu: biometria, sztuczna inteligencja, internet rzeczy oraz computer vision (komputerowe rozpoznawanie obrazu). Dzięki tej ostatniej technologii za pośrednictwem obrazów i filmów wideo sprzedawcy zyskają informacje w czasie rzeczywistym na temat potrzeb i zachowań klientów.

    Tradycyjna sprzedaż detaliczna nie była branżą, która w jakimś znaczącym stopniu była uzależniona od technologii. To się jednak zmieniło. Sprzedawcy muszą zrozumieć, że technologia będzie odgrywała coraz większą rolę nie tylko w ich relacjach z klientami, ale zarządzaniu całą firmą – mówi Olgierd Cygan.

    Czy to oznacza również, że w bliżej nieokreślonej perspektywie sprzedawców zastąpią roboty? Zdaniem ekspertów Deloitte tak się nie stanie. Ludzie nadal chcą mieć kontakt z ludźmi, a technologie mają ich tylko wspomagać i wpływać na efektywność kosztową.

  • Warto przygotować się do zmian – Paweł Piętka, CEO S4E

    Warto przygotować się do zmian – Paweł Piętka, CEO S4E

    Wiosenne spotkania S4E 2018 otworzył Paweł Piętka, CEO S4E S.A. Prezes Spółki odniósł się do zeszłorocznego tematu Wiosennych spotkań – cyfrowej transformacji, która staje się tematem bardzo powszechnym i dotyka coraz większą rzeszę ludzi.

    Paweł Piętka wskazał, że temat „Nadążyć za tempem zmian” jest niejako kontynuacją zeszłorocznych rozważań, gdyż zarówno cyfrowa transformacja, jak i wszelkie nowe technologie, np. blockchain, sztuczna inteligencja, stając się coraz bardziej powszechnymi, wymagają od firm ciągłego przystosowywania się do zmian.

    Prezes S4E podkreślił, że samo pozyskiwanie wiedzy w dynamicznie zmieniającej się rzeczywistości nie jest tak konieczne, jak określenie uniwersalnych postaw wobec zmian i stosowanie ich za każdym razem, gdy zaistnieje taka potrzeba.

    Dzisiaj ludzie są bardzo mocno nastawieni na kolekcjonowanie wiedzy, danych. Zależy im, aby pozyskać jak najwięcej informacji. Nie do końca o to chodzi. Żeby być na bieżąco i wiedzieć, co zrobić, kiedy pojawia się konieczność dynamicznych zmian, należy zastanowić się, w jaki sposób kształtować postawy, które pomogą lepiej reagować na zmiany i wypracowywać lepsze efekty pracy – zaznaczył CEO S4E S.A. Paweł Piętka podczas swojej prelekcji.

    Piętka wskazał również, na czym polega idealna rola dystrybutora VAD.

    Idealną rolą dystrybutora z wartością dodaną jest wspieranie budowania takich postaw wobec zmian, dzielenie się siecią kontaktów, wsparciem. – Paweł Piętka.

    CEO podkreślił także, że rewolucja cyfrowa obejmie z czasem wszystkich i nie jest możliwe, aby tego uniknąć oraz, że w nowym, cyfrowym świecie warto pamiętać o tym, jak bardzo istotne są relacje międzyludzkie.

    S4E częścią Grupy ABC Data

    Na Wiosennych spotkaniach S4E nie zabrakło również Wiceprezesa ABC Data S.A. Andrzeja Kuźniaka. Wiceprezes w swoim przemówieniu opisał i podsumował działalność Grupy ABC Data, jak również wyraził zadowolenie ze współpracy z S4E S.A.

  • Wykorzystanie sztucznej inteligencji w ochronie zdrowia budzi mniej obaw niż w innych branżach

    Wykorzystanie sztucznej inteligencji w ochronie zdrowia budzi mniej obaw niż w innych branżach

    Firma SAS przeprowadziła badanie dotyczące różnych podejść do sztucznej inteligencji. Respondenci najbardziej entuzjastycznie wypowiadali się na temat wykorzystania AI w ochronie zdrowia. Więcej obaw wiązało się z implementacją tej technologii w bankowości czy handlu detalicznym. Największy dyskomfort, w związku z rozwojem sztucznej inteligencji, budzi brak interakcji międzyludzkich.

    Podczas badania SAS AI Research, respondentom przedstawiono scenariusze praktycznego wykorzystywania technologii sztucznej inteligencji w różnych branżach i sektorach gospodarki. Niespełna połowa badanych (47%) czuła się komfortowo, współpracując z firmami korzystającymi z AI. Mężczyźni (53%) częściej udzielali odpowiedzi twierdzących, niż kobiety (43%). Co ciekawe, badanie wykazało brak właściwego zrozumienia, jak działają algorytmy sztucznej inteligencji. Na pytanie o możliwość wytłumaczenia drugiej osobie problematyki AI, zaledwie 44% respondentów potwierdziło, że jest w stanie to zrobić.

    Osoby biorące udział w badaniu wyraziły wątpliwość związaną z prywatnością. Tylko nieznacznie ponad jedna trzecia ankietowanych (35%) twierdzi, że ich dane osobowe wykorzystywane przez AI byłyby bezpiecznie przechowywane. Większy optymizm w tej kwestii wyraziły osoby poniżej 40 roku życia (42%), podczas gdy zaledwie 31% starszych respondentów nie było pewnych wysokiego poziomu bezpieczeństwa danych wrażliwych w AI.

    Brak zrozumienia, czym jest sztuczna inteligencja stanowi główną przyczynę obaw związanych z jej wykorzystaniem. Konsumenci entuzjastycznie podchodzą do idei inteligentnych maszyn pod warunkiem, że są one wykorzystywane dla dobra ogółu. Pozytywne podejście do implementacji AI w ochronie zdrowia świadczy o tym, że oczekujemy namacalnych korzyści wynikających z zastosowania tej technologii  – mówi David Tareen, Menedżer ds. marketingu AI w SAS.

    AI na sali operacyjnej

    Uczestnicy badania SAS pozytywnie odnoszą się do przykładów wykorzystania sztucznej inteligencji do wsparcia lekarzy w opiece nad pacjentami. Aż 47% badanych stwierdziło, że czułoby się komfortowo w asyście AI nawet podczas operacji. Co ciekawe, większe zaufanie do inteligentnych maszyn na sali operacyjnej wykazali starsi respondenci (ponad połowa osób w wieku powyżej 40 lat), podczas gdy młodsi ankietowani byli bardziej sceptyczni (40%). Sześć na dziesięć osób byłoby w stanie zaakceptować wykorzystanie danych pochodzących z urządzeń wearables, takich jak  Apple Watch czy Fitbit, do przygotowywania zaleceń medycznych.

    Sztuczna inteligencja w bankowości

    Badanie wykazało ograniczone zaufanie do wykorzystania technologii AI w kontaktach z klientami w finansach i bankowości. Jedyny wyjątek stanowił monitoring pod kątem oszustw i innych potencjalnych zagrożeń. Wykorzystanie sztucznej inteligencji do automatyzacji tych procesów akceptuje 59% respondentów. Respondenci byli najmniej przychylni wdrożeniom AI na potrzeby udzielania rekomendacji dotyczących zarządzania kartami kredytowymi. Ankietowani wyrazili zdecydowaną niechęć odnośnie udostępniania swojej historii kredytowej.

    AI w sklepowym koszyku

    Jeszcze większy sceptycyzm odnotowano w przypadku zastosowania sztucznej inteligencji w sektorze retail. Zaledwie 44% respondentów byłoby skłonnych udostępnić informacje o swojej lokalizacji w celu spersonalizowania procesu zakupów, a tylko 36% grupy badawczej chciałoby dokonywać zakupów przy użyciu smartfonów, bez obecności kasjerów. Odpowiedzi respondentów rozkładają się niemal po równo w pytaniu o wykorzystywanie przez sklepy danych historycznych na potrzeby personalizacji oferty zakupowej (49% czuje się z tym komfortowo, natomiast 51% nie chce, aby ich dane były wykorzystywane w ten sposób).

  • Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Maszyny zdolne do odczuwania ludzkich emocji

    Temat Sztucznej Inteligencji poruszałem na moim blogu już wielokrotnie. Jestem zafascynowany tą technologią i możliwościami jakie ze sobą niesie. Jestem świadomy też zagrożeń. Jak daleko posuniemy się w rozwoju tej technologii? Na ile jej pozwolimy?

    Sztuczna Inteligencja zrobi za nas wszystko, wynajdzie nawet lek na raka – twierdzą jej entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn. Tak czy inaczej firmy, które angażują się dziś w rozwój AI, będą decydować o naszych losach w najbliższych kilkunastu latach. Tym bardziej, że mają na to pieniądze.

    Oren Etzioni, współtwórca i prezes Allen Institute for Artificial Intelligence, instytutu stworzonego dwa lata temu przez współzałożyciela Microsoftu Paula G. Allena, na pytanie dziennikarza czy maszyny kiedyś będą zdolne do odczuwania, odparł: „Krótka odpowiedź brzmi – nie. Rozszerzona odpowiedź brzmi – nie będą, bo ludzie mają zniekształcone postrzeganie tego, co komputery mogą robić w dzisiejszych czasach”. Zacytujmy jeszcze Stuarta J. Russela, naukowca zasłużonego dla badań nad AI, autora wielu publikacji dotyczących tego zjawiska: „Największą przeszkodą w rozwoju AI jest to, że ciągle nie mamy pojęcia, w jaki sposób nasz mózg wytwarza świadomość. Jeśli ktoś wręczyłby mi miliard dolarów na budowę świadomej maszyny, nie przyjąłbym tego miliarda, bo nie jesteśmy bliżsi zrozumienia mechanizmu ludzkiej świadomości od ludzi, którzy zajmowali się tym problemem 50 lat temu”.

    Spróbujmy jednak przyjrzeć się kilku faktom, którym już nie da się zaprzeczyć i które pokażą nam bez zniekształceń, na jakim etapie jesteśmy w pracach nad Sztuczną Inteligencją. Czy rzeczywiście sceptycyzm wyżej cytowanych ekspertów jest tak bardzo uzasadniony?

    Entuzjazm ogrania nas wszystkich

    Nie ma miesiąca bez kolejnych doniesień o inwestycjach globalnych korporacji takich jak Google, Amazon, IBM, Facebook, Apple, Microsoft, Samsung w AI, czy mnożących się start-upach, które wdrażają projekty z wykorzystaniem ultranowoczesnych, inteligentnych technologii. O trendzie chętnie piszą zarówno mainstreamowe media, jak i specjalistyczne portale o tematyce technologicznej. Towarzyszy temu tradycyjna już dyskusja o tym, do czego może doprowadzić upowszechnienie Sztucznej Inteligencji. Entuzjaści wyliczają korzyści, na jakie możemy liczyć już w ciągu kilku, najwyżej kilkunastu lat, wymieniając: komputery reagujące na ludzką mimikę, emocje i głos; systemy komputerowe, które samodzielnie poprawiają własną wydajność w wyniku kolejnych operacji na zbiorach danych (machine learning); wszczepialne nanoboty zdolne do rozpoznawania i niszczenia komórek rakowych; komputerowe systemy wspomagania decyzji; „smart” technologie w naszych mieszkaniach, czy autonomiczne samochody. Już dzisiaj wysiłki na rzecz wydłużania ludzkiego życia, dążenie do coraz wydajniejszego przetwarzania danych i postępująca personalizacja osobistych komputerów stanowią pewien rodzaj paliwa dla globalnego biznesu i przestają być wyłącznie domeną wyobraźni hollywoodzkich reżyserów, którzy temat AI eksploatują od lat.

    Sztuczna Inteligencja do ogromne pieniądze

    Stopniową komercjalizację AI wspierać będzie upowszechnienie badań, które są nad nią prowadzone i wzrost inwestycji w ten obszar. W ciągu kilku lat zaangażowanie dużego kapitału powinno pozwolić na rewolucyjne zmiany w medycynie i biznesie.  Agencje badawcze prognozują, że przełomowym okresem dla rozwoju zjawiska będzie najbliższych pięć lat. W tym czasie sumy inwestowane we wdrożenia dotyczące AI wzrosną o kilkadziesiąt procent, a fascynacja zjawiskiem zacznie przypominać mechanizm śnieżnej kuli. Według danych CB Insights na globalnym rynku finansowym tylko w 2015 roku pojawiło się około 300 nowych, dużych spółek, które definiowały swoją misję poprzez takie słowa kluczowe, jak: sztuczna inteligencja, uczenie maszynowe, sieci neuronowe. Według raportu przygotowanego przez agencję badań rynkowych TechSci Research w Stanach Zjednoczonych w okresie 2016 – 2021 wartość inwestycji w rozwój AI wzrośnie o 75 procent. Pieniądze będą przeznaczone na: adaptację AI do przedmiotów codziennego użytku, badania naukowe, ulepszanie autonomicznych samochodów i zastosowanie nowoczesnych technologii w medycynie. Z kolei firma badawcza BCC Research, specjalizująca się w rynkach technologicznych, przewiduje że wartość światowego rynku inteligentnych urządzeń (neurokomputery, systemy eksperckie, autonomiczne roboty, inteligentne systemy wspomagania) wzrośnie do 15,3 mld dolarów w 2019 roku, ze średnią roczną stopę wzrostu na poziomie 19,7 procent. Bez wątpienia jest to najszybciej rozwijająca się część przemysłu technologicznego.

    Naukowcy potrzebni od zaraz

    Globalne poruszenie w biznesie ma swoje zaplecze w inicjatywach badawczych. Nie byłoby dzisiejszego boomu na inwestycje w AI bez zaangażowania naukowo-technicznego instytutów, placówek naukowych, technologicznych hubów i organizacji non-profit. Wspomniany już Allen Institute for Artificial Intelligence zatrudnia kilkudziesięciu naukowców, technologów z różnych dziedzin, a jego misją jest, jak można przeczytać na stronie instytutu: „działalność na rzecz ludzkości poprzez zaangażowanie wysoko rozwiniętych technologii i badań”. Oprócz placówek badawczych, w przedsięwzięcia związane ze sztuczną inteligencją, inwestują swoje pieniądze również technologiczne korporacje, które wręcz licytują się w uruchamianiu nowych projektów opartych o wysoko zaawansowane technologie. Przełomowe okazały się tu ostatnie cztery lata. Google zaangażował się już w 2012 roku w przedsięwzięcia związane z AI. W 2014 roku firma zapowiedziała inwestycje rzędu setek milionów dolarów w start-up Deep Mind. W 2014 roku Mark Zuckerberg, Elon Musk and Ashton Kutcher połączyli siły i zainwestowali pokaźne środki w firmę Vicarious FPC angażującą się wyłącznie w najbardziej wizjonerskie projekty AI. Jak deklaruje firma w swej misji, jej celem jest „stworzenie unikalnej architektury algorytmów, po to by osiągnąć poziom ludzkiej inteligencji w urządzeniach wykorzystujących do swego funkcjonowania język, zdolności widzenia i ruchu”. Jednym ze strategicznych celów Facebooka jest stworzenie potężnego systemu przetwarzania danych, a także stworzenia technologii rozpoznawania ludzkiej twarzy przez komputery. Na rozwój AI przeznaczane są ogromne środki – pieniądze, kapitał intelektualny i praca ludzi. To wszystko, w mojej ocenie, może spowodować, że w najbliższych kilku latach odpowiednik prostego AI pojawi się w laboratoriach wielkich firm i instytutach badawczych.

    Maszyny podejmują decyzje za nas

    W kontekście szacowanych inwestycji badawczych i finansowych ciekawe wydają się przewidywania dotyczące najważniejszych kierunków rozwoju AI. Warto tu przytoczyć najświeższe opracowanie firmy analitycznej Gartner dotyczące AI. Kilka przykładów – według Gartnera w najbliższych kilku latach systemy informatyczne będą w stanie przetwarzać duże zbiory danych, tak by podejmować autonomiczne decyzje o charakterze ekonomicznym. Do roku 2020 roku aż 5% realizowanych transakcji biznesowych na świecie będzie rezultatem tego, że algorytmy funkcjonujące w zainstalowanym oprogramowaniu, osiągną zdolność do wyciągania wniosków ze zbioru danych wprowadzonych do komputera. Według Gartnera, do roku 2018 aż 20 procent treści i informacji użytecznych dla biznesu będzie opracowywanych i publikowanych przez komputery. Mówimy tu więc już o inteligentnym lub prawie inteligentnym przetwarzaniu danych różnych kategorii. Na chwilę zatrzymując się na tym wątku, zwróćmy uwagę na rynkową obecność firm, które już dzisiaj oferują systemy samodzielnie przetwarzające dane w czytelne dla odbiorcy raporty. Jedną z nich jest Yseop, oferująca usługę, która może w najbliższej przyszłości zrewolucjonizować pracę księgowych, analityków giełdowych, strategów biznesowych, menedżerów. Dzięki prostemu interfejsowi, użytkownik wprowadza szereg danych do komputera: liczby, wykresy, infografiki, a te następnie są automatycznie kompilowane, zestawiane i przetwarzane przez maszynę. Agencja prasowa Associated Press wykorzystuje już teraz w swej pracy komputery, które samodzielnie tworzą opracowania wykorzystywane później przez dziennikarzy. Jakość ich jest bardzo wysoka, tylko niektóre z nich wymagają poprawienia ludzką ręką.

    Dziecko uczone przez maszyny

    Gartner w swoich przewidywaniach dotyczących najbliższej przyszłości zwraca szczególną uwagę na jeden trend istotny dla dalszego rozwoju systemów AI – jest nim „uczenie się maszyn”. Jedno z podstawowych pytań, zadawanych obecnie przez osoby zaangażowane w rozwój AI, brzmi: w jaki sposób tworzyć systemy AI, które będą  samodzielnie poprawiać swoją efektywność na bazie własnych doświadczeń? Jak wykorzystać w tworzeniu komputerów zasady, które kierują procesami uczenia się u ludzi? Dochodzimy tu więc do największego według wielu specjalistów wyzwania, jakie stoi przed twórcami AI, pomysłu fascynującego i kontrowersyjnego jednocześnie: stworzenia zaawansowanych  systemów, które potrafią zastępować człowieka w podejmowaniu decyzji. W tym miejscu widać, że w całym zjawisku chodzi zdecydowanie o coś więcej, niż automatyzację powtarzalnych procesów, która przecież jest już obecna w biznesie i przemyśle. Mówimy tu bowiem o działaniu maszyn w oparciu o algorytmy zakładające rozpoznawanie wzorców, przewidywanie przyszłych wyników i na tej podstawie podejmowanie decyzji. Jest wielce prawdopodobne, że praktyczną odpowiedzią na to wyzwanie będzie technologia wykorzystująca sztuczne sieci neuronowe działające na zasadach podobnych do działania ludzkiego mózgu (trend technologiczny quantum computing). Wyobraźmy sobie teraz, że maszyny zdolne do analizy danych i wyciągania z niej wniosków, angażujemy do pracy w obszarze medycyny. Komputery na podstawie przeanalizowanych parametrów dokonują diagnozy, wykrywają anomalie, przewidują wystąpienie choroby. Zacytujmy jeszcze raz Orena Etzioni: ”Co, jeśli recepta na lekarstwo na raka jest ukryta wewnątrz nudnych raportów obejmujących tysiące badań klinicznych? To właśnie AI będzie w stanie je odczytać i co najważniejsze – zrozumieć. Połączy dane z odrębnych badań, postawi nowe hipotezy i zaproponuje eksperymenty, które zostałyby zapewne pominięte przez ludzi”.

    Co Pan na to, Panie Watson?

    Kolejnym poważnym zagadnieniem, na którym koncentrują się specjaliści zaangażowani w rozwój AI, jest kwestia przetwarzania języka naturalnego. Wielu menedżerów uważa, że opanowanie przez komputery zdolności rozumienia języka może oznaczać rewolucję w dążeniu do integracji i współpracy inteligencji ludzkiej z inteligencją maszynową. Google twierdzi, że 20% bieżących zapytań klientów w rozmowach telefonicznych obsługiwane jest przez maszyny. Badania związane z tym obszarem podążają w kierunku rozwijania systemów, które są w stanie współdziałać z ludźmi, poprzez dialog, a nie tylko reagować na proste żądania. Niektórzy dodają też przy tej okazji, że przełomem, na który poczekamy około 20 lat, będzie zdolność komputerów do pełnego rozpoznawania ludzkiej twarzy, łącznie ze zdolnością odczytywania ludzkiej mimiki i emocji. Pewne jest, że przełomowe zdarzenia na tym obszarze następują już dzisiaj, wręcz obok nas. Nierzadko mamy kłopoty z oceną ich skali i znaczenia dla przyszłości. Komputer IBM Watson (2880 rdzeni, 15 TB pamięci operacyjnej) został stworzony przez IBM właśnie do odpowiadania na pytania zadawane w języku naturalnym.  Maszyna do swoich standardowych operacji używa więc procesu przetwarzania języka naturalnego. Aby odpowiedzi były możliwe, komputer wyposażono w bazę danych, zawierającą miliony stron różnych tekstów, w tym słowników i encyklopedii i zaprogramowano tak, aby używał setek równolegle działających algorytmów do znalezienia prawidłowej odpowiedzi. Dzięki temu mechanizmowi komputer potrafi przeanalizować ogromne zbiory danych z różnych obszarów, takich jak biznes, ekonomia i medycyna. Watson, wchodząc w kontakt głosowy z człowiekiem, „rozumie” więc zadawane pytania i problemy, a gromadząc kolejne dane „uczy się” z nich – zgodnie z ideą uczenia się maszyn.

    Komputery „nabierając” inteligencji, będą miały coraz bardziej „ludzką” zdolność kontaktu z nami, a ich reakcje będą efektem zdolności odczytywania i przetwarzania złożonych danych o różnym charakterze. Przełomowe badania związane ze stworzeniem IBM Watson ulegną upowszechnieniu i komercjalizacji. Jest niemal pewne, że w najbliższych latach możemy spodziewać się rosnącej popularności autonomicznych asystentów – aplikacji, które będą służyły pomocą w zdobywaniu wiedzy i podejmowaniu decyzji dotyczących naszego życia prywatnego. Już dzisiaj nie trzeba sięgać daleko wyobraźnią. Od kilku lat użytkownicy iPhone’a mogą cieszyć się z towarzystwa aplikacji Siri, która odpowiada głosowo na proste pytania dotyczące na przykład czasu, pogody, daty, ale też finansów, muzyki, zawartości poczty elektronicznej, czy kontaktów umieszczonych w smartfonie. Do podobnych projektów, ciągle udoskonalanych, ale już dostępnych dla indywidualnego użytkownika, należy Amazon Echo. Oprogramowanie to również wykorzystuje do swojego działania mechanizm przetwarzania języka naturalnego.

    Optymiści, realiści i pesymiści

    AI budzi ciągle mieszane uczucia, na które składają się z jednej strony entuzjazm, a z drugiej obawy podsycane przez twórców filmów, pisarzy i pesymistycznie nastrojonych futurologów. Założyciela Facebooka, Marka Zuckerberga, można zaliczyć do grona technologicznych optymistów i biznesowych pragmatyków „(…) AI dojdzie do punktu, w którym będzie przynosiła korzyści, z których będą mogły czerpać zarówno małe, jak i duże firmy. Pracujemy nad AI, ponieważ uważamy, że bardziej inteligentne usługi będą bardziej przydatne”. Jego trzeźwe podejście nie udziela się wszystkim tym, którzy funkcjonują na rynku technologicznym. Według raportu opracowanego dla Baker & McKenzie, spośród 424 specjalistów finansowych, 76 proc. uważa, że organy nadzoru finansowego nie są przygotowane do współpracy z oprogramowaniem AI, a 47 proc. wyraża wątpliwości, czy ich własne organizacje rozumieją ryzyka wiążące się z korzystaniem z AI. Badani wyrazili ponadto przekonanie, że uzależnienie od sztucznej inteligencji będzie oznaczać konsekwencje w postaci redukcji zatrudnienia. W powyższym fragmencie zawarte jest całe spektrum emocji i poglądów dotyczących AI. Bill Joy, swoimi przemyśleniami dotyczącymi AI dzielił się 16 lat temu w legendarnym i często przywoływanym dzisiaj artykule „Dlaczego przyszłość nas nie potrzebuje”, opublikowanym w magazynie Wired. W wielu fragmentach refleksję autora można dzisiaj traktować jednocześnie jako przejaw skrajnego pesymizmu, ale też i przenikliwości. Joy, przy wszystkich korzyściach, jakie dostrzegał w rozwoju AI, nie krył również obaw. Powiedział on, że „Powinniśmy zmierzyć się z faktem, że najbardziej atrakcyjne technologie 21 wieku – robotyka, inżynieria genetyczna i nanotechnologia – stwarzają inne zagrożenia, niż technologie, które pojawiły się wcześniej. W szczególności roboty, inżynieria organizmów i nanoboty posiadają olbrzymi czynnik niebezpieczeństwa: te technologie mogą się same replikować.”

    Czy przyszłość jest „bright”?

    Cóż, wydaje się jednak, że zagadnienie AI jest tak złożone, że zarówno skrajni optymiści i pesymiści mają ciągle szansę na zwycięstwo w pojedynku na opinie o AI i jej roli w naszym życiu, a może życiu całego gatunku. Jedno jest pewne: żyjemy w czasach, w których pojęcie postępu i korzyści dla ludzkości musi być definiowane od nowa. Kategorie wypracowane przed wiekami mogą nam bowiem już nie wystarczyć do pojmowania rzeczywistości i nas samych w dobie osobistych asystentów, komputerowych, autonomicznych decydentów i nanobotów przemieszczających się w naszych organizmach.

    Link do mojego bloga

  • Esri i Microsoft nawiązują współpracę

    Esri i Microsoft nawiązują współpracę

    Firmy Microsoft i Esri nawiązały współpracę w obszarze rozwiązań Data Science Virtual Machine (DSVM) na platformie Azure. Kooperacja zakłada połączenie rozwiązań z obszaru sztucznej inteligencji (AI), technologii i infrastruktury chmurowej oraz wizualizacji i analiz przestrzennych, w celu tworzenia bardziej wydajnych i inteligentnych aplikacji.

    Sercem nowego rozwiązania pod nazwą GeoAI Data Science Virtual Machine jest 64 bitowy system informacji geograficznej (GIS) ArcGIS Pro od Esri, zapewniający mapowanie 2D i 3D za pośrednictwem intuicyjnego interfejsu. ArcGIS Pro jest zainstalowany w środowisku Data Science Virtual Machine (DSVM) od Microsoft. Jest to popularne rozwiązanie do modelowania i eksperymentowania w Azure, zapewniające narzędzia do pracy bazujące na sztucznej inteligencji, uczeniu maszynowym oraz data science. DSVM może działać w instancji maszyn wirtualnych opartych tylko na CPU w Azure lub wykorzystywać instancje maszyn wirtualnych opartych na GPU, co jest szczególnie przydatne w sytuacji trenowania modeli głębokiego uczenia (deep learning) na większą skalę.

    Geo AI Data Science VM poszerza zestaw narzędziowy sztucznej inteligencji i data science dostępny w Windows Server 2016 edition poprzez dodanie ArcGIS Pro i interfejsów zarówno w Phyton i R. Pozwala to na pogłębioną pracę z wykorzystaniem danych przestrzennych, wzbogacenie przetwarzania GIS oraz wizualizację i analizę w ArcGIS Pro, w celu tworzenia lepszych aplikacji bazujących nana sztucznej inteligencji.

    Profesjonalistom z obszaru analiz przestrzennych, produkt ten daje potężne możliwości w obszarze sztucznej inteligencji i analityki predyktywnej, w tym algorytmów deep learning (głębokiego uczenia) i machine learning (uczenia maszynowego). Algorytmy deep learning są bardzo efektywne w poprawnym rozumieniu danych rastrowych, szeregów czasowych i nieustrukturyzowanych danych tekstowych. GeoAI Data Sciene VM ułatwia także rozwój platformy Azure i wykorzystywanie usług big data, takich jak Apache Spark w obrębie maszyn wirtualnych. Wszystkie narzędzia są wstępnie zainstalowane i skonfigurowane, aby analitycy danych i analitycy danych przestrzennych mogli od razu dysponować gotowym do użycia środowiskiem.

    Specjaliści Data Science i badacze w Microsoft i Esri używają GeoAI Data Science VM między innymi do automatyzacji analiz map terenów wododziałowych. Rozwiązanie pozwala  wykorzystać sztuczną inteligencję do klasyfikowania pokrycia terenu z dokładnością do piksela na zdjęciach satelitarnych i wydobywania informacji semantycznych w niespotykanej dotąd skali.

    GIS, sztuczna inteligencja i Data Science Virtual Machine pozwalają na wyciąganie pogłębionych wniosków, co prowadzi do dokładniejszych prognoz i podejmowania lepszych decyzji.

  • Liderzy cyberbezpieczeństwa stawiają na automatyzację, machine learning oraz AI

    Liderzy cyberbezpieczeństwa stawiają na automatyzację, machine learning oraz AI

    Cyberataki typu malware, polegające na zainfekowaniu komputera złośliwym oprogramowaniem, stają się coraz bardziej wyrafinowane. Cyberprzestępcy wykorzystują usługi chmurowe i unikają wykrycia dzięki ruchowi szyfrowanemu, który pozwala im ukryć zapytania wysyłane do serwerów (command-and-control). Chcąc ograniczyć czas, w którym cyberprzestępcy mogą prowadzić swoje działania, specjaliści ds. bezpieczeństwa coraz chętniej sięgają po rozwiązania wykorzystujące sztuczną inteligencję oraz uczenie maszynowe. Potwierdzają to dane z jedenastej edycji Cisco® 2018 Annual Cybersecurity Report (ACR).

    Szyfrowanie połączenia ma na celu zwiększenie poziomu bezpieczeństwa. Wzrost szyfrowanego ruchu sieciowego, który w październiku stanowił aż 50 proc. całości (zarówno tego właściwego jak i generowanego przez cyberprzestępców) postawił przed specjalistami ds. cyberbezpieczeństwa nowe wyzwania związane z monitorowaniem potencjalnych zagrożeń. W ciągu ostatniego roku eksperci Cisco zaobserwowali trzykrotny wzrost wykorzystania szyfrowanej komunikacji sieciowej w sprawdzanych plikach malware.

    Wdrażanie rozwiązań z zakresu uczenia maszynowego może zwiększyć bezpieczeństwo sieci, ponieważ w dłuższej perspektywie pozwalają one „nauczyć się” jak odnajdywać wzorce w szyfrowanych połączeniach, chmurze oraz środowisku Internetu Rzeczy. Część z 3600 profesjonalistów, którzy wzięli udział w badaniu Cisco przyznało, że chętnie uzupełniliby portfolio posiadanych narzędzi o rozwiązania z zakresu uczenia maszynowego oraz sztucznej inteligencji, ale zniechęca ich duża ilość błędnych alertów (false positives) generowanych przez system. Dalszy postęp tych technologii, obecnie wciąż na wczesnym etapie rozwoju, sprawi, że liczba prawidłowych wskazań w monitorowanym środowisku sieciowym będzie coraz większa.

    Główne tezy Cisco 2018 Annual Cybersecurity Report:

    Koszty cyberataków nie są już tylko hipotetyczną liczbą

    Jak wynika z badania Cisco, ponad połowa cyberataków spowodowała straty finansowe wysokości ponad 500 000 USD, włączając w to m.in. utratę przychodu, klientów, okazji biznesowych oraz koszty operacyjne.

    Wzrost złożoności i szybkości cyberataków wymierzonych w łańcuch dostaw

    Cyberataki skierowane na łańcuchy dostaw mogą zainfekować komputery na ogromną skalę. Co gorsza, mogą utrzymywać się przez miesiące lub nawet lata. Specjaliści ds. cyberbezpieczeństwa powinni mieć świadomość potencjalnych zagrożeń wynikających z wykorzystania oprogramowania i sprzętu dostawców, którzy nie posiadają odpowiedniej polityki bezpieczeństwa.

    Dwa tego typu ataki miały miejsce w 2017 roku. Nyetya oraz Ccleaner zainfekowały komputery użytkowników wykorzystując oprogramowanie pochodzące z zaufanego źródła.

    Specjaliści ds. cyberbezpieczeństwa powinni korzystać z zewnętrznych testów skuteczności technologii odpowiadających za bezpieczeństwo firm w celu redukcji ryzyka wystąpienia cyberataków skierowanych na łańcuch dostaw.

    Bezpieczeństwo staje się coraz bardziej złożoną kwestią, jednocześnie rozszerza się zakres jego naruszeń

    • Aby lepiej ochronić organizacje, specjaliści odpowiedzialni za kwestie bezpieczeństwa wdrażają zestawy produktów i rozwiązań, pochodzące od różnych dostawców. Biorąc pod uwagę jednoczesny wzrost liczby naruszeń, ta złożoność systemów bezpieczeństwa może nieść negatywne skutki dla zdolności organizacji do obrony przed atakami, m.in. zwiększone ryzyko strat.
    • W 2017 r. 25 proc. specjalistów od zabezpieczeń przyznało, że używało produktów od 11 do 20 dostawców. Dla porównania, w 2016 roku potwierdziło to jedynie 18 proc. specjalistów ds. bezpieczeństwa.
    • Specjaliści do spraw bezpieczeństwa przyznali, że 32 proc. naruszeń dotyczyło ponad połowy systemów. Dla porównania, w 2016 potwierdziło to jedynie 15 proc.

    Specjaliści ds. bezpieczeństwa dostrzegają wartość narzędzi do analizy behawioralnej w lokalizowaniu autorów ataków sieciowych

    92  proc. specjalistów ds. bezpieczeństwa przyznaje, że narzędzia do analizy zachowań sprawdzają się w działaniu. Dwie trzecie przedstawicieli sektora opieki zdrowotnej a także usług finansowych uznało analizę zachowań za wyjątkowo skuteczną w identyfikowaniu autorów ataków.

    Wykorzystanie chmury rośnie; napastnicy wykorzystują braki zaawansowanych zabezpieczeń

    • W tegorocznej edycji badania 27 proc. specjalistów ds. bezpieczeństwa stwierdziło, że używa chmur prywatnych działających w oparciu o infrastrukturę zewnętrzną. Odsetek ten wzrósł o 7 proc. w stosunku do 2016 roku, kiedy takiej odpowiedzi udzieliło 20 proc. respondentów.
    • 57 proc. badanych przyznaje, że wykorzystuje hosting w chmurze z uwagi na wyższy poziom bezpieczeństwa danych, 48 proc. ze względu na skalowalność, natomiast 46 proc. z uwagi na łatwość użycia technologii.
    • Podczas, gdy chmura oferuje wyższy poziom bezpieczeństwa danych, atakujący wykorzystują fakt, że zespoły ds. cyberbezpieczeństwa mają problemy z ochroną rozwijających się środowisk cloud computing. Z pomocą przychodzi połączenie najlepszych praktyk, zaawansowanych technologii bezpieczeństwa, takich jak uczenie maszynowe oraz narzędzi pierwszej linii obrony oraz platform bezpieczeństwa w chmurze.

    Trendy w zakresie wzrostu ilości złośliwego oprogramowania mają wpływ na czas wykrywania niebezpiecznych zdarzeń

    • Średni czas wykrycia przez Cisco nowego incydentu bezpieczeństwa (TTD ang. Time To Detection) wyniósł około 4,6 godzin w okresie od listopada 2016 r. do października 2017 r. To znacznie poniżej 39-godzinnej średniej TTD zgłoszonej w listopadzie 2015 r. oraz 14-godzinnej średniej odnotowanej w raporcie Cisco 2017 Annual Cybersecurity Report za okres od listopada 2015 r. do października 2016 r.
    • Wykorzystanie technologii zabezpieczeń w chmurze było kluczowym czynnikiem, który zdaniem specjalistów Cisco wpłynął na utrzymanie średniej TTD na niskim poziomie. Krótszy czas wykrycia zdarzeń pomaga specjalistom odpowiedzialnym za bezpieczeństwo szybciej przeciwdziałać atakom.

    Dodatkowe rekomendacje dla osób odpowiedzialnych za bezpieczeństwo organizacji:

    Ważne jest potwierdzanie przestrzegania zasad i praktyk korporacyjnych dotyczących łatania aplikacji, systemów i urządzeń.

    Menedżerowie bezpieczeństwa powinni uzyskiwać dostęp do aktualnych i dokładnych danych oraz procesów dotyczących zagrożeń oraz włączyć te informacje do monitoringu bezpieczeństwa w ramach organizacji.

    Analizy bezpieczeństwa powinny być bardziej kompleksowe i prowadzone w bardziej zaawansowany sposób.

    W świecie szybko „przemierzających” sieć internetową programów typu ransomware oraz innych cyberzagrożeń ważne jest, aby często tworzyć kopie zapasowe danych oraz testować procedury ich przywracania.

    Istotne jest także regularne skanowanie zabezpieczeń firmowych mikroserwisów, usług w chmurze oraz systemów do administrowania aplikacjami.

  • Zmiany na rynku technologii do analiz przestrzennych – wizja na rok 2018

    Zmiany na rynku technologii do analiz przestrzennych – wizja na rok 2018

    W ostatnich latach rozwiązania geoprzestrzenne znacząco się rozwinęły dzięki wchodzeniu w interakcje z popularnymi technologiami informatycznymi i cyfrowymi. Internet, autonomiczne pojazdy i smartfony zmieniły świat w sieć sensorów, które sprawiły z kolei, że informacja przestrzenna stała się jednym z najcenniejszych dóbr dla wielu firm działających w różnych branżach. Z badań przeprowadzonych przez portal Geospatialworld.net wynika, że 50 proc. organizacji widzi w zachodzących zmianach szansę na rozwój swoich produktów i usług. Jednocześnie zmiany te są dużym wyzwaniem dla kadry zarządzającej, która musi zrozumieć konieczność cyfrowej transformacji i wykorzystania zaawansowanych technologii przestrzennych w budowaniu przewagi rynkowej.

    Mapy to nie tylko aplikacje do nawigacji drogowej, ale również potężne narzędzia do wyznaczania kierunku rozwoju cyfrowych gospodarek. Czynnik przestrzenny stoi praktycznie za każdą decyzją, która jest podejmowana przez organizacje i pojedyncze osoby, dlatego naturalnym krokiem jest włączanie analityki przestrzennej w struktury organizacji.

    Cyfrowy wiatr zmian

    Badania przeprowadzone przez portal geospatialworld.net[1] wśród czołowych firm z branży geoprzestrzennej wskazują, że organizacje nie są do końca pewne, jak powinny reagować na zmiany zachodzące na rynku. 50 proc. osób decyzyjnych w organizacjach widzi w nich okazję do rozwoju, 3 proc. obawia się zwiększonej konkurencji, a 44 proc. uważa, że przyczynią się one zarówno do pojawiania się nowych okazji biznesowych, jak i do większej konkurencji na rynku.

    Na demokratyzacji technologii opartych o dane przestrzenne skorzystają nie tylko firmy, które od lat działają w tej branży, ale także startupy. 65 proc. respondentów twierdzi, że dynamiczne zmiany na rynku są spowodowane przez działalność firm spoza ścisłej czołówki przedsiębiorstw z sektora GIS. Są to głównie młode firmy wspierane przez kapitał zewnętrzny. Społeczność startupów przyczyniła się do wzrostu tempa innowacji, w szczególności w obszarze podboju kosmosu, czyli branży Space 2.0, co doprowadziło do zakwestionowania obecnej struktury kosztów w obszarze danych przestrzennych i ich analizy.

    Firmy, które działają na rynku od wielu lat, często nie potrafią spojrzeć na postępującą innowację inaczej niż jako zagrożenie dla ich pozycji. Dzieje się tak, ponieważ wiele z nich nadal skoncentrowana jest na produktach, a nie inwestuje dostatecznych środków, aby przesunąć się wyżej w łańcuchu wartości.

    W kierunku współpracy

    Dane przestrzenne są wykorzystywane w większości branż o znaczeniu strategicznym, takich jak obronność, energetyka, rolnictwo, górnictwo. Odgrywają także istotną rolę w rozwoju inteligentnych miast, administracji centralnej, infrastrukturze, środowisku, edukacji oraz sektorach biznesowych Tradycyjne bariery utrudniające dostęp do danych przestrzennych ograniczały tempo i potencjał innowacji. Obecna działalność ruchów na rzecz otwartych danych, a także postępy w obrębie zarządzania ich dużymi zbiorami, takimi jak zdjęcia satelitarne pozwalają organizacjom na poszukiwanie nowych szans w obszarze wykorzystania informacji przestrzennych.

    Firmy zdają sobie sprawę, że aby móc konkurować w tym dynamicznie zmieniającym się środowisku, muszą skoncentrować się na budowie kompletnych rozwiązań. 85 proc. respondentów jest zdania, że najbardziej efektywną drogą do realizacji tego celu jest współpraca między firmami. Pomimo tego, że duża część branży nadal skoncentrowana jest na produkcie, to ponad 80 proc. badanych przyznaje, że ze strony użytkowników widać rosnące zainteresowanie usługami, wsparciem w procesie integracji systemów i tworzeniu kompletnego środowiska pracy. Postęp technologiczny przyczynia się także do skrócenia fazy rozwoju konkretnych rozwiązań, co zmniejsza cały cykl życia produktu. Tak uważa aż 84 proc. respondentów. Jest to szczególnie istotne w przypadku firm o krótkim stażu na rynku, które wprowadzają nowe usługi czy aplikacje.

    W nadchodzących latach wiele istotnych trendów technologicznych znacząco wpłynie na powstawanie olbrzymiej ilości informacji geograficznych. Z uwagi na to, że coraz więcej osób będzie miało styczność z informacją przestrzenną w codziennym życiu, doprowadzi to do rozwoju technologii, takich jak internet rzeczy, autonomiczne pojazdy czy sztuczna inteligencja. Siła branży geoprzestrzennej leży bowiem w umiejętności integrowania rozwiązań cyfrowych.

    GIS? A co to takiego?

    Brak świadomości wśród użytkowników i prawodawców pozostaje największym wyzwaniem dla całej branży. Ponad 38 proc. badanych uważa to za najpoważniejszą barierę, 12 proc. twierdzi, że brak wsparcia ze strony rządu i przestarzałe regulacje wstrzymują rozwój sektora. Kolejnym wyzwaniem są koszty i łatwość użytkowania systemów. Nieco ponad 50 proc. ankietowanych przyznało, że cena zakupu i utrzymania narzędzi do analizy danych przestrzennych oraz ich wysoka cena to bariery, które uniemożliwiają ich szersze wykorzystanie. Mimo to, około 33 proc. ankietowanych jest przekonana, że wyzwania te nie mają dużego znaczenia.

    86 proc. respondentów jest zdania, że biznes i rządy nie są w stanie w pełni wykorzystać przewagi, jaką dają SMAC (Social, Mobile, Analytics i Cloud) i dane przestrzenne. Dzieje się tak, ponieważ produkty nie są wystarczająco zaawansowane, a użytkownicy są zbyt mocno przywiązani do tradycyjnych metod tworzenia i zarządzania informacją.

    Spojrzenie w przyszłość

    Zmiany na rynku będą niosły ze sobą pewne ryzyko, w szczególności, gdy strategia większości firm zakłada wzmożone inwestycje w innowacyjne rozwiązania. Około 75 proc. badanych spodziewa się, że w ciągu następnych 3-5 lat, rynek bardzo ewoluuje, a poziom wykorzystania danych i technologii przestrzennych znacząco wzrośnie.

    Nowoczesne technologie, takie jak chmura, IoT, robotyka i automatyka oraz sztuczna inteligencja otwierają nowe horyzonty, napędzają przemysł geoprzestrzenny i korzystają z jego zdobyczy. Mimo niepokojących głosów związanych z rzekomymi zagrożeniami wynikającymi z technologii opartych o sztuczną inteligencję, aż 96 proc. respondentów uważa, że AI pomoże w jeszcze lepszym zrozumieniu danych przestrzennych, co z kolei pozwoli na ich jeszcze szersze wykorzystanie w biznesie.

    Smartfony i urządzenia mobilne w najbliższym czasie w dużym stopniu wpłyną na branżę geoprzestrzenną. Podobną rolę odegrają także drony. Z badań wynika, że rozwój technologiczny i związane z nim zmiany w branży geoprzestrzennej już teraz wpływają na decyzje operacyjne w firmach. Podczas gdy liderzy biznesowi potrafią już zidentyfikować trendy, wielu z nich zmienia także strategie biznesowe, konsolidując lub koncentrując się na nowych technologiach i rynkach. Zapotrzebowanie na analitykę i odkrywanie prawdziwego znaczenia informacji będzie nieustannie rosło, a branżą, która odpowie na te potrzeby i będzie mogła dostarczyć tych odpowiedzi jest branża geoprzestrzenna.

    [1] https://www.geospatialworld.net/article/geospatial-industrys-vision-2018/
  • Sztuczna inteligencja nie rozumie ludzkich emocji?

    Sztuczna inteligencja nie rozumie ludzkich emocji?

    Jak wynika z badania SAS, 32 proc. przedstawicieli firm z regionu EMEA uważa, że problemy etyczne związane z wykorzystaniem sztucznej inteligencji stanowią jedno z głównych wyzwań związanych ze stosowaniem tej technologii. Respondenci zwrócili również uwagę na kwestie odpowiedzialności (także prawnej) za działania systemów wykorzystujących AI. Zdaniem ekspertów SAS, brak umiejętności oceny moralnej prowadzonych działań oraz przecenianie możliwości sztucznej inteligencji stanowią obecnie jedne z największych wyzwań, przed jakimi stoją twórcy i użytkownicy rozwiązań AI.

    Rozwój sztucznej inteligencji jest napędzany przez dynamiczny wzrost liczby danych. Jak podaje IDC, liczba wygenerowanych cyfrowych informacji na całym świecie sięgnie 163 zettabajtów do 2025 roku. Systemy AI mogą być wykorzystywane praktycznie w każdej branży, m.in. medycznej, ubezpieczeniowej czy przemyśle. Do najważniejszych korzyści biznesowych wynikających z ich zastosowania należą automatyzacja procesów, poprawa wydajności, oszczędność czasu i kosztów pracy. Dzięki temu specjaliści odciążeni z rutynowych zadań mogą   skoncentrować się na pracy kreatywnej.

    Wszyscy mówią o AI

    Według danych IDC, światowe inwestycje w rozwiązania z zakresu sztucznej inteligencji wyniosły w zeszłym roku 12 miliardów dolarów. Ponadto firma badawcza podaje, że globalny rynek AI i systemów kognitywnych będzie wart 57,6 mld dolarów już w 2021 roku. Skala wydatków pokazuje, że jest to jeden z bardziej popularnych kierunków rozwoju IT. Potwierdzają to również trendy technologiczne na rok 2018 przygotowane przez firmę Gartner, w których sztuczna inteligencja jest jednym z motywów przewodnich. Zdaniem ekspertów amerykańskiego instytutu badawczego, AI będzie wspierało przedsiębiorstwa w coraz szerszym zakresie, m.in. pomagając w zarządzaniu doświadczeniami i obsługą klientów. Analitycy Gartnera zwrócili uwagę na fakt, że AI nie tylko wspomoże człowieka w podejmowaniu decyzji biznesowych, ale wręcz przejmie wiele procesów decyzyjnych.

    Sztuczna inteligencja nie zastąpi człowieka

    Trzeba jednak pamiętać, że systemy AI nie potrafią nauczyć się kreatywności, innowacyjności, nie posiadają intuicji i wyrozumiałości. To cechy (na ten moment) zarezerwowane dla człowieka, które sprawiają, że potrafimy m.in. odróżniać, co jest dobre, a co złe oraz odczytywać sygnały niejednoznacznie nacechowane. Brak tej umiejętności sprawia, że systemami sztucznej inteligencji można manipulować, wprowadzając celowo nieprawdziwe dane i zaburzając proces poznawczy. Przekonali się o tym twórcy chińskiego bota z firmy Turing Robot, który miał uczyć się sztuki rozmowy na podstawie interakcji z użytkownikami. Projekt zamknięto po tym, jak maszyna zapytana o znaczenie używanego przez władze hasła „chiński sen”, jako określenie postępów krajowej gospodarki, odpowiedziała, że chodzi o wyemigrowanie do Stanów Zjednoczonych, co oczywiście nie spodobało się rządzącym.

    Unia Europejska dyskutuje o AI

    Na początku zeszłego roku Parlament Europejski przyjął rezolucję dotyczącą odpowiedzialności prawnej za działania robotów i sztucznej inteligencji. Posłowie wezwali Komisję Europejską, aby rozważyła utworzenie europejskiej agencji robotyki i sztucznej inteligencji, która wspierałaby władze publiczne w dziedzinie techniki, etyki oraz zagadnień prawnych. Dyskusja podejmowana zarówno przez przedstawicieli władz lokalnych, jak i struktur międzynarodowych staje się coraz bardziej istotna, gdyż wachlarz zastosowań AI w różnych branżach wciąż się poszerza i ma coraz większy wpływ na nasze życie.

    • Sztuczna inteligencja umożliwia spersonalizowanie usług medycznych i automatyczny odczyt zdjęć rentgenowskich. Osobisty asystent medyczny może przypominać o lekarstwach, ćwiczeniach fizycznych czy zdrowszej diecie.
    • W nauce AI pozwala na wyszukiwanie patentów, co znacznie ułatwia pracę nad publikacjami i badaniami.
    • W produkcji sztuczna inteligencja pomaga analizować dane fabryczne. Przetwarzanie informacji pochodzących z urządzeń podłączonych do Internetu rzeczy umożliwia prognozowanie przewidywanego obciążenia czy planowanie prac serwisowych.
    • W sporcie sztuczną inteligencję wykorzystuje się do analizy w czasie rzeczywistym danych z czujników, a także danych wideo, co umożliwia trenerom ocenę potencjału zawodników, wpływu poszczególnych graczy na wyniki całej drużyny, czy lepszą organizację gry, m.in. poprzez optymalizację strategii i formacji na boisku.

    Wkrótce wszystkie branże ulegną zmianie pod wpływem sztucznej inteligencji, jednak musimy zrozumieć, jaki jest jej zakres. Podstawowym ograniczeniem jest fakt, że czerpie ona naukę z danych i nie zna innego sposobu na przyswojenie wiedzy. Oznacza to, że wszelka nieścisłość danych odzwierciedlona będzie w wynikach. Zaś wszelkie dodatkowe warstwy predykcji czy analizy muszą zostać dodane oddzielnie. Ponieważ dane jeszcze nigdy nie odgrywały tak istotnej roli, mogą one stanowić o przewadze konkurencyjnej. Jeśli firma działająca w branży o wysokiej konkurencyjności dysponuje najlepszymi danymi, to — nawet jeśli wszystkie przedsiębiorstwa stosują podobne techniki — jest w uprzywilejowanej pozycji.

  • Kto zyska, a kto straci na rewolucji cyfrowej?

    Kto zyska, a kto straci na rewolucji cyfrowej?

    Jesteśmy świadkami zmian powodowanych przez coraz szersze zastosowanie technologii w naszym życiu. Wprowadzenie sztucznej inteligencji i samouczących się maszyn zmienia sposób, w jaki podejmowane są decyzje oraz prowadzona jest komunikacja. Proces jest nieodwracalny i będzie postępował. W nieodległej przyszłości chatboty zastąpią żywych ludzi, a Blockchainkryptowaluty diametralnie zmienią funkcjonowanie świata finansów. Rewolucja przemysłowa 4.0 wymusi wprowadzenie daleko idącej automatyzacji w produkcji i łańcuchu dostaw, surowców, komponentów, a nawet i gotowych produktów. Usługi – początkowo tylko te powtarzalne – staną się domeną maszyn lub oprogramowania. Automaty i samodzielne funkcjonujące maszyny będą mogły zastępować ludzi. Czeka nas zmiana naszych przyzwyczajeń, tego jak i dla kogo będziemy pracować i jak będziemy wynagradzani.

    Zgodnie z raportem McKinsey Global Institute w wyniku cyfrowej rewolucji do 2030 roku ponad 75 do 375 mln ludzi straci pracę. ale podczas gdy wiele zawodów bezpowrotnie zniknie z mapy zatrudnienia, pojawi się wiele nowych profesji. Jakie umiejętności będą kluczowe w przyszłości? Jakie grupy ludzi zyskają, a jakie stracą na rewolucji technologicznej?

    Na początku będziemy tracić

    W nowej, cyfrowej gospodarce coraz większa liczba ludzi będzie tracić. Automaty, będą zdolne do wykonywania identycznej pracy i będą to robić szybciej, taniej i bez błędów. Jednak bez wątpienia spore grupy pracowników staną się beneficjentami tego procesu, a całe rzesze specjalistów będą mogły doskonalić swoje profesjonalne umiejętności. Staną się oni bardziej cenieni na rynku pracy, a tym samym lepiej wynagradzani. Kim będą ci ludzie? Jakie unikalne umiejętności będą posiadać lub co sprawi, że będą tak cenni dla cyfrowej gospodarki? Jak wynika z obserwacji rynku i analiz McKinsey, tych najbardziej poszukiwanych pracowników będzie można podzielić na 3 grupy:

    1. Pracownicy wysoko wykwalifikowani

    Postęp takich technologii jak: rozpoznawanie głosu i obrazów, zbieranie i przechowywanie danych z czujników IoT (Internet of Things), wsparcie lub podejmowanie decyzji w oparciu o ogromnie ilości danych, spowodował, że zawody wymagające od pracownika zaledwie podstawowych umiejętności, zostaną zautomatyzowane. Natomiast w cenie będą umiejętności niezbędne do podjęcia współpracy z maszynami: abstrakcyjne myślenie, umiejętność analizy wielkich ilości danych i wyciąganie wniosków w oparciu o nie. Podstawowym pytaniem, jakie kandydat na dane stanowisko usłyszy w trakcie rekrutacji, będzie brzmiało: „czy jesteś dobry we współpracy z inteligentnymi maszynami?”

    Wysokich kwalifikacji często nie zdobywa się dzisiaj na studiach wyższych. Nabywa się jej wraz z doświadczeniem, ciągle poszerzając swoją wiedzę. A ta zdobywana współcześnie, dezaktualizuje się w ciągu 3-5 lat. Dotyczy to w szczególności tak szybko rozwijającej się dziedziny jaką jest sztuczna inteligencja.

    Komunikacja, wymiana danych człowiek-maszyna odbywa się teraz poprzez interfejsy stworzone 50 lat temu (klawiatura, ekran) czy 30 lat temu (myszka, track-ball). Wirtualna rzeczywistość, rozszerzona rzeczywistość, sterowanie i komunikowanie głosem – to już są fakty obecne w naszym dzisiejszym życiu. Co dalej? Czy czeka nas bezpośrednie połączenie neurologiczne między mózgiem człowieka, a maszyną? Czy powstaną banki danych w mózgu, rozszerzające pojemność i szybkość naszej pamięci? Czy nadchodzi era ludzi cyborgów, którzy zmienią się w idealnych, wysoko wykwalifikowanych pracowników? Czy przyszłość należy do symbiotycznych tworów, będących połączeniem ludzi i maszyn? Ludzi, którzy wniosą do tego symbiotycznego współistnienia: intuicję, emocje i nieprzewidywalność oraz maszyn, które zagwarantują dużą szybkość wyszukiwania danych i połączeń między nimi, a także tworzenie błyskawicznych analiz? Na jednoznaczne odpowiedzi poczekajmy 10 -15 lat. Zaledwie tyle.

    1. Współczesne gwiazdy

    Szybkie przesyłanie danych przez sieci i narzędzia współpracy, takie jak e-mail i wideokonferencje, zniwelowały podziały na regiony geograficzne czy strefy czasowe. Praca z danymi, analizami, wiedzą możliwa jest dla każdego w danej organizacji 24/7. Każda firma poszukująca programisty, projektanta, specjalisty od komunikacji ma dzisiaj dostęp do międzynarodowego rynku pracy. Jestem całkowicie przekonany, że ten proces będzie coraz łatwiejszy. Przykładowo, zatrudnianie programisty w pełnym wymiarze czasu, wynajmowanie dla niego biura i inwestowanie w sprzęt staje się coraz mniej opłacalne ekonomicznie.

    Zamiast tego można przecież znaleźć, wynająć i opłacić dowolnego, nawet najlepszego programistę funkcjonującego na globalnym rynku IT. Należy tylko stworzyć ogólny kosztorys projektu i uzależnić wysokość wynagrodzenia wynajętego fachowca od końcowych efektów i czasu wykonania zadania.  Szybko i prosto możemy wyliczyć, czy proponowane przez programistę stawki wpłyną negatywnie czy pozytywnie na opłacalność całości przedsięwzięcia.

    Postępując w taki sposób, osiągniemy szybszy zwrot z inwestycji, a rzeczony programista obsłuży w ciągu roku większą liczbę klientów. Fakt, że wynajęty specjalista pracuje zdalnie coraz częściej przestaje mieć znacznie. Postępy w technikach zarządzania zadaniami dzielonymi między pracownikami umożliwiają sprawną komunikację, podział obowiązków i przynoszą pożądane efekty. Będziemy coraz częściej spotykać sytuacje, w których lepiej sprawdzi się wynajęta, wyspecjalizowana w danej dziedzinie „super gwiazda”, niż rzesza pracowników. Czyli, redukujemy koszty, zwiększamy efektywność i łatwiej zarządzamy procesem kreatywnym, bo wydaje mi się, że w przyszłości jedną z przewag ludzi nad maszynami będzie właśnie kreatywność. Nie do końca jest jasne w jaki sposób poradzimy sobie ze skutkami społecznymi takiego procesu.

    1. Właściciele o dużej sile rażenia

    To ci, którzy mają kapitał do inwestowania w nowe technologie. Przy czym chodzi tu oczywiście o technologie, które będą miały udział w rewolucji cyfrowej, czyli: sztuczną inteligencję (uczenie się maszyn, cognitive computing, deep learning), blockchain (i kryptowaluty), ekonomię dzieloną, autonomiczne maszyny, rewolucję przemysłowa 4.0. Dostęp do kapitału daje ogromne korzyści. Podstawowe teorie ekonomii mówią, że kiedy środki rozbite są na inwestycje kapitałowe i siłę wytwórczą (w naszym wypadku siła robocza zamieniana jest na automatyzację, stąd pojęcie siły wytwórczej) to są one odzyskiwane w formie zysku, w przybliżeniu, proporcjonalnym do wkładu. Ponieważ technologia cyfrowa w wielu sektorach zmniejsza zapotrzebowanie na siłę roboczą, finalny zysk związany z posiadaniem inteligentnych maszyn (tańszych od ludzi) rośnie. W dzisiejszej gospodarce venture capital może finansować firmy takie, jak chociażby Instagram, który został wyceniony i sprzedany za miliardy dolarów w momencie, gdy zatrudniał 13 pracowników i działał w oparciu o minimalną bazę kosztową. Czy kiedykolwiek wcześniej, w gospodarce światowej mogłaby zostać stworzona tak duża wartość finansowa przy tak małej pracochłonności siły roboczej? Dlatego ci, którzy będą mieli dostęp do kapitału i będą go reinwestować w nowe technologie będą osiągać największe korzyści z rewolucji cyfrowej.

    Przy czym na właścicieli wielkiego kapitału czekają tu nowe wyzwania. Na globalnym rynku pojawiła się bowiem poważna wartość, a jest nią elastyczna, nieformalna i nisko kosztowa struktura, jaką jest start-up. Mała firma bez sztywnych procedur dotyczących zarządzania potrafi dzisiaj konkurować z największymi graczami na rynku, tworząc innowacyjne produkty i usługi. Tworzy się proces symbiozy – startupowcy wnoszą świeżość spojrzenia i kreatywność, korporacje wnoszą kapitał i warunki do rozwoju. Dynamiczna myśl, wspomagana dużymi pieniędzmi, może się doskonale rozwijać jak nigdy dotąd w historii biznesu. Uważam, że powodzenie tego procesu w przyszłości zależne będzie od kilku czynników. Menedżerowie korporacji w decyzjach dotyczących nowych inwestycji będą musieli wykazywać się odwagą i przenikliwością Być może jednym z kluczowych zawodów przyszłości stanie się analityk rynkowy, który będzie potrafił ocenić, który start-up przyniesie zyski, a który skazany jest na porażkę. Z drugiej strony właściciele małych innowacyjnych firm będą zmagali się z dylematami w rodzaju „komu się sprzedać”, „czy zostanę pożarty przez wielki kapitał, czy zachowam sporą przestrzeń do podejmowania niezależnych decyzji”?

    Współczesne fuzje mają już inny charakter – bo oznaczają spotkanie kapitału z wartością intelektualną i niejednokrotnie nie do końca wyklarowaną wizją. Wymaga to zmiany postaw, otwartości, konieczności edukacji wszystkich uczestników tego procesu. Jestem jednak przekonany, że opisane wyżej zjawiska i postawy będą motorem napędowym globalnej gospodarki w ciągu najbliższych lat.

    Czy chcesz zjeść kawałek tego tortu?

    Wierzę, że bezprecedensowy wzrost gospodarczy, trwający w skali globalnej już 60 lat, oraz ogromny rozwój technologii cyfrowych będą wpływać na to, jak żyjemy, uczymy się, mieszkamy, komunikujemy i wreszcie pracujemy. W mojej ocenie, w nowej, cyfrowej gospodarce trzy wymienione wyżej grupy ludzi będą miały szczególną przewagę nad innymi: ci, którzy potrafią pracować twórczo z inteligentnymi maszynami, ci, którzy najlepiej sprawdzają się w tym, co robią (są gwiazdami w swoim zawodzie) oraz ci, którzy mają dostęp do kapitału.

    Jeśli, drogi czytelniku, jesteś w stanie odnaleźć się, znaleźć sobie miejsce lub dołączyć do jakiejkolwiek z tych grup, to bardzo dobrze. Jeśli nie możesz, to być może nadal dobrze, ale będziesz się musiał o wiele bardziej postarać o to, by utrzymać swoją dotychczasową pozycję zawodową. A twoja pozycja zawodowa może być bardziej niepewna.

  • Nie ma co się obawiać. Automatyzacja to nie tylko kasowanie miejsc pracy, ale również tworzenie nowych

    Nie ma co się obawiać. Automatyzacja to nie tylko kasowanie miejsc pracy, ale również tworzenie nowych

    W powszechnej opinii robotyzacja doprowadzi w przyszłości do destrukcji rynku pracy. Chociaż jestem pewien, że zmiany na tym obszarze są nieuniknione, to nie uważam, że muszą one mieć jednoznacznie negatywny wydźwięk. Wchodzimy bowiem w epokę zupełnie nowych umiejętności, a technologia zrodzi popyt na nowych specjalistów.

    Pisałem już na moim blogu o popularnych mitach dotyczących Sztucznej Inteligencji. Jeden z najbardziej rozpowszechnionych dotyczy kwestii rynków pracy. Wedle popularnej tezy czeka je wstrząs, a nawet stopniowa erozja. Bez względu na to, czy czekają nas zmiany gwałtowne, czy ewolucyjne, zachowanie obecnego statusu quo wydaje się trudne. Na rozwoju technologii skorzystają może korporacje, ale nie pracownicy – twierdzą pesymiści. Robotyzacja dla przemysłu i usług ma w ich opinii oznaczać masowe zwolnienia i likwidację wielu stanowisk. Sądzę, że faktycznie musimy wszyscy przygotować się na zmiany, natomiast chcę w tym tekście wykazać, że nie muszą one być tak jednoznacznie negatywne. A nawet wręcz przeciwnie: Sztuczna Inteligencja będzie generować sporo nowych miejsc pracy, wpływać na powstawanie nowych stanowisk i ról zawodowych. Cenione będą też nowe umiejętności.

    Politycy w świecie Sztucznej Inteligencji

    Czytając publikacje o tym, jak na rynek pracy może wpływać automatyzacja i robotyzacja, natknąłem się na sugestywna wizję dziennikarza Bena Tarnoffa przedstawioną w The Guardian. Tekst mnie zainteresował, bo chociaż autor nie kryje niepokojów, nie zatrzymuje się jednak na pesymistycznych uproszczeniach. Szuka też możliwych, a nawet koniecznych rozwiązań, które mogą łagodzić negatywne skutki robotyzacji. W artykule „Robots won’t just take our jobs – they’ll make the rich even richer”, autor twierdzi, że nowa technologia może przynieść wiele korzyści dla rozwoju społeczeństw, ale też nieść zagrożenia. Bez regulacji wprowadzonych przez polityków i ekonomistów, apokaliptyczne wizje mogą stać się faktem już za dziesięć lat – twierdzi Tarnoff. Ale tu pojawia się istotna, według mnie, refleksja dziennikarza dotycząca kwestii regulacji. Krytycy współczesnych procesów technologicznych zapominają, że żadne zmiany, tym bardziej dotyczące dużego rynku pracy, nie mogą następować bez mechanizmów prawnych czy ustawodawczych. To, że rewolucja technologiczna potrzebuje ustawodawczego wsparcia jest dla mnie jasne. Zadaniem każdych wprowadzanych regulacji jest przecież zapobieganie negatywnym procesom, które należy przewidywać – bez względu na to, czy wierzymy, że wystąpią, czy nie.

    Podatki od robotów

    Zagrożeniem, na które wskazuje Ben Tarnoff ma być wykluczenie społeczne wielu grup zawodowych. Gdy technologia staje się coraz doskonalsza, a udział kosztów pracy w procesie tworzenia kapitału się systematycznie zmniejsza, korporacje zarabiają coraz więcej. Przeciętny pracownik nie staje się jednak beneficjentem tego procesu. Zwiększające się zyski, które są owocem większej efektywności trafiają bowiem wyłącznie do kieszeni inwestorów, właścicieli firm i nie będą reinwestowane w ludzi, czy w formie zwiększenia płac, czy dodatkowych szkoleń, rozwoju. Cały ten proces może przynieść drastyczne konsekwencje, łącznie z „buntem mas”. Bogaci mieliby więc coraz bardziej izolować się od reszty społeczeństwa, zamieszkiwać luksusowe, zamknięte enklawy, a pozbawieni pracy, przedstawiciele niższej i średniej klasy sięgać po radykalne rozwiązania, łącznie z użyciem siły. W tym ponurym scenariuszu technologia służy więc klasie uprzywilejowanej i staje się jakością „polityczną”. Co mogłoby zapobiegać tym apokaliptycznym scenariuszom? Według autora artykułu, może to być chociażby polityka podatkowa. Opodatkowanie robotów pozwoliłoby na wygenerowanie środków pozwalających na przekwalifikowanie zagrożonych pracowników lub zapewnienie im dochodu gwarantowanego. Do takich wniosków dochodzą już dzisiaj zarówno politycy unijni we Francji, jak i Bill Gates.

    Automatyzacja to nie automatyczna katastrofa

    Czy jednak, tak naprawdę, jest się o co martwić? Teza, że robotyzacja może doprowadzić do likwidacji wielu stanowisk pracy nie jest aż tak oczywista, jakby mogło się wydawać. Coraz liczniejsze badania, które prowadzi się na ten temat (przykładem może być cytowany przez The Guardian i inne media raport Forrestera) pokazują zjawisko z wielu perspektyw i burzą popularne przekonania. Liczby nie są jednoznaczne. Natknąłem się co prawda na opinie, że istnieje 50 procentowa szansa na to, że w okresie 45 lat urządzenia korzystające z dobrodziejstw Sztucznej Inteligencji będą w stanie wykonywać WSZYSTKIE ludzkie działania, a w okresie 120 lat zautomatyzowane zostanie każde miejsce pracy. Wedle opinii oksfordzkiego profesora Michaela Osbourne specjalizującego się w problematyce machine learning, w ciągu najbliższych 20 lat maszyny mogą zastąpić około 47 procent naszych miejsc pracy. Innymi słowy, człowiek nie będzie miał nic do roboty. Na dzisiaj przemawiają do mnie jednak prognozy analityków, według których maszyny w ciągu najbliższych czterech lat mogą wyeliminować ok. 6 procent miejsc pracy. Nie jest to ciągle zatrważająca liczba, biorąc pod uwagę korzyści i możliwości, które mogą się pojawić. Szacuje się, że w Stanach Zjednoczonych automatyzacja spowoduje stratę 9,1 mln miejsc pracy do 2025 roku. Szacowany potencjał miejsc pracy do automatyzacji w Japonii to 55 proc., Indiach 52 proc., Chinach 51proc., a w USA 46 proc. W mojej ocenie ciągle nie jest to dużo.

    Nie wszyscy muszą się martwić

    W rozważaniach dotyczących rynku pracy ważna jest szersza perspektywa, która uwzględnia chociażby takie czynniki jak: charakter wykonywanej pracy, rodzaj stanowisk i wykształcenie pracowników. O tym, że to wszystko ma znaczenie, świadczy przykładowo opracowanie McKinsey Global Institute. Przyglądając się poniższym danym, szybko można spostrzec, że potencjalnie negatywne skutki robotyzacji i automatyzacji mogą dotyczyć określonych grup pracowników. O swoją przyszłość mogą więc martwić się kierowcy (wydaje się to jasne, gdy weźmiemy pod uwagę dynamiczny rozwój technologii pojazdów autonomicznych). Natomiast negatywne zmiany w niewielkim stopniu dotkną lekarzy, prawników, nauczycieli. Można podsumować to tak: prace, w których liczą się relacje międzyludzkie, kreatywność, inteligencja emocjonalna zagrożone nie będą, a nowoczesna technologia może być nawet poważnym sprzymierzeńcem w trakcie wykonywania wielu czynności zawodowych.

    Roboty trzeba naprawiać

    Przyglądając się możliwościom związanym z pracą przyszłości, można dojść do banalnego wniosku.  Jeśli prawdą jest, że powszechna robotyzacja stanie się faktem, to oznacza, że nawet najnowocześniejsze maszyny będą narażone na usterki, ich oprogramowanie będzie wymagało aktualizacji, a serwisowanie będzie generowało produkcję nowych części, urządzeń i konieczność ich montażu. Spora grupa specjalistów, którzy dzisiaj nie stanowią nawet odsetka wśród grup zawodowych, musi prędzej czy później zadebiutować na rynku pracy. Są branże, które staną się beneficjentem tego procesu w pierwszej kolejności: przemysł motoryzacyjny, transport, logistyka, elektronika, robotyka czy energia odnawialna. Pojawią się nowi producenci, inżynierowie, serwisanci, profesjonaliści wyposażeni w nowe kompetencje zatrudniani w wielu nowych firmach. Niektóre badania wskazują, że każdy robot generuje średnio trzy nowe stanowiska pracy (na nie powołuje się między innymi Mynual Khan w swoim artykule dotyczącym zmian, jakie nas czekają.)

    Musimy się od kogoś uczyć

    Wraz z robotyzacją wzrośnie zapotrzebowanie na nowe umiejętności techniczne. Bardzo ciekawą grupę nowych profesjonalistów będą tworzyć trenerzy, czyli osoby odpowiadające za nauczanie całych systemów Sztucznej Inteligencji. Będą to osoby łączące wiele kwalifikacji i kompetencji: programisty, psychologa, coacha. Trenerzy nie muszą zajmować się tylko ludźmi, pomagając im w zrozumieniu jak działa najnowsza technologia, jak obsługiwać dany sprzęt. Google już dzisiaj zatrudnia specjalistów, których głównym zadaniem jest uczenie urządzeń pracujących na podstawie algorytmicznej, szybszego i sprawniejszego działania.

    Trenerzy będą więc współpracować z algorytmami czy sieciami neuronowymi dbając o to, by te ostatnie coraz lepiej rozumiały i odwzorowywały ludzkie zachowania. Chatboty, czyli narzędzia które zdominują rynek obsługi klienta, będą przechodzić lekcje interakcji z człowiekiem, tak by komunikacja była naturalna, czyli obejmowała całą gamę zachowań, łącznie z ludzkimi emocjami. Algorytmy będą więc trenowane, by zachować się odpowiednio w sytuacjach komplikujących nasze życie. Jeśli zgubię dokumenty, przebywając w jakimś bezzałogowym hotelu na końcu świata pierwszy kontakt jaki nawiążę, będzie to zapewne kontakt z chatbotem lub fizycznym robotem na biurkiem recepcji. Jego zadaniem będzie uspokojenie mnie, analiza sytuacji, udzielenie mi odpowiednich wskazówek, psychiczne wsparcie, skierowanie do właściwych osób. Kontakt z takimi maszynami to nasza przyszłość. By nie był on zubożony o ludzkie emocje będą potrzebni właśnie specjalni trenerzy. Będą zatrudniać ich też koncerny produkujące osobistych asystentów, takich chociażby jak Alexa, która pyta nas o nasze zdrowie i samopoczucie. Przy okazji: stwierdzenie, że maszyny nigdy nie będą zdolne do przeżywania ludzkich emocji i uczuć, staje się w tym momencie dyskusyjne. Ale to temat na osobny tekst.

    Etycy nowych czasów

    Unia Europejska od początku tego roku pracuje nad rozporządzeniami, które miałyby chronić konsumenta przed niepożądanym działaniem Sztucznej Inteligencji. Nowe przepisy (mogą wejść w życie już w 2018 roku) mają między innymi określać zasady orzekania na rzecz osób, ponoszących szkodę w wyniku działania urządzeń pracujących wyłącznie w oparciu o algorytmy. Oprócz tego, nowe regulacje mają dotyczyć udostępniania naszych danych osobowych maszynom (o inicjatywach ustawodawczych Unii Europejskiej, które są konieczne dla naszego poczucia komfortu i bezpieczeństwa przeczytasz tutaj). Przy okazji, w tej interesującej sytuacji pojawia się miejsce na nowe kompetencje, a nawet stałe stanowisko pracy. Będzie je piastować osoba, której zadaniem będzie bieżący monitoringi treści generowanych przez chatboty, czy obserwowanie czynności wykonywanych przez roboty. Nowi etycy będą więc sprawdzać aplikacje i maszyny pod kątem wystąpienia możliwych komplikacji prawnych. Osoby te z pewnością mogą liczyć na zatrudnienie w firmach świadczących usługi telekomunikacyjne i wszelkich podmiotach zajmujących się zautomatyzowaną obsługą. Etyków do pracy werbuje już dzisiaj Google (w Londynie powołał specjalny oddział DeepMind Ethics and Society zajmujący się szeroko pojętymi kwestiami etycznymi związanymi ze Sztuczną Inteligencją). I będą na nich zgłaszać zapotrzebowanie te wszystkie firmy, które do wytwarzania swoich produktów i usług używają robotów, botów czy wirtualnych asystentów.

    Zbieracze danych

    Cała Sztuczna Inteligencja pracuje w oparciu o przetwarzanie masy danych. Niektóre z nich należy urządzeniom po prostu dostarczyć. Przykładem może być proces, w którym urządzenia uczą się rozpoznawania ludzkiej twarzy, bazując na wielkich zbiorach fotografii. W przyszłości będą potrzebni pracownicy, których jedynym zadaniem będzie gromadzenie danych, po to by móc nimi „nakarmić” maszyny czy wszelkiego rodzaju urządzenia operujące w oparciu o duże zbiory rozmaitych informacji. Zapotrzebowaniu na dane może wykreować całą branżę, która będzie systematycznie generować masowe miejsca pracy.

    Technologia zmienia wszystko

    Wymieniłem zaledwie kilka przykładów, ale jestem przekonany, że proces tworzenia się zapotrzebowania na nowych specjalistów nie będzie miał granic.

    Sztuczna Inteligencja jest złożonym trendem. Stwierdzenie, że konieczną konsekwencją automatyzacji procesów biznesowych będzie naruszenie porządku społecznego jest prawdą połowiczną. Trudno oczywiście orzekać, czy stuprocentową rację będą mieli ci, którzy twierdzą, że każde zlikwidowane w wyniku robotyzacji stanowisko zostanie zastąpione trzema nowymi. Pewne jest natomiast to, że Sztuczna Inteligencja stworzy szansę milionom ludzi, uwalniając ich od powtarzających się czynności, motywując do zdobywania nowej wiedzy, budząc intelektualne wyzwania, ucząc zupełnie nowych rzeczy. Nowa technologia, która przykłada rękę do ewolucji, która się dzieje, nie jest ani dobra, ani zła. Może stać się taką w we właściwych lub niewłaściwych dłoniach.

  • Deloitte: Polska nie jest jeszcze gotowa na czwartą rewolucję przemysłową

    Deloitte: Polska nie jest jeszcze gotowa na czwartą rewolucję przemysłową

    Zmiany związane z komercyjnym wykorzystywaniem najnowszych zdobyczy technologii, cyfryzacja, sztuczna inteligencja, sensory, biomateriały, możliwości analizy gigantycznych ilości danych – istotnie wpływają na sposoby wytwarzania. Nie omija to również Polski. Jesteśmy świadkami początku czwartej rewolucji przemysłowej i to najwyższy czas dla menedżerów, by znaleźć odpowiedź – jak skutecznie wprowadzić swoją firmę na poziom Przemysłu 4.0 – pisze w swoim komentarzu Julia Patorska, Lider zespołu ds. analiz ekonomicznych Deloitte.

    O Przemyśle 4.0 mówi i pisze się coraz więcej. W Davos zagadnienia związane z czwartą rewolucją przemysłową były jednym z głównych tematów, nie pomijając jednak kluczowych kwestii społecznych czy środowiskowych, które również wybrzmiały podczas tegorocznego forum ekonomicznego. Czy rzeczywiście zmiany, które aktualnie obserwujemy są tak duże i istotne, jak wcześniejsze rewolucje – maszyna parowa, elektryfikacja czy informatyzacja? Moim zdaniem, nie bez powodu mówimy o kolejnym przełomie, który nie jest już tylko futurologią, a dzieje się na naszych oczach. Warto zatem mieć je szeroko otwarte i umieć umiejętnie wykorzystać ten moment.

    Czym jest Przemysł 4.0

    Sformułowanie definicji tego, co można rozumieć pod pojęciem czwartej rewolucji przemysłowej, nie jest łatwe. Dotykamy tutaj szeregu zagadnień, które w sumie dają istotną i ogromną zarazem zmianę w procesach wytwórczych. Tak jak we wcześniejszych rewolucjach i tym razem celem jest zwiększanie produktywności i lepsze dostosowywanie produktu do potrzeb odbiorców.To wszystko ma odbywać się z poszanowaniem otoczenia, wypracowując wartość dla szerszego grona odbiorców przy minimalizacji kosztów zewnętrznych. Wydaje mi się, że wcześniejsze rewolucje były jednak łatwiejsze do zrozumienia – jeden impuls zmieniał cały łańcuch wartości. Tym razem jest nieco inaczej. Nakłada się równolegle szereg technologii i odmiennych zachowań, które zintegrowane prowadzą do nowego spojrzenia na produkcję dóbr i usług. Jednym zdaniem, Przemysł 4.0 tym różni się od wersji poprzedniej, że łącząc istniejące technologie równocześnie zaciera granice między sferami fizyczną, cyfrową i biologiczną procesów wytwórczych.

    Czwarta rewolucja przemysłowa w praktyce

    Nic lepiej nie zobrazuje zmian, jak żywy przykład. Dla mnie najłatwiejsze do uchwycenia i tym samym wytłumaczenia są zmiany zachodzące w motoryzacji, gdzie podnoszenie efektywności produkcji wpływa istotnie na pozycję konkurencyjną producentów i odbywa się z myślą o poszanowaniu środowiska. Jest to widoczne w wytwarzaniu na coraz większą skalę bezemisyjnych samochodów, czy wykorzystywanie coraz bardziej zaawansowanych materiałów, w tym także pochodzenia biologicznego (wyściółki tapicerki z owczej wełny, elementy z biopolimerów). Następnie wymienić można prace nad pojazdami autonomicznymi i szerokim zastosowaniem sztucznej inteligencji i big data już podczas użytkowania pojazdu. Na końcu łańcucha dodatkowo jeszcze włączane są także roboty do rozbiórki zużytych pojazdów po to, by w bardziej efektywny sposób wydobyć materiały i zachować ich wartość. Dzieje się to przy pomocy wsparcia regulacyjnego, ale choćby projekt ICARRE 95 (w którym udowodniono możliwość recyklingu i odzysku energetycznego 95 proc. pojazdu, mierząc to jego masą), pozwala dostrzec istotną pozycję samego producenta w dziejącej się zmianie.

    Ale czy przykład branży motoryzacyjnej możemy uznać za zwiastun i pewnik dziejącej się rewolucji? Przykłady, które podałam dotyczą różnych wytwórców, często nie są ze sobą jeszcze powiązane w spójną całość. Rozdźwięk pomiędzy możliwościami a rzeczywistością potwierdza także badanie Industry 4.0, które Deloitte przeprowadził na kadrze kierowniczej firm i agencji rządowych w 19 liczących się gospodarkach z całego świata.

    Respondenci rozumieją zachodzące zmiany w ich otoczeniu, ale niekoniecznie potrafią je wykorzystać. Oceny są niejednoznaczne. Zdaniem aż 87 proc. respondentów Przemysł 4.0 może doprowadzić do zmniejszenia różnic społecznych i ekonomicznych, ale równocześnie pojawiają się obawy, czy kadra jest odpowiednio przygotowana i czy generalnie społeczeństwo posiada oczekiwane kompetencje (tylko jedna czwarta ankietowanych uważa, że posiada odpowiednie zasoby osobowe do sprostania wyzwaniom przyszłości). Kto zatem ma tę zmianę wdrażać, nie jest do końca jasne dla kadry kierowniczej. Podobnie w obszarze technologii, dostrzegając jej znaczenie w obserwowanych zmianach nie zawsze respondenci potrafili biznesowo uzasadnić inwestycje w technologie, które w ich otoczeniu były realizowane

    Sprzeczności, które wykazało cytowane badanie da się łatwo uzasadnić jeszcze niewielkim zintegrowaniem zachodzących zmian i często brakiem synergii pomiędzy ulepszeniami. Wskazuje to raczej na początek drogi do ugruntowanej pozycji Przemysłu 4.0, choć niewątpliwie kierunku jej zmienić się już nie da.

    Polski Przemysł 4.0

    Warto zatem zadać pytanie o przygotowanie Polski do czwartej rewolucji przemysłowej. Myślę, że aby dana gospodarka mogła wykorzystać najlepiej możliwości Przemysłu 4.0, konieczne są następujące czynniki: istotny udział przemysłu w generowaniu PKB, zaawansowanie technologiczne kraju oraz wysoki kapitał społeczny, który umożliwi integrację innowacji i sieciowe wykorzystanie osiągnięć w poszczególnych sferach. Ważne zatem, aby przyjrzeć się, gdzie na tej mapie znajduje się Polska, czy jest gotowa stanąć do wyścigu o ważną międzynarodową pozycję.

    Jedną z cech ostatnich dwóch dekad w wielu krajach był malejący udział przemysłu przetwórczego w wartości dodanej wytwarzanej przez całą gospodarkę. Mogliśmy to zaobserwować w USA czy ogółem w strefie euro. Polsce jednak udało się zachować poziom industrializacji z końca XX w., ale działo się to także dzięki bezpośrednim inwestycjom zagranicznym. Nasze przewagi w tym zakresie jednak wynikały przede wszystkim z niższych kosztów osobowych przy relatywnie ich wysokiej jakości. Dodatkowo polski przemysł jest rozdrobniony. Brakuje nam dużych przedsiębiorstw ze znacznym kapitałem, gdzie więcej wydaje się na badania i rozwój, a efekty skali istotnie podnoszą produktywność. W efekcie dzisiejszy przemysł może mieć problem z utrzymaniem wysokiego poziomu generowanej wartości dodanej w PKB. Kwestie zaawansowania technologicznego mogą być kolejną barierą. W szeregu różnorodnych rankingów mierzących naszą pozycję globalną w zakresie stosowanych technologii, gotowości adaptacji nowych rozwiązań IT czy też ogólnego środowiska sprzyjającego kreacji i zmianom w ramach czwartej rewolucji przemysłowej plasujemy się w czwartej/piątej dziesiątce świata (38 miejsce na 127 w Global Innovation Index 2017, 42 miejsce na 139 w Networked Readiness Index 2016, 23 miejsce na 28 krajów UE w Digital Economy and Society Index 2017). Badanie Deloitte w zakresie dojrzałości ekosystemu startupów także potwierdza dystans, który dzielimy do czołówki gospodarek w tym zakresie.

    Co gorsza, jako narodowi trudno nam jest się porozumiewać. Cechujemy się dużą nieufnością wobec innych, nie zawsze potrafimy współpracować widząc możliwość osiągniecia celu w sytuacji „win-win”. O niskim, a co gorsza spadającym kapitale społecznym nie zawsze mówi się w kontekście biznesu, ale w mojej opinii to jeden z większych hamulców zmian.

    Biorąc pod uwagę powyższe uwarunkowania Polska nie jest jeszcze gotowa na czwartą rewolucję przemysłową. Pocieszające jest to, że na wielu innych rynkach Przemysł 4.0 też dopiero raczkuje.

    Czwarta rewolucja przemysłowa zmieni świat, ale tylko 14 proc. zarządzających jest na nią gotowych – powiedział Punit Renjen, CEO Deloitte Global w Davos cytując przeprowadzone przez firmę badanie.

    Zatem szansa czy gwóźdź do trumny?

    Choć poruszone struny na temat perspektyw Polski nie wybrzmiewają optymistycznie, myślę, że wciąż można próbować wyzwania przekuwać w sukcesy. Problemy demograficzne i obecnie obserwowane perturbacje na rynku pracy w Polsce mogą prowadzić do zwiększenia inwestycji w technologie, które będą zastępowały człowieka i tym samym podnosiły produktywność. Rozdrobnienie przemysłu może wpływać na większą elastyczność i szybsze dostosowywanie się do koniecznych zmian. A technologie informatyczne, które wykorzystujemy m.in. do komunikacji, będą wymuszać współpracę. Na końcu bowiem wszyscy pozostajemy ludźmi i im więcej człowieczeństwa zachowamy, tym większej liczbie ludzi pomogą w życiu zdobycze czwartej rewolucji przemysłowej.

    Dodatkowo, bardzo ważną rolę w zmianie może odgrywać świadomy konsument. To w końcu on dokonuje wyborów na rynku. Nowoczesne metody komunikowania pomagają konsumentom zdobywać informacje i w rzeczywistości można dostrzec dialog pomiędzy dostawcą produktów czy usług oraz tymi, którzy je kupują. Jeśli dostrzegalny będzie rozdźwięk między deklaracjami firmy a rzeczywistością, którą oferuje, sukces tego podmiotu jest wątpliwy.

  • Sukces w handlu detalicznym? – Połączenie e-commerce ze sprzedażą tradycyjną

    Sukces w handlu detalicznym? – Połączenie e-commerce ze sprzedażą tradycyjną

    Przychody 250 największych detalistów na świecie wyniosły w ubiegłym roku obrotowym (kończącym się najpóźniej w czerwcu 2017 r.) 4,4 biliona dolarów. Rok do roku był to wzrost o 4,1 proc. Jak wynika z najnowszej edycji corocznego raportu „Global Powers of Retailing 2018. Transformative change, reinvigorated commerce”, przygotowanego przez firmę doradczą Deloitte, choć nadal 90 proc. sprzedaży globalnej ma miejsce w sklepach tradycyjnych, to prawdziwa walka o klienta rozegra się w kanałach cyfrowych. Niezmiennie od ponad 20 lat największym detalistą na świecie pozostaje amerykański gigant Wal-Mart.

    Mimo trudnych warunków makroekonomicznych handel detaliczny rozwija się stabilnie. Sytuacja różni się jednak w zależności od regionu: w Afryce i na Bliskim Wschodzie oraz Ameryce Południowej odnotowano znaczący wzrost przychodów, sięgający odpowiednio 10,9 oraz 9,8 proc., podczas gdy w Europie, Azji czy Ameryce Północnej było to wzrosty poniżej 5 proc. – mówi Magdalena Jończak, Lider Zespołu ds. Sektora Dóbr Konsumenckich, Partner w Dziale Konsultingu Deloitte.

    Aby znaleźć się na liście TOP 250 (ostatnia firma w zestawieniu) spółka musiała w poprzednim roku obrotowym (ostatnim zakończonym) osiągnąć przychody w wysokości co najmniej 3,6 mld dolarów, a średni poziom przychodów przypadający na jedną firmę wyniósł 17,6 mld dolarów. Średnia marża zysku netto w branży wyniosła 3,2 proc. Aż 22,5 proc. przychodów detaliści czerpali z działalności poza krajem rodzimym. Średnia liczba krajów, w których sieci prowadzą swoją działalność, wyniosła w omawianym okresie 10.

    Branża spożywcza nadrabia stracony czas

    Raport omawia zagadnienia związane z umiejętnością angażowania klienta, która dzięki wykorzystaniu odpowiednich technologii oraz wzmacnianiu lojalności ma pomóc detalistom w dostarczaniu konsumentom nowych doświadczeń. Eksperci zwracają uwagę na konieczność budowania kompetencji cyfrowych na najwyższym poziomie. Przedstawiciele sektora detalicznego z całego świata w szybkim tempie przystosowują się do nowej sytuacji. Dziś z perspektywy konsumenta sposób robienia zakupów nie polega na zastępowaniu sklepów stacjonarnych internetowymi.

    Nie chodzi o wybór jednego kanału, a wręcz przeciwnie. Klienci przeskakują z kanału na kanał, a na ich ścieżkę zakupową składa się szereg interakcji z daną marką, zarówno online, jak i offline – mówi Mariusz Chmurzyński, Dyrektor w Dziale Konsultingu Deloitte.

    Z danych wynika, że 56 centów z jednego dolara wydanego w sklepie tradycyjnym to efekt kontaktu klienta z kanałami cyfrowymi. Trzy lata wcześniej było to 36 centów. Ci którzy kupują w różnych kanałach wydają ponad dwa razy więcej, niż ci, którzy robią zakupy jedynie w sklepach tradycyjnych. Oznacza to, że detaliści muszą odpowiednio i całościowo planować i funkcjonować we wszystkich kanałach, niezależnie od tego, czy ostateczna sprzedaż odbywa się w sklepie czy w Internecie.

    Jak wskazuje raport powiązanie zakupów stacjonarnych z internetowymi pomaga nadrabiać straty. Wielu graczy, którzy początkowo nie nadążali za trendami cyfrowymi, teraz próbuje to zmienić. Dotyczy to szczególnie detalistów działających w branży spożywczej. Ostatnie badania wskazują, że globalna sprzedaż artykułów spożywczych poprzez e-commerce wzrosła w ubiegłym roku o 30 proc. Z kolei, jeżeli chodzi o zasięg geograficzny, to największe wzrosty w handlu internetowym zanotowano w Chinach (o 52 proc.), Korei Południowej (o 41 proc.), Wielkiej Brytanii (o 8 proc.) oraz Francji (o 7 proc.).

    W realu to, czego klient nie znajdzie online

    Eksperci zwracają uwagę również na konieczność tworzenia niepowtarzalnych doświadczeń, które spełniają oczekiwania odbiorców. Aż 90 proc. sprzedaży detalicznej na świecie nadal odbywa się w sklepach tradycyjnych. Jednak aby sprostać konkurencji ze strony przyjaznych w obsłudze sklepów online, które mogą zaoferować ogromny asortyment, zasadniczą rolę odgrywa doświadczenie klienta i zaangażowanie marki. Dlatego ważne jest tworzenie unikalnych, wyselekcjonowanych ofert oraz przyjemna atmosfera i oferowanie klientom usług typu concierge. Na przykład sieć amerykańskich supermarketów Hy-Vee podjęła współpracę z siecią ośrodków fitness OrangeTheory, czego skutkiem było otwarcie sal treningowych obok sklepów.

    Jak wskazuje raport Deloitte sprzedaż detaliczna dzięki najnowszym technologiom odzyskuje wigor. Wpływ na ten stan rzeczy mają Internet Rzeczy, sztuczna inteligencja, rzeczywistość rozszerzona i wirtualna, jak również robotyka, które powinny stać się przedmiotem zainteresowania detalistów, i to zarówno tradycyjnych, jak i internetowych.

    Liderzy bez zmian

    Amerykańska sieć Wal-Mart od ponad 20 lat pozostaje największym światowym detalistą i generuje roczne przychody ponad czterokrotnie wyższe niż jej najpoważniejszy konkurent. Na drugim miejscu w poprzednim roku obrotowym znalazło się Costco, a na trzecim koncern The Kroger Co., który jako jedyny gracz w TOP 10 operuje tylko na jednym rynku. Z kolei na czwartym miejscu uplasował się niemiecki Schwarz Unternehmens Treuhand KG, który polskim klientom może być znany jako właściciel sieci dyskontów Lidl i supermarketów Kaufland. Na piątym miejscu ponownie znalazła się sieć drogerii i aptek Walgreens Boots Alliance. Pierwsza piątka nie zmieniła się w stosunku do poprzedniego roku.

    Na szóste miejsce z dziesiątego awansował Amazon.com, który zajął miejsce The Home Depot. W pierwszej dziesiątce znalazły się jeszcze Aldi Einkauf GmbH & Co. oHG, Carrefour i CVS Health Corporation, który awansował z 12 miejsca. Właściciel sieci sklepów Biedronka Jeronimo Martins znalazł się w tym roku na 56. miejscu (rok wcześniej było to 64. miejsce).

    W ubiegłym roku obrotowym grupa 10 największych sprzedawców detalicznych na świecie rosła szybciej niż całe TOP 250 i zanotowała wzrost przychodów o 4,5 proc. Udział pierwszej dziesiątki w ogólnym poziomie sprzedaży całego zestawienia wyniósł w omawianym czasie 30,7 proc. (rok wcześniej 30,4 proc.). Natomiast wzrost przychodów wygenerowany przez TOP 10 stanowił blisko 44 proc. wzrostu całego TOP 250, co oznacza że najwięksi gracze stopniową zwiększają swą dominację.

    Największy skok Amazonu

    Po raz pierwszy od czterech lat branża odzieżowa i akcesoriów nie była wyraźnym liderem wzrostu przychodów, ale pozostała najbardziej dochodowym sektorem. Z kolei detaliści FMCG to zdecydowanie największe firmy (średnie przychody detaliczne sięgające prawie 21,7 mld dolarów), a także najliczniejsze (135 detalistów odpowiada za 54 proc. z całej TOP 250). Ich udział w przychodach TOP 250 wynosi aż 66,4 proc.

    W tegorocznym rankingu znalazło się dziesięć firm-debiutantów lub takich, które wróciły do niego po przerwie.

    Na czele zestawienia firm, które w latach 2011-2016 osiągnęły największe wzrosty przychodów, znalazła się ponownie chińska firma Vipshop Holdings Limited, w której przypadku było to 103,8 proc. Porównując pierwszą dziesiątkę ostatniego zestawienia i tę z 2001 roku, to jedynie cztery firmy znajdowały się w obu rankingach. Największy awans należy do Amazon.com, który w 2001 roku znajdował się na 157 miejscu, a obecnie jest to szósta pozycja. W ciągu roku wzrost przychodów firmy wyniósł 19,4 proc.

    Amazon jest jedną z najbardziej innowacyjnych firm na świecie, która osiągnęła nie tylko najwyższy procentowy wzrost przychodów w pierwszej dziesiątce, ale była najlepsza pod tym względem również w ostatnich pięciu latach. Agresywna polityka Amazon w branży spożywczej, przejęcie sieci marketów ze zdrową żywnością Whole Foods przy jednoczesnym realizowaniu strategii e-commerce powinny zaowocować poprawieniem jego pozycji w naszym zestawieniu. Niewykluczone, że Amazon w ciągu dwóch lat stanie na podium – prognozuje Mariusz Chmurzyński.

  • Cyber-ruletka – firmy polskie słabo zabezpieczone przed cyberatakami

    Cyber-ruletka – firmy polskie słabo zabezpieczone przed cyberatakami

    W poprzednim roku w wyniku cyberataków straty finansowe poniosło 44 proc. polskich przedsiębiorstw, a 62 proc. odnotowało zakłócenia i przestoje w funkcjonowaniu – wynika z raportu firmy doradczej PwC „Cyber-ruletka po polsku. Dlaczego firmy w walce z cyberprzestępczością liczą na szczęście”. Analiza ekspertów PwC pokazała dodatkowo, że jedynie 8 proc. polskich firm jest dojrzała pod względem bezpieczeństwa cybernetycznego.

    Cyberzagrożenia to nie tylko problem IT, ale poważne ryzyko biznesowe. Prezesi z prawie wszystkich regionów świata zaliczają je do 5 najważniejszych ryzyk dla swojej firmy. Tylko w Europie Środkowo-Wschodniej i Ameryce Łacińskiej obszar ten wciąż nie stanowi priorytetu. Również w Polsce często obserwujemy cyber-ruletkę, liczenie na szczęście i fałszywe przekonanie, że firma jest dobrze zabezpieczona. Tymczasem, jak od 5 lat pokazują wyniki naszego badania, mamy sporo do nadrobienia – mówi Piotr Urban, partner w PwC, lider usług cyberbezpieczeństwa w regionie Europy Środkowo-Wschodniej.

    Indeks Cyberbezpieczeństwa, stworzony przez PwC na podstawie badania ponad 100 polskich firm, wskazuje, że tylko 8 proc. z nich jest w pełni dojrzała pod względem odporności na cyberzagrożenia, to znaczy posiada odpowiednie narzędzia i systemy zabezpieczeń (wdrożone SIEM, Anty APT, IPS/IDS, SOC), dedykowany zespół ds. cyberbezpieczeństwa, a budżet na bezpieczeństwo stanowi co najmniej 10 proc. wartości całego budżetu IT. Kolejnych 7 proc. przedsiębiorstw eksperci PwC uznają za średnio dojrzałe.

    Z danych zebranych w raporcie PwC wynika, że w 2017 r. 65 proc. firm w Polsce wykryło incydenty związane z bezpieczeństwem. Ich najczęstszym źródłem niezmiennie aktualni pracownicy (33 proc.), hakerzy (28 proc.) oraz byli pracownicy (13 proc.). Skutki cyberataków dla polskich przedsiębiorców były dotkliwe. 44 proc. z nich deklaruje, że w wyniku zaistniałych incydentów poniosło straty finansowe. Odsetek ten jest prawdopodobnie jeszcze wyższy, jeśli weźmiemy pod uwagę, że aż 62 proc. firm odnotowało zakłócenia i przerwy w funkcjonowaniu, w tym 26 proc. takie, które trwały więcej niż jeden dzień roboczy.

    W 21 proc. przypadków systemy zostały zainfekowane ransomware, 20 proc. incydentów skończyło się utratą lub uszkodzeniem danych, 11 proc. kradzieżą własności intelektualnej, a 10 proc. wyciekiem danych o klientach.

    Przestoje będące wynikiem cyberincydentu szczególnie dotkliwe mogą być dla firm produkcyjnych, gdzie straty z tym związane bardzo łatwo przełożyć na wymiar finansowy.  Obszar produkcji jest szczególnie podatny na ataki ze względu na zamknięty charakter systemów sterowania, klasy SCADA, czy DCS, wykorzystujących przestarzałe technologie informatyczne. Łączenie ich z systemami informacji zarządczej lub ERP otwiera je na współczesne cyberataki. Tym większe znaczenie ma zapewnienie właściwej ochrony systemom sterowania i nadzoru. Nieświadomość związaną z zagrożeniem i jego skutkami pokazuje także fakt, że jedynie co dziesiąta firma w Polsce posiada polisę ubezpieczeniową od ryzyk związanych z cyberbezpieczeństwem – mówi Patryk Gęborys, wicedyrektor w zespole ds. cyberbezpieczeństwa w PwC.

    Średnio firmy przeznaczają jedynie 3 proc. budżetu z puli budżetu IT na działania związane z ochroną przed cyberatakami. Tymczasem podmioty, które w Indeksie Cyberbezpieczeństwa zostały uznane za dojrzałe w tym względzie, wydają średnio 10 proc. Z badania PwC wynika także, że 20 proc. dużych i średnich firm w Polsce nie posiada żadnego specjalisty od cyberbezpieczeństwa, a 46 proc. nie stworzyła procedur reakcji na incydenty.

    W kolejnych latach priorytetem inwestycyjnym dla firm będzie wdrożenie nowych technologii w organizacjach, takich jak Internet Rzeczy (62 proc.), sztuczna inteligencja (53 proc.) i robotyka (44 proc.). Tymczasem zapytani o priorytety bezpieczeństwa, respondenci wskazują przede wszystkim na zagadnienia związane z bieżącą ochroną i wykonywaniem swoich obowiązków. Zdecydowanie mniejszym zainteresowaniem cieszy się działanie ukierunkowane na zapewnienie spójności między procesami technologicznymi, a bezpieczeństwem funkcji organizacji. Tym samym można stwierdzić, iż cyberbezpieczeństwo w polskiej firmie nie jest elementem integralnym w procesie wdrażania technologii.

    97 proc. polskich firm niegotowych na RODO, dyrektywa NIS czeka na wdrożenie

    Unijne rozporządzenie o ochronie danych osobowych (RODO) wchodzi w życie 25 maja br. Niewywiązanie się z wynikających z tego dokumentu obowiązków może skutkować karami finansowymi do 20 000 000 euro lub 4 proc. wartości rocznego światowego obrotu przedsiębiorstwa. Tymczasem z badania PwC wynika, że tylko 3 proc. firm w Polsce ocenia swoja gotowość do wdrożenia RODO na pełną. Aż połowa badanych firm swoją gotowość do wejścia w życie unijnych regulacji ocenia na poziomie poniżej 30 proc., a 20 proc. w ogóle nie zaczęło jeszcze przygotowania do nowych wymogów.

    Autorzy raportu PwC podkreślają, że przygotowania do RODO dalej są ograniczane do rozwiązań operacyjnie najprostszych. Najpowszechniej deklarowaną przez respondentów praktyką z obszaru ochrony danych osobowych jest zatrudnianie specjalisty do spraw ich ochrony lub pracownika na podobnym stanowisku, odpowiedzialnego za prowadzenie działalności zgodnie z obowiązującymi regulacjami (54 proc. wskazań). W dalszej kolejności firmy deklarują zobowiązywanie podmiotów trzecich do przestrzegania polityki prywatności (46 proc. odpowiedzi) oraz obligowanie pracowników do odbywania szkoleń (38 proc. wskazań).

    Eksperci PwC zwracają uwagę, że na wdrożenie czeka także dyrektywa NIS (Network and Information Systems Directive), której celem jest ustanowienie wspólnych standardów cyberbezpieczeństwa oraz poprawienie współpracy między krajami Unii Europejskiej. Dotyczy spółek działających w kluczowych dla gospodarki sektorach: energetyka, transport, ochrona zdrowia, bankowość i zaopatrzenie w wodę pitną.

    źródło: PwC
  • Fake news – jak bardzo mogą szkodzić nieprawdziwe informacje?

    Fake news – jak bardzo mogą szkodzić nieprawdziwe informacje?

    Media społecznościowe są postrzegane przez 58 proc. polskich użytkowników Internetu jako jedno z głównych źródeł informacji. Dzisiaj każdy może kreować rzeczywistość udostępniając w swoich kanałach social media treści własne lub innych użytkowników. Na fali popularności tego trendu rośnie też negatywne zjawisko, którym jest fake news.

    Nieprawdziwe informacje towarzyszą nam właściwie od zawsze, ale obecnie docierają do wyjątkowo szerokiego grona odbiorców za sprawą nowych technologii i metod komunikacji, przez co stanowią realne zagrożenie dla biznesu. Systemy wykorzystujące sztuczną inteligencję pomagają lokalizować i zwalczać fake newsy, a także boty odpowiedzialne za ich generowanie.

    W związku z rosnącą popularnością fake newsów, twórcy brytyjskiego słownika Collins Dictionary uznali je za „słowo 2017 roku”. Według oficjalnej definicji najpopularniejszy obecnie wyraz oznacza fałszywą, częstokroć sensacyjną wiadomość, rozpowszechnianą jako przekaz informacyjny[1]. Szerszą definicję przygotowali twórcy raportu „Fake news, czyli jak kłamstwo rządzi światem”, definiując fake news jako informację opublikowaną przez media, sprawiającą wrażenie zweryfikowanej oraz opisującej fakty, która w rzeczywistości wprowadza opinię publiczną w błąd, uwiarygadniając zawarte w niej niepotwierdzone informacje, dane oraz niezweryfikowane źródła[2].

    Brak kontroli treści w social media

    Osoby aktywne w mediach społecznościowych często mają świadomość, że codziennie przekazują do sieci dane, które są zapisywane i będą używane w przyszłości przez właścicieli serwisów np. do wyboru treści, które następnego dnia wyświetlą się na stronie głównej użytkownika. Wiele osób nie zdaje sobie jednak sprawy, że informacje te mogą zostać wykorzystane do stworzenia ich bardzo intymnego profilu, zawierającego zarówno informacje ogólne takie jak wiek, rasa, płeć, poziom edukacji czy zawód, ale także dane psychologiczne, np. dotyczące emocji, poglądów politycznych, postaw, a nawet inteligencji czy osobowości. Profile te mogą stać się narzędziem doboru odbiorców fałszywych treści, za których publikacje odpowiadają boty, automatycznie klasyfikujące użytkowników jako potencjalnie zainteresowanych konkretną nieprawdziwą informacją.

    Jednym z powodów, dla których media społecznościowe cieszą się popularnością wśród twórców fałszywych informacji jest fakt, że nie zawierają one żadnych systemów kontroli jakości i wiarygodności zamieszczanych treści. Przykładowo algorytmy Facebooka odpowiadają za dobieranie treści w taki sposób, żeby były one potencjalnie atrakcyjne dla użytkowników, co sprzyja nadużyciom. Ich zasięg jest ogromny, jak wynika z raportu Reuters Institute for the Study of Journalism 58 proc. polskich użytkowników mediów społecznościowych uważa je za istotne źródło codziennych informacji. Problemem Twittera jest natomiast duża liczba fałszywych profili, za pomocą których boty publikują nieprawdziwe treści. Według szacunków, odsetek zautomatyzowanych kont na Twitterze waha się od 9 do 15 proc., co przy 328 milionach użytkowników[3] tego mikrobloga daje aż 29-49 milionów kont[4]. Twitter jest narzędziem powszechnie wykorzystywanym przez dziennikarzy, a potencjalne promowanie przez nich fałszywych treści może kształtować fikcyjną rzeczywistość.

    Jak zwalczać fake newsy w social media?

    Co ciekawe, analityka i automatyzacja procesów jest narzędziem stosowanym nie tylko przez twórców nieprawdziwych treści, ale również organizacje, które chcą zwalczać zjawisko fake newsów. Według ekspertów z firmy SAS, administratorzy mediów społecznościowych powinni wykorzystać potencjał platform analitycznych oraz technologii machine learning do usuwania lub blokowania botów rozpowszechniających fake newsy. Dzięki automatyzacji procesów analitycznych i samodzielnym wykrywaniu wzorców zawartych w danych, zastosowanie metod uczenia maszynowego pozwala na identyfikowanie kont publikujących fałszywe informacje. System analizuje m.in. częstotliwość i rodzaj publikowanych treści, a następnie wykorzystując algorytmy, samodzielnie klasyfikuje konto jako prawdziwe lub stworzone na potrzeby rozpowszechniania nieprawdziwych informacji. Program ocenia m.in. wagę publikowanych newsów, mierząc ich współczynnik wpływu. Najbardziej wpływowe informacje wymagają dogłębnej analizy pod kątem prawdziwości treści.

    Fake newsy zagrożeniem dla biznesu

    W związku z rosnącą popularnością fake newsów biznes musi podejmować działania mające na celu zwalczanie nieprawdziwych informacji, gdyż  konsekwencje ich rozpowszechniania mogą być wyjątkowo dotkliwe. Potwierdza to przypadek amerykańskiego giganta branży spożywczej PepsiCo, który wciąż odczuwa skutki wywołane jedną fałszywą wiadomością dotyczącą zakażenia wirusem HIV napojów firmy. Informacja spowodowała spadek cen akcji, które nawet po potwierdzeniu, że informacja nie jest prawdziwa, normowały się przez kilka kolejnych miesięcy.

    Chcąc walczyć z fake newsami firmy muszą przede wszystkim nauczyć się skutecznie je lokalizować. Po wykryciu takich informacji przedsiębiorstwa powinny umiejętnie zarządzać ich wpływem oraz zgłaszać je administratorom portali lub mediów społecznościowych jako „zakwestionowane przez zewnętrznego kontrolera faktów”.

    Pierwsze próby unormowania zwalczania fake newsów widać już w strategiach rządów niektórych państw. W Danii została utworzona specjalna jednostka działająca w celu ujawniania dezinformacji. Zadaniem powołanej przez rząd komórki „The 3 FTY” jest zapobieganie rozpowszechnianiu fałszywych informacji dyskredytujących i osłabiających wartości zachodnich demokracji. W celu wykrywania fake newsów została ona wyposażona w narzędzia wykorzystujące zaawansowaną analitykę. Jeżeli dalej będziemy obserwowali rozwój zjawiska celowego umieszczania w Internecie fałszywych informacji, możemy spodziewać się podobnych działań ze strony innych krajów oraz instytucji międzynarodowych.

    [1] The Collins word of the year 2017 is… fake news, 2017
    [2] Raport „Fake news, czyli jak kłamstwo rządzi światem”, przygotowany przez agencję informacyjną Newseria oraz firmę doradczą Szapiro Business Advisory, 2017
    [3] Stan na pierwszy kwartał 2017 roku.
    [4] University of Southern California and Indiana University, https://arxiv.org/pdf/1703.03107.pdf, 2017
  • Ponad 21 mln zł na walkę z fraudem w bankowości internetowej i dopingiem w e-sporcie

    Ponad 21 mln zł na walkę z fraudem w bankowości internetowej i dopingiem w e-sporcie

    Firma Nethone – polski dostawca opartych na sztucznej inteligencji rozwiązań antyfraudowych oraz z obszaru Business Intelligence – ogłasza, że realizowane i współrealizowane przez nią projekty otrzymały z Narodowego Centrum Badań i Rozwoju (NCBR) dofinansowania opiewające łącznie na kwotę ponad 16 mln zł.

    Środki zostaną przeznaczone na realizację zaawansowanych przedsięwzięć badawczo-rozwojowych w dziedzinach biometrii behawioralnej i sztucznej inteligencji. W ich wyniku powstaną dwa produkty: autonomiczny system do ochrony instytucji finansowych przed przejęciami kont (Nethone ATO) oraz pierwsza na świecie platforma do inteligentnego doboru graczy i zapobiegania oszustwom w mobilnym e-sporcie (Elympics). Całkowita łączna wartość projektów wynosi 21,58 mln zł. Projekt Elympics realizowany jest przez konsorcjum spółek Nethone i DaftMobile.

    Skuteczne zapobieganie nieuprawnionemu przejmowaniu kont to dziś jedno z największych wyzwań, z jakimi mierzyć się muszą instytucje finansowe na całym świecie. Stale rosnąca liczba ataków phishingowych na klientów banków i coraz częstsze wycieki danych wrażliwych z baz różnego rodzaju organizacji powodują, że zapotrzebowanie na niezawodne, a zarazem przyjazne doświadczeniu użytkownika systemy zabezpieczeń rośnie w zawrotnym tempie. Nethone ATO ma na celu dostarczenie niespotykanej dotąd dokładności detekcji zagrożeń, pełnej automatyzacji procesów ochronnych i doskonałej zdolności samodzielnego uczenia się przez system.

    Niezwykle szybki rozwój e-sportu na całym świecie ma przełożenie na rosnącą liczbę i częstotliwość prób oszustwa w tym obszarze. Niestety, schwytanie nieuczciwych graczy na gorącym uczynku jest niezwykle trudne. Wprowadzenie na rynek Elympics będzie tu punktem zwrotnym. Platforma będzie zdolna automatycznie dopasować odpowiednich rywali, a podczas rozgrywki wykryje nawet najbardziej wyrafinowane próby oszustwa.

    Obydwa produkty docelowe w nowatorski sposób połączą wielowymiarową analizę behawioralną (w tym biometrię behawioralną i automatyczne rozpoznawanie wzorców zachowania) ze sztuczną inteligencją.

    Nethone uczestniczy w elitarnym programie cyberbezpieczeństwa prowadzonym przez koncern Thales w paryskiej STATION F – największym kampusie start-upowym świata.

  • Śpiący olbrzym: big data w branży telewizyjnej

    Śpiący olbrzym: big data w branży telewizyjnej

    Termin „big data“ jest coraz częściej używany w różnych branżach, ale niewiele osób dobrze rozumie możliwości i konsekwencje tej technologii. Tak jest też w branży telewizyjnej. Wiele firm z tego sektora nie czerpie korzyści z jakichkolwiek danych i nawet nie próbuje brać się za wielkie zbiory danych. Małe dane sprawiają im wystarczająco dużo problemów.

    Sony Stuart Almond
    Stuart Almond, szef marketingu i komunikacji w dziale rozwiązań dla mediów firmy Sony Professional Europe

    Być może nie jest to zaskakujące, bo to z natury ostrożna branża. Przejście od infrastruktury opartej na sprzęcie SDI do systemów informatycznych wykorzystujących protokół IP nie było szybkie i wciąż jest na dość wczesnym etapie. Dopiero niecałe pięć lat temu telewizja w Wielkiej Brytanii przeszła z technologii analogowej na cyfrową.

    Obecnie wszystkie firmy z tej branży dostosowują i rozwijają swoją działalność operacyjną i modele biznesowe. Oblicze konsumpcji rozrywki i dostarczania treści zmieniło się całkowicie, a wraz z tymi wielkimi zmianami zaczęliśmy wykorzystywać dane do ulepszania wszystkiego — od tworzenia programów do archiwizacji. Biegłe korzystanie z danych przestało być czymś opcjonalnym we współczesnej branży telewizyjnej.

    Od danych przez wiedzę do decyzji

    Wartość danych objawia się dopiero po ich wykorzystaniu: Dane są bezwartościowe dopóki za pośrednictwem analizy i interpretacji nie wydobędzie się z nich wiedzy umożliwiającej podjęcie decyzji. Tu zaczynają się korzyści biznesowe z danych. Inteligentne podejmowanie decyzji biznesowych wymaga wykorzystania pochodzącej z danych wiedzy do opracowania strategii i uzyskania przewagi nad konkurencją.

    Netflix to jedna z firm, które rzucają wyzwanie tradycyjnej telewizji dzięki podejściu opartemu na danych. Wydaje rocznie dziesiątki milionów dolarów na sam dział badań nad danymi (data science). Model biznesowy tej firmy opiera się na wiedzy o widzach i polecaniu im właściwych treści, a to wymaga olbrzymiej analizy danych. Zapotrzebowanie na dane niezwykle wzrosło od czasu, gdy Netflix rozpoczął produkcję własnych seriali.

    Priorytety wykorzystania danych w świecie telewizji łatwo zrozumieć, ale trudno wdrożyć w praktyce. Na pewno każda firma zajmująca się produkcją lub dystrybucją chce się rozwijać. Każda w tym celi sięga do nowych grup widzów i klientów oraz stara się lepiej zaspokajać potrzeby swojej dotychczasowej widowni. Gdy chodzi o wyniki finansowe, dane mogą przynieść dwa rodzaje korzyści: zarówno wzrost przychodów, jak i obniżenie kosztów dzięki większej sprawności.

    Wiedza wydobyta z danych może znaleźć zastosowania w różnych obszarach — od śledzenia zaangażowania widzów do uproszczenia produkcji transmisji sportowych. Ze względu na tak szeroki zakres zastosowań dobrze jest myśleć o danych w dwóch kategoriach: danych operacyjnych i danych o konsumentach.

    Dane operacyjne

    Wszelkie dane powstające w wyniki codziennej działalności w branży telewizyjnej można uznać za dane operacyjne. Obejmują one dane z systemów archiwizacji czy płac, a także wyniki prac działu badań i rozwoju. Znaczna część tych danych bywa pomijana w branżowych dyskusjach o danych, ponieważ zbytnio nam się spieszy zrozumieć widza. Jednak zrozumienie tych informacji i podjęcie na ich podstawie odpowiednich decyzji pozwala usprawnić działalność. Dzięki analizie danych operacyjnych możemy odkryć obszary najbardziej wymagające optymalizacji i ocenić, gdzie nowe pomysły mogą mieć największy wpływ. Możemy zająć się wąskimi gardłami i nierównomiernym obciążeniem pracą, aby podnieść sprawność i skuteczność działań firmy.

    Długoterminowe przechowywanie nagrań to jeden z obszarów, w których wyraźnie widać korzyści z analizy danych operacyjnych. Archiwizacja zmieniła się całkowicie po przejściu na technologię cyfrową, a odejście od urządzeń na taśmę spowodowało wzrost ilości danych, ale dało też większe możliwości optymalizacji. Nowoczesne narzędzia mogą ułatwić analizowanie sposobu wykorzystania zasobów i ich komercyjnej wartości. Mogą też pomóc w automatyzacji dystrybucji na wielu platformach. Ponieważ właściciele materiałów telewizyjnych starają się dotrzeć do widzów, którzy oglądają coraz więcej wideo w Internecie, wszelkie analizy i systemy usprawniające zarządzanie zasobami są z pewnością pożądane.

    Analiza danych operacyjnych pozwala też rozwiązywać problemy zanim się ujawnią. Ponieważ w telewizji nie są tolerowane żadne przerwy w działaniu, wielkie znaczenie ma możliwość analizowania danych z systemów w celu identyfikacji przyczyn źródłowych. Idąc o krok dalej, możemy teraz połączyć dane dotyczące błędów z uczeniem maszynowym i sztuczną inteligencją, aby systemy uczyły się wykrywać potencjalne problemy i usuwały je zanim nastąpi awaria.

    Dane o widzach

    Wiedza o widzach to zapewne najbardziej poszukiwana postać danych w świecie telewizji. Nadawcy muszą rozumieć swoich klientów — kim są, gdzie mieszkają i pracują, jak korzystają z treści, jakie mają preferencje itd. Zbieranie tych informacji bywa jednak problematyczne. Kiedyś wystarczały proste liczby i wykresy, ale media społecznościowe, płatny dostęp do serwisów, ankiety internetowe i narzędzia analityczne dały nam dostęp do głębszej, bardziej zniuansowanej wiedzy. Firmy chcą teraz bardzo szczegółowych danych — nawet danych o poszczególnych osobach — a takie dane można zebrać tylko bezpośrednio od widzów.

    Staje się to szczególnie ważne, gdy staramy się zwiększyć przychody z reklam. Każda marka ma swoje profile klientów i targety określające konsumentów, do których chce dotrzeć. Jeśli nadawcy chcą z sukcesem sprzedawać czas reklamowy, muszą dysponować danymi, dzięki którym reklamodawcy będą wiedzieć, że docierają do właściwych osób. Ogólne liczby widzów to za mało — tak samo w przypadku liniowego kanału telewizyjnego, jak i multimediów internetowych. Trafność to dla reklamodawców magiczne słowo, a reklamodawcy mogą ją pokazać właśnie dzięki głębszej wiedzy o widzach.

    Kiedyś głównym problemem była niechęć większości konsumentów do udostępniania informacji o sobie, ale dzisiaj są oni często bardziej chętni to robić w określonych sytuacjach. Dzięki Channel 4 mamy bardzo dobrą analizę przypadku pokazującą, jak uzyskać dane od konsumentów, nie wzbudzając ich lęku: zapewnienie bezpieczeństwa i zachęty.

    Telewizja Channel 4 chciał zbadać zwyczaje swoich widzów, ale z powodu anonimowości oglądania online mogła poznać niewiele więcej niż popularność poszczególnych programów. Głębsza wiedza o widowni nie była możliwa. Telewizja postanowiła wprowadzić rejestrację i logowanie użytkowników, dając widzom wyraźną zachętę.

    Po zalogowaniu się na konto widzowie zyskiwali dostęp do dodatkowych materiałów niedostępnych dla reszty widowni. Jednocześnie firma zapewniła widzów, że ich dane będą wykorzystywane tylko w określony sposób i nie będą udostępniane innym podmiotom. To proste zapewnienie pomogło zachęcić widzów do założenia konta, dzięki czemu telewizja Channel 4 uzyskała wiedzę dotąd niedostępną dla nadawców publicznych.

    Szansa na rozwój

    Big data, uczenie maszynowe i sztuczna inteligencja z pewnością dają branży telewizyjnej możliwość zwiększenia przychodów i usprawnienia działalności. Na przykład w przypadku programów informacyjnych analiza danych z dyskusji w mediach społecznościowych i zmian liczby widzów może wskazać tematy cieszące się największym zainteresowaniem, ułatwiając decyzje dotyczące zamawiania i tworzenia dodatkowych treści online.

    Musimy jednak pamiętać, że takie wynalazki to narzędzia ułatwiające pracę, a nie zastępujące człowieka i jego oceny i opinie. Muszę zdecydowanie podkreślić, że dane powinny pomagać w podejmowaniu decyzji, a nie je zastępować. Dostępność wiedzy jest ważna, jednak dane przynoszą firmie największe korzyści, gdy uzyskana z nich wiedza służy do podejmowania strategicznych, zarządczych, a nawet kreatywnych decyzji.

  • W jakim kierunku zmierza rozwój cyfrowej rzeczywistości?

    W jakim kierunku zmierza rozwój cyfrowej rzeczywistości?

    Rozwój technologiczny, który z roku na rok nabiera tempa, coraz bardziej wpływa na życie każdego z nas. Zgodnie z tegorocznym raportem Deloitte „TMT Predictions 2018” centrum cyfrowego świata staje się smartfon, który pełni rolę nie tylko telefonu, ale również osobistego komputera, odbiornika telewizyjnego oraz routera.

    Kiedyś prenumerata, dziś subskrypcja serwisu online

    Z raportu Deloitte wynika, że do końca 2018 roku połowa dorosłych osób w krajach rozwiniętych będzie posiadać co najmniej dwie subskrypcje mediów w kanałach online, a do końca 2020 roku liczba ta wzrośnie do czterech. Koszt tych subskrypcji, obejmujący głównie telewizję, filmy, muzykę, wiadomości i prasę, w 2018 roku będzie wynosił średnio poniżej 10 dolarów miesięcznie za subskrypcję. W tym roku liczba subskrybentów na świecie wyniesie 350 mln osób, w których posiadaniu będzie 580 mln subskrypcji. Większość z nich będą stanowiły subskrypcje VoD (375 mln).

    Aż 20 proc. osób dorosłych w krajach rozwiniętych wykupi lub będzie miało dostęp do co najmniej pięciu płatnych subskrypcji mediów online, a do 2020 roku aż dziesięciu.

    Model subskrypcji znany jest od dawna w kontekście mediów tradycyjnych. Wystarczy wspomnieć prenumeratę prasy. Obecnie jednak obserwujemy popularyzację subskrypcji również w Internecie. Wpływa na to szereg czynników – mówi Jakub Wróbel, Starszy Menedżer w Dziale Konsultingu Deloitte. – Jest to przede wszystkim coraz bardziej atrakcyjna treść, którą możemy odtworzyć na wielu urządzeniach a zainteresowana nią jest rosnąca liczba klientów, gotowych również za nią zapłacić– dodaje.

    Seryjne oglądanie Polaków

    Trendowi temu sprzyja również rozwój technologii i większa przepustowość połączeń do Internetu. W Polsce w ostatnich kilkunastu miesiącach obserwujemy rozwój rynku serwisów video, takich jak np. Netflix, Player.pl czy ShowMax, które inwestują również w rodzime produkcje. Obserwujemy także zjawisko „binge-watching”, czyli seryjnego oglądania seriali czy programów telewizyjnych. Niejednokrotnie platformy udostępniają swoim odbiorcom całe sezony swoich produkcji naraz, co sprawia, że widzowie mogą spędzić przed ekranem swoich telewizorów, komputerów lub telefonów nawet kilka godzin bez przerwy. Z badania Deloitte wynika, że zjawisko to dotyczy przede wszystkim przedstawicieli pokolenia milenialsów, wśród których aż 90 proc. przyznaje się do takiego sposobu oglądania, a 38 proc. robi to regularnie (dotyczy widzów w USA).

    Przy dalszej popularyzacji tego trendu, dostawcy treści i reklamodawcy będą się starać go wykorzystać, aby lepiej docierać do klientów. Jednocześnie należy się spodziewać rosnącej podaży treści, które można oglądać seryjnie – mówi Jakub Wróbel.

    Domowy Internet mobilny

    Rozwój serwisów płatnej treści online nie byłby możliwy, gdyby nie intensywny rozwój infrastruktury sieci telekomunikacyjnych, w tym Internetu stacjonarnego i mobilnego.

    Raport Deloitte przewiduje, że w 2018 roku jedna piąta mieszkańców Ameryki Północnej z dostępem do Internetu będzie korzystać jedynie z sieci mobilnej. W 2022 roku takich osób może być już 30-40 proc. Osoby te w ogóle zrezygnują z Internetu stacjonarnego. Ludzie, którzy korzystają z sieci mobilnej w miejscach publicznych, w szkole i czasem w pracy przeniosą ten zwyczaj również do domu. Istnieje wiele powodów takiego podejścia, zarówno o charakterze demograficznym, społecznym, jak i ekonomicznym. Niejednokrotnie jednak Internet mobilny jest jedyną dostępną opcją transmisji danych, zwłaszcza poza miastami.

    Trend ten jest również coraz bardziej widoczny w Polsce, biorąc pod uwagę, że na wsi mieszka ponad 40 proc. populacji. Rośnie również liczba jednoosobowych gospodarstw domowych. W tym roku według prognoz GUS może być już ich ponad 4,2 mln, a to według ekspertów Deloitte single są jedną z tych grup społecznych, która będzie wybierać częściej niż inne zamiast Internetu stacjonarnego Internet mobilny.

    Liczba użytkowników Internetu mobilnego w Polsce od 2014 do 2016 roku zgodnie z danymi UKE wzrosła o blisko 28 proc. do 7,4 mln. Należy jednak pamiętać o wielu toczących się oraz planowanych inwestycjach w rozwój szerokopasmowych sieci stacjonarnych, które wciąż jednak nie są dostępne wszędzie – mówi Jakub Wróbel.

    Sztuczna inteligencja poszerza zakres swojego działania

    Nowe funkcjonalności używanych przez nas smartfonów nie byłyby możliwe, gdyby nie rozwój sztucznej inteligencji.

    Już niebawem niemal każda czynność wykonywana przez nas na smartfonie wsparta będzie przez uczenie maszynowe. W coraz szerszym zakresie jest ono wykorzystywane również przez biznes, choć wciąż jeszcze mówimy w tym przypadku o początkowej fazie rozwoju – mówi Jan Michalski, Partner, Lider Sektora TMT, Deloitte.

    Według prognoz Deloitte praktyczne zastosowanie rozwiązań z zakresu sztucznej inteligencji wzrośnie w dużych i średnich przedsiębiorstwach. W tym roku liczba projektów pilotażowych i wdrożeniowych w tym segmencie będzie dwa razy większa niż w ubiegłym roku, a w 2020 roku będzie to już cztery razy większy wzrost w stosunku do tego roku. Wydatki na ten cel mają wynieść w 2021 roku 57,6 mld dolarów. Dla porównania w ubiegłym roku było to 12 mld dolarów.

    Polska na początku drogi

    Rozwój sztucznej inteligencji jest zdominowany przez gigantów technologicznych, a samo USA odpowiada za prawie 80 proc. wszystkich środków przeznaczonych na rozwój tej technologii.

    W Europie, w tym w Polsce rozwój sztucznej inteligencji jest w bardzo wczesnym stadium. Jednak w połączeniu z rosnącymi oczekiwaniami klientów kreowanymi przez gigantów technologicznych takimi jak Google czy Amazon stwarza sporą niszę do wykorzystania. W Polsce do branż, w których najbardziej zauważalne jest podejmowanie działań zmierzających w kierunku wdrożenia rozwiązań z zakresu sztucznej inteligencji należą np. telekomunikacja, usługi finansowe oraz firmy internetowe – mówi Jan Michalski.

    W wykorzystanie tej technologii inwestują przede wszystkim start-upy oraz fundusze venture capital. Na tym tle wyróżniają się takie spółki jak Growbots czy deepsense.ai. Polskim produktem jest również Ada, asystent, który przy wsparciu uczenia maszynowego i szeroko rozumianej sztucznej inteligencji pomaga w wynajmie mieszkania. Jednym z największych polskich sukcesów w tej dziedzinie było stworzenie syntezator mowy Ivona, którą kilka lat temu kupił Amazon.

    Polska ma potencjał, by stać się regionalnym centrum rozwoju sztucznej inteligencji, dlatego jest tak ważne, by rodzimy biznes dostrzegł pojawiającą się szansę i nie przegapił rewolucji, która dzieje się na naszych oczach – podsumowuje Jan Michalski.

  • Volkswagen i NVIDIA będą stosować sztuczną inteligencję (AI) w samochodach przyszłości

    Volkswagen i NVIDIA będą stosować sztuczną inteligencję (AI) w samochodach przyszłości

    Volkswagen i NVIDIA przedstawiły wczoraj swoją wizję tego, jaki wpływ na rozwój nowej generacji samochodów będą miały sztuczna inteligencja i technologia tzw. głębokiego myślenia. Podczas rozpoczynającego się w Las Vegas „Consumer Electronics Show CES” Prezes Zarządu Marki Volkswagen – dr Herbert Diess – oraz założyciel i dyrektor firmy NVIDIA – Jansen Huang – dyskutowali o zmianach jakie w przemyśle samochodowym spowoduje rozwój sztucznej inteligencji. Zaprezentowano też nowego I.D. BUZZ – współczesną wersję legendarnego Microbusa, czyli napędzanego energią elektryczną studyjnego vana z technologią AI zastosowaną zarówno we wnętrzu, jak i służącą do autonomicznej jazdy.

    „Sztuczna inteligencja zrewolucjonizuje samochód” – stwierdził Diess. „Autonomiczna, bezemisyjna jazda pojazdami komunikującymi się między sobą i z otoczeniem nie będzie możliwa bez postępu w zakresie sztucznej inteligencji oraz technologii „głębokiego uczenia”. Razem z NVIDIĄ Volkswagen może uczynić w tej dziedzinie wielki krok naprzód”.

    „Już za kilka lat każdy nowy samochód będzie wyposażany w system asystujący oparty na zasadach sztucznej inteligencji zdolny do rozpoznawania głosu, gestów, twarzy czy elementów rozszerzonej rzeczywistości” – powiedział Huang. „Wraz z Volkswagenem pracujemy nad pojazdami nowej generacji dostępnymi dla każdego, bezpieczniejszymi i wygodniejszymi niż dzisiejsze samochody”.

    I.D. BUZZ
    Rozwój umiejętności „inteligentnego kierowcy”

    Ciekawym rozwiązaniem w modelu I.D. BUZZ wyposażonym w technologie sztucznej inteligencji może być tzw. inteligentny kierowca, czyli zestaw systemów asystujących działających w oparciu o informacje zebrane przez czujniki znajdujące się we wnętrzu auta oraz w jego otoczeniu. Systemy te można doskonalić przez cały cykl życia samochodu aktualizując oprogramowanie i dodawać im nowe funkcje w miarę postępu w dziedzinie autonomicznej jazdy. Dzięki technologii „deep learning” („głębokiego uczenia”) samochód przyszłości będzie sam potrafił precyzyjnie oceniać sytuacje na drodze i analizować zachowanie innych uczestników ruchu – dzięki temu będzie w stanie podejmować właściwe decyzje.

    Za pomocą „NVIDIA DRIVE IX Inteligent Experience Platform” można realizować takie funkcje oparte o technologię sztucznej inteligencji, jak otwieranie samochodu po rozpoznaniu twarzy właściciela, wysyłanie sygnałów ostrzegawczych dla rowerzystów, uruchamianie różnych funkcji we wnętrzu auta przy pomocy gestów i poleceń głosowych (bezbłędne rozpoznawanie głosu) oraz śledzenie wzroku kierowcy, by przedstawić mu sygnały ostrzegawcze, gdy w danej chwili koncentruje się na czymś innym.

    I.D. BUZZ
    Droga Volkswagena do autonomicznej jazdy

    I.D. BUZZ to model należący do rodziny I.D., która w 2020 roku zapoczątkuje ofensywę Volkswagena w dziedzinie samochodów elektrycznych, i która stopniowo będzie przystosowywana do poruszania się według zasad jazdy autonomicznej. Celem strategicznym Volkswagena jest zajęcie wiodącej pozycji w dziedzinie produkcji samochodów elektrycznych. Dlatego do 2025 roku marka wprowadzi na rynek ponad 20 modeli wyposażonych w napęd wyłącznie elektryczny.

    Podstawą konstrukcji nowych modeli jest modułowa platforma MEB stworzona na potrzeby bezemisyjnych samochodów z rozwiązaniami cyfrowymi. W autach tych wykorzystano możliwości, jakie pod względem planowania wnętrza dają elektryczne zespoły napędowe. Silniki elektryczne nie są duże, a akumulatory w nowych autach umieszczono w podłodze – dzięki temu ich wnętrza są przestronne i można je zagospodarować na bardzo wiele sposobów. Innowacyjne technologie zastosowano nawet w nowych autach elektrycznych klasy kompaktowej, np. w postaci wyświetlacza przeziernego działającego w oparciu o zasadę rzeczywistości rozszerzonej. Samochody skonstruowane na bazie platformy MEB będą ponadto od razu wyposażane w najnowocześniejsze systemy asystujące i dostosowywane do kolejnych stopni zaawansowania w dziedzinie jazdy autonomicznej. Systemy elektroniczne przewidziane do wykorzystania w autach skonstruowanych w oparciu o MEB będą także stopniowo wprowadzane do samochodów z konwencjonalnymi silnikami, jakie powstają w oparciu o platformę MQB.

  • Trendy 2018 w projektowaniu stron internetowych

    Trendy 2018 w projektowaniu stron internetowych

    Strony, które sprawiają wrażenie pracy z aplikacją, chociaż wyświetlane są w przeglądarkach. To jeden z głównych trendów na 2018 rok w projektowaniu stron internetowych, przewidują eksperci szkoły programowania Coders Lab.

    Technologie webowe rozwijają się w błyskawicznym tempie, dlatego nie można do końca przewidzieć, jakie języki i technologie będą najbardziej popularne za kilka lat. Dlatego rynek IT obserwuje poczynania gigantów technologicznych takich jak Google, Facebook czy Apple, bo tak naprawdę to oni wyznaczają nowe trendy – wyjaśnia Jacek Tchórzewski, współzałożyciel i CTO Coders Lab.

    infografika

    JavaScript na topie

    Wśród popularnych obecnie technologii webowych wymieniać należy React.js, AngularJS czy Vue.js. Język programowania JavaScript – w oparciu o który działają wyżej wymienione biblioteki – znajduje coraz szersze zastosowanie nie tylko przy tworzeniu stron internetowych, ale także w rozwijaniu robotyki, sztucznej inteligencji oraz machine learning.

    Strona czy aplikacja? Trudno powiedzieć

    Dzięki zaawansowaniu technologii i siły obliczeniowej, strony internetowe działają jak pełnoprawne programy. Progressive Web Apps, czyli progresywne aplikacje internetowe, nie muszą być instalowane na dysku – działają naturalnie w przeglądarce. Bez długiego ładowania kolejnych podstron i ze wszelkimi wygodami korzystania z aplikacji.

    Jednostronna strona

    Programowanie webowe podąża w stronę uproszczenia, stąd coraz popularniejsze stają się także jednostronne aplikacje (Single Page Appplication). Po wejściu na stronę internetową od razu ładuje się nam cała strona. Cechują ją prostota i czytelność. Nie ma skomplikowanej nawigacji ani menu. Niski koszt utrzymania i hostingu to kolejna zaleta jednostronnej strony. Koszty są jeszcze mniejsze, a bezpieczeństwo większe, jeżeli strona jest statyczna (zapisana w html, niewymagająca bazy MySQL).

    Animacja wraca do łask

    O tym, że programowanie webowe ceni prostotę niech świadczy niedawna decyzja Adobe, by do 2020 roku całkowicie wygasić działalność „efektownego” kiedyś Flasha. Co nie oznacza, że animacje odchodzą w niepamięć. Wręcz przeciwnie – na znaczeniu zyskują animacje wykorzystywane podczas scrollowania, np. wspomnianych już jednostronnych aplikacji (przykład: apple.com/mac-pro/). Według badań, animacje, coraz częściej 3D, zwiększają zaangażowanie użytkownika i tzw. „experience”. W nieinwazyjny sposób pozwalają też wyeksponować produkt i – według specjalistów – jeśli są odpowiednio przygotowane wcale nie wykluczają modnego obecnie minimalizmu.

    Znamy odpowiedź na twoje pytanie. Push, bot, AI

    Możliwość wysyłania bezpośrednich informacji do użytkownika, czyli pushów, np. o zmianach w ruchu, wynikach sportowych lub obniżce cen zadomowiła się już na wielu polskich stronach internetowych. Korzyści? Większe zaangażowanie użytkowników bez dodatkowych kosztów. –Zmienia to poniekąd paradygmat poruszania się w internecie. To nie użytkownik wysyła zapytanie. On dostaje od serwera odpowiedź na to, o co dopiero chciałby zapytać – tłumaczy Jacek Tchórzewki, ekspert Coders Lab. Inny model wykorzystują boty – aplikacje działające na podstawie prostych skryptów i mające określone funkcje – które w oparciu o sztuczną inteligencję (AI) zastępują np. internetowych konsultantów sprzedaży.