Tag: Ekonomia

  • Eksport w marcu 2019 – prognoza KIG

    Eksport w marcu 2019 – prognoza KIG

    Dostępne obecnie dane o stanie gospodarki realnej oraz opinie pozyskane od członków KIG pozwalają szacować, że eksport w marcu 2019 wyniósł 19 445  mln EUR. Zwiększył się tym samym w stosunku do wartości notowanych dla lutego o 6,1%, w stosunku zaś do wielkości notowanych przed dwunastu miesiącami wzrósł o 6,7%. Wielkość eksportu w kwietniu z przyczyn sezonowych może okazać się wyraźnie niższa w stosunku do wypracowanej w marcu.

    Marzec to miesiąc, w którym działalność eksportowa zazwyczaj ulega zdynamizowaniu. Dzieje się tak z dwóch powodów. Pierwszym jest dostępny czas pracy – wyraźnie dłuższy niż w lutym. Przekłada się to na wyższa produkcję. Drugim jest wzrost zamówień po słabszym zazwyczaj lutym. Handel w marcu intensyfikuje zakupy potrzebne do wprowadzenia kolekcji wiosenno-letniej, ale również stosownego zaopatrzenia okresu świątecznego. Przemysł po uzupełnieniu puli zamówień na dany rok intensywnie kupuje surowce, półprodukty i komponenty potrzebne do produkcji.

    Część 2.2

    Wyniki przemysłu, ale również handlu hurtowego wskazują, że tegoroczny wzrost sprzedaży eksportowej w marcu będzie nieco mniejszy od tego sprzed roku (6,1% wobec 9,4%). Wypada jednak podkreślić, że nie będzie to efekt osłabienia koniunktury, ale tego, że tak styczeń jak i luty prezentowały się bardzo dobrze – potencjał do kolejnego wzrostu jest więc mniejszy niż zazwyczaj. Roczna dynamika sprzedaży eksportowej mogła więc ulec obniżeniu do 6,7% z 10,0% w lutym i 5,0% notowanych w styczniu.

    W wynikach eksportu z ostatnich miesięcy wciąż wyraźnie nie widać skutków spłycenia koniunktury u naszych najważniejszych odbiorców. Najsłabiej wyglądał ostatnio grudzień (tak pod względem poziomu zrealizowanej sprzedaży jak i wypracowanej dynamiki rocznej). Trzeba jednak pamiętać, że poprzedzające go październik i listopad prezentowały się wręcz doskonale. Całkiem dobre było też otwarcie roku 2019. Spowolnienie wciąż więc obchodzi się z nami łagodnie.

    Zmiany eksportu 2019 (prog.) 2020 (prog.)
    Eksport ogółem 6,6% 8,2%
    Niemcy 6,3% 8,4%
    Pozostałe kraje strefy euro 6,9% 8,1%
  • Kraj z Zatoki Perskiej zmienia papier na blockchain

    Kraj z Zatoki Perskiej zmienia papier na blockchain

    W 2014 roku rząd Dubaju zapowiedział, że do 2021 roku stanie się w pełni zintegrowanym blockchainowym smart city. Od tego momentu trwa całkowita digitalizacja kraju, eliminując cały obieg papierowy i wdrażając technologię blockchain. Czy Dubaj stanie się miastem przyszłości?

    Technologia blockchain to nowe, potężne narzędzie, które od pewnego czasu kształtuje przyszłość Internetu za pomocą prostych, bezpiecznych, przejrzystych i pewnych transakcji. Chcąc zostać centrum turystycznym oraz finansowym całego świata, Dubaj od kilku lat skutecznie realizuje swoją strategię „Dubai Blockchain Strategy” opartą na 3 filarach: efektywności rządu, tworzeniu przemysłu oraz przywództwie międzynarodowym, by ostatecznie stać się pierwszym miastem w pełni opartym na blockchain.

    Dzięki digitalizacji całego środowiska pracy w celu wyeliminowania ponad 1 miliarda sztuk papieru używanych do transakcji rządowych każdego roku oraz wdrożenia technologii blockchain Dubaj może zaoszczędzić 5,5 miliarda dirhamów, tj. około 5,76 miliarda złotych rocznie w samym przetwarzaniu dokumentów. Za tę kwotę można by zbudować najsłynniejszy wieżowiec Burj Khalifa – i to każdego roku. Na razie digitalizacja obowiązuje przedsiębiorstwa państwowe oraz agendy rządowe. Oczywiście wielu przedsiębiorców w pełni nie wie, jak dokładnie ma wyglądać cyfryzacja, jednak w kraju organizowanych jest wiele konferencji i szkoleń, podczas których wyjaśniane jest całe zjawisko. Rząd stworzy również ramy prawne dotyczące procedur cyfrowych, co ma pokonać wszelkie kulturowe i zwyczajowe bariery w odchodzeniu od papieru – mówi Kamil Gancarz, prezes fundacji Blockchain Development Foundation.

    Dubaj chce wprowadzić możliwości gospodarcze dla wszystkich sektorów w kraju i umocnić swoją reputację jako światowego lidera technologicznego, w celu napędzania przedsiębiorczości i globalnej konkurencyjności. Dzięki blockchain stanie się pierwszym rządem używającym tak szeroko ową technologię, co napędzi przyszłą gospodarkę całego świata. Już teraz blockchain stosowany jest w sektorze nieruchomości i ksiąg wieczystych. Technologia ta wdrażana jest do weryfikacji własności w aplikacji mobilnej, transakcji sprzedaży nieruchomości przez dewelopera na rynku pierwotnym i uruchomieniu procesów typu Smart Leasing. Celem ma być poprawa świadczenia usług oraz współpracy z innymi zaangażowanymi w rynek nieruchomości stronami, a także stworzenie zabezpieczonych aktywów cyfrowych.

    Polska powinna wziąć przykład z Dubaju czy nawet z krajów europejskich i przestać bać się technologii blockchain. W Dubaju nawet w przypadku kolizji samochodowej wszystko można załatwić przez aplikację, do której zgłasza się całą sytuację, zamiast dzwonić po policję. W aplikacji GPS pobiera lokalizację zdarzenia, robione są zdjęcia, skanuje się dowód rejestracyjny i prawo jazdy i wszystko wysyła się do policji, która to dzwoni do uczestników zdarzenia telefonem, potwierdza wersję wydarzeń, ewentualnie pomaga wyjaśnić istniejące spory, a następnie generuje raport dla  firmy ubezpieczeniowej. To pokazuje skalę digitalizacji kraju. Już nawet w państwach w Unii Europejskiej takich jak Holandia trwają prace nad cyfrowymi dowodami osobistymi i paszportami, które są budowane na blockchainie. Jednak w Polsce istnieje obawa, że osoby starsze zostaną wykluczone ze społeczeństwa, ponieważ nie będą potrafiły używać takich dokumentów, które oczywiście nie muszą jeszcze dziś zastępować w pełni tych tradycyjnych, ale mogłyby być do nich dodatkiem. Na razie organy nadzoru boją się nowych technologii i je blokują, wpisując na listy ostrzeżeń wiele startupów z branży blockchain, więc zapewne minie dużo czasu zanim choć w minimalnym stopniu dorównamy innowacjom technologicznym Dubaju – dodaje ekspert.

    Cała ekonomia Dubaju jest oparta na braku podatku dochodowego, dostarczeniu dobrego ekosystemu ekonomicznego, pełnej infrastruktury, przy relatywnie niewielkim wydobyciu ropy naftowej (z której to dochody stanowią tylko 6% PKB). Władze chcą by Dubaj stał się najnowocześniejszym miastem na Ziemi, a w cyfryzacji widzą przewagę strategiczną, która umożliwia optymalizację biznesu i stworzenie w oparciu o nią nowych, lepszych rozwiązań i usług.  Na jego przykładzie inne kraje mogą rozwiać w końcu swoje obawy co do technologii blockchain.

  • Na 5-proc. wzrost PKB nie ma co liczyć

    Na 5-proc. wzrost PKB nie ma co liczyć

    Wojna handlowa między Stanami Zjednoczonymi a Chinami wywiera negatywny wpływ na globalne gospodarki. Spadają zamówienia w przemyśle, przez co pogarszają się nastroje zarówno przedsiębiorców, jak i inwestorów. Zdaniem Rafała Sadocha z DM mBanku także polska gospodarka, która zanotowała szybki rozwój w 2018 roku, odczuje skutki tego procesu. Jak duże, zależeć będzie od wyniku negocjacji między dwoma mocarstwami.

    – Wskaźnik Sentix kolejny miesiąc z rzędu spada i osiąga coraz niższe poziomy, w styczniu obniżył się po raz piąty. Minimum optymizmu jest w tym, że ten spadek okazał się mniejszy od oczekiwań rynkowych – mówi Rafał Sadoch, analityk Domu Maklerskiego mBanku. – Rynek obawiał się, że zamieszanie związane z wojną handlową jeszcze bardziej pogorszy nastroje przedstawicieli sektora finansowego. Oni dość szybko mogą zmieniać swoje nastawienie i z tego powodu ten wskaźnik jest może nieco mniej wiarygodny niż dane dotyczące koniunktury wśród sektora przedsiębiorstw.

    Indeksy Sentix to grupa wskaźników obrazujących oczekiwania inwestorów finansowych, publikowanych przez niemiecką grupę badawczą Sentix. Prowadzone są wśród inwestorów – osobno indywidualnych i instytucjonalnych – dwunastu różnych rynków akcji, obligacji i surowcowych. W styczniu wskaźnik ten dla strefy euro spadł do -1,5 pkt z -0,3 pkt w grudniu 2018 roku. Rynek spodziewał się jeszcze większego spadku – do 2,8 pkt.

    – Co ważne, dane dotyczące koniunktury wśród sektora przedsiębiorstw wcześniej wskazywały na to, że w 2019 rok europejska gospodarka wchodzi z najwolniejszym tempem wzrostu od dwóch lat i to jest niepokojące – zastrzega Rafał Sadoch. – To z pewnością będzie rzutowało na cały rok i wskazuje na to, że to, co najlepsze w koniunkturze gospodarczej, mamy już za sobą. To też będzie rodziło implikacje dla wzrostu gospodarczego w Polsce.

    Na początku stycznia IHS Markit opublikował dane na temat indeksu PMI dla strefy euro, który oddaje nastroje menadżerów logistyki w firmach przemysłowych i usługowych. Odczyt okazał się najsłabszy od ponad czterech lat, choć wciąż jeszcze przekracza poziom 50 pkt, co wskazuje na rozwój sektora. Jest on jednak coraz wolniejszy: za listopad odczyt dla przemysłu wyniósł 51,8 pkt, a w grudniu 51,4. Natomiast w sektorze usług spadek był jeszcze większy – z 53,4 pkt w listopadzie do 51,2 w grudniu. To o 0,2 pkt mniej niż spodziewali się ekonomiści. Głównym powodem osłabienia koniunktury był spadek liczby zamówień w przemyśle.

     Jeśli wojna handlowa będzie eskalowana, jeśli Donald Trump nie dogada się z Chinami, to spowolnienie gospodarcze będzie jeszcze głębsze. Rynki nie wiedzą na dobrą sprawę, jak silna będzie ta wojna handlowa i jak bardzo negatywne będą jej skutki dla aktywności gospodarczej. Ta niepewność w jeszcze większym stopniu może napędzać spowolnienie – przewiduje Rafał Sadoch. – Ale jeśli nastąpi zbliżenie stanowisk, na co liczą rynki, bowiem sygnały, jakie płyną ze strony amerykańskiej administracji, wskazują na chęć uzyskania porozumienia, to spowolnienie gospodarcze może mieć relatywnie płytki przebieg.

    Polska gospodarka jest mocno uzależniona od wymiany handlowej z Unią Europejską, zwłaszcza od eksportu. Od stycznia do listopada 2018 roku polski eksport wzrósł łącznie o 7,1 proc. (licząc w euro), zaś import o 9,7 proc. Same Niemcy odpowiadały w tym czasie za 28,1 proc. polskiego eksportu oraz 22,4 proc. importu. Strefa euro odbiera 57,7 proc. polskich towarów, a cała Unia 80,4 proc. Wszystkie trzy wskaźniki eksportu są wyższe niż w analogicznym okresie 2017 roku. Maleją natomiast udziały tych obszarów w imporcie; w wypadku strefy euro jest to 46,7 proc., zaś całej Wspólnoty 58,4 proc. Spadek zamówień musi się odbić na polskim PKB.

    Z ankiety Narodowego Banku Polskiego, przeprowadzonej między 17 grudnia 2018 roku a 3 stycznia 2019 roku wśród 18 ekspertów reprezentujących instytucje finansowe, ośrodki analityczno-badawcze, związek zawodowy oraz organizację przedsiębiorców wynika, że o ile za 2018 rok można spodziewać się wzrostu PKB o 5 proc., to w 2019 roku będzie to tempo zbliżone do 3,8 proc., a w przyszłym roku spadnie ono do 3,4 proc. Dla porównania w III kwartale 2018 roku polska gospodarka wzrosła o 5,1 proc. rok do roku, unijna o 1,8 proc., a strefy euro o 1,6 proc. Stany Zjednoczone odnotowały w tym czasie wzrost o 3,0 proc.

    – Zapewne już nie zobaczymy wzrostu gospodarczego w okolicy 5 proc., pewnie będzie to bliżej 4 proc. Polska gospodarka nie pozostaje w odosobnieniu, globalna i europejska gospodarka to system naczyń połączonych. Spowolnienie gospodarcze obserwujemy w strefie euro, Niemczech, USA i to wszystko automatycznie przekłada się również na sytuację w kraju – wyjaśnia analityk Domu Maklerskiego mBanku. – Popyt krajowy będzie już nie tak mocny jak w 2018 roku. Największa poprawa na rynku pracy jest już za nami, również inwestycje nie powinny wyglądać tak dobrze, jak wyglądały w 2018 roku. Pewnie będziemy obserwowali nieznaczne wyhamowanie dynamiki wzrostu, ale w dalszym ciągu na tle innych krajów będą to satysfakcjonujące poziomy.

  • Ekonomia dzielona – brzmi jak utopia? Pewnie tak.

    Ekonomia dzielona – brzmi jak utopia? Pewnie tak.

    Wyobraźmy sobie system społeczny, w którym takie kategorie ekonomiczne jak: zysk, marża, popyt i podaż zastąpione są wartościami, takimi jak: zaufanie, współuczestnictwo, dzielenie się, pogłębianie relacji, zrównoważona gospodarka zasobami. Brzmi jak utopia? Pewnie tak. Witam w świecie sharing economy.

    Warto jednak pamiętać, że myślenie utopijne generuje wiele pomysłów, które są siłą napędową wielkiego biznesu. Żyjemy w czasach technologicznej rewolucji, więc dlaczego jej efektem nie może być ekonomiczny przełom?

    Krytycy współczesnej ekonomii, socjologowie, orędownicy kryptowalut, a nawet założyciele korporacji z obszaru nowych technologii mówią jednym głosem: żyjemy w czasach postępującego upadku tradycyjnej ekonomii.

    Niewydolność współczesnego systemu finansowego najlepiej ilustrują: cykliczne kryzysy systemu bankowości, niesprawiedliwa dystrybucja zysków, nierówności społeczne, manipulacyjna polityka walutowa rządów, kulejąca solidarność społeczna i rozbudowany korporacjonizm. To wszystko może lub musi prowadzić prędzej czy później do kryzysu o wymiarze globalnym. Może nawet do krachu, którego efektem będzie przewartościowanie roli pieniądza w życiu każdego z nas.

    Czy więc nowa globalna ekonomia jest potrzebna i możliwa? Czy rewolucja technologiczna, która wyniosła na szczyty takie urządzenia jak smartfon i takie technologie wymiany plików jak peer-to-peer (a zatem wykreowała nowe sposoby korzystania z własności intelektualnej i nowe relacje międzyludzkie) mogą zrewolucjonizować nasze podejście do posiadania, zysku, korzyści?

    Przywołam dwie nieżyjące postaci, z których jedna nie miała nic wspólnego z ekonomią, a druga prezentowała poglądy, które przez lata były traktowane jako wyraz intelektualnego ekscentryzmu.

    Pierwsza z nich to Bronisław Malinowski – wybitny polski przedwojenny badacz kultur, znany z monumentalnego dzieła „Życie seksualne dzikich”.

    W swojej książce „Argonauci Zachodniego Pacyfiku” opisał on rytuał Kula, który polegał na tym, że członkowie plemion zamieszkujących Nową Gwineę, przemierzali wiele kilometrów, by wymienić się cennymi przedmiotami o charakterze religijnym. Wedle tego zwyczaju, każdy wartościowy przedmiot nie mógł być zbyt długo przetrzymywany, a jego właściciel miał obowiązek przekazania go innej osobie. Rytuał generował istotne zjawisko: tworzyły się silne międzyludzkie więzi oparte na szacunku. A to z kolei kreowało całą nową kulturę, której częścią była zasada wymiany dóbr.

    Drugą interesującą postacią, którą chcę przywołać jest amerykański futurolog, konstruktor, wynalazca Jacques Fresco, który zmarł w tym roku w wieku 101 lat. Postać barwna i niezwykła. W latach 60 stworzył projekt „Americana”, w którym „wrażliwe maszyny” będą chłodzić i czyścić całe miasta w reakcji na proces zanieczyszczania środowiska. Postulował technologię komunikacji między samochodami, tak by zapobiegać wypadkom. Darzył wielką czcią komputery, twierdząc, że są lepsze od ludzi, bo nie mają szkodliwych ambicji. Postanowiłem przywołać jego postać ze względu na to, że całe życie poświęcił na propagowanie ekonomii opartej na zasadzie darmowego i powszechnego dostępu do dóbr naturalnych. Twierdził, że na tym etapie rozwoju cywilizacji mamy wszystko, co potrzebne (zasoby naturalne i technologię komputerową), by tworzyć podwaliny nowej ekonomii.

    Krytykując współczesny świat, mówił: „(…) Chciałbym zlikwidować wojny, ubóstwo i cierpienia ludzkie. Ale nie jest to możliwe w systemie monetarnym, w którym najbogatsze państwa kontrolują większość zasobów światowych. Widzę natomiast powtórzenie serii tych samych wydarzeń: wojny, biedy, recesji, boomu, wojny”.

    Rozwiązaniem miałoby według niego być stworzenie systemu, w którym narody deklarują, że zasoby takie jak: czyste powietrze i woda, ziemia uprawna, edukacja, opieka zdrowotna, energia i żywność tworzą rodzaj „wspólnego dziedzictwa” wszystkich ludzi, którzy mogą mieć dostęp do tych chronionych dóbr dzięki technologii komputerowej.

    U obu wymienionych myślicieli można znaleźć wątki, które obecne są we współczesnych trendach ekonomicznych. Proces wymiany dóbr, dzielenie się, skoncentrowanie się na dostępnych „tu i teraz” zasobach, położenie akcentu na budowanie więzi i poczucia grupowego zadowolenia – to wszystko znajdujemy w zjawisku, które określa się jako „sharing economy”.

    Nie można w tym przypadku mówić już tylko o utopii. Mówimy o biznesowym trendzie wywodzącym się z początku wieku, z czasu kryzysu zwanego „internetową bańką”, kiedy to siła nabywcza ludzi znacznie zmalała – w Europie, ale przede wszystkim za Oceanem. Po latach, kiedy pionierzy pojawiali na rynku i z niego szybko znikali, dotarliśmy do momentu, w którym wysoko skapitalizowane i rozpoznawalne marki ciągle się rozwijają, mając swoją wierną publiczność. Trend pod nazwą sharing economy, chociaż ciągle niszowy – biorąc pod uwagę jego udziały w rynku usług – zaczyna generować spore zainteresowanie zarówno konsumentów jak i innowacyjnie nastawionych biznesmenów.

    Według artykułu o sharing economy na witrynie eMarketer.com tempo wzrostu całego rynku w USA w 2017 roku miało sięgnąć 25 procent z liczbą 15,2 milionów klientów i przewidywaniami, że w 2018 roku będzie to już 18,7 miliona osób. Do tych liczb należy jednak dodać dane o zakupach w sieci na takich witrynach jak: Pinterest czy Ebay do czego przyznawało się już 50 proc dorosłej populacji. Są to przecież witryny, które pozwalają ludziom łączyć się w trakcie zakupu produktów, po które nie trzeba wybierać się do tradycyjnego sklepu. I chociaż mówimy o zjawisku ciągle niszowym, to nie można mu odmówić już trwałości, dynamiki, wzrostu i mocy do zmiany nawyków konsumenckich.

    Za całym tym zjawiskiem stoją więc już poważne pieniądze, coraz to nowe organizacje, marketing i przede wszystkim ludzie, którzy – zakładając firmy – mają ambicję tworzenia nowych jakości.

    Jedni z nich stawiają akcent ciągle na zyski i marżę (Uber), inni na pobudzanie lokalnej mikroprzedsiębiorczości (Etsy), jeszcze inni na relacje międzyludzkie i przyjemność (Airbnb). Ale są też inicjatywy mniej znane, zakorzenione na rynkach lokalnych, pozbawione wartości takiej, jaką jest globalna rozpoznawalność marki. Przykładem może być Streetbank w Wielkiej Brytanii, społeczność, której celem jest wymiana sprzętu AGD i przy okazji – wzajemne poznawanie się ludzi między sobą.

    Wszystkie te inicjatywy mają cechy wspólne i posługują się podobnymi narzędziami do samorozwoju. Postrzegane razem, zaczynają tworzyć interesującą jakość rynkową, która jest wypadkową refleksji o niewydolności współczesnego systemu i powszechnego dostępu do najnowszych technologii: internetu, nowoczesnych aplikacji, sieci społecznościowych.

    Wspólne jest też co innego – filozofia biznesu i system wartości. Składa się na nie poczucie, że każdy z nas dysponuje odpowiednimi zasobami, które może przekazywać innym. Zamiast eksploatacji dóbr wykorzystujemy nasze prywatne zasoby, „wolne moce” (wolny czas, wolne mieszkanie, wolny samochód) i na tej podstawie tworzymy konkretną ekonomiczną jakość. Oczywiście nie pozbawioną zysków. Przy czym konkurowanie zostaje zastąpione tu zaufaniem i partnerstwem, a walka o zyski – dzieleniem się.

    Zaufanie jako podstawowa kategoria w marketingu – tutaj staje się pojęciem kluczowym. Być może nawet dużo głębszym, autentycznym i ekonomicznie opłacalnym dla każdego uczestnika-twórcy-konsumenta w tym biznesie. I to ono, wraz z user experience – potrzebą wygody i poczuciem bycia we wspólnocie – tworzy energię napędową dla całego trendu.

    Zmienia się tu też model własnościowy i kapitałowy. Firma z obszaru sharing economy swoją pozycję rynkową buduje z pozycji dostawcy narzędzia – aplikacji umożliwiającej komunikowanie się uczestników (wszystkich beneficjentów) procesu biznesowego, w którym oni uczestniczą.

    W opisywanym trendzie są dla mnie ciekawe dwie zbieżności. W 2008 roku Apple uruchamia swoją platformę służącą wymianie aplikacji. I w tym samym roku przychodzi na świat firma, która jest dzisiaj jedną z najsilniejszych marek „sharing economy”, czyli airbnb. Na tym prostym zestawieniu widać, że nowa ekonomia jest dzieckiem filozofii „sharingu”, która na dobre obecna jest w internecie od 10 lat. Nie byłoby sharing economy bez internetu, wymiany plików p2p, freeware’u. Nie byłoby jej bez eksplozji portali społecznościowych, gdzie połączenia między ludźmi są generowane błyskawicznie, weryfikowalne i przekładają się na wielką mozaikę kontaktów, interesów i celów.

    Nowa ekonomia jest częścią filozofii millenialsów, generacji C, dla których cały proces zakupowy odbywa się w internecie, a jego podstawowymi elementami są: marketing rekomendacji, wygoda, szybkość, cenowa konkurencyjność i używanie smartfonu do szukania usług i błyskawicznej za nie zapłaty.

    Częścią tej filozofii jest swoisty minimalizm, który zakłada, że „posiadanie” zmieniam na „używanie”, „wypożyczanie” i „korzystanie”. Bez wątpienia zjawisko to jest także owocem nowego podejścia do przetwarzania danych. Bo przecież informacja o konsumencie, informacja dostarczana dobrowolnie przez niego samego – o sobie, swojej potrzebie, ale i zasobach – jest tu kluczowa.

    Wreszcie, nie byłoby tego całego zamieszania bez podstawowego narzędzia, czyli aplikacji. Już o tym nie pamiętamy, ale popularność aplikacji pojmowanej jako konsumencki, codziennie używany software, to ostatnie dziesięć lat.

    Jeden z polskich producentów piwa zasłynął ostatnio intensywną kampanią reklamową, której „key wordem”, „big idea” jest słowo „tymczasem” Myślę, że owo słowo dobrze oddaje istotę nowej ekonomii.

    Tymczasowość, chwila, moment, stanowią podstawę tej koncepcji. Mam (chwilowo) wolne miejsce w samochodzie, wolny pokój w mieszkaniu, mam trochę wolnego czasu – dzielę się więc z tobą tym wszystkim, zarabiam na tym, a ty zarobisz w ten sam sposób udostępniając mi swoje identyczne zasoby. To pokazuje jak nietrwałość, zmienność, rozproszenie, dystopijność, a jednocześnie poszukiwanie więzi wspólnotowych mogą stworzyć konglomerat idei biznesowo policzalnych i atrakcyjnych nawet z punktu widzenia dużego kapitału.

    Mam też poczucie, że opisywane zjawisko, ciągle dynamicznie zmieniające się, jest efektem faktu, że nowe technologie rzeczywiście tworzą rewolucję – dziejącą się, rozgrywającą się na naszych oczach. Uważam, że wielkie chwile biznesu spod znaku sharing economy są jeszcze przed nami.

    https://norbertbiedrzycki.pl

    Powiązane artykuły:

    Czy gwarantowany dochód podstawowy będzie koniecznością?

    Zmierzch ery człowieka

    Niewidzialna pajęczyna wokół nas, czyli Internet Rzeczy

    Blockchain – święty Graal systemu finansowego?

    Upadek hierarchii, czyli kto właściwie rządzi w Twojej firmie

  • Deloitte: 100 lat pogoni za bogactwem europejskich gospodarek

    Deloitte: 100 lat pogoni za bogactwem europejskich gospodarek

    Setna rocznica odzyskania przez Polskę niepodległości, to dobry moment na podsumowanie nie tylko wydarzeń historycznych, czy politycznych, ale także gospodarczych. Jak przez te wszystkie lata radziła sobie nasza gospodarka? Jakie istotne zmiany pojawiły się w niej na przestrzeni tego okresu? Czy jesteśmy zamożniejsi niż byliśmy i jak wyglądamy na tle innych krajów? Bez wątpienia bilans jest dodatni, ale sprawdźmy, które lata z naszej historii są głównie odpowiedzialne za ten pozytywny wynik ostatnich 100 lat – pisze w najnowszym komentarzu ekonomicznym Julia Patorska, liderka zespołu ds. analiz ekonomicznych, Deloitte.

    Julia Patorska Deloitte
    Julia Patorska – główny ekonomista Deloitte

    Korzystając z tego, że już wkrótce będziemy świętować 100-lecie odzyskania niepodległości, chciałabym przyjrzeć się tej okrągłej rocznicy z innej perspektywy. Ponieważ na co dzień nie sięgamy do statystyk obejmujących minione dziesięciolecia, a już tym bardziej wieki, warto czasem spojrzeć nieco dalej w przeszłość, aby dostrzec szerszą perspektywę. Naturalna tendencja do akumulacji bogactwa, czyli wzrostu PKB, popycha nas do przodu, ale pamiętajmy, że nie tylko my się rozwijamy i bogacimy.

    Punkt wyjścia, czyli rok 1918

    Rok, w którym odzyskaliśmy niepodległość był dla gospodarki bardzo trudnym okresem. W sumie, to ciężko mówić o gospodarce polskiej jako jednym bycie. Rzeczpospolita Polska składała się z bardzo różnorodnych obszarów, które pod względem rozwoju ekonomicznego i społecznego były w skrajnie różnych sytuacjach. W tym czasie całe terytorium kraju średnio generowało PKB per capita na poziomie nieco niższym niż 50 proc. poziomu notowanego w ówczesnej Europie Zachodniej. Obszary znajdujące się pod zaborem niemieckim były jednak dwukrotnie bogatsze, niż ziemie po pozostałych dwóch zaborcach.

    Polska była biedna. Stan ten jeszcze pogłębiła, dopiero co zakończona, pierwsza wojna światowa. W gospodarce dominowało rolnictwo, bardzo zresztą słabe na tle innych krajów Europy. Z uwagi na wojnę duża część przemysłu została zniszczona lub przeniesiona za granicę. Rosnący deficyt budżetowy w pierwszych latach istnienia Rzeczpospolitej oraz nieodpowiedzialna polityka monetarna doprowadziły do hiperinflacji, która miała swoją kulminację w 1923 r. Ówczesne PKB per capita w Polsce jeszcze bardziej odbiegało od poziomu notowanego w krajach Europy Zachodniej. Dopiero zastąpienie dawnej waluty – marki polskiej – złotym, oraz wprowadzenie rządu fachowców, pozwoliły na powolne uporządkowywanie gospodarki w duchu kapitalistycznym, choć z dużym udziałem państwa. Nie podjęto się jednak istotnej reformy rolnej, która mogłaby istotnie zmienić sytuację społeczną.

    Niestety, nie nacieszyliśmy się długo stabilnym wzrostem, bo gdy w 1929 r. świat kapitalistyczny ogarnął wielki kryzys, byliśmy wciąż jeszcze bardzo słabą gospodarką z etatystycznym zacięciem, co utrudniało szybkie wyjście z tej sytuacji. Popyt wewnętrzny został mocno ograniczony, a produkcja przemysłowa spadła niemal o połowę. Niewątpliwie Polska w dwudziestoleciu międzywojennym była krajem o słabej kondycji gospodarczej. Wciąż jednak pamiętamy o osiągnięciach tamtych czasów np. infrastrukturalnych – w postaci budowy Gdyni czy COP, a także tych instytucjonalnych, w tym powstania Banku Polskiego i wprowadzenia waluty, czyli złotego polskiego, którego używamy do dziś.

    Lata wojenne

    Słabość gospodarcza Polski była szczególnie widoczna w 1939 r. przekładając się m.in. na mizerne uzbrojenie naszej armii i klęskę wrześniową. Okres II wojny światowej jest trudny do jakichkolwiek porównań statystycznych z uwagi na ograniczony wówczas sposób zbierania danych. Co więcej, uzyskiwanie wartości było mocno zaburzone przez działania wojenne czy napędzanie wydatków publicznych zbrojeniami. Ogromne znaczenie miała również skala zniszczeń wojennych, które bezpowrotnie potrafiły zrujnować majątek wielu przedsiębiorstw, czy też zburzyć całe miasta i akumulowane w nich bogactwo. Choć statystyki notują dodatnie wartości PKB w wielu krajach, należy pamiętać, że dla ludności cywilnej, nie tylko w Polsce, te lata oznaczały ogromną biedę, głód i niewystarczające zaopatrzenie w towary codziennego użytku.

    Czasy PRL

    Łatwiej jest podjąć się analizy czasów powojennych, choć niewątpliwie można wyróżnić w ciągu tych ponad czterech dekad różne etapy rozwoju naszej gospodarki. Dzięki ogromnemu zaangażowaniu społeczeństwa po wojnie szybko zaczęto odbudowywać kraj. W latach pięćdziesiątych udało się przekroczyć magiczną barierę 50 proc. PKB per capita notowanego w krajach zachodniej Europy. Co więcej, byliśmy wówczas bogatsi niż Hiszpania. Niestety, model gospodarczy, który został Polsce narzucony w czasach powojennych, nie sprzyjał dalszemu ograniczaniu luki, która dzieliła nas od kapitalistycznych krajów zachodniej Europy. Rozwijaliśmy się relatywnie coraz wolniej. Gospodarka centralnie planowana, która nie wykorzystywała potencjału siły roboczej, z ograniczonym kapitałem, oparta na nieefektywnościach i niewykorzystująca naturalnych mechanizmów rynkowych, zaprowadziła nasz kraj w latach 80. na skraj bankructwa. W PRL-u powstał przemysł ciężki i wiele zakładów, które jednak nie zaspokajały potrzeb ludności, a jedynie potrzeby ZSRR, produkując maszyny i części uzbrojenia. Ówczesny przemysł lekki i usługi były jednak mocno zacofane. Ludność zmęczona niedostatkami odetchnęła dopiero w czasach Edwarda Gierka, które wielu tak rzewnie teraz wspomina. Niestety zapominamy, że tę chwilową poprawę sytuacji gospodarczej Polska dostała na kredyt, którego nieefektywnie działające państwo nie było w stanie spłacić. Lata 80. zamknęliśmy więc PKB per capita na poziomie niewiele przekraczającym 30 proc. wartości notowanych w krajach Europy Zachodniej. W tym czasie Hiszpania, którą w latach 50. i 60. przewyższaliśmy bogactwem, za sprawą otwarcia gospodarki po śmierci Franco, zdołała generować o 60 proc. więcej PKB niż Polska.

    Cud transformacji

    Zmiana polityczna, która nastąpiła po wolnych wyborach w czerwcu 1989 r., umożliwiła między innymi doprowadzenie do sterów gospodarki ekonomistów, którzy na żywym, a do tego konającym organizmie, dokonali niezwykle precyzyjnej operacji, przestawiając Polskę z powrotem na ścieżkę wolnego rynku. Kilkanaście ustaw, które zostały w rekordowym tempie napisane i uchwalone, umożliwiło zmianę modelu gospodarczego w zasadzie w ciągu jednej nocy, rozpoczynając tym samym 1 stycznia 1990 r. nowy okres dla polskiej gospodarki.

    Początki były trudne. Wiele przedsiębiorstw państwowych nie potrafiło sobie poradzić na rynku, którym zaczęły rządzić nowe zasady i trzeba było konkurować o klienta, rynki zbytu oraz dostawców. Ruszyła lawina denacjonalizacji niewydajnych zakładów, otworzyła się możliwość tworzenia małych przedsiębiorstw opartych na własności prywatnej. Podpisanie umowy stowarzyszeniowej z krajami Wspólnot Europejskich, rozpoczęło drogę Polski do późniejszej Unii Europejskiej, która nie tylko politycznie, ale przede wszystkim instytucjonalnie i gospodarczo zmieniała nasz kraj. Rozpoczął się okres nieprzerwanego wzrostu gospodarczego Polski, który trwa do dziś. Jest to zjawisko niespotykane na skalę światową, które umożliwiło w końcu rzeczywiste doganianie najbogatszych krajów. Choć one również się rozwijają, średnie tempo wzrostu w Polsce pozwoliło nam osiągnąć już niemal 70 proc. PKB per capita krajów Unii Europejskiej.

    Jaki jest bilans?

    Gospodarka polska przeszła wiele przez 100 lat niepodległości: tragiczne w skutkach wojny nie pozwalały jej się stabilnie rozwijać, a model gospodarczy testowany przez ponad cztery dekady, który wyraźnie się nie sprawdził, doprowadził do bankructwa kraju. Światowe kryzysy gospodarcze także odbijały się na możliwości wzrostu. Mimo to, jednoznacznie można po 100 latach od uzyskania niepodległości powiedzieć, że jesteśmy krajem bogatszym, zarówno bezwzględnie jak i względnie. Stało się to, de facto, tylko dzięki ostatnim trzem dekadom wolnej gospodarki rynkowej i silnych instytucji państwa. Chcąc nadal utrzymać ten trend należy nie tylko dbać o te elementy, ale również ograniczać etatyzm i mądrze określać rolę państwa oraz dbać o dostęp zarówno do europejskich, jak i globalnych rynków.

  • Posiadanie jest passe! Ekonomia współdzielenia a leasing

    Posiadanie jest passe! Ekonomia współdzielenia a leasing

    Korzystanie z cudzego samochodu, wakacje w domu u nieznajomych, wynajęte biurko zamiast własnego biura czy podróż z kierowcą poznanym przez internet – to zjawiska, które jeszcze kilkanaście lat temu były nie do pomyślenia. Dziś doskonale wpisują się w megatrend nazywany przez specjalistów „ekonomią współdzielenia”. Z jakimi konsekwencjami się to wiąże i jak przekłada się na branżę finansową? Sprawdzamy!

    Ekonomia współdzielenia (ang. sharing economy) to jedno z najbardziej dynamicznie rozwijających się zjawisk we współczesnej gospodarce. Jej rozwój nie byłby możliwy bez coraz bardziej dostępnych nowych technologii i zmiany wywołanej przez kryzys finansowy na początku XXI wieku. To właśnie on skłonił konsumentów do myślenia bardziej o używaniu niż posiadaniu rzeczy, jak również do wymieniania się dobrami, z których w danym momencie nie korzystają. W rezultacie doprowadziło to do zmiany całych modeli biznesowych i pojawienia się takich gigantów jak UBER, Airbnb czy BlaBlaCar. Witryna eMarketer.com podaje, że w 2016 roku tempo wzrostu tego segmentu rynku wyniosło 22% i stale rośnie. Według danych szacunkowych do 2025 roku globalny przychód z ekonomii współdzielenia w czterech kluczowych obszarach – usługi finansowe, transport, hotelarstwo i turystyka – wyniesie aż 335 mld dolarów.

    W Polsce idea ekonomii współdzielenia przyjęła się nieco później niż w krajach zachodnich i USA, ale z raportu opublikowanego przez PwC wynika, że ok 40% dorosłych Polaków słyszało o serwisach, dzięki którym osoby prywatne odpłatnie świadczą usługi – np. BlaBlaCar, Airbnb, Uber, JadeZabiore, PolakPotrafi itp., Aż 26% z nas aktywnie z takich serwisów korzysta. Zmiany te widoczne są głównie wśród pokolenia Milenialsów, które po pierwsze zakupów dokonuje przede wszystkim przede wszystkim przez internet, a po drugie w swoich wyborach kieruje się rekomendacjami znajomych, konkurencyjnością cenową, szybkością i wygodą. Tu wspomnieć należy o jednej z najważniejszych cech ekonomii współdzielenia – zaufaniu. To nie cena, ale właśnie zaufanie staje się głównym kryterium wyboru. Druga istotna kwestia, dzięki której rozwój tego trendu jest możliwy, to zmiana mentalna – wśród młodszego pokolenia to nie posiadanie rzeczy, ale ich skuteczne używanie staje się oznaką „inteligencji ekonomicznej”.

    Zjawisko sharing economy stawia przed tradycyjnymi firmami wiele wyzwań, ale jednocześnie jest dla nich ogromną szansą na rozwój biznesu. Odnosi się to również do branży finansowej. – Leasing doskonale wpisuje się w filozofię ekonomii współdzielenia – mówi Tomasz Krzyżanowski, Dyrektor ds. handlowych Region Wielkopolska i Pomorze w GRENKE – Specjalizujemy się w leasingu sprzętu IT, a ten, jak wiadomo, bardzo szybko się zmienia, stale pojawiają się nowsze, lepsze rozwiązania. Od kilku lat mamy więc w swojej ofercie leasing nowoczesny, który pozwala naszym klientom używać sprzętu bez konieczności posiadania go na własność. Jest to tańsza i bardziej racjonalna opcja. Po zakończeniu umowy można po prostu wymienić sprzęt na nowy i stale zwiększać swoją konkurencyjność na rynku – dodaje.

    tomasz krzyzanowskiSprzęt IT, oprogramowanie, telefony, sprzęt fotograficzny czy medyczny – to przykłady rzeczy, których z ekonomicznego punktu widzenia po prostu najczęściej nie opłaca się kupować i posiadać na własność. Lepiej swobodnie ich używać i wykonywać dzięki nim pracę, a gdy na rynku pojawią się lepsze rozwiązania, bez żalu wymienić na nowe. – Ekonomia współdzielenia wiąże się z ogromną zmianą mentalną – mówi Tomasz Krzyżanowski – Posiadanie przestaje być ważne, liczy się używanie. Świadczy o tym to, że na Zachodzie nasz Leasing Nowoczesny nazywany jest “classic lease”. Wierzę, że już wkrótce w Polsce również tak będzie!

     

    PARTNER ARTYKUŁU

    grenke

  • Nowe technologie zrewolucjonizują handel

    Nowe technologie zrewolucjonizują handel

    Współczesny konsument płynnie migruje pomiędzy różnymi kanałami zakupowymi. Dlatego integracja sprzedaży tradycyjnej z internetową i kanałem mobilnym jest dziś jednym z największych wyzwań dla branży handlowej. Wielokanałowość i nowe technologie to dla sprzedawców, sieci i centrów handlowych możliwość zaspokojenia rosnących potrzeb klientów – skupionych na wygodzie, ale i coraz bardziej wymagających. Większość z nich planuje w najbliższych latach inwestycje w innowacyjne rozwiązania i usługi dla klientów.

    – Handel zmienia się dokładnie tak, jak nasi klienci i ich potrzeby. W związku z rozwojem technologii trudno już dzisiaj podzielić klientów na kupujących tylko stacjonarnie, bądź tylko online. Kluczem jest więc dotarcie do klienta przez wybrany przez niego kanał. Skutkuje to koncentracją na kliencie, musimy także wspólnie z najemcami tworzyć dobre doświadczenia zakupowe dla niego – mówi Czesław Jasiewicz, Head of Retail Operations w firmie EPP, będącej wiodącym właścicielem i zarządcą centrów handlowych w Polsce.

    Nowe technologie zmieniają handel detaliczny. Wymuszają to oczekiwania klientów, zwłaszcza młodszego pokolenia, które przez większość czasu jest online, przyzwyczajone nie rozstawać się ze smartfonem. Jak wynika z ostatniego raportu e-Izby „M-Commerce. Kupuję mobilnie”, 73 proc. internautów kupuje produkty z tej samej kategorii w więcej niż jednym kanale zakupowym. 41 proc. internautów zrobiło ostatni zakup wielokanałowo, a 43 proc. wskazało, że kupuje produkty konkretnej marki w więcej niż jednym kanale sprzedażowym. Względem poprzedniej edycji badania zauważalny jest też wyraźny wzrost wykorzystania smartfonów w procesie zakupowym. Co istotne, sklepy stacjonarne, które są ulubionym miejscem zakupów dla 32 proc. Polaków, straciły dominację na rzecz internetu i aplikacji mobilnych, które preferuje 41 proc. konsumentów.

    Współczesny konsument kieruje się przede wszystkim wygodą, płynnie migrując pomiędzy różnymi kanałami sprzedaży. Dlatego integracja sprzedaży tradycyjnej z e-commerce i kanałem mobilnym to dziś jedno z największych wyzwań dla właścicieli i zarządców centrów handlowych – wynika z ubiegłorocznego raportu MarketBeat międzynarodowej firmy doradczej Cushman & Wakefield. Comarch zalicza z kolei omnichannel do kluczowych technologii, które zadecydują o przyszłości branży retail. Eksperci wskazują też, że w ostatnich latach większość firm detalicznych dążyła do wzmocnienia obecności we wszystkich kanałach sprzedaży. Tradycyjni sprzedawcy inwestowali w e-commerce oraz m-commerce, natomiast internetowi docenili, jak ważne jest budowanie pozytywnych doświadczeń klienta poprzez bezpośrednią interakcję w sklepie stacjonarnym.

     Zmiany w handlu napędza dziś rozwój technologii, także coraz mniejsze koszty jej posiadania i użytkowania. Najemcom umożliwia to szersze dotarcie do klientów, klientom z kolei – szerszą weryfikację posiadanych na rynku produktów. Zmiany technologiczne bardzo odpowiadają naszemu młodszemu pokoleniu, które lubi innowacje technologiczne, chętnie używa urządzeń mobilnych, często czyta opinie internetowe i dzieli się swoimi wrażeniami, lubi udogodnienia w zakupach. To właśnie do potrzeb tych klientów będzie się dostosowywał handel – ocenia Czesław Jasiewicz.

    Polscy konsumenci są nie tylko wygodni, ale też coraz bardziej wymagający i świadomi swoich wyborów. Szukają coraz lepszych doświadczeń zakupowych, poczynając od wyglądu samego centrum, poprzez witryny, a kończąc na profesjonalnej obsłudze. Oczekują także, że wszystkie rzeczy będą w stanie załatwić w jednym miejscu, w wygodny sposób.

     Właśnie dzięki innowacyjnym technologiom możliwe są zmiany w modelach handlowych, ich celem jest wyjście naprzeciw potrzebom klienta, skrócenie czasu zakupów, zwiększenie wygody, a także budowanie wrażeń zakupowych. Jeszcze kilka lat temu dotykowa karta płatnicza czy sklep w smartfonie były nowością, teraz to już standard – mówi Czesław Jasiewicz.

    Jak wynika z ubiegłorocznego raportu Zebra Technologies, 78 proc. detalistów uważa, że integracja handlu elektronicznego z tradycyjnymi zakupami w sklepie ma kluczowe znaczenie dla ich działalności. Podobny odsetek (73 proc.) wskazuje na istotne znaczenie big data. Do 2021 roku 87 proc. sprzedawców detalicznych zamierza wdrożyć mobilne urządzenia kasowe (mPOS), a 65 proc., innowacyjne usługi dostawy zamówionego towaru.

    Ekspert EPP prognozuje też, że duży wpływ na przyszły kształt handlu detalicznego będzie mieć także zyskujący na znaczeniu trend, jakim jest ekonomia współdzielenia.

    – Statystyki wskazują na bardzo duży jej wzrost. Dotyczy to przede wszystkim sektora usług, takich jak noclegi bądź transport. Moim zdaniem galerie handlowe mają szansę być znakomitą platformą dla tego typu usług, chociażby dlatego, że mają znakomite lokalizacje i dzięki temu w galeriach handlowych w ogóle dobrze się korzysta ze wszystkich usług – mówi Czesław Jasiewicz.

    Spółka inwestycyjna EPP zarządza jednym z największych w Polsce portfeli nieruchomości komercyjnych, wartym przeszło 2 mld euro. Obecnie w jej portfolio znajduje się 19 obiektów handlowych, sześć biurowych oraz dwa obiekty wielofunkcyjne w budowie o łącznej powierzchni wynoszącej ponad 835 000 mkw. Najnowszym projektem spółki – realizowanym we współpracy z Echo Investment – jest Towarowa 22 na warszawskiej Woli, w ramach którego powstanie wielofunkcyjny kompleks, na który złożą się m.in. nowoczesna przestrzeń handlowo-usługowa, część biurowa, mieszkalna oraz zielona, ogólnodostępna przestrzeń publiczna. Wzdłuż ulicy Towarowej powstanie pierzeja domów handlowych, a dawny Dom Słowa Polskiego, który znajduje się na terenie inwestycji, zostanie przekształcony w miejsce spotkań i wydarzeń kulturalnych, z bogatą ofertą gastronomiczną i kawiarniami.

    /newseria

  • Czy zbliża się kryzys?

    Czy zbliża się kryzys?

    Przez ostatnie dni prasa rozpisywała się na temat potencjalnego kryzysu, który, zdaniem jednych, jest kwestią bliższej lub dalszej przyszłości, a zdaniem innych, nie jest do końca możliwy. Nie dziwi fakt wystąpienia takich tematów akurat teraz, bowiem mija już dekada od punktu kulminacyjnego ostatniego dużego kryzysu, czyli upadku Lehman Brothers. Czas leci, a ekonomiści coraz bardziej gorączkowo starają się odpowiedzieć na pytanie: kiedy możemy spodziewać się następnego załamania?

    Odpowiedź na pytanie nie jest prosta, jeśli w ogóle jest możliwa. Możemy swoje przypuszczenia opierać na badaniach i symptomach i porównywać je z ostatnim kryzysem, ale przecież podobna sytuacja już się nie powtórzy. Nawet jeśli nastąpiłaby, w jakiś cudowny sposób, identyczna sytuacja ekonomiczna, to wpływa na san gospodarki ma tak wiele czynników, że nie sposób jest nawet wówczas przewidzieć, co się stanie. Wiele osób próbuje porównywać to, co się dzieje z tym, co było i na tej podstawie formułować wnioski dotyczące odpowiedzi na wyżej postawione pytanie. Jeszcze inni starają się analizować nastroje polityczne i na tej podstawie wyciągać wnioski. Staramy się przewidzieć, co się stanie w oparciu o „coś”, o cokolwiek, co może mieć wpływ na ekonomię. I dzięki takim przewidywaniom możemy czuć się bardziej zorientowani w tym, co dzieje się wokół, w przestrzeni, w której, chcąc nie chcąc, funkcjonujemy wszyscy.

    Pewnym jest, że kryzys jest zawsze zaskoczeniem. Wszyscy o tym mówią, niby widać jakieś oznaki, które wskazują na zbliżające się załamanie, ale brak dokładnej daty i wiedzy odnośnie tego, w którą stronę uderzy jest przyczyną, dla której nie bardzo przejmujemy się przewidywaniami analityków, którzy często nas „straszą”. Co więcej, cień zbliżającego się kryzysu niekiedy pcha ludzi do, mogłoby się wydawać, nielogicznego działania na zasadzie „zdążę zanim się zacznie”. Nadchodzi po prostu jeden dzień, który zmienia wszystko i kieruje nasze działania w tryb „przetrwanie”, niezależnie od tego, w jakim trybie funkcjonowaliśmy do tej pory.

    Bez żadnych wątpliwości można stwierdzić, że kryzys nastąpi, bo musi nastąpić. Nie ma innej możliwości, ponieważ gospodarka, poza tym, że jest uzależniona od czynników politycznych, giełd, technologii, itp., to wszystkie procesy, które w niej zachodzą zależą od ludzi – niedoskonałych, chciwych, przebiegłych, naiwnych, różnych. Nie jest to żadna nowość, jednak w ostatnim czasie można zauważyć coraz większy ukłon świata finansów w stronę obserwacji zjawisk i procesów psychologicznych i socjologicznych i przekładania tego na rzeczywistość gospodarczą, a sama ekonomia behawioralna staje się „modnym” tematem do rozważań. Sam Warren Buffet, w wywiadzie dla CNBC udzielonym w związku z dziesiątą rocznicą upadku Lehman Brothers, powołuje się w swojej wypowiedzi na główny czynnik, od którego zależy kryzys, czyli czynnik ludzki. Choć akurat Wyrocznia z Omaha należy do stosunkowo wąskiego grona ludzi, którzy, odwrotnie niż większość, na kryzysie są w stanie zbić fortunę. I tu warto zaznaczyć, że nie bez powodu porównuje się prawa świata finansów do praw dżungli – zarówno w przyrodzie, jak i w gospodarce nic nie ginie, co najwyżej zmienia formę, bądź właściciela.

    A jak zatem przygotować się na kryzys? W związku z tym, że, pomimo wysiłków analityków, daty kryzysu nie da się przewidzieć, trudno jest stwierdzić, które konkretnie sektory, branże, firmy najbardziej ucierpią i kogo załamanie najbardziej dotknie.

    Przeglądając dziesiątki publikacji dotyczących kryzysu można się natknąć na wiele wskazówek dotyczących tego, w jaki sposób zabezpieczyć swoją firmę bądź prywatne finanse przed niespodziewanym wzrostem cen i kiepską kondycją gospodarki. Poczynając od podniesienia własnych kwalifikacji, kończąc na dokładnej analizie i optymalizacji kosztów stałych, można wymienić mnóstwo czynności, które zmniejszą ryzyko bankructwa lub jakichkolwiek niepowodzeń wynikających z kryzysu. Jednak warto zwrócić uwagę przede wszystkim na pewne prawidłowości. Po pierwsze, żadne działanie nie daje pewności, że skutki kryzysu nas ominą. Po drugie – najważniejsze – brak jest konkretnych i jednocześnie uniwersalnych rad, które pomogą każdemu, ale zasada jest prosta – rozsądnie zarządzana firma czy budżet domowy ma większe szanse na przetrwanie cięższych momentów, bez względu na to, czy ma to związek z ogólnym kryzysem czy nie. Dlatego, bez względu na to, czy czekają nas biedne czasy czy nie, warto w każdej chwili zastanowić się nad rozwojem własnym, firmy, bądź branży, w której funkcjonujemy. Każda chwila jest dobra na to, żeby coś poprawić, nie tylko ten krótki moment przed kryzysem.

  • 6 megatrendów będzie miało największy wpływ na kształt globalnej gospodarki

    6 megatrendów będzie miało największy wpływ na kształt globalnej gospodarki

    Momentami przełomowymi w historii ludzkości było wynalezienie maszyny parowej, żarówki i komputera, a potem internetu. Obecnie czynników, które mogą mieć równie znaczący wpływ na gospodarkę i społeczeństwo jest znacznie więcej. Są to automatyzacja i robotyzacja, internet rzeczy czy sztuczna inteligencja. Eksperci firmy doradczej Deloitte wskazali sześć megatrendów, które w najbliższych latach zmienią oblicze polskiej i światowej gospodarki. To przemysł 4.0, model gospodarki o obiegu zamkniętym, zrównoważone finanse, rynek talentów, „srebrna ekonomia” oraz elektromobilność.

    Megatrendami można określić globalne siły, które mają wpływ zarówno na życie gospodarcze, jak i społeczne. Oddziałują także na przebieg szeregu procesów, takich jak np. produkcja, konsumpcja, inwestycje czy interakcje społeczne. Zdaniem dyrektorów finansowych – ankietowanych przez Deloitte – źródeł tych zmian należy obecnie upatrywać w dużej liczbie danych i zaawansowanej analityce (61 proc.), oraz cyfryzacji (52 proc.), zmianach geopolitycznych, a także technologiach zwiększających produktywność, takich jak automatyzacja czy robotyzacja (po 44 proc.) . – Czynniki te będą miały największy wpływ na to, jak będzie wyglądał biznes w najbliższych kilku latach.  Na ich podstawie wyłoniliśmy kilka megatrendów, które mają szanse zyskać największe znaczenie w skali globalnej. Gospodarki, które najszybciej wykorzystają ich zalety, a zniwelują istniejące zagrożenia, okażą się najbardziej konkurencyjne – mówi Julia Patorska, Lider zespołu ds. analiz ekonomicznych Deloitte.

    Megatrend: Przemysł 4.0

    Wyróżnia się tym od poprzednich rewolucji technologicznych, że – łącząc istniejące technologie – równocześnie w procesach wytwórczych zaciera granice między sferą fizyczną, cyfrową i biologiczną.
    Do najważniejszych rozwiązań napędzających rozwój Przemysłu 4.0 należy Internet Rzeczy (IoT), uczenie maszynowe, sztuczna inteligencja oraz rozszerzona i wirtualna rzeczywistość (AR i VR). Według przewidywań Deloitte, już w tym roku ponad miliard użytkowników smartfonów przynajmniej raz wytworzy treści rozszerzonej rzeczywistości – mówi Wojciech Górniak, Lider zespołu transformacji cyfrowej. Jego zdaniem rozwojowi Przemysłu 4.0 sprzyja nie tylko postęp technologiczny, ale także potrzeby konsumentów, ograniczenia podażowe, zwłaszcza w zakresie surowców nieodnawialnych i zasobów pracy oraz zachęty finansowe ze strony sektora publicznego.

    Czwarta rewolucja przemysłowa pozwoli zwiększyć produktywność i przychody oraz zredukować poziom ryzyka dla wielu procesów biznesowych. Nie brakuje jednak wyzwań, które będą przekładały się na wzrost ryzyka zarówno w życiu prywatnym jak i obrocie gospodarczym, co zniweluje część pozytywnych efektów zmian technologicznych. Przemysł 4.0 niewątpliwie zwiększa możliwość wystąpienia cyberataków oraz kradzieży danych. Pod uwagę należy także wziąć możliwie nieprzychylną reakcję społeczną, związaną chociażby z wpływem automatyzacji na rynek pracy. Niezbędne są również regulacje, które zapewnią obywatelom poziom bezpieczeństwa i pozostawią przestrzeń dla zyskownych, rynkowych innowacji. Brak edukacji społeczeństwa i niewystarczające wsparcie obywateli w adaptacji do zachodzących zmian może przyczyniać się do dalszego wzrostu ruchów populistycznych na świecie.

    Rozdźwięk pomiędzy możliwościami związanymi z zachodzącymi zmianami, a rzeczywistością potwierdza badanie pt.: „The Fourth Industrial Revolution is here – are you ready?”, które Deloitte przeprowadził na kadrze kierowniczej firm i agencji rządowych w 19 liczących się gospodarkach z całego świata. – Respondenci rozumieją zachodzące zmiany w ich otoczeniu, ale niekoniecznie potrafią je wykorzystać. Zdaniem 87 proc. respondentów Przemysł 4.0 może doprowadzić do zmniejszenia różnic społecznych i ekonomicznych.  Równocześnie pojawiają się obawy, czy kadra jest odpowiednio przygotowana i czy społeczeństwo posiada oczekiwane kompetencje. Tylko jedna czwarta ankietowanych uważa, że posiada odpowiednie zasoby osobowe do sprostania wyzwaniom przyszłości – wyjaśnia Julia Patorska.

    Megatrend: gospodarka o obiegu zamkniętym

    To, co będzie wpływało na implementację tej idei przez biznes, to przede wszystkim regulacje. W ciągu ostatnich kilku miesięcy Komisja Europejska wydała szereg dokumentów, które mają związek z promowaniem gospodarki o obiegu zamkniętym, wymuszając wręcz na państwach członkowskich stopniowe wprowadzanie zmian w tym zakresie. Prace regulacyjne rozpoczęły się od opakowań i tworzyw sztucznych. Według założeń, w 2030 roku aż 70 proc. wagowo wszystkich odpadów opakowaniowych powinno zostać poddanych recyklingowi. W Polsce jest to obecnie 57,5 proc. Duże znaczenie w popularyzacji idei gospodarki o obiegu zamkniętym ma również rosnąca świadomość konsumentów.

    Gospodarka o obiegu zamkniętym nie jest nowym modelem rynkowym czy też gospodarczym, pozwala jednak na lepszą alokację zasobów. W związku z tym, że ekonomia jest nauką o tym jak efektywnie wykorzystywać ograniczone zasoby, gospodarka o obiegu zamkniętym ma wszelkie atrybuty, by stać się powszechnie akceptowanym podejściem. Dotychczas stosowany linearny model wykorzystania zasobów „produkcja-zużycie-wyrzucenie” jest wypierany przez model „zamkniętej pętli”, w którym odpady, jeśli powstają, stają się surowcem.

    Zdaniem ekspertów Deloitte szansą na upowszechnienie modelu gospodarki o obiegu zamkniętym jest rozwój nowych branż i rynków, zwłaszcza w sektorze usług, niższe koszty działalności oraz wzrost konkurencyjności i innowacyjności firm. Z kolei na przeszkodzie mogą stanąć wysokie koszty wdrożenia modelu zamkniętego. Zgodność z wymogami EPR, czyli Rozszerzonej Odpowiedzialności Producenta (odpowiedzialność za produkt zostaje rozszerzona na wszystkie etapy jego życia) może stanowić w Europie koszt równowartości 15 mld euro w całej Europie. – Problemem pozostaje również ograniczona dostępność i jakość danych dotyczących przepływów surowców i odpadów oraz bariery regulacyjne – mówi Julia Patorska.

    Megatrend: zrównoważone finanse i inwestowanie z myślą o wpływie na otoczenie

    Zarówno inwestorzy indywidualni, jak i firmy coraz częściej mierząc swój wpływ i zwrot z inwestycji biorą pod uwagę nie tylko koszty i zyski finansowe, ale także korzyści społeczne oraz środowiskowe.
    Podejście to nie oznacza rewolucji i całkowitego odejścia od kryterium zysku. Zakłada ono raczej ewolucyjne uwzględnianie dodatkowych kryteriów, odnoszących się np. do środowiska naturalnego. Chodzi o to, aby naturalne rynkowe bodźce – a więc poszukiwanie zysku – wykorzystać do jednoczesnej realizacji innych, ważnych celów. Dodatkowo ma to sprzyjać internalizacji negatywnych kosztów zewnętrznych. Przykładowo, duże instytucje finansowe coraz częściej zwracają uwagę przy lokowaniu kapitału czy dany emitent działa odpowiedzialnie, gdyż to pozwala obniżyć ryzyko inwestycyjne – wyjaśnia Julia Patorska. Szacuje się, że wartość inwestycji odpowiedzialnych społecznie w Europie w 2015 roku wynosiła już blisko 150 mld euro.

    Warto także dodać, że inwestowanie z myślą o wpływie na otoczenie stwarza szansę na większą przejrzystość rynku finansowego i odpowiedzialność w kontekście generowanego wpływu. Z kolei po stronie wyzwań należy wymienić pogodzenie – czasem sprzecznych – interesów pomiędzy tym, co się danej firmie opłaca finansowo, a co powinna zrobić biorąc pod uwagę wpływ na otoczenie. – Przy podejmowaniu decyzji czynniki pozafinansowe mogą mieć oczywiście mniejsze znaczenie niż oczekiwane zyski. Należy zakładać jednak, że z czasem, gdy niedoskonałości metodyczne w zakresie raportowania wskaźników społecznych i środowiskowych zostaną ograniczone, kryteria pozafinansowe będą zyskiwały na znaczeniu– mówi Julia Patorska.

    Megatrendy na rynku pracy

    Wśród pozostałych megatrendów eksperci Deloitte wyróżnili rosnące znaczenie rynku talentów oraz tzw. srebrną gospodarkę. Mają one ze sobą dużo wspólnego. Struktura rynku pracy zmienia się diametralnie. Coraz więcej osób podnosi swoje kwalifikacje przez całe życie, pracuje na swój rachunek lub na podstawie elastycznych form zatrudnienia. Zwiększa się również liczba pracowników, którzy pracują zdalnie lub jako niezależni wykonawcy. W tej chwili tylko w Unii Europejskiej może być już 30,6 mln takich osób. Jednocześnie pracodawcy muszą pogodzić interesy wielu różnych generacji obecnych na rynku pracy i powoli zapełniać lukę, która tworzy się po odchodzących na emeryturę przedstawicielach pokolenia wyżu powojennego. – To może być istotny cios dla wzrostu gospodarczego, dlatego wiele rządów w ostatnich latach podnosiło ustawowy wiek emerytalny. Zmiany w systemach emerytalnych sprawiają, że coraz więcej osób poszukuje informacji dotyczących aktualnych przepisów i kalkuluje opłacalność pozostania na rynku pracy. Konieczność dłuższej aktywności zawodowej, połączona z przewidywanymi niskimi emeryturami z publicznego systemu, może też istotnie wpłynąć na skłonność do oszczędzania i poszukiwanie aktywów, które będą bezpieczną lokatą dla kapitału i swoistą „polisą na starość” – dodaje Julia Patorska.

    Megatrend: elektromobilność

    Aktywność największych koncernów motoryzacyjnych oraz rządowe systemy wsparcia dla elektromobilności przekładają się na rosnące zainteresowanie konsumentów. Motywacją do zakupu pojazdów elektrycznych jest coraz większa świadomość ekologiczna oraz rosnąca opłacalność kosztowa tego typu pojazdów, w porównaniu z pojazdami o napędzie konwencjonalnym. – Elektromobilność to nie tylko samochody osobowe, ale także autobusy elektryczne oraz wodorowe. Rozwój flot zeroemisyjnych autobusów jest kluczowy w budowaniu „zrównoważonych miast” umożliwiających redukcję zanieczyszczenia powietrza oraz hałasu. Dodatkowym aspektem wykorzystania elektromobilności jest obszar synergii z OZE, czyli odnawialnymi źródłami energii , który prowadzi do gospodarki niskoemisyjnej oraz niezależności energetycznej – mówi Karol Wierzbicki, ekspert w zespole ds. elektromobilności.

    Według szacunków Deloitte na początku następnej dekady cena baterii ma spaść do poziomu ok 130 EUR kW/h, co spowoduje, że napęd elektryczny stanie się bardziej atrakcyjny rynkowo.

  • Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Sztuczna Inteligencja zrobi za nas wszystko – twierdzą entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn

    Maszyny zdolne do odczuwania ludzkich emocji

    Temat Sztucznej Inteligencji poruszałem na moim blogu już wielokrotnie. Jestem zafascynowany tą technologią i możliwościami jakie ze sobą niesie. Jestem świadomy też zagrożeń. Jak daleko posuniemy się w rozwoju tej technologii? Na ile jej pozwolimy?

    Sztuczna Inteligencja zrobi za nas wszystko, wynajdzie nawet lek na raka – twierdzą jej entuzjaści. Człowiek stanie się zbędny – odpowiadają pesymiści wieszczący zagładę ludzkości z rąk świadomych maszyn. Tak czy inaczej firmy, które angażują się dziś w rozwój AI, będą decydować o naszych losach w najbliższych kilkunastu latach. Tym bardziej, że mają na to pieniądze.

    Oren Etzioni, współtwórca i prezes Allen Institute for Artificial Intelligence, instytutu stworzonego dwa lata temu przez współzałożyciela Microsoftu Paula G. Allena, na pytanie dziennikarza czy maszyny kiedyś będą zdolne do odczuwania, odparł: „Krótka odpowiedź brzmi – nie. Rozszerzona odpowiedź brzmi – nie będą, bo ludzie mają zniekształcone postrzeganie tego, co komputery mogą robić w dzisiejszych czasach”. Zacytujmy jeszcze Stuarta J. Russela, naukowca zasłużonego dla badań nad AI, autora wielu publikacji dotyczących tego zjawiska: „Największą przeszkodą w rozwoju AI jest to, że ciągle nie mamy pojęcia, w jaki sposób nasz mózg wytwarza świadomość. Jeśli ktoś wręczyłby mi miliard dolarów na budowę świadomej maszyny, nie przyjąłbym tego miliarda, bo nie jesteśmy bliżsi zrozumienia mechanizmu ludzkiej świadomości od ludzi, którzy zajmowali się tym problemem 50 lat temu”.

    Spróbujmy jednak przyjrzeć się kilku faktom, którym już nie da się zaprzeczyć i które pokażą nam bez zniekształceń, na jakim etapie jesteśmy w pracach nad Sztuczną Inteligencją. Czy rzeczywiście sceptycyzm wyżej cytowanych ekspertów jest tak bardzo uzasadniony?

    Entuzjazm ogrania nas wszystkich

    Nie ma miesiąca bez kolejnych doniesień o inwestycjach globalnych korporacji takich jak Google, Amazon, IBM, Facebook, Apple, Microsoft, Samsung w AI, czy mnożących się start-upach, które wdrażają projekty z wykorzystaniem ultranowoczesnych, inteligentnych technologii. O trendzie chętnie piszą zarówno mainstreamowe media, jak i specjalistyczne portale o tematyce technologicznej. Towarzyszy temu tradycyjna już dyskusja o tym, do czego może doprowadzić upowszechnienie Sztucznej Inteligencji. Entuzjaści wyliczają korzyści, na jakie możemy liczyć już w ciągu kilku, najwyżej kilkunastu lat, wymieniając: komputery reagujące na ludzką mimikę, emocje i głos; systemy komputerowe, które samodzielnie poprawiają własną wydajność w wyniku kolejnych operacji na zbiorach danych (machine learning); wszczepialne nanoboty zdolne do rozpoznawania i niszczenia komórek rakowych; komputerowe systemy wspomagania decyzji; „smart” technologie w naszych mieszkaniach, czy autonomiczne samochody. Już dzisiaj wysiłki na rzecz wydłużania ludzkiego życia, dążenie do coraz wydajniejszego przetwarzania danych i postępująca personalizacja osobistych komputerów stanowią pewien rodzaj paliwa dla globalnego biznesu i przestają być wyłącznie domeną wyobraźni hollywoodzkich reżyserów, którzy temat AI eksploatują od lat.

    Sztuczna Inteligencja do ogromne pieniądze

    Stopniową komercjalizację AI wspierać będzie upowszechnienie badań, które są nad nią prowadzone i wzrost inwestycji w ten obszar. W ciągu kilku lat zaangażowanie dużego kapitału powinno pozwolić na rewolucyjne zmiany w medycynie i biznesie.  Agencje badawcze prognozują, że przełomowym okresem dla rozwoju zjawiska będzie najbliższych pięć lat. W tym czasie sumy inwestowane we wdrożenia dotyczące AI wzrosną o kilkadziesiąt procent, a fascynacja zjawiskiem zacznie przypominać mechanizm śnieżnej kuli. Według danych CB Insights na globalnym rynku finansowym tylko w 2015 roku pojawiło się około 300 nowych, dużych spółek, które definiowały swoją misję poprzez takie słowa kluczowe, jak: sztuczna inteligencja, uczenie maszynowe, sieci neuronowe. Według raportu przygotowanego przez agencję badań rynkowych TechSci Research w Stanach Zjednoczonych w okresie 2016 – 2021 wartość inwestycji w rozwój AI wzrośnie o 75 procent. Pieniądze będą przeznaczone na: adaptację AI do przedmiotów codziennego użytku, badania naukowe, ulepszanie autonomicznych samochodów i zastosowanie nowoczesnych technologii w medycynie. Z kolei firma badawcza BCC Research, specjalizująca się w rynkach technologicznych, przewiduje że wartość światowego rynku inteligentnych urządzeń (neurokomputery, systemy eksperckie, autonomiczne roboty, inteligentne systemy wspomagania) wzrośnie do 15,3 mld dolarów w 2019 roku, ze średnią roczną stopę wzrostu na poziomie 19,7 procent. Bez wątpienia jest to najszybciej rozwijająca się część przemysłu technologicznego.

    Naukowcy potrzebni od zaraz

    Globalne poruszenie w biznesie ma swoje zaplecze w inicjatywach badawczych. Nie byłoby dzisiejszego boomu na inwestycje w AI bez zaangażowania naukowo-technicznego instytutów, placówek naukowych, technologicznych hubów i organizacji non-profit. Wspomniany już Allen Institute for Artificial Intelligence zatrudnia kilkudziesięciu naukowców, technologów z różnych dziedzin, a jego misją jest, jak można przeczytać na stronie instytutu: „działalność na rzecz ludzkości poprzez zaangażowanie wysoko rozwiniętych technologii i badań”. Oprócz placówek badawczych, w przedsięwzięcia związane ze sztuczną inteligencją, inwestują swoje pieniądze również technologiczne korporacje, które wręcz licytują się w uruchamianiu nowych projektów opartych o wysoko zaawansowane technologie. Przełomowe okazały się tu ostatnie cztery lata. Google zaangażował się już w 2012 roku w przedsięwzięcia związane z AI. W 2014 roku firma zapowiedziała inwestycje rzędu setek milionów dolarów w start-up Deep Mind. W 2014 roku Mark Zuckerberg, Elon Musk and Ashton Kutcher połączyli siły i zainwestowali pokaźne środki w firmę Vicarious FPC angażującą się wyłącznie w najbardziej wizjonerskie projekty AI. Jak deklaruje firma w swej misji, jej celem jest „stworzenie unikalnej architektury algorytmów, po to by osiągnąć poziom ludzkiej inteligencji w urządzeniach wykorzystujących do swego funkcjonowania język, zdolności widzenia i ruchu”. Jednym ze strategicznych celów Facebooka jest stworzenie potężnego systemu przetwarzania danych, a także stworzenia technologii rozpoznawania ludzkiej twarzy przez komputery. Na rozwój AI przeznaczane są ogromne środki – pieniądze, kapitał intelektualny i praca ludzi. To wszystko, w mojej ocenie, może spowodować, że w najbliższych kilku latach odpowiednik prostego AI pojawi się w laboratoriach wielkich firm i instytutach badawczych.

    Maszyny podejmują decyzje za nas

    W kontekście szacowanych inwestycji badawczych i finansowych ciekawe wydają się przewidywania dotyczące najważniejszych kierunków rozwoju AI. Warto tu przytoczyć najświeższe opracowanie firmy analitycznej Gartner dotyczące AI. Kilka przykładów – według Gartnera w najbliższych kilku latach systemy informatyczne będą w stanie przetwarzać duże zbiory danych, tak by podejmować autonomiczne decyzje o charakterze ekonomicznym. Do roku 2020 roku aż 5% realizowanych transakcji biznesowych na świecie będzie rezultatem tego, że algorytmy funkcjonujące w zainstalowanym oprogramowaniu, osiągną zdolność do wyciągania wniosków ze zbioru danych wprowadzonych do komputera. Według Gartnera, do roku 2018 aż 20 procent treści i informacji użytecznych dla biznesu będzie opracowywanych i publikowanych przez komputery. Mówimy tu więc już o inteligentnym lub prawie inteligentnym przetwarzaniu danych różnych kategorii. Na chwilę zatrzymując się na tym wątku, zwróćmy uwagę na rynkową obecność firm, które już dzisiaj oferują systemy samodzielnie przetwarzające dane w czytelne dla odbiorcy raporty. Jedną z nich jest Yseop, oferująca usługę, która może w najbliższej przyszłości zrewolucjonizować pracę księgowych, analityków giełdowych, strategów biznesowych, menedżerów. Dzięki prostemu interfejsowi, użytkownik wprowadza szereg danych do komputera: liczby, wykresy, infografiki, a te następnie są automatycznie kompilowane, zestawiane i przetwarzane przez maszynę. Agencja prasowa Associated Press wykorzystuje już teraz w swej pracy komputery, które samodzielnie tworzą opracowania wykorzystywane później przez dziennikarzy. Jakość ich jest bardzo wysoka, tylko niektóre z nich wymagają poprawienia ludzką ręką.

    Dziecko uczone przez maszyny

    Gartner w swoich przewidywaniach dotyczących najbliższej przyszłości zwraca szczególną uwagę na jeden trend istotny dla dalszego rozwoju systemów AI – jest nim „uczenie się maszyn”. Jedno z podstawowych pytań, zadawanych obecnie przez osoby zaangażowane w rozwój AI, brzmi: w jaki sposób tworzyć systemy AI, które będą  samodzielnie poprawiać swoją efektywność na bazie własnych doświadczeń? Jak wykorzystać w tworzeniu komputerów zasady, które kierują procesami uczenia się u ludzi? Dochodzimy tu więc do największego według wielu specjalistów wyzwania, jakie stoi przed twórcami AI, pomysłu fascynującego i kontrowersyjnego jednocześnie: stworzenia zaawansowanych  systemów, które potrafią zastępować człowieka w podejmowaniu decyzji. W tym miejscu widać, że w całym zjawisku chodzi zdecydowanie o coś więcej, niż automatyzację powtarzalnych procesów, która przecież jest już obecna w biznesie i przemyśle. Mówimy tu bowiem o działaniu maszyn w oparciu o algorytmy zakładające rozpoznawanie wzorców, przewidywanie przyszłych wyników i na tej podstawie podejmowanie decyzji. Jest wielce prawdopodobne, że praktyczną odpowiedzią na to wyzwanie będzie technologia wykorzystująca sztuczne sieci neuronowe działające na zasadach podobnych do działania ludzkiego mózgu (trend technologiczny quantum computing). Wyobraźmy sobie teraz, że maszyny zdolne do analizy danych i wyciągania z niej wniosków, angażujemy do pracy w obszarze medycyny. Komputery na podstawie przeanalizowanych parametrów dokonują diagnozy, wykrywają anomalie, przewidują wystąpienie choroby. Zacytujmy jeszcze raz Orena Etzioni: ”Co, jeśli recepta na lekarstwo na raka jest ukryta wewnątrz nudnych raportów obejmujących tysiące badań klinicznych? To właśnie AI będzie w stanie je odczytać i co najważniejsze – zrozumieć. Połączy dane z odrębnych badań, postawi nowe hipotezy i zaproponuje eksperymenty, które zostałyby zapewne pominięte przez ludzi”.

    Co Pan na to, Panie Watson?

    Kolejnym poważnym zagadnieniem, na którym koncentrują się specjaliści zaangażowani w rozwój AI, jest kwestia przetwarzania języka naturalnego. Wielu menedżerów uważa, że opanowanie przez komputery zdolności rozumienia języka może oznaczać rewolucję w dążeniu do integracji i współpracy inteligencji ludzkiej z inteligencją maszynową. Google twierdzi, że 20% bieżących zapytań klientów w rozmowach telefonicznych obsługiwane jest przez maszyny. Badania związane z tym obszarem podążają w kierunku rozwijania systemów, które są w stanie współdziałać z ludźmi, poprzez dialog, a nie tylko reagować na proste żądania. Niektórzy dodają też przy tej okazji, że przełomem, na który poczekamy około 20 lat, będzie zdolność komputerów do pełnego rozpoznawania ludzkiej twarzy, łącznie ze zdolnością odczytywania ludzkiej mimiki i emocji. Pewne jest, że przełomowe zdarzenia na tym obszarze następują już dzisiaj, wręcz obok nas. Nierzadko mamy kłopoty z oceną ich skali i znaczenia dla przyszłości. Komputer IBM Watson (2880 rdzeni, 15 TB pamięci operacyjnej) został stworzony przez IBM właśnie do odpowiadania na pytania zadawane w języku naturalnym.  Maszyna do swoich standardowych operacji używa więc procesu przetwarzania języka naturalnego. Aby odpowiedzi były możliwe, komputer wyposażono w bazę danych, zawierającą miliony stron różnych tekstów, w tym słowników i encyklopedii i zaprogramowano tak, aby używał setek równolegle działających algorytmów do znalezienia prawidłowej odpowiedzi. Dzięki temu mechanizmowi komputer potrafi przeanalizować ogromne zbiory danych z różnych obszarów, takich jak biznes, ekonomia i medycyna. Watson, wchodząc w kontakt głosowy z człowiekiem, „rozumie” więc zadawane pytania i problemy, a gromadząc kolejne dane „uczy się” z nich – zgodnie z ideą uczenia się maszyn.

    Komputery „nabierając” inteligencji, będą miały coraz bardziej „ludzką” zdolność kontaktu z nami, a ich reakcje będą efektem zdolności odczytywania i przetwarzania złożonych danych o różnym charakterze. Przełomowe badania związane ze stworzeniem IBM Watson ulegną upowszechnieniu i komercjalizacji. Jest niemal pewne, że w najbliższych latach możemy spodziewać się rosnącej popularności autonomicznych asystentów – aplikacji, które będą służyły pomocą w zdobywaniu wiedzy i podejmowaniu decyzji dotyczących naszego życia prywatnego. Już dzisiaj nie trzeba sięgać daleko wyobraźnią. Od kilku lat użytkownicy iPhone’a mogą cieszyć się z towarzystwa aplikacji Siri, która odpowiada głosowo na proste pytania dotyczące na przykład czasu, pogody, daty, ale też finansów, muzyki, zawartości poczty elektronicznej, czy kontaktów umieszczonych w smartfonie. Do podobnych projektów, ciągle udoskonalanych, ale już dostępnych dla indywidualnego użytkownika, należy Amazon Echo. Oprogramowanie to również wykorzystuje do swojego działania mechanizm przetwarzania języka naturalnego.

    Optymiści, realiści i pesymiści

    AI budzi ciągle mieszane uczucia, na które składają się z jednej strony entuzjazm, a z drugiej obawy podsycane przez twórców filmów, pisarzy i pesymistycznie nastrojonych futurologów. Założyciela Facebooka, Marka Zuckerberga, można zaliczyć do grona technologicznych optymistów i biznesowych pragmatyków „(…) AI dojdzie do punktu, w którym będzie przynosiła korzyści, z których będą mogły czerpać zarówno małe, jak i duże firmy. Pracujemy nad AI, ponieważ uważamy, że bardziej inteligentne usługi będą bardziej przydatne”. Jego trzeźwe podejście nie udziela się wszystkim tym, którzy funkcjonują na rynku technologicznym. Według raportu opracowanego dla Baker & McKenzie, spośród 424 specjalistów finansowych, 76 proc. uważa, że organy nadzoru finansowego nie są przygotowane do współpracy z oprogramowaniem AI, a 47 proc. wyraża wątpliwości, czy ich własne organizacje rozumieją ryzyka wiążące się z korzystaniem z AI. Badani wyrazili ponadto przekonanie, że uzależnienie od sztucznej inteligencji będzie oznaczać konsekwencje w postaci redukcji zatrudnienia. W powyższym fragmencie zawarte jest całe spektrum emocji i poglądów dotyczących AI. Bill Joy, swoimi przemyśleniami dotyczącymi AI dzielił się 16 lat temu w legendarnym i często przywoływanym dzisiaj artykule „Dlaczego przyszłość nas nie potrzebuje”, opublikowanym w magazynie Wired. W wielu fragmentach refleksję autora można dzisiaj traktować jednocześnie jako przejaw skrajnego pesymizmu, ale też i przenikliwości. Joy, przy wszystkich korzyściach, jakie dostrzegał w rozwoju AI, nie krył również obaw. Powiedział on, że „Powinniśmy zmierzyć się z faktem, że najbardziej atrakcyjne technologie 21 wieku – robotyka, inżynieria genetyczna i nanotechnologia – stwarzają inne zagrożenia, niż technologie, które pojawiły się wcześniej. W szczególności roboty, inżynieria organizmów i nanoboty posiadają olbrzymi czynnik niebezpieczeństwa: te technologie mogą się same replikować.”

    Czy przyszłość jest „bright”?

    Cóż, wydaje się jednak, że zagadnienie AI jest tak złożone, że zarówno skrajni optymiści i pesymiści mają ciągle szansę na zwycięstwo w pojedynku na opinie o AI i jej roli w naszym życiu, a może życiu całego gatunku. Jedno jest pewne: żyjemy w czasach, w których pojęcie postępu i korzyści dla ludzkości musi być definiowane od nowa. Kategorie wypracowane przed wiekami mogą nam bowiem już nie wystarczyć do pojmowania rzeczywistości i nas samych w dobie osobistych asystentów, komputerowych, autonomicznych decydentów i nanobotów przemieszczających się w naszych organizmach.

    Link do mojego bloga

  • Trzy sygnały, że Bitcoin to jednak bańka

    Trzy sygnały, że Bitcoin to jednak bańka

    Zapewnienia, że „nic nie będzie już takie jak dawniej” i rozmowy o inwestycjach w Bitcoiny w poczekalniach u dentystów to najlepsze argumenty, by trzymać się od kryptowalut z daleka. O kontrowersjach wokół najbardziej znanej kryptowaluty mówi Emil Szweda – Michael/Ström Dom Maklerski.

    W tym roku mija 35 lat od kiedy magazyn Time po raz pierwszy posłużył się terminem „nowa ekonomia”, choć popularność zyskał on w połowie lat dziewięćdziesiątych, a rozkwit w czasie wielkiej technologicznej hossy z przełomu wieków. Choć sam termin miał tylko opisywać przejście z gospodarki przemysłowej na rzecz technologicznej, opartej na wiedzy, w czasie internetowego boomu używano go do odróżnienia firm działających w sektorze przemysłu oraz firm internetowo-technologicznych. Z czasem termin nowa ekonomia zaczął być używany ironicznie, w odniesieniu do firm internetowych, które nie osiągają zysków, lecz dotychczasowe prawidła funkcjonowania przedsiębiorstw miałyby ich nie obejmować.

    Być może najlepszą ilustracją internetowego szaleństwa i późniejszego otrzeźwienia były notowania Yahoo!, którego kapitalizacja wystartowała z 848 mln dolarów w 1996 r. by osiągnąć 125 mld dolarów w 2000 r. i zawrócić do 10 mld dolarów rok później. (Ostatecznie w 2016 r. Verizon kupił internetowe aktywa firmy – wyszukiwarkę, konta mailowe i komunikator – za 4,8 mld dolarów). Pytanie brzmi, w którym miejscu tej historii jest Bitcoin lub inne kryptowaluty?

    Nadchodzi nowe

    Bańka internetowa to najświeższe spośród wielu skojarzeń, a schemat powstawania baniek na przestrzeni dziejów wydaje się zbliżony, począwszy od tulipanowej sprzed 400 lat. W inwestorach narasta przekonanie, że oto stoją przed szansą współuczestniczenia w historii, która na zawsze odmieni oblicze świata (nowa ekonomia), w którym żyją, przy czym same przemiany są na bardzo wczesnym etapie, co ma gwarantować krociowe zyski w długim terminie – gdy rewolucja zmieni się w nową rzeczywistość. I – co najciekawsze – to rzeczywiście działa, tyle, że rzadko w wypadku pionierów. Google debiutował na giełdzie z ceną 50 dolarów za akcję obecnie jest to ponad 1100 dolarów i to Alphabet, a nie Yahoo! zawładnął Internetem i to nie w skali USA, ale wymiarze globalnym.

    Nie zawsze też zyski muszą pochodzić z dziedziny bezpośrednio związanej z nową gospodarką. Najbogatszą firmą na świecie jest wszak Apple, który zarabia na produkcji sprzętu (a więc „po staremu”), a najbogatszym człowiekiem świata – Jeff Bezos – założyciel Amazona, który swoją potęgę buduje na optymalizacji dostaw zakupów internetowych, choć gdyby nie hossa dotcomowa, Amazon nigdy nie mógłby powstać, a użyteczność iPhonów nie zostałaby doceniona.

    Jeśli spojrzymy w ten sposób na Bitcoina, to łatwo dojść do przekonania, że bliżej mu do Yahoo! niż Google’a. Choć sam pomysł na powstanie kryptowaluty był przełomowym, to technologia sprzed dekady, sprawia, że w porównaniu do późniejszych kryptowalut bywa uznawany za walutę przestarzałą, która nie spełni pokładanych oczekiwań. Natomiast firmy, które jako pierwsze zdołają skomercjalizować technologię blockchain na dużą skalę, mogą osiągnąć sukces, pod warunkiem jednak, że zaakceptują płatności także w tradycyjnych walutach.

    Wszyscy o tym mówią

    Już w latach 30. minionego wieku mawiano, że gdy pucybut zapyta jakie akcje ma kupić warto ewakuować się z giełdy. Dekadę temu o inwestycjach giełdowych za pośrednictwem funduszy inwestycyjnych gawędzono w barach, kolejkach do sklepowej kasy i innych miejscach publicznych. Giełdowa hossa przebiła się do głównych wydań wiadomości telewizyjnych, podobnie jak nocne kolejki społeczne pod oddziałami domów maklerskich przyjmujących zapisy na akcje prywatyzowanych przedsiębiorstw, a gotówka całymi miliardami napływała do TFI i to w skali miesięcznej.

    Czy z Bitcoinem jest podobnie? Dziś dzienniki telewizyjne nie mają już tej samej siły oddziaływania, a bieżących informacji częściej szuka się w Internecie, gdzie faktycznie kolejne rekordy notowań Bitcoina (i jego późniejszy spadek) skwapliwie odnotowywały największe serwisy ogólnotematyczne. Sam byłem świadkiem rozmowy o Bitcoinach w poczekalni dentystycznej, co oczywiście niczego jeszcze nie dowodzi.

    Ale już sytuacja, w której firmy porzucają dotychczasowy profil działalności na rzecz bardziej modnego i potencjalnie zyskownego może być takim sygnałem ostrzegawczym. Pod koniec lat 90. wystarczyło ogłosić zamiar stworzenia serwisu internetowego, by kapitalizacja spółki wzrosła o kilkadziesiąt, a nawet kilkaset procent (np. Agora i jej projekt Gazeta.pl lub Softbank i projekt Expander.pl). Dziś podobnie wygląda reakcja inwestorów na spółki, które postanowiły na poważnie zająć się blockchainem.

    To jest uzasadnione

    Problem z bańkami polega na tym, że nawet w ich apogeum zaangażowani w nie inwestorzy na ogół są w stanie używać z pozoru sensownych argumentów uzasadniających wycenę danego aktywa. Dopiero z perspektywy czasu trudno zrozumieć, dlaczego ktoś zapłacił za cebulkę tulipana równowartość domu z ogrodem, albo kupował akcje, gdy ich wycena sięgała kilkuset lat przyszłych zysków czy też metr mieszkania w klasie ekonomicznej za kilkakrotność średniego miesięcznego wynagrodzenia.

    Z Bitcoinem sprawa jest jeszcze trudniejsza, ponieważ za jego wycenę odpowiadają czyste siły popytu i podaży, nie ma w nim natomiast wartości fundamentalnej, chyba, że za taką uznać ilość energii elektrycznej i mocy obliczeniowej potrzebnej do jego „wykopania”. Co prawda zwolennicy krytpowalut twierdzą – nie bez racji – że o tradycyjnych walutach można powiedzieć dokładnie to samo, ponieważ ich wartość opiera się tylko na wierze uczestników gospodarki co do swojej wartości, niemniej dolary, euro czy złote są w pełni wymienialne na godziny pracy, usługi, czy towary, zaś Bitcoin to nadal głównie instrument spekulacyjny, a nie waluta. Hasła o zerwaniu z zależnością wartości pieniądza od nieprzemyślanych lub chroniących partykularne interesy decyzji politycznych brzmią kusząco, a nawet logicznie, ale gdy wstaniemy od stołu, liczy się to, czy Bitcoinem można wygodnie zapłacić za codzienne zakupy. Nie wystarczy bowiem, że pieniądz jest ideologicznie czysty, by zyskał powszechną akceptację – musi być jeszcze w pełni wymienialny i – to najważniejsze – stabilny. Świat nigdy nie zaakceptuje pieniądza, którego wartość – w przeliczeniu na towary, usługi i godziny pracy – skacze i spada o kilkadziesiąt procent w kilka tygodni, dni i godzin, nawet jeśli technologia, która za nim stoi, rzeczywiście może zmienić obieg pieniądza w gospodarce.

  • Leasing trendem sam w sobie

    Leasing trendem sam w sobie

    W całej Europie bardzo wyraźnie widać trend pokazujący rosnącą rolę leasingu jako głównego źródła finansowania przedsiębiorstw. Zabiegają o niego głównie firmy z sektora MŚP, które sięgają po niego częściej niż po kredyt.

    Początek roku to czas, gdy chętnie mówimy o trendach, które wyznaczą kierunek rozwoju na kolejne miesiące. Z jednej strony obserwujemy stały rozwój technologii i co za tym idzie rosnącą rolę sztucznej inteligencji, zjawisko HyperReality, super szybki internet mobilny 5G, czy coraz większy wpływ botów na obsługę klienta. Z drugiej – utrzymujący się trend eko, potrzebę transparentności, otwartości oraz zaangażowania marek w ważne społeczne kwestie. Miejsce rynku pracodawców coraz wyraźniej zajmuje rynek pracowników, rośnie też rola customer experience, czyli jak największej dbałości o pozytywne wrażenia klienta we wszystkich punktach styku z marką. Ekonomia współdzielenia, na której oparte są takie modele biznesowe jak Airbnb czy Uber, znajduje zastosowanie w wielu nowych branżach, a tradycyjna forma „pay per product” zostaje wypierana przez model subskrypcji, gdzie za produkt czy usługę płaci się abonament.

    Jakie są więc główne trendy na rynku usług leasingowych? Rozwój usług związanych z ekonomią współdzielenia, rosnący udział leasingu z wysoką wartością końcową, digitalizacja procesu leasingowego, finansowanie coraz bardziej śmiałych projektów czy inwestowanie w projekty badawcze i usługi doradcze – to główne tendencje wymieniane przez ekspertów

    Trendy w branży leasingowej związane są ze zmianami, jakie generalnie zachodzą na rynku na płaszczyźnie technologicznej, ekonomicznej, społecznej, czy komunikacyjnej – mówi Konrad Wiśniowski, Vice President w Grupie Grenke oraz Prezes Zarządu Grenke w Polsce – Niektóre z nich widoczne są już od jakiegoś czasu, inne dopiero dają o sobie znać i ich wagę będzie można ocenić po upływie kilku miesięcy czy nawet lat. Na pewno warto je obserwować i wyciągać wnioski, by dopasować ofertę do zmieniającej się sytuacji i lepiej odpowiadać na potrzeby klientów.

    Trend pokazujący rosnącą rolę leasingu w Polsce widać szczególnie wyraźnie. Zgodnie z badaniami SAFE, opublikowanymi przez Komisję Europejską pod koniec 2017 roku, leasing jest najbardziej istotnym źródłem finansowania inwestycji dla 60 proc. polskich przedsiębiorców z sektora MŚP. Deklarują oni ponadto chęć wyboru tej opcji w przyszłości. Skutkiem tego większość firm leasingowych kieruje swoją ofertę właśnie do tej grupy i wszystko wskazuje na to, że w 2018 roku się to nie zmieni. W wyniku rozwoju ekonomii współdzielenia i ekonomii dostępu, zmieniają się natomiast formy umów leasingowych, które coraz częściej przypominają umowy najmu. Klienci nie są już zobligowani do finalnego wykupu przedmiotu umowy, ale płacąc niższą miesięczną ratę, mogą po upływie określonego czasu oddać używany produkt leasingodawcy i wymienić go na nowszy.

    Coraz częstsze finansowanie za pomocą leasingu sprzętu IT, oprogramowania, urządzeń biurowych, urządzeń telekomunikacyjnych, sprzętu poligraficznego, fotograficznego, gastronomicznego czy innych specjalistycznych maszyn to kolejny trend w tej branży. W 2017 roku wartość umów zawieranych w tym obszarze wzrosła aż o 20,4 proc. i ten stały wzrost będzie się utrzymywał. Wpływ na to ma wspomniany już szybki rozwój technologii i tym samym potrzeba korzystania z szybko zmieniających się i coraz bardziej zaawansowanych urządzeń, dobra koniunktura w przemyśle, przyspieszenie wzrostu gospodarczego oraz napływ środków finansowych z perspektywy unijnej 2014 – 2020. Tendencję wzrostową widać również na rynku nieruchomości – tu wzrost inwestycji finansowanych za pomocą leasingu jest jeszcze bardziej imponujący i wynosi aż 26,5 proc. w stosunku do 2016 roku.

    Wychodzenie naprzeciw potrzebom klientów widać natomiast w samym sposobie zawierania umów leasingowych oraz w coraz liczniejszych usługach dodatkowych oferowanych przez leasingodawców. Dzięki możliwości wyboru opcji leasingu przy zakupach on-line, ten sposób finansowania stał się równie prosty i szybki, jak w przypadku zakupów ratalnych, a leasing można już wziąć nie ruszając się sprzed komputera. Trend ten znajduje odzwierciedlenie w strategii 2018-2020 ogłoszonej niedawno przez Związek Polskiego Leasingu, w której digitalizacja procesu leasingowego oraz projekty badawcze są priorytetami branży. Wśród istotnych aspektów rozwoju wymienia się również takie zagadnienia jak: prawo i podatki, rachunkowość, etyka, szkolenia oraz o działaniach zmierzających do zwiększenia bezpieczeństwa.

    Reasumując można więc powiedzieć, że leasing sam w sobie jest wiodącym trendem na rynku usług finansowych w Polsce, a większość zmian w tym obszarze z pewnością będzie odpowiedzią na potrzeby firm z sektora MŚP i przyczyni się do ich bardziej dynamicznego rozwoju.

  • A może warto zainwestować w kryptowaluty? Podpowiadamy, jak to robić

    A może warto zainwestować w kryptowaluty? Podpowiadamy, jak to robić

    Kryptowaluta – co to takiego?

    Kryptowaluty są wirtualnym i rzeczywistym środkiem płatniczym, bazującym na kryptografii. Stanowią rozproszone systemy księgowe, które przechowują informacje o posiadaniu umownych jednostek. Są dostępne dla każdego użytkownika Internetu. To społeczność generuje internetową walutę. Komputery użytkowników stanowią węzły sieci P2P. Pieniądze są odpowiednio zaszyfrowane, stąd pierwszy człon nazwy „krypto”. Najpopularniejszą i jednocześnie najbardziej wartościową jest Bitcoin, ale znane są również Litecoin, Digitalcoin, Dogecoin, Ethereum i inne.

    Idea wolności

    Główną niepowtarzalną cechą kryptowalut jest decentralizacja. Są zaprojektowane tak, aby nikt, ani autor, ani inne osoby, grupy lub rządy, nie mógł nimi w żaden sposób manipulować, niszczyć ich, podrabiać, konfiskować kont, kontrolować przepływu czy powodować inflację. W sieci nie istnieje żaden centralny punkt, ani nikt, kto mógłby o nich decydować. Bitcoin jest walutą deflacyjną. Całkowita ilość pieniędzy jest ostateczna i wcześniej ustalona, a ich wprowadzanie do obiegu kieruje się jedynie wzorami matematycznymi. W sieci dokonuje się transakcji po minimalnych lub zerowych kosztach.

    Przez długi czas wielu ekspertów kwestionowało to, co tworzy wartość waluty wirtualnej. Jednym z najczęstszych nieporozumień jest to, że wartość kryptowalut bezpośrednio zależy od liczby użytkowników, którzy z nich korzystają. Teoretycznie mogłoby to zatem oznaczać, że więcej użytkowników to wzrost wartości kryptowaluty. W rzeczywistości jest wręcz przeciwnie. Koszty „kryptominingu” rosną wykładniczo w czasie, co oznacza, że użytkownicy, którzy są zainteresowani w produkcji tej waluty, nie mogą w prosty sposób z góry określić jej rzeczywistej wartości. Dlatego dziś panuje przekonanie, że wartość kryptowaluty zależy tylko od podaży i popytu na rynku.

    Korzystać, czy nie korzystać?

    Początkujący mogą odnosić się do kryptowalut z dużą dozą nieufności. W końcu to waluty bez nadzoru banków i krajów, na które nie mają wpływu rządy państw.

    Nie mniej jednak trzeba zauważyć, że kryptowaluty zostały zaakceptowane przez wiele państw, na przykład Niemcy, Cypr czy Danię. Transakcje odbywają się anonimowo, w dobrze zabezpieczonej sieci. Ich zaletą jest fakt, że można wysłać pieniądze w dowolne miejsce na świecie, bez konieczności przewalutowania czy opłacania prowizji. Płatności w wirtualnych walutach akceptuje coraz więcej sieci handlowych dostępnych w Internecie i wszystko wskazuje na to, że ta tendencja będzie wyłącznie wzrastająca.

    Coraz więcej kryptowalut

    Najpopularniejszą walutą jest Bitcoin. To w istocie prekursor całego systemu pieniędzy cyfrowych. Nie mniej i na tej płaszczyźnie nie ma miejsca na monopol, stąd pojawiły się inne, równie bezpieczne i analogicznie działające kryptowaluty. Co ciekawe, sam projekt stworzenia cyfrowego pieniądza miał charakter wyłącznie użytkowy, tymczasem po odniesieniu wielu sukcesów i wzroście wartości stał się on narzędziem rynkowych spekulantów.
    Kryptowaluty nie biorą się z żadnego centralnego układu. To użytkownicy stają się ich wydobywcami. Podczas generowania kryptowalut komputery są niebywale obciążone, ale z drugiej strony, chętni do kupienia cyfrowej waluty mogą także sięgnąć po nie korzystając z giełdy. Z całą pewnością kryptowaluty to swego rodzaju rewolucja, która całkowicie zmieni świat płatności internetowych.

    Satoshi Nakamoto – twórca pierwszej kryptowaluty

    Nikt nie wie kim jest, a przynajmniej ci, którzy wiedzą, nie chwalą się tym. Nie wiadomo również skąd pochodzi i czym się zajmuje na co dzień. Mowa o Satoshim Nakamoto , który stworzył pierwszą kryptowalutę – Bitcoin.
    Satoshi Nakamoto to człowiek widmo. Znanych jest zaledwie kilka faktów, które w żaden sposób nie wskazują na konkretnego człowieka. Historia związana z Nakamoto zaczęła się w 2008 roku, kiedy pod takim właśnie nazwiskiem opublikowana została koncepcja stworzenia cyfrowej kryptowaluty (plik PDF 180 KB). Z dokumentu można wyczytać, że jego autor pracował na koncepcją od 2 lat, czyli od 2006 roku.

    W styczniu 2009 roku powstał pierwszy blok Bitcoinów, nazywany blokiem początku (Genesis block), czasami oznaczany także jako Block 0. Sześć dni później uruchomiony został Bitcoin w wersji v0.1. W tym momencie zaczęła się historia najpopularniejszej dziś kryptowaluty. Do końca 2009 roku dodano jeszcze 32 tys. bloków, co przełożyło się na ogólną liczbę 1,62 mln Bitcoinów. Wszystkie transakcje są dostępne publiczne (dzięki blockchain) i można z nich wyczytać, że zaledwie 1/4 z początkowej liczby Bitcoinów kiedykolwiek zmieniła właściciela. To oznacza, że ich twórca jest w posiadaniu ponad miliona BTC (1 mln BTC to dzisiaj prawie 1 mld dol.).

    Nakamoto był aktywnym użytkownikiem forów o Bitcoinach i cały czas usprawniał swój produkt. Działo się tak do mniej więcej połowy 2010 roku. Po tym czasie był już zdecydowanie mniej aktywny, a w kwietniu 2011 roku napisał do jednego z deweloperów, że „teraz zajmuje się innymi sprawami”. Przestał odpisywać na maile. Ślad po nim zaginął.

    Bitcoin: pierwszy elektroniczny system pieniężny oparty na sieci peer-to-peer

    Pełnowartościowa wersja pieniądza elektronicznego, oparta na modelu komunikacji sieciowej peer-to-peer (P2P – model komunikacji w sieci komputerowej zapewniający wszystkim hostom te same uprawnienia, w odróżnieniu od architektury klient–serwer), pozwala na przesyłanie płatności online bezpośrednio od jednego podmiotu do drugiego bez konieczności przepływu transakcji przez instytucje finansowe.

    Tak zwane podpisy cyfrowe również dają możliwość realizacji takich transakcji. Jednakże podstawową wadą tego rodzaju rozwiązania jest wymagana obecność zaufanego, nadrzędnego podmiotu, aby zapobiec podwójnemu wydatkowaniu środków (tzw. double-spending).

    Rozwiązanie problemu podwójnego wydatkowania osiągnąć można przy wykorzystaniu sieci peer-to-peer. Sieć znakuje transakcje przy pomocy znaczników czasu, hashując je do postaci ciągłego łańcucha dowodów wykonanej pracy (tzw. proof-of-work).

    Tworzy się rejestr, który nie może zostać zmieniony bez dokonania modyfikacji dowodów wykonanej pracy. Najdłuższy łańcuch nie służy tylko jako dowód wystąpienia sekwencji zdarzeń, ale także jako dowód, iż pochodzi ona z największej puli mocy obliczeniowej.

    Tak długo jak większość mocy obliczeniowej znajduje się pod kontrolą węzłów sieci, które nie współpracują ze sobą w celu zaatakowania sieci, utworzą one najdłuższy łańcuch i wyprzedzą potencjalny atak. Sama sieć wymaga minimalnej struktury.

    Wiadomości rozpropagowane są na zasadzie najwyższej staranności, zaś same węzły mogą opuścić i ponownie dołączyć do sieci w dowolnym momencie, przyjmując najdłuższy łańcuch dowodów wykonanej pracy jako potwierdzenie tego co wydarzyło się w sieci podczas ich nieobecności.

    Taki system elektronicznych transakcji nie wymaga konieczności polegania na zaufaniu.
    Zapisywanie publicznej historii transakcji, powoduje, że z perspektywy obliczeniowej dla potencjalnego atakującego taka transakcja szybko staje się nierealna do zmiany, jeśli tylko „uczciwe” węzły sieci P2P kontrolują większość mocy obliczeniowej.

    Siła sieci leży w jej pozbawionej strukturalizacji prostocie. Węzły pracują jednocześnie potrzebując niewielkiej tylko koordynacji. Nie ma potrzeby ich identyfikowania, odkąd wiadomości nie są powiązane z jakimkolwiek szczególnym miejscem, a ich propagacja musi być oparta jedynie na zasadach najwyższej staranności.

    Węzły głosują z wykorzystaniem swojej mocy obliczeniowej, wyrażając swoją akceptację dla poprawnych bloków poprzez pracę nad ich wydłużaniem oraz odrzucając błędne bloki poprzez jej odmowę. Każda potrzebna zmiana zasad czy też systemu zachęt może być wprowadzona w życie jedynie z wykorzystaniem tego mechanizmu osiągania konsensusu.

    Model kursu Bitcoina autorstwa ExMetrix

    W naszych bazach brak zmiennych z zakresu tradycyjnej ekonomii, tworzących obecnie jakieś rozsądne związki przyczynowo-skutkowe z kursem Bitcoin. Najbardziej skorelowane zmienne, znalezione bez precyzowania dziedziny poszukiwań, to na przykład:

    Producer prices in industry, domestic market – monthly data, Domestic output price index – in national currency, Manufacture of glass and glass products, s_adj NSA, Index, 2010=100, Germany (until 1990 former territory of the FRG)

    Producer prices in industry, total – monthly data, Total output price index – in national currency, Tanning and dressing of leather; manufacture of luggage, handbags, saddlery and harness; dressing and dyeing of fur, s_adj NSA, Index, 2010=100, United Kingdom

    Survey of Professional Forecasters, Euro area (changing composition) – Forecaster 15 – Unemployment – from 10.5 to 10.9 – Target period ends 24 months after survey cycle begins – Quarterly survey

    Persons subject of asylum applications pending at the end of the month by citizenship, age and sex Monthly data (rounded), Extra-EU-28, Females, Less than 14 years, France, Person

    Trudno dopatrywać się tutaj związków przyczynowo-skutkowych.

    Natomiast po ograniczeniu poszukiwań do zmiennych zawierających na przykład takie słowa kluczowe, jak: internet, game, cel, trade, gambling, hazard, telephone, mobile, czy computing power i zbudowaniu modelu kursu bitcoina okazało się, że największy wpływ na wyniki działania modelu miały następujące zmienne:

    Bitcoin 1 min

    Rezultaty działania modelu były następujące:

    Bitcoin 2 min

    Model prawidłowo zidentyfikował istotny punkt zwrotny (szczyt), chociaż sam błąd prognozy określającej maksymalny poziom kursu był dość duży. Jednak douczenie modelu pozwoliło bardziej precyzyjnie określić zasięg korekty kursu (spadł z 2893,5 USD 10-06-2017 do 1895,64 USD 16-07-2017).

    Bitcoin 3 min 1

    Ponadto dość dokładnie określony został początek odreagowania spadku (dokładnie 14-07- 2017). Sądzimy, że dalsze prace nad modelami dotyczącymi kryptowalut, a przede wszystkim nad zidentyfikowaniem zmiennych kluczowych, pozwolą na wykonanie w niedalekiej przyszłości modeli znacznie bardziej satysfakcjonujących.

  • Stałe i zmienne oprocentowanie lokat – co warto o nim wiedzieć?

    Stałe i zmienne oprocentowanie lokat – co warto o nim wiedzieć?

    Decydując się na umieszczenie środków pieniężnych na lokacie terminowej bierze się często pod uwagę takie kryteria jak czas jej trwania oraz stopa oprocentowania. Tymczasem niezwykle ważnym parametrem lokaty jest również sposób oprocentowania. Lokata terminowa może mieć bowiem stałe lub zmienne oprocentowanie.

    Charakterystyka lokaty o stałym oprocentowaniu

    Lokata terminowa o stałym oprocentowaniu to taka, w przypadku której na samym początku znany już jest ostateczny zysk w postaci odsetek. Jest to rozwiązanie bezpieczne, ponieważ bank w trakcie trwania takiej lokaty nie będzie dokonywał aktualizacji stawek oprocentowania.

    Bez względu na to czy odsetki naliczane są miesięcznie czy też wraz z końcową spłatą lokaty, będą one miały stałą wysokość.  Można sobie zatem dopisać naprzód ustaloną kwotę do budżetu w terminie wypłaty odsetek.

    Charakterystyka lokaty o zmiennym oprocentowaniu

    Lokaty, które posiadają zmienne oprocentowanie pozwalają na zdeponowanie pieniędzy na określony z góry procent. Stawka oprocentowania ulega jednak zmianom (najczęściej w okresach miesięcznych), przez co nie jest możliwe oszacowanie na samym początku jaki będzie zwrot z lokaty terminowej.

    Na wysokość oprocentowania takiej lokaty terminowej mają wpływ głównie decyzje Rady Polityki Pieniężnej w zakresie stóp procentowych, które obowiązują w gospodarce. Jeśli sytuacja na rynku jest stabilna, lokaty o zmiennym oprocentowaniu nie ulegają dużym wahaniom.

    W przypadku obniżki stóp procentowych przez Radę Polityki Pieniężnej należy oczekiwać obniżenia oprocentowania lokat przez banki, z kolei gdy stopy procentowe wzrosną, dochodzi do podniesienia oprocentowania takich lokat. Zmiany w tym zakresie zachodzą zwykle z pewnym opóźnieniem, najczęściej miesięcznym także może się zdarzyć, że lokata terminowa, która się kończy będzie miała niezmienione oprocentowanie.

    Inne czynniki wpływające na lokaty o zmiennym oprocentowaniu

    Choć zdecydowanie najwyższy wpływ na wysokość zysku z lokat o zmiennym oprocentowaniu  mają decyzje RPP w zakresie stóp procentowych, to istotne mogą być również inne parametry.

    Niektóre banki uzależniają np. wysokość oprocentowania lokat od różnych rynkowych wskaźników, jak np. inflacja. Zdarza się także, że banki podejmują decyzję o zmianie oprocentowania lokaty ze względu na swoje wewnętrzne uregulowania.

    Przed podjęciem decyzji o zdeponowaniu środków na lokacie pieniężnej warto jest każdorazowo zapoznać się z regulaminem dotyczącym lokat by wiedzieć w jaki sposób będą kalkulowane odsetki.

  • Jak rodzinne przedsiębiorstwa reagują na konieczność zmian?

    Jak rodzinne przedsiębiorstwa reagują na konieczność zmian?

    Jedynym stałym elementem otaczającej nas rzeczywistości jest ciągła zmiana. Dotyczy to również biznesu, w tym firm rodzinnych. Jak wynika z raportu „NextGen 2017. Prowadzenie rodzinnej firmy w nieprzewidywalnym środowisku przełomowych zmian” prawie połowa firm rodzinnych doświadczyła przełomowych zmian na swoim rynku, a 47 proc. spodziewa się, że pojawią się one w ciągu najbliższych trzech do pięciu lat. Źródłem tych przełomów są zmieniające się preferencje konsumentów, zmiany ekonomiczne i technologiczne. Na tę transformację w firmach rodzinnych lepiej czują się przygotowani sukcesorzy niż ich poprzednicy.

    Badanie NextGen 2017 opiera się na odpowiedziach 268 liderów firm rodzinnych młodego pokolenia z regionu EMEA, pozyskanych bądź to podczas obszernych wywiadów osobistych, bądź w formie kwestionariusza internetowego. Uczestniczyli w nim również polscy przedsiębiorcy.

    Firmy rodzinne mają szczególną zdolność do ewoluowania i adaptacji do zmieniających się okoliczności. Ich gotowość do innowacji, długofalowe skupienie się na celu oraz stosunek do ryzyka wyjaśniają, dlaczego potrafią przetrwać w czasach zasadniczej zmiany.

    Przełom nie jest zjawiskiem negatywnym. Stanowi on jednak zagrożenie dla przedsiębiorców, którzy w żaden sposób nie reagują na nowe warunki. Przełom oznacza zmianę, a ci, którzy nie potrafią zmienić sposobu działania, pozostają w tyle. Z drugiej strony zmiany oferują nowe możliwości, zarówno nowym jak i dotychczasowym uczestnikom rynku – powiedział Adam Chróścielewski, Partner w Dziale Audytu, Lider odpowiedzialny za praktykę firm rodzinnych w Deloitte

    Jak pokazuje badanie Deloitte prawie połowa respondentów doznała przełomu na swoim rynku (49 proc.). Z kolei 47 proc. ankietowanych zakłada, że przełom pojawi się na ich rynkach w ciągu najbliższych dwóch lub trzech lat. Jedna czwarta respondentów spodziewa się, że straci udział w rynku na rzecz nowych uczestników rynku.

    Większość firm rodzinnych przygotowuje się do przełomu. Aż 63 proc. respondentów przyznało, że uwzględnia go w swoich planach strategicznych, ale już 27 proc. tego nie robi, a co gorsza kolejne 10 proc. przedsiębiorstw nie ma nawet planu strategicznego. W przypadku, gdy planowanie strategiczne jest realizowane w ramach firmy rodzinnej, odpowiada za nie głównie zarząd (61 proc.). Niektóre rodziny omawiają również przełomowe zmiany na poziomie spotkań rady rodzinnej (28 proc.).

    Jakie czynniki wyzwalają zmiany?

    Eksperci Deloitte podzielili te katalizatory na dwa typy: zewnętrzne (makroekonomia, oczekiwania klientów, zmiany w polityce publicznej) oraz wewnętrzne (technologie wspierające, platformy sprzedaży). Zdaniem samych badanych największy wpływ na pojawiające się przełomy mają zmiany rynkowe (63 proc.), preferencje konsumentów (61 proc.) i technologia (54 proc.).

    Badanie NextGen 2017 pokazuje, że istnieje powszechnie panujący pogląd, że chociaż rodzina i kierownictwo wykonawcze są dobrze przygotowane do mierzenia się z przełomem, to jednak pracownikom brakuje na ogół wymaganych umiejętności. I tak 17 proc. liderów firm rodzinnych młodego pokolenia odpowiedziało, że ich pracownicy nie są gotowi mierzyć się z przełomem, a 35 proc. przyznało, że wiele rzeczy w tym obszarze wymaga poprawy i udoskonalenia.

    Ponad 80 proc. respondentów uważa, że kultura firmy rodzinnej zachęca do innowacji i generowania nowych pomysłów. Około 86 proc. respondentów jest zdania, że przełom oznacza nowe możliwości i stanowi ważną część ich planów strategicznych. Aż 84 proc. respondentów zgodziło się z poglądem, że firmy rodzinne wydają się być w stanie rozumieć naturę przełomowych zmian, zidentyfikować trendy, ich słabe strony i możliwości. Taki sam odsetek badanych stwierdził, że ma jasną wizję kierunku rozwoju swoich branż, rynków i przedsiębiorstw w perspektywie najbliższych 5-10 lat. Procent ten jest jeszcze większy dla osób, które uwzględniają przełom w swoich planach strategicznych.

    W większości firm rodzinnych stale uwzględnia się możliwość zaistnienia potencjalnego przełomu. Ponad 70 proc. respondentów potwierdza, że rozmawia z członkami rodziny o przełomowych zmianach. Jednak tylko jedna czwarta respondentów omawia temat zaistnienia przełomu co najmniej raz w tygodniu, kolejna jedna czwarta raz w miesiącu, a 11 proc. podejmuje ten temat tylko co pół roku.

    Znaczący procent (22 proc.) nigdy nie omawia potencjalnych zagrożeń wynikających ze zmian.

    Jakie cechy pozwalają firmom rodzinnym stawić czoła nadchodzącym zmianom?

    W opinii ankietowanych jest to przede wszystkich ich prężność i elastyczność. Biznesy rodzinne mogą szybko podejmować decyzje oraz realizować swoje plany. Z reguły są też mniej zbiurokratyzowane. Nie są to jedyne korzyści firm rodzinnych. Ich skupianie się na długoterminowych celach pomaga w unikaniu biznesowych błędów i krótkoterminowych działań dla osobistego zysku. Także kultura, historia oraz wartości rodzinne są pozytywnymi czynnikami, które pomagają firmom rodzinnym przetrwać przez długi czas, przeżywając wiele trudnych okresów przełomowych.

    Respondenci byli proszeni o wskazanie trzech najważniejszych problemów, które są obarczone ryzykiem przełomu dla ich biznesów lub organizacji rodzinnych. Okazuje się, że najczęściej wymieniali zmianę relacji rodzinnych (24 proc.), przełom na rynku (20 proc.) oraz kwestie sukcesji (14 proc.).

    Dobrze opracowany plan sukcesji to pewność, że wszyscy będą wiedzieć, dokąd zmierza firma i umożliwi to wdrożenie odpowiednich szkoleń i systemów. O ile zmiana właściciela lub zarządu sama w sobie jest dużym przełomem, pociągającym za sobą rewolucję w codziennym prowadzeniu firmy, to negatywne skutki takiej zmiany można kontrolować i ograniczać – powiedział Seweryn Dąbrowski, Partner i Lider odpowiedzialny za praktykę firm rodzinnych w dziale doradztwa podatkowego Deloitte