Kategoria: Opinie

Opinie to przestrzeń ekspertów, liderów branży i redakcji, którzy komentują najważniejsze zjawiska i trendy w sektorze IT i kanale sprzedaży. Publikujemy felietony, analizy i wywiady dotyczące technologii, rynku, regulacji oraz strategii vendorów, integratorów i dystrybutorów.

  • Raport – korzystanie z technologii wpływa na zachowanie ludzi

    Raport – korzystanie z technologii wpływa na zachowanie ludzi

    Zmiany technologiczne mają istotny wpływ na zachowanie pracowników. Aż 84 proc. z nich uważa, że jest istotne, by ich firmy korzystały z najnowszych technologii. Jak wynika z raportu Deloitte „The connected worker. Clocking in to the digital age”, mimo że pracownicy fizyczni i umysłowi w życiu prywatnym korzystają z technologii w bardzo podobnym stopniu, to w pracy różnice w tym obszarze są między nimi znaczące.

    Ponad połowa przebadanych pracowników fizycznych uważa, że ich kontakt z nowoczesnymi technologiami w miejscu pracy jest raczej sporadyczny, podczas gdy wśród pracowników umysłowych taką opinię wyraża jedynie 11 proc.

    Deloitte przebadał ponad dwa tysiące pracowników umysłowych i fizycznych w Wielkiej Brytanii, którzy pracują w przemyśle budowlanym, infrastrukturalnym, usługach biznesowych i tzw. usługach profesjonalnych (prawo, usługi doradcze, usługi rekrutacyjne).

    Eksperci Deloitte Digital uważają, że liczba tzw. connected workers, czyli osób, których życie zawodowe zmienia się wraz z rozwojem technologii cyfrowych, takich jak Internet Rzeczy, automatyzacja czy robotyzacja, będzie rosła. Aż 84 proc. pracowników wyraziło opinię, że jest ważne, by ich firmy korzystały z najnowszych technologii, które będą dla nich dostępne. Wśród pracowników umysłowych wskaźnik ten wynosił 88 proc., a wśród wykonujących pracę fizyczną 76 proc. Warto jednak zauważyć, że odsetek osób, które uważają korzystanie z nowoczesnych technologii przez biznes za czynnik mało istotny jest dwa razy większy wśród pracowników fizycznych niż umysłowych (24 do 12 proc.).

    Przywiązani do technologii, również w miejscu pracy

    Badanie Deloitte pokazało, że niezależnie od wykształcenia i rodzaju wykonywanej pracy ankietowani korzystają z dobrodziejstw technologii w życiu prywatnym w bardzo podobnym stopniu. Najczęściej badani korzystają z emaila (średnio 25 proc. wśród pracowników umysłowych i 24 proc. wśród pracowników fizycznych), komputera stacjonarnego lub laptopa (odpowiednio 23 i 22 proc.) oraz smartfonów (24 i 22 proc.).

    Różnice pojawiają się, gdy ankietowani byli pytani o używanie tych samych narzędzi i technologii w miejscu pracy. Podczas, gdy w przypadku pracowników umysłowych właściwie nie ma różnicy w korzystaniu z maila i komputerów w pracy i poza nią, to w przypadku pracowników fizycznych widać, że w życiu zawodowym nie mają z nimi zbyt dużej styczności – Jan Michalski, Partner, Lider zespołu TMT w Deloitte

    W tej grupie używanie poczty elektronicznej czy komputera w pracy zadeklarowało jedynie 14 proc. badanych, a smartfonów 12 proc. Aż 47 proc. z nich używa za to swojego smartfona poza pracą częściej niż pięć razy dziennie, podczas gdy w miejscu pracy robi to jedynie 13 proc. Ponad jedna czwarta (27 proc.) sprawdza pocztę na swoim telefonie więcej niż pięć razy dziennie, a w pracy postępuje tak samo jedynie 15 proc. ankietowanych pracowników fizycznych.

    Eksperci Deloitte podzielili ankietowanych według częstotliwości korzystania przez nich z nowych technologii. Tzw. „power users” używają nowoczesnych technologii częściej niż pięć razy dziennie. Wśród przebadanych pracowników umysłowych jest ich dwa razy więcej niż wśród pracowników fizycznych (36 vs. 18 proc.). Z kolei w tej grupie ponad połowa respondentów (51 proc.) zadeklarowała, że ich związek z technologiami w miejscu pracy jest luźny i sporadyczny. Wśród pracowników umysłowych takiej odpowiedzi udzieliło jedynie 11 proc. ankietowanych.

    Elastyczność zamiast bezpieczeństwa

    Jak nowoczesne technologie wpływają na życie pracowników? Zarówno pracownicy umysłowi, jak i fizyczni są zdania, że ułatwiają one pracę (odpowiednio 25 i 32 proc.). Ich zdaniem poprawiają także wydajność całej organizacji (odpowiednio 23 i 16 proc.) oraz pozwalają wypełnić szybciej powierzone im zadania (odpowiednio 22 i 13 proc.). Technologie oferują również elastyczność. W miejscu pracy oczekuje jej 63 proc. pracowników umysłowych i 43 proc. pracowników fizycznych. Aż 56 proc. reprezentantów tej pierwszej grupy byłoby w stanie zrezygnować z bezpieczeństwa socjalnego w pracy na rzecz elastyczności. W grupie pracowników umysłowych odsetek ten jest znacznie niższy i sięga 19 proc.

    Główne siły napędzające cyfrową transformację w firmach pochodzą z trzech obszarów: wewnątrz przedsiębiorstwa, pracowników i otoczenia zewnętrznego.

    Firmy na całym świecie są pod coraz większą presją, aby zwiększać produktywność. Korzystanie z technologii cyfrowych w większym stopniu niż dotychczas może ten proces wspomóc. Należy jednak pamiętać, że to ludzie są kluczowym elementem sektora usług, a zmiany technologiczne mają istotny wpływ na ich zachowanie i, jak pokazuje badanie Deloitte, pracownicy doceniają wsparcie technologiczne w pracy. Zarówno wśród pracowników umysłowych jak i fizycznych widać przywiązanie do technologii. Coraz częstsze i bardziej zaawansowane korzystanie z niej w życiu osobistym już wpływa na nasze zachowania – również w miejscu pracy. Od cyfryzacji biznesu nie ma zatem ucieczki – Olgierd Cygan, Lider Deloitte Digital CE

  • Gdzie trafiają elektrośmieci i jaki jest ich późniejszy los?

    Gdzie trafiają elektrośmieci i jaki jest ich późniejszy los?

    Nabywamy daną rzecz, szybko ją zużywamy i wyrzucamy. Stymuluje to wzrost gospodarki, ludzie mają pracę i pozornie wszyscy są zadowoleni z takiej sytuacji. Mało kto interesuje się jednak losem elektrośmieci, których z roku na rok produkujemy coraz więcej.

    Teoretycznie metody skutecznego recyklingu są skutecznie rozwijane, a w nowoczesnych przetwórniach śmieci mogą zostać w bezpieczny dla środowiska sposób przerobione i zutylizowane. W końcu rośnie nasza świadomość ekologiczna. Co więcej, taki proces pozwala na odzyskanie wielu cennych metali. Często jednak elektrośmieci są skupowane przez firmy, które wywożą je do krajów rozwijających się. Jest to dużo tańsze rozwiązanie, niż kosztowne przetworzenie. Przykładowo recykling komputera w kraju rozwiniętym kosztuje ok. 30 dolarów, a na wysypisku w Indiach, Chinach lub Afryce – już tylko 2 dolary.

    infografika elektrośmieci 2

    Unijne rozporządzenie zakazuje wywozu niebezpiecznych odpadów do krajów, które nie należą do Organizacji Współpracy Gospodarczej i Rozwoju. Przedsiębiorstwa wywożące e-śmieci deklarują, że przewożą oni sprzęt wciąż nadający się do użytku. Korzystać by z niego mieli mieszkańcy biednych krajów, tymczasem w praktyce ponad trzy czwarte transportowanych urządzeń nie nadaje się nawet do naprawy. Elektrozłom trafia ostatecznie na archaiczne wysypiska.

    Tutaj zaczyna się kolejny rozdział w życiu zużytych produktów…

    Przychodzą po nie najubożsi – zarówno dzieci, dorośli, jak i osoby starsze, dla których to często jedyny sposób na jakikolwiek zarobek. Zajmują się oni rozbiórką sprzętu, a potem wypalają z poszczególnych podzespołów metal w prowizorycznych miejscach do recyklingu. Szukają również najdrobniejszych kawałków cennych surowców. Materiały te są skupowane już na miejscu przez pośredników i następnie są transportowane przykładowo do Chin.

    Nieumiejętnie przeprowadzany proces odzyskiwania metali prowadzi do chorób wśród osób trudniących się tym zajęciem. Do środowiska trafiają metale ciężkie, dioksyny i wiele innych trujących związków chemicznych, a poszukiwacze pracujący na wysypiskach mają kontakt z rtęcią, ołowiem, azbestem czy kadmem. Wskutek tego tamtejsi mieszkańcy mają problemy zdrowotne – pylicę, astmę, bóle głowy, poparzenia, wysypki czy problemy z oddychaniem.

    Najczęściej przytaczanym przykładem miasta-wysypiska jest Guiyu w Chinach. Próbą recyklingu elektrośmieci zajmuje się tam ponad 100 tysięcy osób – kiepsko opłacane zajęcie okupione jest zwiększonym prawdopodobieństwem zachorowania na wiele chorób. Niestety nie zapowiada się na to, że takie praktyki zostaną prędko zaprzestane. W końcu wywiezienie elektronicznych odpadów pozostaje znacznie bardziej opłacalne od recyklingu zgodnego z normami bezpieczeństwa w krajach rozwiniętych.

    infografika elektrośmieci

    Co dalej?

    Statystyki pozostają nieubłagane – będziemy produkować coraz więcej elektrośmieci i nic nie wskazuje na zmianę tego trendu w najbliższej przyszłości. Oczywiście, wiele instytucji alarmuje o tragicznej sytuacji w krajach trzeciego świata. Niestety, wiadomości te pozostają najczęściej bez żadnej informacji zwrotnej, a producenci zdecydowanie nie poczuwają się do odpowiedzialności za „drugie życie” swoich produktów.

  • Rozmowa z Mariuszem Kuczyńskim – iiyama Polska

    Rozmowa z Mariuszem Kuczyńskim – iiyama Polska

    BrandsIT rozmawia z Mariuszem Kuczyńskim z firmy iiyama Polska o rynku, perspektywach na przyszłość i możliwościach.

    Mariusz Kuczyński
    Mariusz Kuczyński, General Manager/Sales and Marketing Manager, iiyama Polska

    BrandsIT: Sprzedaż monitorów z roku na rok maleje, jak zamierzacie poradzić sobie z obecną sytuacją?

    Mariusz Kuczyński: Skąd informacje, że maleje? Według moich danych rynek monitorów może nie rośnie, ale bynajmniej nie maleje.  Po korekcie rynku w 2010/2011 roku rynek monitorów od paru lat jest stabilny ze sprzedażą w Polsce na poziomie około miliona sztuk rocznie. To prawda, że zauważalny jest spadek popytu w segmencie detalicznym, ale tracą głównie producenci taniego sprzętu. Za to produkty klasy premium, tj. iiyama, sprzedają się coraz lepiej. Rynek uległ również wyraźnemu poszerzeniu oraz dywersyfikacji. Wyraźnie rośnie segment monitorów dla graczy, a na znaczeniu zyskują nowe gałęzie, jak digital signage skupiający w sobie monitory wielkoformatowe LFD i rozwiązania interaktywne. Szczególnie ważnym zadaniem każdego producenta jest rzetelne przebadanie rynku pod kątem potrzeb klientów indywidualnych i biznesowych. Szeroko zakrojony research pozwala nam na uniknięcie sytuacji, w której oferowany przez nas produkt nie znalazłby zainteresowania i uznania w oczach konsumentów. Dlatego produkujemy monitory przemysłowe, edukacyjne i biznesowe, monitory dla graczy, dla grafików i fotografów oraz zaawansowane panele dotykowe, które już dziś powszechnie można spotkać w polskich muzeach oraz popularnych restauracjach. Szeroki wachlarz oferowanych produktów wraz ze świadomością potrzeb klientów końcowych pozwala nam nie wpadać w próżnię i unikać tworzenia produktów, na których na rynku zwyczajnie nie ma miejsca, na które nie ma zapotrzebowania. Współczesny klient jest na tyle świadomy swoich potrzeb, że potrafi wybrać monitor idealnie skrojony pod konkretne zastosowania, a iiyama potrafi taki monitor dostarczyć.

    BrandsIT: Segment sprzętu do gier notuje wzrosty, jakie szanse i zagrożenia stoją przed iiyama?

    Mariusz Kuczyński: Monitory dla graczy z serii G-Master cieszą się dziś naprawdę dużą popularnością. Gracze chętnie decydują się na zakup naszych urządzeń, a branżowe media wysoko oceniają ich możliwości. Innymi słowy, udaje nam się obecnie dobrze wykorzystywać szansę na zaistnienie w świadomości graczy oraz unikać zagrożeń związanych z niewłaściwą wyceną poszczególnych produktów czy niedopasowaniem oferty. Wiemy, że wszystkich graczy nie można postrzegać w ten sam sposób, że różne grupy docelowe oczekują różnego rodzaju sprzętu. Dla fanów szybkich i dynamicznych gier mamy w swojej ofercie monitory o bardzo wysokiej częstotliwości odświeżania równej 144 Hz. Miłośnicy tytułów strategicznych, gdzie liczy się wielkość obszaru roboczego, która wpływa na sprawne zarządzanie jednostkami odnajdą wśród naszych G-Masterów monitory wyświetlające obraz w rozdzielczościach WQHD czy UHD 4K, nadające się doskonale do gier tego typu. Nasza oferta jest na tyle szeroka, że trafiamy zarówno do profesjonalnych graczy, jak i tzw. casual, do których sam się zaliczam, spełniając ich wymagania co do możliwości sprzętu oraz jego ceny. Dzięki temu unikamy zagrożeń i wykorzystujemy szansę wynikającą ze zrozumienia współczesnych graczy.

    BrandsIT: Monitory stanowią nieodłączny element wyposażenia instytucji państwowych, na co Resellerzy powinni zwrócić uwagę przy przetargach?

    Mariusz Kuczyński: Jakość, wytrzymałość i opieka gwarancyjna to trzy podstawowe cechy. Nasze monitory wyróżnia możliwość rozszerzenia gwarancji na sprzęt nawet do 5 lat, zaawansowane modele LFD zbudowane są na wytrzymałych metalowych ramach, a kilka rodzajów wykorzystywanych matryc pozwala na odpowiedni dobór sprzętu pod kątem skonkretyzowanych zadań. Te trzy cechy wpływają na uniwersalność naszych monitorów, niemniej najważniejszym zadaniem stojącym przed resellerami jest odpowiednie dobranie sprzętu. Monitor biurowy powinien mieć dobrą ergonomię pracy, regulowaną stopę oraz kąt pochylenia ekranu, a modele najbardziej zaawansowane winny umożliwiać pracę w trybie portretowym. Jakość matrycy ma też olbrzymie znaczenie, zwłaszcza w przypadku sprzętu do agencji reklamowych, gdzie graficy potrzebują matryc o nasyconych kolorach i szerokich kątach widzenia. Prawdziwym wyzwaniem przed resellerami jest zawsze odpowiednie poznanie potrzeb firmy. Dopiero ten krok pozwala na wybór pożądanych cech, a następnie na poszukiwanie najlepszego stosunku jakości do ceny, wytrzymałości oraz opieki gwarancyjnej.

    BrandsIT: Monitory dotykowe cieszą się coraz większym zainteresowaniem, dlaczego jest taka tendencja i gdzie je można zastosować?

    Mariusz Kuczyński: Panele dotykowe zawdzięczają swoją rosnącą popularność wygodzie użytkowania, co jest szczególnie ważne w zastosowaniach do celów komercyjnych oraz trendowi na digitalizację i usprawnienie dostępu klientów do przeróżnych usług lub towarów. Dziś monitory dotykowe nie tylko nie są niczym niezwykłym w zakładach przemysłowych, specjalistycznych warsztatach, punktach opieki zdrowotnej czy placówkach edukacyjnych, ale stanowią wręcz coś pożądanego. Usprawniają pracę obsługi, zwiększają wydajność, pomagają w zarządzaniu dokumentami oraz ułatwiają wybór określonych produktów. Możliwość implementacji ekranów dotykowych w przeróżnych instytucjach użyteczności publicznej przekłada się na ich powszechność. Konsumenci nie chcą tylko oglądać wyświetlanych treści, chcą i powinni mieć możliwość interakcji z nimi. To właśnie dlatego, monitory dotykowe znaleźć można niemal wszędzie, od stacji diagnostycznych po centra handlowe i restauracje czy muzea. Co więcej, nic nie wskazuje, by miały osiągnąć punkt przesycenia i zacząć w najbliższej przyszłości tracić na popularności. Technologia dotykowa wciąż się rozwija otwierając nowe możliwości. Podam przykład: w naszej ofercie monitorów dotykowych jeszcze 2011 roku mieliśmy 3 modele od 15 do 19 cali w tylko jednej technologii. Dzisiaj mamy w ofercie 52 modele Touchscreen od 15 do 86 cali w aż w pięciu różnych technologiach wliczając w to najbardziej zaawansowaną technologię pojemnościową – projective capacitive. Przyszłość stoi otworem przed ekranami dotykowymi i interakcją z nimi, a iiyama aktywnie pomaga w realizacji tejże przyszłości.

    BrandsIT: Jakie plany ma iiyama, jakie nowości zamierza wprowadzić?

    Mariusz Kuczyński: iiyama planuje robić dalej to, co robi najlepiej, czyli kontynuować produkcję doskonałych monitorów komputerowych. Rozwijamy swoją ofertę na wszystkie segmenty naszych produktów, nieustannie dbając o ich jakość i dopasowując je do wymagań rynku. Tego lata mamy premiery nowych monitorów dla graczy z serii G-Master od 24,5 do 32 cali z linii Black Hawk i Red Eagle dla pro-gamingu. Pracujemy też na wyglądem naszych monitorów, aktualnie zaktualizowaliśmy design naszych wyższych modeli do wersji edge-to-edge (bezramkowe). Wkrótce zadebiutuje też model 5K dla grafików i projektantów z matrycą IPS w wyszukanym designie. Zaś w sierpniu do sprzedaży wejdzie nowa seria ekranów wielkoformatowych o przekątnych 65, 75 i 86 cali z rozdzielczością UHD 4K dedykowanych do zastosowań edukacyjnych. Pod koniec roku naszą ofertę dotykowych ekranów typu open frame poszerzy nowa seria o przekątnych od 10 do 24 cali skierowana do segmentu retailowego. W iiyamie na pewno będzie się działo.

  • Komentarz Prezesa Hawe ws. wprowadzenia akcji do obrotu na Novej Giełdzie

    Komentarz Prezesa Hawe ws. wprowadzenia akcji do obrotu na Novej Giełdzie

    Wczoraj pisaliśmy o tym, że Komisja Nadzoru Finansowego wpisała Spółkę Nova Giełda na listę ostrzeżeń publicznych (link do artykułu). Wcześniej pojawiła się informacja o planie wprowadzenia akcji Spółki Hawe do obrotu na Novej Giełdzie.

    W związku z opublikowanym artykułem, głos zabrał Prezes Hawe S.A. – Paweł Paluchowski

    Paweł Paluchowski
    Paweł Paluchowski – Prezes Hawe S.A.

    „Decyzja o tym czy wprowadzić akcje do obrotu na Novej Giełdzie należy do akcjonariuszy. My nadal rekomendujemy takie rozwiązanie. Obecnie handel akcjami na GPW jest zawieszony i tak naprawdę nie wiadomo kiedy i czy zostanie przywrócony. Sąd podjął decyzję o upadłości spółki, z którą oczywiście się nie zgadzam. Nadal uważam, że istnieje szansa na uratowanie spółki. Ale jeśli dojdzie do upadłości Hawe to de facto za pół roku spółka zostanie wycofana w ogóle z obrotu na GPW. Alternatywą dla akcjonariuszy, którzy chcą odzyskać swoje środki finansowe zainwestowane w walory spółki jest właśnie handel na Novej Giełdzie.  KNF wpisał tę instytucję na listę ostrzeżeń, ale z tego co mi wiadomo nie zakazał jej działalności. Jak wynika z oświadczenia Novej Giełdy instytucja ta będzie się także odwoływać od decyzji Komisji.”

  • Wideorejestrator Navitel MSR500 – czy warto?

    Wideorejestrator Navitel MSR500 – czy warto?

    Navitel MSR500 to budżetowy rejestrator obrazu cechujący się bardzo dobrym stosunkiem ceny do jakości. Miałem możliwość testować to urządzenie przez dwa tygodnie i miło mnie zaskoczyło.

    Pierwsze wrażenie po wyjęciu z opakowania jest bardzo pozytywne – duży, szklany obiektyw, ekran TN o przekątnej 2,7″, elementy konstrukcji spasowane bardzo porządnie i obudowa pokryta elastyczną warstwą. W opakowaniu znajdują się dwa mocowania – na przyssawkę oraz taśmę dwustronną, szmatka do czyszczenia, kabel USB – miniUSB, ładowarka samochodową oraz 12-miesięczna licencja na nawigację Navitel.

    Navitel MSR500

    Navitel MSR500 niewątpliwie należy do rejestratorów dyskretnych, które nie zajmują wiele miejsca i nie rzucają się w oczy. Urządzenie wyposażone jest w większość kluczowych funkcji takich jak możliwość zrobienia zdjęcia, tryb parkingowy wykorzystujący sensor ruchu (G-Sensor) i rejestrację w Full HD przy 30 klatkach na sekundę.

    Dość duże obawy miałem odnośnie mocowania, które nie wygląda imponująco – myślałem, że będzie przenosiło drgania pojazdu, jednak w niewielu sytuacjach miało to miejsce. Przyssawkę zamocowałem raz i mogłem o niej zapomnieć, bo nie sprawiała problemów.

    Rozmiar wyświetlacza jest wystarczający i pokazuje obraz z rozdzielczością 960×240 pikseli. Kolejnym elementem jaki miło mnie zaskoczył był brak opóźnienia podglądu do rzeczywistych sytuacji na drodze.

    MSR500 holder back

    Jakość obrazu w MSR500

    Kamera zbudowana jest z czterech szklanych soczewek i rejestruje obraz o kącie 120 stopni z dobrym odwzorowaniem barw. W ciągu dnia nie ma problemów z artefaktami – spokojnie można odczytać tablice rejestracyjne z dystansu siedemnastu metrów. Urządzenie gorzej sobie radzi podczas nocnej jazdy – tablice rejestracyjne można odczytać do dystansu dwóch metrów i to w oświetlonych miejscach. Warto jednak pamiętać, że to sprzęt budżetowy.

    Navitel MSR500

  • Polska największym ośrodkiem Fin Tech – wartość rynku to 860 mln euro

    Polska największym ośrodkiem Fin Tech – wartość rynku to 860 mln euro

    Polska jest największym ośrodkiem FinTech w Europie Środkowo-Wschodniej, jednak wartość inwestycji venture capital w stosunku do PKB wynosi tylko 0,005 proc. Tymczasem na świecie venture capital odpowiada za około 70 proc. wartości całkowitych inwestycji w firmy finansowo-technologiczne.

    Jak wynika z analizy firmy doradczej Deloitte skutkiem takiej sytuacji jest to, że dla 72 proc. start-upów w Polsce głównym źródłem finansowania są pieniądze założycieli. Warunkiem koniecznym do osiągnięcia sukcesu i zdobycia nowych klientów dla polskich spółek finansowo-technologicznych jest ekspansja zagraniczna.

    Obecnie rynek FinTech w naszej części Europy wart jest około 2,2 mld euro, z czego prawie 860 mln euro – czyli około 3,6 mld złotych przypada na Polskę. Wartość rynku oszacowano przy założeniu, że termin „FinTech” odnosi się do rozwiązań informatycznych przeznaczonych dla sektora finansowego dostarczanych zarówno przez podmioty o ugruntowanej pozycji na rynku, jak i nowe firmy. Są to rozwiązania dla bankowości, ubezpieczeń, zarządzania aktywami i rynków kapitałowych, pozyskiwania kapitału, finansów osobistych, płatności, danych i analityki, cyberbezpieczeństwa oraz pozostałych technologii.

    Polska nie wyróżnia się innowacyjnością na tle innych gospodarek europejskich. Wyjątkiem jest polski sektor finansowy, który jest bardzo innowacyjny w porównaniu z innymi gałęziami naszej gospodarki. Niektóre z największych polskich banków są wręcz nazywane FinTechami, a pojedyncze rozwiązania technologiczne są już licencjonowane zagranicą – powiedział Artur Martyniuk, Dyrektor w Dziale Doradztwa Finansowego Deloitte

    FinTech w piaskownicy

    Jak wynika z analizy Deloitte, stopa zwrotu z kapitału własnego banków innowacyjnych może być większa niż dla całego sektora bankowego. Pozytywnym czynnikiem rozwoju rynku było uruchomienie przez największych ubezpieczycieli i banki w Polsce finansowania dla branży FinTech w postaci programów akceleracyjnych, funduszy typu corporate venture capital, oraz inwestycji bezpośrednich.

    Ponadto Komisja Nadzoru Finansowego chce umożliwić start-upom rozwój poprzez udostępnienie środowiska przypominającego „piaskownice regulacyjną” (regulatory sandbox) , która polega na stworzeniu bezpiecznej przestrzeni, w której firmy mogą tworzyć, oferować i testować swoje innowacyjne rozwiązania przy ograniczonych wymogach regulacyjnych. Rozwiązanie to bardzo dobrze sprawdziło się w Londynie, czyli europejskiej stolicy FinTech.

    Lepiej być FinTechem zagranicą niż w Polsce

    Co może pomóc polskim FinTechom? Przede wszystkim ekspansja zagraniczna. Polskie instytucje finansowe do tej pory rzadko wychodziły na międzynarodowe rynki, dlatego wciąż jest to mało znacząca część ich działalności, co spowalnia proces skalowania innowacji na rynku w Polsce i zagranicą. Jest to ważne, ponieważ FinTechy i instytucje finansowe stanowią idealne partnerstwo, w którym FinTechy dostarczają technologię, a instytucje klientów. Dodatkowo, duża część firm z sektora finansowego jest opanowana przez inwestorów zagranicznych, przez co strategiczne decyzje podejmowane są zagranicą.

    Sytuacja mogła być utrudniona, ponieważ regulator w celu ochrony interesów uczestników rynku, do tej pory był konserwatywny i ostrożny w podejściu do innowacji finansowych. W takich przypadkach pomocna wydaje się także ekspansja zagraniczna, która skutkuje nie tylko pozyskaniem nowych klientów, ale również podleganiem pod obce, mniej restrykcyjne jednostki jurysdykcyjne.

    FinTech potrzebuje finansowania

    Wśród powodów, które blokują ekspansję polskich FinTechów należy wymienić również niechęć inwestorów i przedsiębiorców do podejmowania wysokiego ryzyka. Tymczasem sektor prywatny powinien być bardziej zaangażowany w finansowanie innowacji.

    Być może rozwiązaniem byłoby utworzenie programu podobnego do brytyjskiego „Enterprise Investment Scheme” i „Seed Enterprise Investment Scheme”. Program ten pozwala na złagodzenie negatywnych skutków nieudanej inwestycji i nie wymaga angażowania środków publicznych. Konieczna jest też zmiana podejścia inwestorów i przedsiębiorców. Inwestorzy już na wczesnym etapie inwestycji powinni wziąć pod uwagę, że w przyszłości start-up może wymagać dalszego dokapitalizowania, a przedsiębiorcy powinni działać bardziej odważnie i być bardziej zdeterminowani, aby osiągnąć zakładany, ambitny wzrost i skalowalność biznesu – podsumował Artur Martyniuk, Dyrektor w Dziale Doradztwa Finansowego Deloitte

  • Czym kierować się przy zakupie monitora do zdjęć i filmów?

    Czym kierować się przy zakupie monitora do zdjęć i filmów?

    Na rynku monitorów bardzo łatwo stracić głowę i kupić model źle dopasowany do naszych potrzeb. Radzimy według jakich kryteriów dobrać monitor, który zadowoli fotografa hobbystę i pozwoli komfortowo zmontować film z drona lub sportowej kamery.

    Przestrzeń barw i kalibracja

    W profesjonalnych zastosowaniach odwzorowanie kolorów przez matrycę monitora powinno być maksymalnie zbliżone do tego, jak te kolory są następnie reprodukowane – szczególnie w druku. Stąd też graficy wysoko cenią modele, które są w stanie odwzorować jak najlepiej przestrzeń barw Adobe RGB, uważaną za rynkowy standard. Matryca dla grafika powinna zbliżać się do ideału, czyli pokrywać więcej niż 99% palety Adobe RGB. W domu raczej nie wykorzystamy możliwości takiego ekranu.

    Monitory, które dominują na sklepowych półkach, rzadko kiedy pokrywają więcej niż 80% palety Adobe RGB. Stąd w obróbce zdjęć na własne potrzeby, pracy z materiałami wideo oraz stronami internetowymi, zdecydowanie lepiej posługiwać się alternatywną przestrzenią odwzorowania kolorów – sRGB. Jest ona węższa (zawiera się w przestrzeni Adobe RGB), ale zapisana w niej gama kolorów wciąż jest wystarczająco bogata dla kogoś, kto fotografią zajmuje się hobbystycznie. sRGB to znacznie popularniejszy i częściej stosowany standard na rynku konsumenckim.

    Interesującym wyborem dla fotografa hobbysty lub osoby tworzącej i oglądającej wideo, mogą być monitory szerokogamutowe – będące w stanie pokryć szerszą przestrzeń barw niż 100% sRGB. Wyświetlają one dużo żywsze kolory niż choćby modele dedykowane dla graczy. Producenci zwykle wyraźnie zaznaczają to w specyfikacji.

    Niezależnie od tego, którą przestrzenią barw będziemy się posługiwać, warto pamiętać o kalibracji monitora. Nawet „zwykły” model potrafi pokazać pazury jeśli tylko odpowiednio go skalibrujemy. Niekoniecznie musimy w tym celu kupować profesjonalny kolorymetr. Gdy myślimy o obróbce zdjęć nawet jednorazowa kalibracja nowego monitora – w ramach dodatkowej usługi świadczonej np. przez sklep komputerowy – powinna być w zupełności wystarczająca.

    Wielkość ekranu, rozdzielczość i format obrazu

    W przypadku obróbki zdjęć oraz filmów rozdzielczość ma ogromne znaczenie, przekłada się bowiem na szczegółowość obrazu. Każdy dodatkowy cal przekątnej powiększa optycznie obszar roboczy i pozwala lepiej wykorzystać wyższą rozdzielczość. Raczej powinniśmy unikać najczęściej spotykanych modeli Full HD (rozdzielczość 1920 x 1080 pikseli) o przekątnych 22- oraz 24 cali – nadają się one dla graczy, ale nie dla twórców treści.

    Optymalnym wyborem jest monitor QHD (rozdzielczość 2560 x 1440 pikseli) przy czym przekątna takiego ekranu ze względu widoczność pojedynczych pikseli nie powinna przekroczyć 32 cali. Jeśli mamy ambicję, wydajny komputer i (przede wszystkim) możliwości finansowe, możemy rozważyć zakup monitora 4K UHD (3840 x 2160 pikseli). W takim wypadku optymalna przekątna to 32 cale lub więcej.

    Co z formatem obrazu? Świadomie pominęliśmy element monitorów ultrapanoramicznych w poprzednim akapicie, skupiając się na standardowym formacie 16:9 – obecnie najbardziej popularnym na rynku. Monitory 21:9 zyskują na popularności, ale opinie na ich temat w przypadku pracy ze zdjęciami są drastycznie różne. Warto rozważyć ich zakup, jeśli montujemy oraz oglądamy wideo. Oferują szerszy obszar roboczy, co przekłada się również na komfort pracy z dokumentami oraz stronami WWW. Coraz częściej ich możliwości doceniają gracze, ale w przypadku hobbystów fotografii dużo zależy od indywidualnych preferencji.

    Na pewno są ciekawą alternatywą dla osób, które rozważają zakup dwóch monitorów 16:9. Jeden większy w formacie 21:9 może być równie dobrym wyborem – także pod względem finansowym. Ze względu na optymalny stosunek przekątnej do rozdzielczości, do pracy nadają się szczególnie 34-calowe modele UWQHD (3440 x 1440 piksele), czyli panoramiczne ekrany QHD.

    Co z typem matrycy i zakrzywionym ekranem?

    Myśląc o obróbce zdjęć i materiałów wideo, możemy skreślić z naszej listy kandydatów wszystkie monitory z matrycami TN (twisted nematic). Dedykowane są dla graczy, gdzie odwzorowanie barw oraz kąty widzenia nie są tak istotne, za to ceniona jest szybkość odświeżania i czas reakcji matrycy. Zakładając, że chcemy znaleźć złoty środek w postaci dobrej matrycy za rozsądną cenę, zostają nam dwa typy ekranów: IPS (in-plane switching) oraz VA (vertical alignment).

    Oba typy ekranów LCD będą dobrym wyborem dla hobbysty i bardzo dużo zależy od specyfikacji danego panelu. Matryce IPS są w stanie zaoferować nieco wyższą jasność i bardziej równomierne podświetlenie, ale w nowych generacjach paneli VA kompensuje nam to mniejsze zużycie energii, a dzięki  zastosowaniu dodatkowych technologii także lepszy kontrast. Czynnikiem kluczowym z perspektywy zwykłego użytkownika może być finalnie cena, a tu punkt ciężkości w większości przesuwa się w kierunku matryc VA.

    Monitor z zakrzywionym ekranem to w dużym stopniu kwestia indywidualnych preferencji. Z jednej strony mamy wzornictwo oraz zarządzanie miejscem na biurku – zdecydowanie lepiej wypadają tu modele zakrzywione, szczególnie te o przekątnej 34 cali i większe. Z drugiej znajdziemy też opinie użytkowników, którzy są zdania, że w konkretnych zastosowaniach takich jak np. praca w środowisku CAD, zaokrąglony ekran jest czymś niepożądanym. W przypadku stanowisk wielomonitorowych zakrzywienie może poprawiać komfort pracy, ale brakuje rzetelnych badań, które są w stanie to zweryfikować.

  • Upublicznianie danych podatkowych – opinia eksperta

    Upublicznianie danych podatkowych – opinia eksperta

    Istnieje nowy projekt ustawy o podatku dochodowym od osób prawnych, wokół którego krąży wiele wątpliwości. Na ten temat wypowiada się ekspert Krzysztof Komorniczak – ekspert BCC ds. podatków – i wyjaśnia, jakie wady i zalety mogłoby mieć wprowadzenie w życie takich zmian.

    Głównym założeniem rządowego projektu ustawy o zmianie ustawy o podatku dochodowym od osób prawnych jest wprowadzenie regulacji umożliwiających Ministrowi Rozwoju i Finansów publikowanie indywidualnych danych podatkowych, wynikających ze składanych przez podatników podatku dochodowego od osób prawnych (PDOP) rocznych zeznań podatkowych.

    Zakłada się, że zakres informacji z zeznań podatkowych objętych upublicznianiem obejmie przychody, koszty uzyskania przychodów, osiągnięty dochód albo poniesioną stratę, podstawę opodatkowania i kwotę należnego podatku. Publikowane będą także dane identyfikujące podatnika (nazwa, NIP), rok podatkowy, za który informacje są publikowane. Podana do publicznej wiadomości będzie mogła być także efektywna stopa podatkowa obliczona jako procentowy udział kwoty podatku należnego w zysku brutto wykazanym w sprawozdaniu finansowym. Do publicznej wiadomości podawane mają być dane dotyczące 4.500 podatników o najwyższych przychodach (ok 1% wszystkich podatników PDOP), a także podatników posiadających status podatkowej grupy kapitałowej bez względu na wysokość przychodów. Publikacja ma nastąpić do końca września roku następującego po zakończeniu roku podatkowego danego podatnika.

    Jak wskazuje się w uzasadnieniu do projektu, planowana możliwość ujawniania danych podatkowych (poprzez uchylenie w tym zakresie tajemnicy skarbowej), będzie miała pozytywny wpływ na warunki funkcjonowania i rozwoju mikro przedsiębiorców, małych i średnich przedsiębiorców. Dotyczy to szczególnie możliwości ograniczania podejmowanych przez „dużych” podatników działań umożliwiających takie planowanie podatkowe, którego efektem może być unikanie opodatkowania. Skutkiem tego rodzaju działań jest uzyskiwanie przez podmioty je stosujące nieuzasadnionej przewagi konkurencyjnej, co zaburza równą konkurencję na danym rynku.

    O ile cel związany z piętnowaniem społecznym agresywnej optymalizacji podatkowej służącej jedynie omijaniu obowiązujących przepisów podatkowych można uznać za słuszny i służący zachowaniu konkurencyjności na rynku, o tyle sposób jego realizacji, w oparciu o proponowany projekt, budzi uzasadnione wątpliwości co do osiągnięcia zamierzonych skutków.

    Należy bowiem zauważyć, że informacje zaczerpnięte z zeznań podatkowych nie dają pełnego obrazu przedsiębiorstwa. Wykazywanie podatku do zapłaty w niskiej kwocie, przy jednocześnie wysokich przychodach samo w sobie nie jest działaniem nagannym. Istotne są bowiem okoliczności, które powodują wykazanie podatku w takiej kwocie. Tymczasem niski podatek może wynikać z wysokich kosztów stanowiących np. wydatki inwestycyjne, będące przejawem rozwoju przedsiębiorstwa. Nadmienić przy tym warto, iż obecnie mocno promowana jest działalność badawczo rozwojowa, czego wyrazem jest wprowadzenie tzw. ulgi B+R dającej podatnikowi podwójną korzyść. Ponoszone wydatki są odliczane od osiąganych przychodów jako koszty uzyskania przychodów, a następnie o te same wydatki (w części) w ramach ulgi B+R podatnik może zmniejszyć podstawę opodatkowania. Ustawa o PDOP przewiduje także katalog dochodów zwolnionych z opodatkowania, jak i możliwości dokonania odliczenia od dochodu. Zastosowanie tych mechanizmów istotnie wpływa na wysokość podatku do zapłaty, nie oznaczając przy tym stosowania agresywnej polityki podatkowej. Zatem bez analizy wszystkich danych przedsiębiorstwa nie można dokonać prawidłowej oceny rzetelności podatnika. Z kolei publikowanie danych wyrwanych z kontekstu całej działalności przedsiębiorstwa i jego sytuacji będzie sprzyjało  dokonywaniu mylnej i nierzetelnej oceny podatników

    Objęcie podatkowych grup kapitałowych podanym do publicznej wiadomości wykazem indywidualnych danych, o których mowa w Projekcie, godzi w podstawową ideę i cel przyświecający tworzeniu podatkowych grup kapitałowych, jakim jest zgodne z ustawą podatkową zoptymalizowanie opodatkowania podmiotów tworzących taką grupę.

    Możliwość (czyli już nie obowiązek ustawowy, ale możliwość) podania do publicznej wiadomości indywidualnych danych o efektywnej stopie podatkowej obliczonej jako procentowy udział kwoty podatku należnego w zysku brutto podatnika, z uwagi na ocenny charakter możliwości jej zastosowania, może prowadzić do nadużyć i próby piętnowania określonych podatników. Rozwiązanie takie wydaje się również sprzeniewierzać zasadzie równości wobec prawa. Sam pomysł obliczania efektywnej stopy podatkowej, jak i dodatkowo obliczanie jej  i publikowanie w odniesieniu tylko do niektórych podatników jest, w naszej ocenie, działaniem ukierunkowanym na sterowanie opinią społeczną w odniesieniu do tych podatników, dla których taką efektywną stopę podatkową będzie się publikować.

    W świetle powyższych uwag i wątpliwości jakie towarzyszą wprowadzeniu przepisu o publikacji danych podatkowych  dużych przedsiębiorców, instrument ten w naszej ocenie może  osiągnąć cel odmienny od zakładanego. Prowadzi do negatywnego nastawienia do podatników, którzy wykazują niższą efektywną stopę podatkową, mimo że ich działalność może okazać się bardziej pro społeczna, aniżeli działalność podmiotów maksymalizujących zyski. Publikowanie omawianych danych może też być wykorzystywane jako narzędzie w nieuczciwej konkurencji niszczące pozycję danego przedsiębiorcy na rynku.

    Wreszcie publikowanie danych podatkowych „dużych podatników” daje asumpt do ugruntowania się przekonania, iż podatnicy, których dane są upubliczniane są z założenia nieuczciwi. Tymczasem w Ordynacji podatkowej przewidziano instrument dający możliwość weryfikacji uczciwości i rzetelności działania podatników poprzez stosowanie klauzuli o unikaniu opodatkowania. Dodatkowy instrument w postaci „społecznego pręgierza” jest  działaniem zdecydowanie zbyt daleko idącym, które łatwo może wymknąć się spod kontroli i godzić w dobre imię uczciwych i rzetelnych podatników.

    Biorąc powyższe pod uwagę, wprowadzanego instrumentu nie można ocenić pozytywnie.

    O takiej ocenie decyduje:

    • niedopracowany mechanizm ujawniania wybranych danych w oderwaniu od całokształtu okoliczności faktycznych dotyczących danego podatnika;
    • tworzenie dodatkowych wskaźników ukierunkowujących ocenę danego podatnika i jego działań, w tym jego polityki podatkowej, jako nieuczciwej (efektywna stopa podatkowa, w tym – tylko w odniesieniu do niektórych podatników);
    • możliwość doprowadzenia do całkowicie odmiennych od planowanych skutków, tj. zachwianie uczciwej konkurencji poprzez niszczenie pozycji uczciwych podatników.
  • Laptopy z linii biznesowych a efektywność pracy

    Laptopy z linii biznesowych a efektywność pracy

    Ze względu na dynamikę przekazu danych, obecnie wymaga się od ludzi maksymalnego skupienia i szybkości w podejmowaniu decyzji. Biznes to obszar, w którym szczególnie liczy się krótki czas działania. Stąd duży nacisk na niezawodność, nie tylko decyzji ludzkich, ale też sprzętu, którego się używa. Czas to pieniądz, dobry sprzęt to taki, który go nie marnuje. Komfort korzystania to kluczowy element jakości urządzeń, z których korzystamy. Stąd duży nacisk producentów na odbiorcę biznesowego. Tworzy się laptopy linii biznesowych, które są mobilne, inteligentnie pracują, wyręczają z niektórych rutynowych czynności, a przy tym są bezpiecznym miejscem przechowywania cennych informacji. Ważnym aspektem są również elementy estetyczne, odpowiadające za to, że narzędzie pracy staje się eleganckim dodatkiem. Aby lepiej  poznać dynamicznie rozwijający się rynek laptopów biznesowych, poprosiliśmy o opinie producentów: Microsoft i Acer.

    Microsoft

    Dominik Soltysik
    Dominik Sołtysik, Surface Category Lead w polskim oddziale Microsoft

    Jeszcze 5 lat temu typowy laptop w firmie ważył jakieś 3 kilogramy. Był nieporęczny, niezbyt wydajny i mało elegancki. Ze względu na swoje gabaryty często zostawał na biurku. Dzisiaj laptop biznesowy jest zupełnie inny. Również dlatego, że zmienił się sam biznes i model pracy. Obecnie kładziemy coraz większy nacisk na pracę zdalną. Chcemy pracować tak samo efektywnie za firmowym biurkiem, w podróży, jak i w domu. Gdy uświadomimy sobie skalę i wagę przeobrażeń, jakie zaszły w biznesie w ostatnich latach, łatwo zrozumiemy kierunek, w jakim podążają obecnie producenci laptopów biznesowych. Tym kierunkiem jest coraz większa mobilność. Co oznacza ona w praktyce? Lekkość i poręczność urządzenia (obecnie optymalnie około 1 kg), maksymalnie długi czas pracy na jednym ładowaniu (nawet do 14 godzin), biometryczne interfejsy logowania i zabezpieczenia danych (np. Windows Hello), dodatkowe elementy wspierające interakcję z urządzeniem (np. ekran dotykowy czy pióro komputerowe), optymalizacja pod kątem pracy na aplikacjach Office itd. O designie nowoczesnych laptopów już nie wspominając. To wszystko sprawia, że pracuje nam się nieporównywalnie szybciej, łatwiej i bardziej intuicyjnie, niż kilka lat temu. Te wszystkie rozwiązania i funkcje znajdziemy też we flagowych komputerach Microsoft Surface, które pełnię swoich możliwości odsłaniają właśnie w biznesie oraz w branży kreatywnej. Wprowadzają zupełnie nowe, bardziej efektywne, interfejsy obsługi na linii użytkownik-komputer. Na początku XXI wieku Bill Gates prognozował, że przyszłość należy do ekranów dotykowych i „rysików”. Jak widać nie pomylił się. Dzisiaj komputery z ekranem dotykowym są na fali. Eksperci firmy analitycznej Gartner szacują, że w najbliższych latach sektor biznesowy zamierza wymienić swoje komputery właśnie na urządzenia 2w1. Do końca przyszłego roku już średnio co trzecie przedsiębiorstwo (30 proc.) wygospodaruje budżet na zakup sprzętów tego typu. Z kolei pióra komputerowe, np. Surface Pen, potrafią już bez problemu rozpoznawać nawet odręczne pismo użytkownika i przetwarzać je na zapis cyfrowy. Potrafią również rozpoznać, kto jest ich prawowitym właścicielem. Jest to możliwe dzięki nowym interfejsom zabezpieczeń i logowania. Mam tu na myśli ideę „Password-free World”, promowaną przez Satyę Nadellę, CEO Microsoft, która ziszcza się już w postaci mechanizmu Windows Hello, dostępnego w najnowszych komputerach z Windows 10, jak choćby Surface Laptop czy Surface Pro. Laptopy wyposażone w specjalną kamerę z funkcją rozpoznawania twarzy pozwalają użytkownikowi na zalogowanie się na koncie firmowym bez konieczności wpisywania hasła, a poprzez „skanowanie” twarzy. Wystarczy spojrzeć w kamerę, żeby laptop zalogował nas na konto. Nic dziwnego, że coraz więcej firm sięga po tego typu rozwiązania. Są one nie tylko efektywne, ale przede wszystkim – bezpieczne, a to w przypadku laptopów biznesowych ma niebagatelne znaczenie.

    Acer

    Konrad Wierzchowski, Key Account Manager Acer Polska
    Konrad Wierzchowski, Key Account Manager Acer Polska

    Od kilku lat obserwujemy zmiany w kulturze pracy w małych i średnich przedsiębiorstwach – coraz więcej osób pracuje poza biurem, często podróżuje i potrzebuje nowych rozwiązań sprzętowych – takich, które zapewnią zarówno mobilność i komfort pracy w różnych miejscach, jednocześnie odpowiednio chroniąc to, co dla wielu firm najcenniejsze – dane.

    Laptopy biznesowe cechuje niska waga i smukłe wymiary, połączone z wydajnymi podzespołami, jak co najmniej 8 GB pamięci RAM, dyski SSD i nowoczesne procesory. Duże znaczenie dla efektywności pracy ma także możliwość nawet 8 godzinnej pracy bez zasilacza. Coraz częściej na wybór danego urządzenia wpływ mają tez materiały, z których wykonana jest obudowa. W przypadku flagowej linii urządzeń Acer TravelMate jest to stop magnezu i aluminium, który dodatkowo wzmocniono pokrywą z włókna węglowego. Takie połączenie pozwoliło zminimalizować wagę modelu P658 do 1,5 kg, co doceniają użytkownicy, którzy często odbywają podróże służbowe.

    Właściwe zabezpieczenie danych stanowi jedno z największych wyzwań stawianych laptopom dla biznesu. Czytnik linii papilarnych blokuje dostęp nieuprawnionym użytkownikom, jednak Acer wyszedł naprzeciw wyzwaniu ochrony danych i oferuje własne funkcje, jak Acer ControlCenter, informujący o wykrytych zagrożeniach i wirusach oraz Acer Recovery Management – program, który pozwala utworzyć kopię zapasową z ustawieniami fabrycznymi i bezpiecznie przywrócić system.

    Połączenie mobilności, możliwości długiej pracy na baterii oraz zabezpieczenia samego urządzenia, jak i zawartych na nich danych, pozwalają na komfortową i wydajną pracę, także poza biurem.

  • „Nie śpieszymy się z IPO” – wywiad z Grzegorzem Nają

    „Nie śpieszymy się z IPO” – wywiad z Grzegorzem Nają

    BrandsIT rozmawia z wiceprezesem Nelro Data S.A. o kierunkach rozwoju i czynnikach wyróżniających Spółkę spośród innych firm.

    Grzegorz Naja
    Grzegorz Naja, Wiceprezes Zarządu Nelro Data SA

    BrandsIT: Nelro Data to stosunkowo młoda spółka, a już posiada znaczącą pozycję na rynku dystrybucji. Jaka będzie przyszłość firmy? W jakich kierunkach będziecie się rozwijać?

    Grzegorz Naja: Firma działa handlowo w różnych kierunkach. Dywersyfikujemy ofertę i kanały sprzedaży. Obecnie mamy w portfolio kilka grup produktowych, których sprzedaż rozwijamy przy pomocy dedykowanych, wyspecjalizowanych zespołów:

    – z produktami konsumenckimi trafiamy bezpośrednio do sklepów wielkopowierzchniowych oraz e-tailerów (zespół handlowców i PM-ów w Warszawie)

    – typowe produkty IT (komputery, akcesoria, komponenty, produkty sieciowe) najchętniej są kupowane przez tradycyjnych resellerów i e-tail (zespół handlowców i PM-ów w oddziale wrocławskim)

    – klientów na materiały eksploatacyjne do drukarek znajdujemy głównie wśród biuro-serwisów (dedykowani handlowcy w Warszawie i Wrocławiu)

    – rozwiązania do budowy sieci światłowodowych opieramy o kontrakt z firmą FiberHome i własną markę ND Net. W naturalny sposób klientami są lokalni operatorzy ISP (zespół handlowców i PM-ów z oddziału w Białej Podlaskiej)

    BrandsIT: Czym Nelro Data wyróżnia się na rynku?

    Grzegorz Naja: Na pewno ofertą – własne marki (GoBoard, efingo, ND Net, kolejne własne marki w trakcie przygotowania) oraz marki, które mamy w dystrybucji na wyłączność (FiberHome, Skyworth, Fenda Audio, ThiEye, Nubia). Dodatkowo, w odróżnieniu od innych największych dystrybutorów, różnimy się podejściem do partnerów, ponieważ wspieramy ich działania sprzedażowe w odniesieniu do marek, które są dla nas trzonem biznesu. Pracujemy tak, aby wysoka marża na tych produktach była uczciwie dzielona między nas, a zaangażowanych we współpracę klientów.

    BrandsIT: Jak sprawdza się funkcjonowanie systemu ND Connect w praktyce? Czy można już coś powiedzieć o efektach jego działania?

    Grzegorz Naja: System jest bardzo młody, ale sukcesywnie rozszerzamy jego funkcjonalność we współpracy z firmą Softlinkers, która go dla nas zaprojektowała. Wdrożenie rozpoczęliśmy w kwietniu tego roku. Do końca czerwca planujemy oddanie w ręce naszych partnerów ostatniej zakontraktowanej w firmie Softlinkers wersji. System ma wszystkie niezbędne funkcjonalności, ułatwiające i automatyzujące pracę naszych partnerów i naszych handlowców. W tak krótkim czasie w ND Connect zarejestrowało się już kilkuset partnerów. Stale poszerzamy ofertę i uruchamiamy nowe promocje dostępne z poziomu systemu, tak aby zachęcić kolejne firmy do korzystania z niego.

    BrandsIT: System jest wsparciem dla Waszych klientów. Jak scharakteryzowałby Pan odbiorców Nelro Data, biorąc pod uwagę główną działalność Spółki? Jak firma wspiera swoich partnerów biznesowych i czego od nich oczekuje?

    Grzegorz Naja: Tak jak wspomniałem sprzedajemy do różnych kanałów, zależnie od typu asortymentu. Z dużymi retailerami współpracujemy w ten sposób, że organizujemy promocje w wybranych salonach danej sieci. Przykładem jest akcja promocyjna w największym salonie sieci Komputronik Megastore w Warszawie. Tego typu wydarzeń z naszym udziałem odbywa się od kilku do kilkunastu w skali roku. Dla naszych bezpośrednich klientów w kwietniu tego roku uruchomiliśmy pierwszy w Nelro Data program lojalnościowy, Connect Club. Zarejestrowani partnerzy dokonując zakupów gromadzą punkty, które po zsumowaniu uprawniają ich do otrzymania atrakcyjnych nagród rzeczowych, egzotycznych wycieczek czy niestandardowych, survivalowych form spędzania czasu. Kolejnym typem wsparcia są limity kupieckie, jakie przyznajemy naszym kooperantom na podstawie historii współpracy. Każdy zarejestrowany w systemie ND Connect partner ma dostęp do informacji o limitach i może na tej podstawie planować swoje zamówienia. Wdrażamy bardzo różnorodne modele zachęty zakupowej. Przykładowo do wprowadzonych niedawno na polski rynek smartfonów marki Nubia dokładamy bezprzewodowy głośnik innej naszej marki w autoryzowanej dystrybucji – Fenda Audio, za symboliczną złotówkę. Ta promocja ma na celu pokazanie klientom, że u nas zawsze dostaną coś więcej, swoistego praktycznego gratisa.

    BrandsIT: Strategia Spółki opiera się m.in. na budowaniu wizerunku opartego o prestiż. Firmy budują swoją pozycję na różne sposoby. Z tego co wiadomo, Nelro Data planuje pierwszą publiczną emisję akcji, co wzmocni konkurencyjność firmy. Jakie są planowane efekty IPO? Czy wiadomo już coś więcej na temat terminu wejścia na GPW, a także samych szczegółów emisji?

    Grzegorz Naja: To prawda. Budujemy wizerunek firmy w pełni transparentnej poprzez udział w rankingach, plebiscytach, za pomocą wywiadów z członkami Zarządu czy włączanie się w sponsoring sportu i imprez dla młodzieży. Faktem jest, że wybieramy się na Giełdę Papierów Wartościowych, ale chcąc się dobrze przygotować do debiutu nie śpieszymy się z IPO. Na pewno fundusze uzyskane dzięki publicznej emisji akcji pozwoliłyby nam sfinansować nowe, ambitne projekty, niemniej firma nie ma żadnych problemów z płynnością finansową, zatem giełdową obecność pojmujemy bardziej w kategoriach pokazania inwestorom i partnerom  jeszcze większej przejrzystości naszych mechanizmów i operacji handlowych.

  • Co sądzą eksperci o ataku Petya?

    Co sądzą eksperci o ataku Petya?

    Wczorajszy dzień przyniósł kolejną serię ataków cybernetycznych na globalną skalę. Oprogramowaniem ransomware o nazwie Petya (Pietia) zainfekowane zostały systemy informatyczne m.in. na Ukrainie, w Danii, Rosji i Wielkiej Brytanii. Ataki spowodowały poważne zakłócenia w działalności wielu firm i instytucji publicznych. Poniżej znajdują się opinie ekspertów dotyczące wczorajszego ataku.

    Leszek Tasiemski F Secure
    Leszek Tasiemski, ekspert ds. cyberbezpieczeństwa w firmie F-Secure

    „Petya jest nowszym i skuteczniejszym odpowiednikiem niedawnego ataku ransomware o nazwie WannaCry. W odróżnieniu od niego, infekuje również w pełni zaktualizowane systemy. Atak przebiega w dwóch fazach – szerzenia infekcji oraz zaszyfrowania dostępu do danych na komputerze ofiary. Petya rozprzestrzenia się po sieci lokalnej próbując infekować sąsiednie komputery przy użyciu nazwy użytkownika i hasła wydobytego z komputera pierwszej ofiary. Po kilkudziesięciu minutach infekowania innych komputerów następuje automatyczny restart, po czym oprogramowanie szyfruje dostęp do plików i wyświetla ekran z żądaniem okupu. Myślę, że możemy się spodziewać jeszcze wielu tego typu ataków, za każdym razem bardziej wyrafinowanych i skutecznych w rozprzestrzenianiu się. Żyjemy w czasach, kiedy złośliwe oprogramowanie będzie regularnie zakłócać funkcjonowanie nie tylko indywidualnych użytkowników, ale nawet największych instytucji oraz firm. „

    Sean Sullivan F Secure
    Sean Sullivan, doradca ds. cyberbezpieczeństwa w firmie F-Secure

    „Cyberprzestępcom wykorzystującym ostatnio WannaCry nie udało się wyłudzić dużej sumy, ponieważ nie byli w stanie poradzić sobie z liczbą ofiar dotkniętych przez złośliwe oprogramowanie, które rozprzestrzeniło się na niespotykaną skalę. Wygląda na to, że cyberatak przy użyciu ransomware o nazwie Petya jest bardziej „przemyślanym” działaniem nastawionym na zysk. Skończyły się czasy, w których globalne cyberataki mające na celu wyłudzanie okupów są przeprowadzane przez amatorów.”

    Aamir Lakhani
    Aamir Lakhani, ekspert ds. cyberbezpieczeństwa, Fortinet

    „Oprogramowanie Petya wykorzystuje te same podatności, co te użyte przy ataku WannaCry w maju. Jest to tzw. „ransomworm” – ten wariant zamiast atakowania pojedynczej organizacji, wykorzystując robaka infekuje każde urządzenie, które napotka na swojej drodze. Wygląda na to, że ten atak rozpoczął się od rozesłania pliku Excel, który wykorzystuje znaną lukę w pakiecie Microsoft Office. Efektem udanego ataku jest zaszyfrowanie plików w komputerze, a cyberprzestępcy żądają okupu w wysokości 300 dolarów w walucie Bitcoin za ich ponowne udostępnienie. Dodatkowo ostrzegają, że wyłączenie komputera skutkować będzie całkowitą utratą systemu – czym Petya wyróżnia się od większości dotychczasowych ransomware. Niestety pomimo nagłośnienia istnienia wielu luk w systemach Microsoft i udostępnienia odpowiednich łat oraz globalnej skali drugiej fali ataku WannaCry, nadal tysiące organizacji, w tym zarządzających infrastrukturą krytyczną, nie zdołały usprawnić swoich zabezpieczeń. Ponieważ Petya wykorzystuje dodatkowe wektory ataku, sama aktualizacja systemu operacyjnego nie wystarcza do całkowitej ochrony. Oznacza to, że oprócz aktualizowania oprogramowania konieczne są odpowiednie praktyki i narzędzia zabezpieczające. Nasi klienci są chronieni, ponieważ wszystkie wektory tego ataku zostały wykryte i zablokowane przez nasze rozwiązania ATP, IPS oraz NGFW. Z finansowej perspektywy WannaCry nie był szczególnie udany, ponieważ nie wygenerował dużych zysków dla jego twórców. Powodem tego było stosunkowo szybkie odnalezienie recepty na zneutralizowanie ataku. Z kolei Petya jest bardziej zaawansowaną wersją, jednak dopiero się okaże czy przestępcom uda się na niej więcej zarobić.”

  • Transformacja cyfrowa faktur

    Transformacja cyfrowa faktur

    Cyfrowa transformacja to znak rozpoznawczy naszych czasów. Dziś przedsiębiorstwa muszą otworzyć się na rzeczywistość zdominowaną przez nowe technologie, gdzie w centrum uwagi zamiast produktu znajduje się konsument. Zmiany te nie ominęły polskiego rynku faktoringu.

    Przedsiębiorcy faktoring doceniają przede wszystkim za możliwość zabezpieczenia stałych przepływów finansowych w firmie. Jednak dziś to nie tylko wsparcie dla biznesu, ale także alternatywne źródło inwestowania. Skąd te zmiany na rynku faktoringu?

    Cyfrowa transformacja branży

    Postępujący rozwój technologiczny wpływa na coraz częstszą wymianę dóbr i usług za pomocą specjalnych serwisów internetowych. W zakresie ekonomii proces ten nazywany jest uberyzacją. Określenie to pochodzi od firmy, która stworzyła aplikację kojarzącą klientów i ludzi oferujących usługi taksówkarskie. Mimo niechęci wielu osób, takie inicjatywy to nasza przyszłość, ponieważ innowacyjne rozwiązania i technologie stają się kluczem do osiągnięcia celów biznesowych.

    Należy pamiętać, że jednym z najważniejszych elementów uberyzacji jest znalezienie swojej niszy i odpowiednie uzupełnienie braków w systemie gospodarczym. Idąc w ślady amerykańskiego przedsiębiorstwa postanowiliśmy wprowadzić nowe na polskim rynku, a odnoszące sukces poza granicami naszego kraju, rozwiązanie. Utworzyliśmy więc serwis, który traktuje faktury jako solidny papier wartościowy i w ten sposób rozpoczęliśmy proces uberyzacji polskiego rynku faktoringu. – powiedział Jakub Ananicz, wiceprezes zarządu Faktoramy

    Pomagać i jednocześnie zarabiać

    Według danych Polskiego Związku Faktorów w pierwszym kwartale 2017 roku obroty firm z branży faktoringu wyniosły blisko 46 mld zł. Systematycznie zwiększa się również liczba sfinansowanych faktur. Od 2012 roku liczba ta wzrasta o blisko milion w każdym roku. Ostatnie dane potwierdzają więc, że rynek faktoringu w Polsce prężnie się rozwija. To z kolei sprzyja jego uberyzacji i dziś faktoring to już nie tylko jeden z instrumentów służących do zabezpieczenia płynności finansowej przedsiębiorstwa. Obecnie to także alternatywne źródło pomnażania kapitału, które przynosi ponadprzeciętne zyski.

    Jak to działa?

    Faktorem może zostać każdy, kto chce pomnożyć swój kapitał, czyli zarówno osoba fizyczna, jak i przedsiębiorstwo. Wystarczy skorzystać z usług platform aukcyjnych, które umożliwiają sprzedaż faktur. Przed wyborem platformy inwestor powinien jednak sprawdzić, czy umożliwia ona zakup faktur bezspornych. Tylko takie aktywa niwelują ryzyko związane z reklamacjami, potrąceniami za uszkodzony towar czy zwrotem zakupionych artykułów. To z kolei sprawia, że ryzyko związane z inwestowaniem w faktury porównywalne jest do poziomu obligacji korporacyjnych i sprowadza się do ryzyka kredytowego.

    Inwestowanie w faktury to obecnie jeden z najbezpieczniejszych i najrentowniejszych sposobów pomnażania kapitału. Wysokie, roczne zyski oraz minimalne ryzyko sprawiają, że coraz więcej osób decyduje się na ulokowanie funduszy właśnie w faktury.

  • Smartfony w warunkach sterylnych, czyli jak naprawić telefon

    Smartfony w warunkach sterylnych, czyli jak naprawić telefon

    Do przeprowadzenia niektórych napraw urządzeń mobilnych, podobnie jak w przypadku wielu procesów chemicznych, potrzebne są specjalne, wręcz sterylne warunki. Aby je osiągnąć, serwisy stosują komory lub pomieszczenia bezpyłowe, w których czystość powietrza wynosi 99,99%.

    Komora bezpyłowa, nazywana też komorą laminarną to w zależności od potrzeb urządzenie lub pomieszczenie, które pozwala na pracę w sterylnych warunkach, ochraniając przy tym znajdujący się wewnątrz sprzęt lub preparat przed wszelkimi zanieczyszczeniami z zewnątrz. Najczęściej kojarzy się ona ze sprzętem laboratoryjnym, jednak w praktyce okazuje się, że można ją wykorzystywać także do wielu innych zastosowań. Takie komory od lat stosują lakiernicy, chemicy, firmy odzyskujące dane z nośników, serwisy sprzętu elektronicznego, pracownie fotograficzne oraz szpitale.

    Budowa i zasada działania

    Ogólna budowa komory bezpyłowej jako urządzenia oraz pomieszczenia jest praktycznie taka sama. Głównym elementem jest szczelna przestrzeń robocza, w której utrzymywane są sterylne warunki. Obowiązkowym wyposażeniem jest zestaw filtrów oraz stale pracujący nawiew, zapewniający ciągły i niezaburzony przepływ jałowego powietrza na zewnątrz. Stanowi ono barierę, utrudniającą przedostawanie się do wnętrza komory jakichkolwiek zanieczyszczeń.
    Zasysane powietrze przechodzi przez filtry HEPA, eliminujące cząsteczki stałe o wielkości większej niż kilkaset nm. Dzięki temu czystość powietrza wewnątrz komory wynosi 99,99%. Aby zapewnić dodatkową ochronę w przypadku pomieszczenia bezpyłowego, stosuje się system podwójnych drzwi wejściowych. Stoły i ściany wewnątrz mogą być dodatkowo pokryte specjalną folią antystatyczną, która nie przyciąga kurzu. Do pracy w komorze bezpyłowej wymagane jest też stosowanie odzieży ochronnej.

    Zastosowania komory bezpyłowej

    Serwisy najczęściej wykorzystują ją w procesie refabrykacji uszkodzonych wyświetlaczy, która polega na wymianie pękniętej szybki na nową. Demontaż uszkodzonego elementu nie wymaga specjalistycznych warunków, ale już ponowny montaż całego modułu powinien być przeprowadzony właśnie w takiej komorze. Idealnie czyste powietrze, wolne od zanieczyszczeń i pyłów, ochroni przestrzeń pod wyświetlaczem przed kurzem.
    Komorę bezpyłową wykorzystuje się również podczas odzyskiwania danych z uszkodzonych dysków twardych, kart pamięci oraz pozostałych nośników danych. Sterylne środowisko umożliwia swobodną pracę na otwartym nośniku bez obawy o jego dalsze uszkodzenie. Z kolei w zakładach fotograficznych komora ta znajduje zastosowanie podczas czyszczenia matryc oraz obiektywów.

    W jaki sposób naprawić uszkodzony sprzęt?

    Znając zalety, wynikające z pracy w komorze bezpyłowej, można się zastanawiać nad sensem korzystania z poradników, publikowanych w Internecie przez domorosłych serwisantów. Samodzielna naprawa pękniętej szybki lub wymiana ekranu w domowych warunkach w większości przypadków będzie skutkowała dostaniem się kurzu pod wyświetlacz. Zamiast pozornej oszczędności na naprawie w serwisie, konieczne będą dodatkowe wydatki. Żaden chałupniczy sposób nie dorówna efektom pracy w komorze bezpyłowej.
  • Płatność gotówką odchodzi w niepamięć… powoli

    Płatność gotówką odchodzi w niepamięć… powoli

    Ponad 80 proc. polskich sprzedawców detalicznych korzystających z kas fiskalnych nadal nie oferuje swoim klientom możliwości płacenia kartą. Skutkuje to licznymi problemami: proces obsługi klienta wydłuża się, zniechęceni kupujący rezygnują z zakupu, a sklep odnotowuje niższe zyski. Czy musi tak być? Z pomocą przychodzą nowe technologie.

    Michał Pawłowski iPOS minZ danych Narodowego Banku Polskiego wynika, że w pierwszym kwartale bieżącego roku dokonaliśmy w Polsce ponad 825 mln transakcji kartą płatniczą na łączną kwotę ponad 52,2 mld złotych. Oznacza to, że w ciągu 3 miesięcy każdy Polak zapłacił plastikowym pieniądzem średnio ponad 20 razy. O rozpowszechnieniu tego sposobu płatności w kontekście zakupów stacjonarnych świadczą wyniki raportu „Płatności cyfrowe 2016” zrealizowanego przez Izbę Gospodarki Elektronicznej we współpracy z Mobile Institute i GoMobi.pl – 30 proc. respondentów wskazało na używanie kart podczas zakupów na miejscu. Równocześnie, dzięki takim inicjatywom jak Dzień Bez Płacenia Gotówką (No Cash Day), w społeczeństwie popularyzowana jest płatność bezgotówkowa oraz nagłaśniane są korzyści wynikające z tego sposobu realizowania transakcji.

    Brak możliwości płacenia kartą

    Pomimo rosnącego wskaźnika płatności kartą, w wielu punktach sprzedaży nadal brakuje terminali płatniczych. Obecnie mniej niż 20 proc. polskich detalistów korzystających z kas fiskalnych posiada urządzenia do obsługi płatności bezgotówkowych. Na ok. 1,2 mln kas fiskalnych wykorzystywanych przez sprzedawców detalicznych przypada zaledwie ok. 200 tys. terminali płatniczych. Oznacza to, że ponad 80 proc. małych detalistów jest narażonych na stratę klienta wskutek braku alternatywy dla płatności gotówką. Kupujący zaskoczony brakiem terminala niechętnie fatyguje się do bankomatu by wypłacić gotówkę. Irytację może wywołać również słynne „grosika będziemy dłużni” lub „nie mam jak wydać”.

    Jednak płatności kartowe oznaczają wygodę nie tylko dla klientów, ale i dla właścicieli punktów detalicznych. Zazwyczaj od 30 do 40 procent całego obrotu małych sklepów lub punktów usługowych stanowią transakcje kartą, dlatego wprowadzenie takiego sposobu płatności przekłada się na wymierne korzyści finansowe. Posiadanie terminala pozytywnie wpływa na utarg – konsumenci płacący kartą, zazwyczaj dokonują większych zakupów niż ci, operujący gotówką. Sprzedawcom, którzy posiadają terminal płatniczy, łatwiej jest również mierzyć się z konkurencją ze strony sklepów wielkopowierzchniowych czy sieci dyskontowych, w których płatności bezgotówkowe są powszechne.

    Koszty związane z posiadaniem terminali

    Dlaczego w takim razie mali przedsiębiorcy unikają terminali płatniczych? Wynika to z dodatkowych kosztów oraz zobowiązań, jakie muszą ponosić. Jeżeli sprzedawca korzysta z kasy fiskalnej, to w celu zapewnienia płatności kartą płatniczą musi wydzierżawić terminal. Wiąże się to z potrzebą podpisania długoterminowej umowy – niektórzy przedsiębiorcy, niepewni dalszego rozwoju biznesu, niechętnie decydują się na taki krok. Opłata za dzierżawę terminala wynosi ok. 50 złotych miesięcznie, co przy średnim 5-letnim czasie eksploatacji kasy fiskalnej przekłada się na 3000 złotych dodatkowych opłat za terminal.

    Technologiczne rozwiązania

    Wraz z rosnącymi wymaganiami klientów oraz rozwojem nowych technologii na rynku pojawiają się rozwiązania, umożliwiające prowadzenie nowoczesnego biznesu, w sam raz na kieszeń małych przedsiębiorców. Przykładem są kasoterminale, czyli wielofunkcyjne urządzenia, które przejmują obowiązki zarówno kasy fiskalnej,  jak i terminala płatniczego. Przedsiębiorca jest właścicielem całego rozwiązania, a płatności kartą może ustawić w formie usługi: płaci za nie tylko w tych miesiącach, kiedy z nich korzysta. Takie rozwiązanie, wspierające również specyfikę biznesu sezonowego, zmienia oblicze polskiego handlu, tym bardziej, że jest o wiele tańsze i bardziej opłacalne niż dzierżawa terminala. W 5-letnim okresie funkcjonowania stanowiska kasowego przedsiębiorcy wykorzystujący tę nową technologię są w stanie zyskać ponad 2 tys. zł oszczędności. Płatność kartą – wygodna dla kupujących – za pomocą nowych technologii staje się również opłacalna dla sprzedających.

  • Walka z wyłudzaniem VATu – IT w bankowości

    Walka z wyłudzaniem VATu – IT w bankowości

    1 września 2017 r., na mocy planowanych zmian w prawie bankowym i podatkowym, Krajowa Administracja Skarbowa (KAS) uzyska nowe uprawnienia. KAS ma codziennie otrzymywać raporty z banków nie tylko o saldach rachunków firmowych, ale także dane dotyczące wszelkich transakcji dokonywanych na kontach przedsiębiorstw.

    W ten sposób rząd chce walczyć z firmami wyłudzającymi VAT. Takie działania natomiast przekładają się na większe zapotrzebowanie na systemy informatyczne pozwalające m.in. w łatwy sposób generować raporty i dostosowywać sposób działania firmy do obowiązującego prawa.

    Zgodnie z planowanymi zmianami obowiązek przekazywania wyciągów z rachunków bankowych w formie Jednolitego Pliku Kontrolnego (JPK) realizowany byłby:

    • za pośrednictwem banku lub spółdzielczej kasy oszczędnościowo-kredytowej, o ile posiadają siedzibę w Polsce i po pisemnym upoważnieniu przedsiębiorcy;
    • bezpośrednio przez przedsiębiorcę — w przypadku firm posiadających rachunek bankowy w banku, który nie ma przedstawicielstwa w Polsce.

    Według zapisów projektu ustawy banki mają być zobowiązane do przesyłania raportów z kont firmowych do KAS. Oznacza to, że większość firm nie będzie musiała podejmować dodatkowych działań, aby spełnić nowe wymogi. Wyjątek stanowią podmioty korzystające z kont prowadzonych przez banki, które nie mają przedstawicielstwa w Polsce. Wówczas przedsiębiorca jest zobowiązany do przesyłania raportów nt. kont firmowych we własnym zakresie. Takim przedsiębiorcom oferujemy kompleksowy zakres usług, począwszy od wdrożenia systemu generującego pliki w formacie JPK_WB, poprzez jego dalszą konfigurację w przypadku wprowadzania kolejnych zmian w systemie prawnym – powiedziała Renata Łukasik, członek zarządu Macrologic SA

    Co zawiera JPK?

    JPK obejmuje zestawienie informacji dotyczących: ksiąg rachunkowych, wyciągów bankowych, magazynu, ewidencji zakupu i sprzedaży VAT, faktur VAT, podatkowej księgi przychodów i rozchodów oraz ewidencji przychodów. Tego rodzaju dane firmy muszą przesyłać drogą elektroniczną do Ministerstwa Finansów. Przepisy o Jednolitym Pliku Kontrolnym weszły w życie w lipcu 2016 roku. W pierwszej kolejności obowiązkiem tym zostały objęte największe firmy, czyli przedsiębiorstwa zatrudniające ponad 250 pracowników oraz te, których roczny obrót netto wynosi ponad 50 mln euro albo suma aktywów bilansu przekracza 43 mln euro. Od stycznia 2017 roku przepisami o JPK w zakresie rejestrów VAT zostały objęte także średnie i małe podmioty, a od lipca 2018 roku obowiązek JPK w pełnym zakresie będzie dotyczył już wszystkich przedsiębiorstw.

    Eksperci z branży informatycznej zauważają, że wprowadzenie JPK to nie tylko nowy obowiązek, ale także korzyści dla firm. Ich zdaniem wprowadzenie JPK przyśpieszy informatyzację małych i średnich przedsiębiorstw. W kwestii wykorzystania rozwiązań informatycznych polskie firmy mają bowiem sporo do nadrobienia. Aktualnie jedynie połowa średnich firm w Polsce korzysta z systemów ERP. Wśród małych firm wskaźnik ten wynosi zaledwie 15%.

    Takim rozwiązaniem jest np. program Macrologic Merit, czyli pierwszy polski i już sprawdzony przez firmy system klasy ERP, ułatwiający integrację danych pochodzących z różnych departamentów i poziomów organizacji oraz wspierający obsługę procesów biznesowych.

  • Jak wykorzystać komunikator Facebook Messenger w komunikacji biznesowej?

    Jak wykorzystać komunikator Facebook Messenger w komunikacji biznesowej?

    Współczesna technologia wywiera coraz większy wpływ na życie ludzi oraz ich wzajemne relacje. W obszarze komunikacji międzyludzkiej szczególny wpływ osiągają media społecznościowe z mającym ponad miliard użytkowników Facebookiem na czele. Wraz z rozwojem technologii mobilnych nauczyliśmy się wykorzystywać w komunikacji wiadomości tekstowe czy połączenia głosowe i wideo w aplikacjach.

    Obecnie czat, a w szczególności komunikator Messenger jest gorącym kanałem, który nabiera coraz większego znaczenia również w obszarze biznesu. O tym jak wykorzystać czatboty w komunikacji z klientami pisze Aleksander Siczek, Business Development Manager w firmie Infobip.

    Potencjał komunikatora Messenger zauważyły firmy i marki szukające nowych kanałów, którymi mogą docierać z informacjami bezpośrednio do partnerów handlowych w ramach komunikacji B2B. Zaletami, które dostrzegają marketingowcy jest nie tylko gwarancja dotarcia do swoich odbiorców kanałami, w których są oni obecni na co dzień, ale przede wszystkim możliwość nawiązania z nimi interakcji oraz spersonalizowania przekazu. Takie podejście jest słuszne, zanim jednak rozpoczniemy wykorzystywać komunikator Facebook Messenger, jako kolejny sposób na zaangażowanie klientów i zbudujemy własne czatboty, warto zastanowić się, jakie praktyki możemy wdrożyć, aby uzyskać jak najlepsze rezultaty.

    Zadbaj, aby komunikaty były rzeczywiste i osobiste

    Zautomatyzowane, inteligentne czatboty są z nami od 2016 roku. Wielu ekspertów wyobrażało sobie, że już wkrótce będą one m.in. pomagać nam w zamawianiu produktów w naszych ulubionych sklepach, i będą robić to lepiej i szybciej, niż kiedykolwiek wcześniej robił to człowiek. Rzeczywistość pokazuje jednak, że to nie jest takie łatwe. Opinie na temat pierwszych czatbotów są bowiem zdecydowanie mieszane. U wielu z nich trudno nawet dostrzec prostą logikę i znajomość języka. Każdy czatbot tak naprawdę uczy się wszystkiego od ludzi, dostosowuje odpowiedzi i aktualizuje bazę danych m.in. na podstawie informacji zwrotnych, gdy jego odpowiedzi są chybione. Jednak zaczynając angażować boty do komunikacji biznesowej to na ludziach spoczywa obowiązek przygotowania komunikatów, które bot będzie przekazywał klientom. Nie komplikuj zatem sprawy i postaw na jasność oraz przejrzystość języka. Niech komunikaty będą krótkie i czytelne. Zminimalizujesz w ten sposób ryzyko nieporozumień i niepotrzebnego stresu po stronie klientów. Trzeba pamiętać, że o ile czatboty zautomatyzują wiele interakcji, to jednak są dalekie od doskonałości.

    Pamiętaj, że boty nie zastąpią prawdziwej rozmowy

    Podobnie, jak w przypadku czasami irytujących systemów telefonicznych IVR, czasem klient chce porozmawiać z realną osobą, dlatego warto umożliwić to klientom. Byłoby najlepiej, aby Warto odpowiedzi na trudne pytania udzielali prawdziwi ludzie, co pozwoli również dodać rozmowom (prawdziwego) ludzkiego akcentu. Oczywiście Twoi ludzie nie muszą pracować 24/7 – wystarczy, że na stronie zamieścisz godziny, w których są dostępni i użyjesz automatycznych systemów odpowiedzi Facebooka do informowania o godzinach pracy zespołu. Jeśli rozmowy internetowe z klientami prowadzą pracownicy zapewnij integrację czatu z systemami CRM.

    Buduj relacje z klientami na czacie

    Czat postrzegany jest jako bardziej osobisty kontakt niż np. e-mail. Wykorzystuj ten fakt poprzez budowanie relacji ze swoimi odbiorcami. Nawet jeśli czatbot wykonuje proste zadania typu aktualizacja danych kontaktowych czy pomoc w opłaceniu rachunku, szybka i łatwa z punktu widzenia klienta interakcja, sprawi że będą zadowoleni z kontaktu z firmą a to pozwoli zbudować silniejsze relacje. Interakcje muszą nieść wartość dodaną i ułatwiać życie klientom generując zyski lub uwalniając od problemu. Niezależnie od technologii, za każdym razem, gdy wykonujesz jedną z tych dwóch rzeczy dla klienta (najlepiej obydwie), zyskujesz u niego punkty!

    Zastosowanie czatu internetowego, niezależnie od tego czy jest to Facebook Messenger, WeChat, WhatsApp czy Viber, zdecydowanie rozszerza przestrzeń komunikacji B2C i B2B. Pojawienie się w 2016 roku inteligentnych czatbotów wzbudziło zainteresowanie, w 2017 roku firmy zaczęły traktować taką formę komunikacji całkiem serio. Biorąc pod uwagę powyższe wskazówki czaty internetowe będą kolejnym narzędziem dla biznesu. To właściwy czas, aby przyjrzeć się temu, jak możesz udoskonalić swoją komunikację z klientami za pomocą czatu i jak sprawić, aby czat stał się częścią większych strategii komunikacji.

  • Droga do GDPR

    Droga do GDPR

    Z uwagi na to, że firmy z Unii Europejskiej mają już niecały rok na dostosowanie się do wymogów ogólnego rozporządzenia o ochronie danych (RODO/GDPR), Kaspersky Lab uruchomił serwis online, który pomoże im przebyć drogę do dobrej kondycji danych oraz powodzenia działalności w dłuższej perspektywie. Oferując narzędzie oceny, które pomoże określić gotowość do spełnienia wymogów rozporządzenia, jak również zasoby przedstawiające praktyczne rady do zastosowania, strona ta ma na celu zapewnienie firmom potrzebnego bodźca do ukończenia procesu przystosowawczego.

    Mimo zbliżającej się daty wejścia w życie rozporządzenia oraz nałożonych na firmy obowiązków wzmocnienia praktyk ochrony informacji w zakresie przechowywania i przetwarzania danych osobowych — jak również surowych kar finansowych[1] w przypadku nieprzestrzegania przepisów — nowe badanie[2] przeprowadzone przez firmę Kaspersky Lab ujawniło, że jedna na pięć osób decyzyjnych w działach IT (20%) nadal posiada niewielką wiedzę odnośnie tego rozporządzenia lub nie wie na ten temat nic.

    klp infografika gdpr

    O ile działy prawne i bezpieczeństwa informacji oraz przedstawiciele kadry zarządzającej posiadają ogólną strategię dotycząca rozporządzenia, osoby znajdujące się na pierwszej linii obsługi danych w innych obszarach firmy mogą nie być tak dobrze przygotowane, a nawet nie wiedzieć, jakie są wobec nich oczekiwania. Wspomniany serwis online ma pomóc wyjaśnić obowiązki firm i poszczególnych pracowników.

    Niezależnie od tego, czy firmy chowały do tej pory głowę w piasek, czy są już na zaawansowanym etapie procesu przygotowawczego do rozporządzenia, internetowe narzędzie oceny przeprowadzi je przez serię pytań, z których pomocą zostanie ocenione bieżące „zdrowie” danych w całej organizacji, i przedstawi istotne wskazówki, jak sprostać kluczowym wyzwaniom, wobec których staną organizacje.

    Ogólne rozporządzenie o ochronie danych (RODO/GDPR) jest aktualnym zagadnieniem ze względu na rosnące obawy dotyczące grożących kar oraz zbliżającego się wielkimi krokami terminu spełnienia jego wymogów. Jednak mimo całego szumu nie wszystkie firmy podejmują wystarczające działania, aby uporządkować swoje praktyki dotyczące przetwarzania danych we wszystkich działach w celu spełnienia nałożonych na nie obowiązków. Oprócz współdziałania z konsultantami prawnymi czy biznesowymi nie należy zapominać o osobach, które mają na co dzień do czynienia z danymi. Ponieważ bezpieczeństwo i ochrona danych leżą u podstaw działalności Kaspersky Lab, uważamy, że mamy obowiązek pomóc firmom i ich pracownikom zrozumieć, na czym polega „zdrowie” danych i dlaczego jest ono korzystne dla działalności. Chcemy zachęcić firmy, aby myślały o bezpieczeństwie informacji nie tylko w odniesieniu do zgodności z przepisami, ale również długotrwałego sukcesu i dobrej kondycji firmy — powiedział Piotr Kupczyk, dyrektor biura komunikacji z mediami, Kaspersky Lab Polska.

    Poprzez dokładne planowanie i proaktywne podejście firmy mogą spełnić wymagania rozporządzenia GDPR i uporządkować swoje dane. Celem stworzonego przez Kaspersky Lab zasobu internetowego jest udzielenie odpowiedzi na niektóre z pytań, jakie firmy mogą mieć odnośnie GDPR, oraz skierowanie ich na właściwy tor w celu zapewnienia bezpieczeństwa i ochrony danych.

    [1] Do 4% rocznych globalnych obrotów lub do 20 milionów euro (większa spośród tych kwot).

    [2] Badanie przeprowadzone dla Kaspersky Lab przez Arlington Research w kwietniu 2017 r. Ponad 2 300 osób decyzyjnych z działów IT z Europy w firmach zatrudniających co najmniej 50 pracowników zostało zapytanych o swoje opinie i świadomość odnośnie rozporządzenia GDPR.

  • Raport: Z kim Polacy konsultują się przed ważnym zakupem?

    Kogo Polacy radzą się przed zakupami niecodziennych produktów – to pytanie zadaje sobie pewnie wiele działów marketingu. Odpowiedzią mogą być wyniki badania przeprowadzonego przez Attention Marketing Research, gdzie zadano ankietowanym to samo pytanie. Jakie były odpowiedzi?

    Okazuje się, że reklama przestaje być najważniejszym narzędziem w komunikacji sprzedażowej. Na znaczeniu wciąż zyskuje komunikacja bezpośrednia oraz lojalna społeczność zadowolonych konsumentów. Produkty niecodzienne to na przykład pralka, lodówka, telewizor, gramofon czy też samochód, czyli te produkty, które kupujemy stosunkowo rzadko. 78 proc. uczestników badania wskazało, że przed zakupem niecodziennego produktu lub usługi ma w zwyczaju zbierać informacje na ich temat. Na ten współczynnik nie ma wielkiego wpływu płeć konsumentów (mężczyźni 79 proc., kobiety 77 proc.).

    wybory polaków min

    Struktura wieku

    Młodsi (do 34 lat) i zamożniejsi klienci, szczególnie ci z wielkich miast, podchodzą do zakupów bardziej świadomie. Są też bardziej świadomi tego, jaki wpływ mają na nich różne źródła informacji. Nabywanie nowych przedmiotów, zwłaszcza tych o nieco większej wartości, jest dla nich elementem kształtowania stylu życia, a nie tylko prostym zaspokajaniem potrzeb. Szukając odpowiadających im produktów nie kierują się głównie ceną, dlatego bardziej intensywnie poszukują informacji o produktach, aby nie tyle wydać mało, co wydać dobrze. Wiarygodność informacji Ankieterzy PMR Consulting & Research prosili także polskich konsumentów o ocenę wiarygodności poszczególnych źródeł informacji o produktach i usługach. Źródła podzielone zostały na trzy grupy: osoby, które znamy, czyli nasza rodzina, znajomi, w tym znajomi na Facebooku, osoby, których nie znamy: autorzy blogów, vlogów, poradników oraz producenci, komunikujący się z konsumentami za pośrednictwem reklamy lub bezpośrednio, poprzez stronę internetową lub fanpage – powiedziała Anna Grabara, Senior Research Executive w PMR Consulting & Research 

    Rodzina najbardziej wiarygodnym źródłem informacji

    41 proc. badanych uznało za bardzo wiarygodne źródło informacji o produktach rodzinę, a kolejne 25 proc. za raczej wiarygodne. Za niewiele mniej wiarygodne źródło Polacy uważają swoich znajomych – odpowiednio 25 proc. wskazało odpowiedź „bardzo wiarygodne”, a 31 proc. „raczej wiarygodne”. Ciekawym jest fakt, że ankietowani znacznie niżej ocenili wiarygodność odpowiedzi udzielanych przez znajomych na zapytania zadane na portalu Facebook. Jedynie 8 proc. konsumentów uznało je za bardzo wiarygodne. Natomiast 21 proc. za raczej wiarygodne, podczas gdy aż 28 proc. za zupełnie niewiarygodne.

    Wyniki potwierdzają jeden z trendów mówiący o tym, że jeszcze większe znaczenie niż kiedyś mają tzw. mikroinfluencerzy. Komunikacja schodzi piętro niżej, z celebrytów i ekspertów wolimy rodzinę i przyjaciół. Pocieszające, że pomimo rosnącego czasu jaki spędzamy w sieci jednak to bezpośrednie relacje budzą w nas głębsze zaufanie i dostarczają większej wartości. Internet jest płaskim medium, coraz częściej kojarzonym z fake factami, których nie weryfikujemy. Trend ten oczywiście nie jest nowy, ale w dzisiejszych czasach zyskał nowe znaczenie, które być może będzie się pogłębiać, więc warto bacznie go obserwować – powiedział Adam Sanocki, Partner Zarządzający Attention Marketing

    wybory polaków2 min

    Opinie nieznajomych

    Drugą grupą, o którą pytano były źródła przypisywane osobom, których osobiście nie znamy. Tutaj największym zaufaniem Polaków cieszyły się opinie i informacje publikowane przez internautów bezpośrednio pod ofertą produktową lub usługową – recenzje (21 proc. ankietowanych uznało za bardzo wiarygodne) i na forach internetowych (17 proc. badanych uznało za bardzo wiarygodne). Za mniej wiarygodne i rzetelne Polacy uznali poradniki i przewodniki w internecie (łącznie 44 proc. pozytywnych wskazań), prasie (łącznie 37 proc. pozytywnych wskazań) oraz blogi i vlogi tematyczne (łącznie 41 proc. pozytywnych wskazań). Reklamę w TV za zupełnie niewiarygodną uznało aż 45 proc. ankietowanych, za raczej niewiarygodną kolejne 25 proc. W przypadku reklamy zewnętrznej było to odpowiednio 44 i 25 proc. a reklamy w internecie 43 i 25 proc. Badania wykazały jednak, że o ile reklama nie jest traktowana przez konsumentów jako wiarygodne i rzetelne źródło informacji pomocnych w podjęciu decyzji zakupowej, o tyle znacznie lepiej oceniana jest wiarygodność informacji dostępnych na witrynach internetowych producentów i dostawców usług.

    Zdaniem 15 proc. przebadanych konsumentów strona internetowa producenta lub usługodawcy to bardzo wiarygodne, a 25 proc. raczej wiarygodne źródło informacji o produktach i usługach.

    Można pokusić się o wniosek, że dla polskich konsumentów, rozważających poważniejszy zakup, komunikaty sprzedażowe producenta czy dostawcy usług najbardziej wiarygodne są wtedy, kiedy firma formułuje je nie uciekając się do reklamowej perswazji – powiedział Dawid Michnik, Partner w Attention Marketing

    Wraz ze wzrostem świadomości konsumentów ewoluują także metody komunikacji z nimi. Coraz częściej najbardziej dojrzałe organizacje odchodzą od tradycyjnych modeli B2B i B2C na rzecz modelu B2H, czyli Business to Human, gdzie na pierwszym miejscu jest adresat komunikacji sprzedażowej i jego indywidualne potrzeby.

    źródło

  • Rzeczywistość biznesowa a studiowanie

    Rzeczywistość biznesowa a studiowanie

    Duża część osób w Polsce po maturze wybiera się na studia. Chęć studiowania wyróżnia nas na tle obywateli innych państw Europy. Często pojawia się jednak zarzut, że nasze uczelnie nie najlepiej przygotowują do późniejszej pracy, ponieważ nie nadążają za rzeczywistością biznesową. Czy faktycznie tak jest i czy warto właściwie studiować?

    Błędem jest myślenie, że studiuje się tylko po to, żeby uzyskać tytuł magistra i posiąść wiedzę z jakiejś dziedziny. Studia przede wszystkim dają możliwość zdobycia szeregu kompetencji i umiejętności, które przydadzą się potem w życiu zawodowym, niezależnie od wykonywanej pracy. Najprzydatniejszą z nich jest umiejętność myślenia. Obecnie nauczanie czysto teoretyczne jest błędem samym w sobie. Z uwagi na dynamikę rozwoju każdej z dziedzin, uczelnie powinny skupiać się na wypracowywaniu umiejętności. W każdej chwili wchodzi coś nowego w nasze życie, dlatego wiedza, którą zdobywa się na studiach często jest po prostu przestarzała. Stąd tak ważne jest, aby pielęgnować w młodych ludziach zdolności do poradzenia sobie z ogromnym napływem nowych informacji i korzystania z nich szybko i efektywnie.

    Studenci zyskują nie tylko umiejętności, które wynikają z programu studiów. Studia to czas na to, żeby zdobyć nowe kompetencje np. w zakresie realizowania samodzielnych projektów czy współdziałania w grupie. Te umiejętności, które studenci nabywają podczas studiów, będą potem procentowały […]. Rynek bardzo potrzebuje wykształconych ludzi, którzy mają różne uniwersalne umiejętności – powiedziała dr Anita Zarzycka, prodziekan ds. dydaktyki i jakości kształcenia na Wydziale Ekonomii i Zarządzania Uczelni Łazarskiego

    Aby okres spędzony na uczelni nie okazał się czasem straconym, do studiowania należy podejść w sposób aktywny. Możliwości rozwoju jest wiele. Studenci mogą spełniać się np. w pracy badawczej, organizowaniu różnych konferencji czy realizowaniu własnych przedsięwzięć. Tego typu aktywności na pewno pozwolą na zdobycie wspomnianych umiejętności i zostaną w przyszłości docenione przez pracodawców. Jednak trzeba pamiętać, że najważniejszy jest efekt końcowy. Uczelnia sama może wykształcić ludzi wszechstronnych, jednocześnie zyskując miano najlepszej. Potrzebne są jednak do tego znaczne nakłady finansowe. Za najlepsze uczelnie na świecie trzeba płacić, nierzadko bardzo drogo. Kształcenie biznesowe musi bardzo dynamicznie się rozwijać. Niektórym uczelniom tego brakuje, inne stają na wysokości zadania, mniej lub bardziej.

    Czy szkoły wyższe są jednak świadome realiów biznesowych czekających na absolwentów studiów i nie pozostają przypadkiem ze swoim programem nauczania przynajmniej jeden krok z tyłu?

    Uczelnie już od dawna dostosowują się do tego, co dzieje się na rynku, mają bardzo dobre kontakty z biznesem i jakość nauczania się zdecydowanie zmienia. Nie wyobrażam sobie, żeby dzisiaj którakolwiek uczelnia mogła pozwolić sobie na działanie zupełnie w oderwaniu od realiów rynkowych i gospodarczych – dodała dr Anita Zarzycka, prodziekan ds. dydaktyki i jakości kształcenia na Wydziale Ekonomii i Zarządzania Uczelni Łazarskiego

    Polskie uczelnie prywatne konkurują o studenta z uczelniami państwowymi, które z racji niskich nakładów państwa na edukację, mają mniejsze szanse rozwoju. W ten sposób zamyka się polskie koło studiowania.

  • Mniej niż 20 proc. mikro- i małych firm akceptuje płatności kartami

    Mniej niż 20 proc. mikro- i małych firm akceptuje płatności kartami

    Tylko co piąty przedsiębiorca akceptuje karty płatnicze  – wynika z doświadczeń Banku Pekao SA. Główną barierą jest obawa o wysokie koszty, jednak inwestycja w terminal płatniczy może się szybko zwrócić. Detaliści akceptujący płatności kartami notują większy ruch w punktach usługowych i sklepach. Mogą też zaproponować klientom nowe usługi, takie jak wypłata gotówki z terminala, płatność smartfonem czy doładowanie telefonu.

    Klienci coraz częściej płacą kartami płatniczymi. Cenią przede wszystkim szybkość, wygodę i bezpieczeństwo takich transakcji. Jednak nadal zauważamy, że tylko niecałe 20 proc. mikro- i małych przedsiębiorców z sektora handlu i usług akceptuje karty płatnicze, a klienci chcieliby mieć możliwość płacenia  kartą płatniczą w warzywniakach czy u hydraulika  mówi Artur Jurgielewicz, kierownik zespołu w Biurze Akceptacji Kart Banku Pekao SA.

    Posiadanie terminala pozwala na zaoferowanie dodatkowych usług, takich jak przewalutowanie transakcji, wypłata gotówki podczas płatności kartą, płatność smartfonem czy doładowanie telefonu. Ilość posiadanej przy sobie gotówki nie ogranicza wtedy klienta w zakupach. Wiele firm wstrzymuje się jednak z instalacją terminala ze względu na koszty prowizji i opłat.

    Koszty akceptacji kart są zależne od branży i wielkości przedsiębiorstwa, a także rodzaju urządzenia, którym się posługuje. W przypadku terminali przenośnych bądź z łącznością GPRS zapewnianą przez bank, są to koszty wysokości 40–50 zł – mówi Jurgielewicz. – Natomiast w przypadku terminali łączących się przez internet jest to koszt rzędu 20–30 zł. Od każdej transakcji jest również naliczana prowizja. Prowizja w zależności od branży i wielkości firmy waha się w granicach od 0,4–1 proc.

    Zdecydowana większość przedsiębiorców, którzy rozpoczęli już akceptację kart płatniczych, nie rezygnuje z tej funkcjonalności. Ponadto 60 proc. przedsiębiorców, którzy rozpoczynają akceptację kart, decyduje się na usługę przewalutowania transakcji, natomiast 30 proc. z nich decyduje się na wypłatę gotówki podczas zakupów. Przedsiębiorca na świadczeniu takich usług zarabia 20 groszy od każdej wypłaty gotówki w kasie, np. w sklepie, 1 proc. wartości transakcji na przewalutowaniu, w a przypadku doładowania telefonu na kartę od 3 do 5 proc. wartości doładowania.

    Dobranie odpowiedniego katalogu produktów i usług dostępnych na terminalu POS nie jest takie oczywiste, dlatego warto skorzystać z konfiguratora produktów dostępnego w internecie – mówi Artur Jurgielewicz. – Po wybraniu branży i wielkości przedsiębiorstwa można otrzymać ofertę dla konkretnego przedsiębiorstwa, poza produktami i usługami będzie tam również rekomendacja dotycząca rodzaju łączności terminala POS. Ma to znaczenie, bo np. weterynarz potrzebuje terminala, który jest przenośny, z uwagi na to, że dojeżdża do klienta z realizacją usługi. Natomiast sklep spożywczy potrzebuje terminala internetowego, który jest szybki w realizacji transakcji i jest wyposażony w zewnętrzny czytnik płatności zbliżeniowych.

    Z danych NBP wynika, że na rynku polskim na koniec grudnia 2016 r. działało łącznie 530,9 tys. terminali POS. W porównaniu do poprzedniego kwartału było ich więcej o 17,7 tys. sztuk, co oznacza wzrost o 3,4 proc. W ciągu całego roku ich liczba wzrosła o 14,1 proc. Z tego 91,3 proc. oferowało możliwość płatności zbliżeniowych. Z kolei usługę cash back oferowało 109,2 tys. punktów handlowych i usługowych, o 2,8 proc. więcej niż kwartał wcześniej.

    Sam terminal jest bajecznie prosty, jest to po prostu wbicie kwoty i naciśnięcie zielonego guzika „enter”. Klienci z roku na rok coraz częściej korzystają z tej formy płatności. Jest to dla nich po prostu wygodne – mówi Tomasz Stronk, dyrektor Artplants z warszawskiego Wilanowa, firmy specjalizującej się w kompletowaniu roślin do projektów ogrodowych, także do dużych założeń miejskich. – Z roku na rok odsetek płatności kartą wzrasta. W ubiegłym roku w całości mieliśmy około 20 proc., w tym roku jest to już na poziomie 30 proc., natomiast jeśli chodzi o obrót detaliczny, czyli klienta indywidualnego, sięga to nawet 65 proc.

    Liczba i wartość transakcji kartami systematycznie się zwiększa. Jak wynika z danych NBP, jeszcze w II kwartale 2015 roku za pomocą terminali POS dokonano niespełna 600 mln transakcji o wartości blisko 43 mld zł. W IV kwartale było ich 827 mln, a ich wartość wzrosła do blisko 57,5 mld zł.

    Coraz popularniejsze staje się także wypłacanie gotówki w sklepach – w ciągu 1,5 roku liczba takich transakcji wzrosła z 2,1 mln do 3,1 mln, a wartość wypłacanej kwartalnie gotówki podwoiła się i w ostatnich trzech miesiącach 2016 roku wyniosła 343 mln zł.

    Z roku na rok prowizje banków od płatności kartą maleją i są już na takim poziomie, jak prowizje od wypłaty gotówkowej. Przyjmowanie kartą jest dużo prostsze, ponieważ pieniądze bezpośrednio księgują się w banku. Odchodzi cała procedura wpłacania utargu do banku – ocenia Tomasz Stronk. – Po latach jestem w stanie stwierdzić, że na pewno to usprawnia prowadzenie biznesu, ponieważ nie każdy ma w danym momencie przy sobie określoną kwotę. Jeśli spodoba mu się jakaś roślina i jeżeli ma możliwość zapłacenia kartą, to wtedy ją kupuje i płaci plastikiem.

  • Nieterminowe płatności hamują polski biznes. Przedsiębiorcy chcą zmian w prawie

    Nieterminowe płatności hamują polski biznes. Przedsiębiorcy chcą zmian w prawie

    Płatności po terminie to szczególny problem dla wielu europejskich, ale także polskich przedsiębiorstw. Jak wynika z przeprowadzonego przez Intrum Justitia Europejskiego Raportu Płatności 2017, aż 52 proc. polskich firm zostało zmuszonych do akceptacji dłuższych terminów płatności, a 45 proc. rodzimych przedsiębiorców uważa opóźnienia w płatnościach za celowe działanie swoich kontrahentów. Prawie połowa (42 proc.) polskich firm widzi rozwiązanie problemu nieterminowych płatności w uchwaleniu nowych, restrykcyjnych aktów prawnych.

    Prawidłowe zachowania płatnicze w firmie są istotnym elementem każdego dobrze prosperującego przedsiębiorstwa. Jednakże kondycje finansowe wielu europejskich i polskich firm, wskazują na szereg nieprawidłowości związanych z terminowymi płatnościami. Jak się okazuje, ocena ryzyka wynikająca z opóźnień w płatnościach została w 2017 roku oszacowana na nieco niższą w porównaniu do ubiegłego roku. Pomimo pozytywnego trendu, wiele przedsiębiorstw wciąż mierzy się z problemem jakim są nieterminowe płatności.

    Opóźnione płatności a ryzyko

    Podstawą rozwoju każdego przedsiębiorstwa jest jego stabilność finansowa. Niestety opóźnione płatności klientów w mniejszym lub większym stopniu wpływają na destabilizacje kondycji każdej firmy. Poza brakiem perspektyw na dalszy rozwój przedsiębiorstwa, do konsekwencji związanych z nieterminowymi płatnościami można dołączyć problem niemożności tworzenia nowych miejsc pracy (ok. 22 proc.), utratę dochodów (ok. 25 proc.) czy zagrożenie istnienia firmy (ok. 20 proc.). Co ważne, z Europejskiego Raportu Płatności 2017 wynika, że 30 proc. przedsiębiorców wskazuje na średni lub duży wpływ opóźnień w płatnościach na kwestię utraty płynności finansowej firmy.

    Przyczyny nieterminowych płatności

    Jak wynika z przeprowadzonego badania, wśród klientów polskich przedsiębiorstw panują cztery główne nurty związane z nieterminowymi płatnościami. Zasadniczymi i najwyżej notowanymi przyczynami problemów z opłatami według badanych przedsiębiorców, są trudności finansowe kontrahentów oraz celowe opóźnienia opłat. Rzadziej motywem opóźnionych płatności są spory dotyczące dostarczonych towarów i usług oraz nieefektywne procedury administracyjne klientów. – Warto podkreślić, że w związku z zaległymi należnościami, tylko 32 proc. przedsiębiorców przekazuje niezapłacone faktury do firm windykacyjnych. Przedsiębiorcy zazwyczaj robią to dopiero po upływie 83 dni od terminu płatności faktury – mówi Krzysztof Krauze, prezes Intrum Justitia.

    Intrum Justitia EPR plakat min

    Zaległe płatności a Unia Europejska

    Problem zaległości w płatnościach wobec przedsiębiorców spowodował, że z inicjatywy Komisji Europejskiej powstała Dyrektywa Unii Europejskiej w sprawie zwalczania zaległości w opłatach. Jak się okazuje, tylko 8 proc. polskich przedsiębiorców zna tę dyrektywę – to bardzo mało w porównaniu do średniej europejskiej, która wynosi 31 proc. Co ciekawe, w porównaniu do znajomości europejskich zarządzeń, aż 63 proc. polskich firm twierdzi, że ma świadomość przepisów krajowych dotyczących opóźnionych lub nieuregulowanych płatności, czyli w tym przypadku więcej niż wynosi europejska średnia (57 proc.).

    Rozwiązanie problemu

    Jak wynika z Europejskiego Raportu Płatności 2017, nieterminowe płatności to problem, z którym muszą mierzyć się europejscy oraz polscy przedsiębiorcy. Nieuregulowane ustawodawstwo oraz niepoprawna kultura płatności to tylko niektóre z przyczyn związanych z trudnościami finansowymi przedsiębiorstw, a także trudną sytuacją gospodarczą w całej Europie. Wiele polskich i zagranicznych przedsiębiorstw widzi rozwiązanie problemu w uchwaleniu nowych, restrykcyjnych aktów prawnych.

    Jak można zauważyć, kultura płatności w końcu zaczęła podążać w dobrym kierunku. Niestety wciąż wielu przedsiębiorców musi akceptować dłuższe terminy spłat należności wbrew własnej woli. Z tego powodu, aż 42 proc. polskich firm jest za wprowadzeniem bardziej rygorystycznych przepisów dotyczących punktualnych płatności – mówi Krzysztof Krauze z Intrum Justitia.

    Z kolei 17 proc. polskich przedsiębiorców preferuje ustanowienie dobrowolnych inicjatyw ze strony firm w kwestii opóźnionych płatności. Co istotne, 79 proc. polskich firm twierdzi, że obowiązujące przepisy prawa utrudniają prowadzenie z sukcesem działalności gospodarczej w Polsce.