Kategoria: Rynek

Rozwój biznesu, czyli jak praktycznie wykorzystać technologię w budowaniu przewagi konkurencyjnej. Pokazujemy, jak rozwiązania IT wspierają efektywność, innowacje i skalowanie biznesu w różnych branżach.

  • Grupa AB zamknęła rok obrotowy – jak spisał się lider?

    Grupa AB zamknęła rok obrotowy – jak spisał się lider?

    Grupa AB opublikowała raport roczny za rok obrotowy 2017/2018 (od 1 lipca 2017 r. do 30 czerwca 2018 r.). Poziom przychodów ze sprzedaży Grupy AB był zbliżony do poziomu z roku poprzedniego i wyniósł 8 237 mln zł wobec 8 278 mln zł rok wcześniej.

    AB jest największym dystrybutorem IT w tej części Europy, a działalność operacyjna Grupy skupia się głównie na rynkach polskim, czeskim i słowackim. Firma w ostatnich latach znacznie poszerzyła swoje portfolio produktowe m.in. o rozwiązania telekomunikacyjne, serwery i rozwiązania sieciowe, AGD, RTV i asortyment fotograficzny, oświetlenie, zabawki, digital signage, ofertę dla graczy (gaming), asortyment dla szkół (np. tablice interaktywne) czy dystrybucję oprogramowania w chmurze (cloud; AB partnerem strategicznym Microsoft). Poza stale rosnącym portfolio, w strategię rozwoju Grupy wpisują się m.in. poszerzanie sieci franczyzowych: Alsen (sprzęt IT), Kakto (RTV/AGD) i Wyspa Szkrabów (zabawki), a także X-Play (sprzęt dla graczy); wzrost znaczenia cyfrowych kanałów sprzedaży – e-commerce.

    Wyniki finansowe Grupy w ostatnim roku obrotowym były nieco gorsze niż rok wcześniej. Skonsolidowany zysk netto Grupy przypisany akcjonariuszom jednostki dominującej wyniósł 61 mln zł wobec 68 mln zł rok wcześniej, zysk operacyjny to 98 mln zł wobec 102 mln zł w roku obrotowym 2016/2017.

    Marża zysku ze sprzedaży osiągnęła rekordowy poziom 344 mln zł, w stosunku do 339 mln zł w poprzednim roku. W roku obrotowym 2017/2018 grupa zanotowała wyższe wydatki na marketing, reklamę i reprezentację, w porównaniu do roku poprzedniego, z czego większość podlega refundacji od dostawców. (…) Przychody z tytułu tych refundacji powiększają zysk brutto ze sprzedaży. Marża brutto ze sprzedaży stanowiła 4,2% obrotów (w porównaniu do 4,1% w roku poprzednim). – zaznaczono w komunikacie.

    Wskaźnik rentowności EBITDA dla Grupy AB wyniósł 1,4%, rentowność kapitałów własnych (ROE – zysk netto/kapitał własny) – 8,5% wobec 10,2% rok wcześniej, rentowność aktywów (ROA – zysk netto/aktywa ogółem) – 3,1% wobec 3,6% rok wcześniej. W ujęciu jednostkowym zysk netto w w roku obrotowym 2017/2018 wyniósł 42 mln zł wobec 46 mln zł zysku rok wcześniej.

    Andrzej Przybyło AB S.A.Nasza długoterminowa strategia zrównoważonego rozwoju przynosi wymierne efekty. Najszersza w Polsce i regionie CEE baza resellerów, obejmująca ponad 16 tys. podmiotów, to jedna z naszych strategicznych przewag konkurencyjnych, podobnie jak ultra nowoczesna logistyka i oparcie o e-commerce czy najszerszy wybór produktów dostępnych na magazynie, a nie tylko w ofercie. – podkreślił Andrzej Przybyło, Prezes Zarządu AB S.A.

  • Action gotowy do głosowania nad układem

    Action gotowy do głosowania nad układem

    31 sierpnia br. Action S.A. w restrukturyzacji opublikował zmodyfikowaną wersję propozycji układowych, które precyzują zabezpieczenia wierzytelności w postaci hipoteki i zastawu rejestrowego. Poza tym przewidują podział dodatkowej kwoty między wierzycieli w przypadku wygrania przez Spółkę spraw podatkowych. Obecne propozycje powstały w oparciu o dodatkową serię rozmów z wierzycielami, które trwały od kwietnia, czyli po tym jak spółka opublikowała wstępny projekt propozycji układowych.

    Zarówno te, jak i wcześniejsze propozycje układowe, powstały w oparciu o wyliczenia międzynarodowych firm doradczych, czyli EY na zlecenie Action i KPMG na prośbę wierzycieli. Propozycje są rozpisane na pięć grup wierzycieli ze względu na kategorie interesów, w tym z uwzględnieniem ich wpływu na wspieranie Spółki w trudnym okresie sanacji. Podstawową różnicą w obecnych propozycjach układowych jest doprecyzowanie zasad objęcia wierzycieli, dodatkową ochroną finansową w postaci zabezpieczenia hipotecznego i zastawu oraz zaprezentowanie konstrukcji tzw.  bonusu w momencie, kiedy firma wygrałaby toczące się sprawy podatkowe.

    Sanacja w Action trwa już ponad dwa lata. Przez ten czas pokazaliśmy rynkowi, że nie tylko potrafimy sprawnie zmienić model biznesu tak dużej firmy, ale też udowodniliśmy, że nasza nowa strategia przekłada się na coraz lepsze wyniki finansowe. Stąd zdecydowaliśmy się na przedstawienie rynkowi optymalnych i najbardziej korzystnych dla wszystkich wierzycieli propozycji układowych. Tym samym chcemy dać wyraźny sygnał, że jesteśmy gotowi do głosownia nad układem, do którego może dojść po zatwierdzeniu przez sędziego-komisarza spisu wierzytelności – mówi Sławomir Harazin, Wiceprezes Zarządu Action S.A.

  • Współpraca firm ubezpieczeniowych ze spółkami InsurTech jest nieunikniona

    Współpraca firm ubezpieczeniowych ze spółkami InsurTech jest nieunikniona

    Firmy ubezpieczeniowe na całym świecie szukają nowych możliwości wzrostu, ale z każdym rokiem jest to coraz trudniejsze. Rosnące wymagania klientów, którzy wciąż niechętnie kupują ubezpieczenia, a także technologie, takie jak sztuczna inteligencja, mają ogromny wpływ na sektor ubezpieczeniowy. Autorzy raportu „A catalyst for change: How fintech has sparked a revolution in insurance”, przygotowanego przez firmę doradczą Deloitte, przewidują, że w najbliższych latach branża ubezpieczeniowa przejdzie rewolucję. Chcąc utrzymać dotychczasowych klientów i pozyskać nowych, będzie musiała znacznie uprościć i uelastycznić swoje produkty oraz zainwestować w nowe technologie.

    Po dość długim okresie stabilności, przyszłość branży ubezpieczeniowej stoi pod znakiem zapytania.

    Zwiększanie przychodów i zysków przychodzi ubezpieczycielom z coraz większym trudem. Ci, którym się to nadal udaje, działają głównie na rynkach wschodzących, dających szansę na wzrost. Jednak, zarówno w krajach rozwiniętych, jak i rozwijających się, istnieje wciąż duża grupa ludzi, którzy nie są zainteresowani zakupem produktów ubezpieczeniowych, a firmy z tego sektora nie mają skutecznego pomysłu, jak ich do tego przekonać. Dlatego ta branża powinna w większym stopniu koncentrować się na klientach i ich potrzebach – mówi Grzegorz Cimochowski, Partner, Lider Sektora Instytucji Finansowych w Polsce, Deloitte.

    To, co zniechęca do ubezpieczania się, to w dużej mierze wysokie koszty, skomplikowane produkty oraz procedury ubezpieczeniowe. Poza tym, w momencie zakupu ubezpieczenia klienci nie otrzymują żadnych realnych korzyści. Są one odczuwalne dopiero w momencie wystąpienia określonych okoliczności. Co więcej, klientom często towarzyszy poczucie, że płacą za coś, z czego być może nigdy nie skorzystają.

    Inaczej niż w innych branżach wciąż niewielu ubezpieczycieli przygotowuje produkty skrojone pod potrzeby klientów, a ci coraz częściej szukają spersonalizowanej, mało skomplikowanej oferty oraz szybkiej obsługi – mówi Grzegorz Cimochowski. – Nie bez znaczenia jest również to, że konsumenci kwestionują trafność niektórych produktów, w szczególności tych, których zakup nie jest wymagany przez prawo (jak choćby OC komunikacyjne). To wpływa negatywnie na wyniki finansowe ubezpieczycieli.

    Konkurencja czy partnerstwo

    Dodatkowym czynnikiem, który skutkuje coraz mniej korzystną sytuacją firm ubezpieczeniowych jest rozwój InsurTechów, czyli start-upów ubezpieczeniowych. Zdaniem ekspertów Deloitte, ich wpływ na branżę będzie podobny do tego, którego dokonał się za sprawą Fintechów w sektorze bankowym.

    InsurTechy oferują klientom szybszą oraz mniej skomplikowaną obsługę, a także wypuszczają na rynek szereg produktów, które trudno znaleźć w portfolio nawet największych rynkowych graczy. Produkty te nie tylko łatwiej spersonalizować czy kupić, ale również w większym stopniu odpowiadają one na potrzeby ubezpieczających, wynikające m.in. z charakteru pracy, stylu życia, zasobności portfela czy świadczonych przez nich usług. Są to choćby ubezpieczenia dla kierowców, którzy jeżdżą samochodami jedynie sporadycznie lub tych, którzy pracują na platformach takich jak Uber. Tych klientów interesują ubezpieczenia OC wykupowane w wyższej kwocie jedynie na okresy świadczonych usług albo mikroubezpieczenia, np. oferujące w sezonie zimowym ochronę przez skutkami zamarznięcia rur. Start-upy ubezpieczeniowe swoją ofertę kierują także do osób, którym tradycyjni ubezpieczyciele nie mają wiele do zaoferowania, na przykład podczas ciężkich problemów zdrowotnych – mówi Tomasz Ochrymowicz, Partner zarządzający Działem doradztwa finansowego Deloitte.

    Zdaniem ekspertów Deloitte współpraca pomiędzy tradycyjnymi firmami ubezpieczeniowymi oraz InsurTechami jest nieunikniona i będzie korzystna dla obu stron. Te pierwsze oferują kapitał, zasięg rynkowy, markę, uznanie, wsparcie prawne oraz infrastrukturę. W zamian sektor InsurTech zapewnia szybką oraz innowacyjną reakcję na zmiany rynkowe.

    Technologiczne wyzwania

    Raport Deloitte wylicza również zdobycze technologiczne, które mają lub będą miały duży wpływ na kierunek, w którym podąży branża ubezpieczeniowa. Należą do nich m.in. rozszerzona rzeczywistość, internet rzeczy (IoT), który będzie odgrywał rolę chociażby w ubezpieczaniu nieruchomości czy sztuczna inteligencja (AI). Ta ostatnia technologia jest obecnie wykorzystywana przy tzw. underwritingu, czyli procesie oceny i klasyfikacji ryzyka ubezpieczeniowego. Technologie rewolucjonizują inne dziedziny życia, które mają ogromny wpływ na to, jak działa cała branża. Są to m.in. motoryzacja oraz medycyna, w tym w szczególności genetyka. I tak na przykład sztuczna inteligencja, wykorzystywana w samochodach autonomicznych, prawdopodobnie zmieni znacznie model konstrukcji ubezpieczeń komunikacyjnych.

    Cztery możliwe scenariusze

    Te wszystkie czynniki sprawiają, że branża ubezpieczeniowa znajduje się w momencie, w którym będzie musiała stworzyć nowe modele biznesowe, jeśli chce pozostać na fali wzrostu. Raport Deloitte przedstawia cztery możliwe scenariusze ich rozwoju:

    Różne kanały sprzedaży – współpraca z partnerami, np. z bankami, to coraz popularniejsza praktyka wśród ubezpieczycieli, którzy chcą pozyskać nowych klientów. Dzięki temu konsumenci mają szansę otrzymać ubezpieczenie „skrojone na miarę”, dostosowane do indywidualnych potrzeb i oczekiwań,

    Ocena ryzyka w oparciu o technologię – postęp technologiczny, w tym innowacje i algorytmy sztucznej inteligencji, prawdopodobnie zindywidualizują ocenę ryzyka oraz wyznaczanie wartości sum ubezpieczenia, a klienci będą mogli wybierać produkty w oparciu o szerszy zakres cen i opcji ochrony. W tym modelu ubezpieczyciele muszą zainwestować we współpracę z dostawcami technologii.

    Zwiększenie elastyczności produktu – oferta ubezpieczeniowa będzie ewoluować tak, aby dostosować się do potrzeb klienta, jego stylu życia i zmian, które się w nim dokonują.

    Proste ubezpieczenie na życie – ubezpieczyciele wprowadzający produkty o elastycznej strukturze i doskonalący dystrybucję kanałami cyfrowymi bez uszczerbku dla underwritingu prawdopodobnie osiągną przewagę konkurencyjną na rynku.

    Ubezpieczyciele, którzy wdrożą technologię i będą umieli z niej korzystać, a dodatkowo nauczą się szybko reagować na to, co dzieje się na rynku, okażą się zwycięzcami. Ale chodzi nie tylko o umiejętność wykorzystania technologii. To także kwestia zarządzania złożonymi zmianami i zakłóceniami wewnątrz firmy, jak chociażby pogodzenia ludzi z robotami, a także decyzji czy i jak wejść w partnerstwo z InsurTechami. Rzuciły one wyzwanie tradycyjnym ubezpieczycielom i tylko od nich zależy, czy wykorzystają to jako szansę czy będzie to dla nich zagrożenie – podsumowuje Grzegorz Cimochowski.

  • Cztery typy uczenia maszynowego

    Cztery typy uczenia maszynowego

    Początki uczenia maszynowego sięgają przełomu lat 50. i 60. Kluczowym momentem w rozwoju tej technologii było powstanie systemu eksperckiego Dendral na Uniwersytecie Stanforda, którego podstawowym zadaniem było ustalanie struktury molekularnej nieznanych chemicznych związków organicznych. Obecnie machine learning jest wykorzystywane w biznesie na szeroką skalę, m.in. do personalizacji ofert sprzedażowych czy identyfikacji nowych form kontaktu z klientami. Potwierdzają to dane SAS, z których wynika, że 68 proc. firm postrzega uczenie maszynowe jako istotny trend technologiczny.

    Maszyny uczą się dzięki algorytmom, czyli ciągom zdefiniowanych czynności niezbędnych do pozyskania danej wiedzy. Za każdym razem, gdy system zasilają nowe dane, prezentowane przez niego wyniki są coraz dokładniejsze. Uczenie maszynowe polega głównie na 4 działaniach:

    • kategoryzacji / katalogowaniu informacji
    • przewidywaniu określonych zdarzeń na podstawie zidentyfikowanych wzorców
    • identyfikacji nieznanych do tej pory wzorców i zależności między danymi
    • wykrywaniu anomalii oraz nieprzewidywalnych zdarzeń

    Różne rodzaje uczenia maszynowego

    Uczenie maszynowe nie jest jednolitą technologią. Sposób jej działania zależy w dużej mierze od tego, z jakich algorytmów korzysta i jakimi danymi zostanie zasilona. Eksperci SAS wskazują 4 podstawowe techniki uczenia maszynowego:

    Uczenie nadzorowane (Supervised Learning) – maszyny uczą się na podstawie przykładów. To tak jakby uczniowie otrzymali klucz do testu i zostali poproszeni o jego rozwiązanie. Dane wejściowe są wykorzystywane do wyszukiwania zależności, które służą do rozwiązania określonego problemu. Gdy uda się ustalić pewien wzorzec, jest on wykorzystywany w podobnych przypadkach.
    Przykłady zastosowania: zarządzanie ryzykiem; wykrywanie nadużyć; personalizacja interakcji; rozpoznawanie mowy, tekstu i obrazu oraz segmentacji klientów.

    Uczenie częściowo nadzorowane (Semi – Supervised Learning) – w tym przypadku maszyna otrzymuje zarówno dane wejściowe oznaczone (zawierające odpowiadające im dane wyjściowe, konkretne przykłady), jak i nieoznaczone (wymagające przyporządkowania do danych wyjściowych, znalezienia odpowiedzi). Ten rodzaj uczenia maszynowego wykorzystuje się w sytuacjach, gdy organizacja dysponuje zbyt dużą ilością danych lub gdy informacje są na tyle zróżnicowane, że nie sposób przyporządkować odpowiedzi do każdej z nich. System sam proponuje odpowiedzi i jest w stanie stworzyć ogólne wzorce.
    Przykłady zastosowania: rozpoznawanie mowy i obrazu, klasyfikacja stron internetowych.

    Uczenie nienadzorowane (Unsupervised Learning) – maszyna nie posiada „klucza odpowiedzi” i musi sama analizować dane, szukać wzorców i odnajdywać relacje. Ten rodzaj machine learning najbardziej przypomina sposób działania ludzkiego mózgu, który wyciąga wnioski na podstawie spontanicznej obserwacji i intuicji. Wraz ze wzrostem zbiorów danych prezentowane wnioski są coraz bardziej precyzyjne.
    Przykłady zastosowania: analiza koszyka zakupowego, wykrywanie anomalii, rozpoznawanie podobnych obiektów.

    Uczenie wzmocnione (Reinforcement Learning) – maszyna otrzymuje gotowy zestaw dozwolonych działań, reguł i stwierdzeń. Działając w ich ramach, dokonuje analizy i obserwuje ich skutki. Wykorzystuje reguły w taki sposób, aby osiągnąć pożądany efekt. Można to porównać do nauki gry np. w koszykówkę. Zasady określające, kiedy są kroki, faul czy aut pozostają niezmienne. Natomiast to, w jaki sposób drużyna zdobędzie punkt (zawodnik rzuci z dystansu, wbiegnie pod kosz lub poda) zależy od decyzji graczy, którzy podejmują ją na bieżąco.
    Przykłady zastosowania: nawigacja (wybór trasy na podstawie informacji o natężeniu ruchu i warunkach na drodze), gaming (dostosowywanie scenariuszy rozgrywki do działań gracza), robotyka (dostosowanie pracy robotów do obłożenia i rodzaju wytwarzanego produktu)

    Czego maszyna się nie nauczy?

    Mimo ogromnych możliwości i ciągłego udoskonalania uczenia maszynowego, technologia ta ma pewne ograniczenia. Maszyna nie posiada umiejętności kreatywnego myślenia i nie przedstawi spontanicznie hipotezy bez odpowiednich danych. Ponadto nie będzie odbierać nowych, nieznanych bodźców. Każda zmiana danych wpłynie na pracę maszyny. Oznacza to, że można wpłynąć (celowo lub przez pomyłkę) na prezentowane wyniki, manipulując informacjami dostarczanymi do systemu.

    Źródło: The Machine Learning Primer
  • Prywatna pożyczka hipoteczna – alternatywa dla kredytu hipotecznego?

    Prywatna pożyczka hipoteczna – alternatywa dla kredytu hipotecznego?

    Kredyt hipoteczny to dla wielu osób jedyna możliwość spełnienia marzeń o własnym domu lub mieszkaniu. Skomplikowane zasady jego uzyskania oraz rygorystyczne warunki…

    Kredyt hipoteczny to dla wielu osób jedyna możliwość spełnienia marzeń o własnym domu lub mieszkaniu. Skomplikowane zasady jego uzyskania oraz rygorystyczne warunki nie każdemu jednak pozwalają z sukcesem starać się o kredyt hipoteczny w banku. Dobrą alternatywą dla osób, które pragną szybko uzyskać środki finansowe na zakup lub budowę własnej nieruchomości, jest prywatna pożyczka hipoteczna oferowana przez Finanse dla Ciebie.

    Czym jest prywatna pożyczka hipoteczna i jakie są warunki jej uzyskania?

    Tradycyjny kredyt hipoteczny na zakup lub budowę nieruchomości

    Do uzyskania kredytu hipotecznego w banku potrzeby jest nie tylko wysoki wkład własny, który częściowo pokryje zakup wybranej nieruchomości, ale także dobra sytuacja materialna oraz zdolność kredytowa osoby ubiegającej się o jego przyznanie. Bank oddając nam do dyspozycji dużą kwotę pieniędzy musi być bowiem pewny, że uda nam się w ciągu kolejnych lat terminowo spłacać zaciągnięte zobowiązanie. Na uzyskanie kredytu hipotecznego mogą więc liczyć jedynie osoby posiadające stabilne zatrudnienie (najczęściej pracujące w oparciu o umowę o pracę na czas nieokreślony) oraz ci z nas, którzy w przeszłości korzystali już z pożyczek i nie mieli problemów z ich regularną spłatą.

    Co jednak w sytuacji, kiedy zarabiamy duże pieniądze, ale pochodzą one z innych źródeł niż pożądana przez banki umowa o pracę lub nie mamy historii kredytowej, która zwiększyłaby w oczach banku naszą wiarygodność kredytową? Czy w takiej sytuacji musimy zapomnieć o kredycie hipotecznym i przez wiele kolejnych lat wynajmować mieszkanie odkładając pieniądze na zakup własnego miejsca na ziemi? Okazuje się, że niekoniecznie! Osobom znajdującym się w takiej sytuacji w rozwiązaniu ich problemów może bowiem pomóc prywatna pożyczka hipoteczna oferowana przez Finanse dla Ciebie na stronie internetowej.

    Prywatna pożyczka hipoteczna – czym jest i co może nam zaoferować?

    Finanse dla Ciebie to firma, która oprócz konsolidacji chwilówek i pożyczek gotówkowych dla osób prywatnych i przedsiębiorstw oferuje także prywatne pożyczki hipoteczne. Jest to świetna alternatywa dla tradycyjnych kredytów hipotecznych, która idealnie sprawdzi się także w przypadku osób, które z niepowodzeniem starały się o przyznanie pomocy finansowej na zakup nieruchomości w banku.

    Uzyskanie prywatnej pożyczki hipotecznej oferowanej na stronie https://www.splatachwilowek.pl nie wymaga od nas przedstawiania dokumentów potwierdzających zdolność kredytową, wysokość oraz źródła dochodów oraz sytuację życiową i materialną. Podczas rozpatrywania wniosku o jej przyznanie firma nie weryfikuje naszych danych w BIK, BIG oraz KRD, dzięki czemu o jej uzyskanie mogą starać się także osoby, które w przeszłości miały problemy ze spłatą zobowiązań finansowych. Jedynym warunkiem, który należy spełnić, aby ubiegać się o prywatną pożyczkę hipoteczną jest posiadanie nieruchomości, która będzie mogła stanowić zabezpieczenie kredytu. A jest o co się starać, gdyż kwota prywatnej pożyczki hipotecznej może sięgać nawet 1 mln złotych!

    Z prywatnej pożyczki hipotecznej online warto skorzystać tym bardziej, że jest ona oferowana na jasnych i przejrzystych warunkach, bezpieczna oraz niskooprocentowana. Ogromną zaletą, którą docenią zwłaszcza osoby niecierpliwe i pragnące jak najszybciej przenieść się na swoje, jest także bardzo szybka weryfikacja złożonego wniosku. Wstępną decyzję kredytową otrzymamy bowiem jeszcze tego samego dnia, w którym złożyliśmy kompletny wniosek.

    Artykuł sponsorowany

  • 6 powodów, dla których warto wdrożyć Business Intelligence

    6 powodów, dla których warto wdrożyć Business Intelligence

    Bieżące informacje dotyczące procesów zachodzących w firmie są podstawą dobrych decyzji biznesowych. Pozwalają zrozumieć zachodzące zmiany i usprawniają interpretację wyników działań przedsiębiorstwa. Ograniczony dostęp do istotnych danych może spowolnić lub zatrzymać rozwój organizacji. Tym bardziej warto poznać 6 oznak wskazujących na konieczność usprawnień w zakresie dostępu do danych oraz procesów podejmowania decyzji.

    Lepiej uprościć niż komplikować

    Rozpoczynając analizę, warto zwrócić uwagę na stosowane w przedsiębiorstwie metody monitorowania i ewaluacji. Sprawdzeniu poddaje się aktualną sytuację w firmie, jej wyniki finansowe oraz stopień realizacji celów biznesowych. Informacje, którymi zarządza się, pochodzą z wielu różnych źródeł: oprogramowania ERP, DMS i CRM oraz z systemów różnych dostawców.

    Można mieć złudne poczucie kontroli nad realizacją przyjętych celów strategicznych, jeśli w firmie sprawozdania generuje się raz w miesiącu lub rzadziej.

    Jeśli pojawiają się pytania, na które trudno jest odpowiedzieć, a niepewność może mieć związek między innymi z aktualnym poziomem stanów magazynowych lub brakiem możliwości natychmiastowego wglądu w bieżące działania poszczególnych działów. Brakuje pełnego rozeznania w sytuacji finansowej firmy, a kluczowe decyzje biznesowe podejmuje się w oparciu o przewidywania, domysły i mało precyzyjne dane.

    Jeśli tak się dzieje, najwyższy czas zweryfikować wiedzę na temat jej funkcjonowania oraz rozważyć możliwości jej optymalizacji.

    Sygnały ostrzegawcze

    Istnieje wiele znaków ostrzegawczych, mogących wskazywać konieczność wdrożenia rozwiązania klasy Business Intelligence (BI) i podjęcie nowych decyzji.

    Opisane wcześniej przykłady to zaledwie kilka możliwych scenariuszy. Warto zwrócić uwagę na 6 najczęstszych i niepokojących sygnałów zwiastujących konieczność wprowadzenia ulepszeń.

    1. Systematycznie, manualne tworzenie raportów w oparciu o wiele źródeł danych

    Znaną praktyką wśród firm jest tworzenie działów zarządzających budżetem i realizowanymi procesami niezależnie od siebie. Różni pracownicy odpowiadają za funkcjonowanie poszczególnych obszarów. Kierownik ds. sprzedaży nadzoruje działania sprzedażowe. Kierownik działu części jest odpowiedzialny za zarządzanie asortymentem części zamiennych. Kierownik ds. wynajmu obsługuje wypożyczenia części i sprzętu, itd.

    Aby zarządzający poszczególnymi działami mieli wgląd w rzetelne dane firmy, szczególnie te dotyczące finansów, prognozowania, wyników sprzedaży, a także ogólnej kondycji organizacji, konieczne jest pobranie danych z oddziałów i skonsolidowanie ich w formie jednego raportu.

    Dla wielu przedsiębiorstw oznacza to konieczność manualnego pobierania danych z kilku źródeł oraz tworzenie raportu w programie Microsoft Excel. Jest to proces czasochłonny, żmudny i narażony na występowanie błędów. Zazwyczaj, zajmują się tym działy IT. Natomiast osoby, odpowiedzialne za podejmowanie decyzji, nie mają możliwości wglądu w wymagane dane, ani ich dostosowania w dowolnym miejscu i czasie.

    Istnieje lepsze rozwiązanie

    Narzędzia klasy Business Intelligence pozwalają na automatyczne zebranie informacji ze wszystkich źródeł dostępnych w obrębie przedsiębiorstwa oraz ich ujednolicenie i wyświetlenie w formie czytelnych pulpitów, raportów i analiz. Posiadają funkcje dynamicznych analiz, dzięki którym pracownicy mają możliwość wyświetlania danych na różnych poziomach szczegółowości, analizy trendów, a także identyfikacji przyczyn zmian.

    Określeni wcześniej pracownicy mogą dzielić się wiedzą oraz kontrolować poziom uprawnień i dostępu do danych dla poszczególnych użytkowników bezpośrednio w systemie. Wystarczy stworzyć raport lub pulpit menedżerski, a dostosuje się automatycznie do potrzeb konkretnego użytkownika lub działu. Dokument będzie zawierał wyłącznie niezbędne dane.

    2. Generowanie raportu może pochłonąć nawet kilka dni

    Zdarza się, że w organizacji sprawozdania są przygotowywane ręcznie, wymagane jest przejście kilku kroków: pobrania danych, ręcznego przetworzenia – dostosowując do potrzeb użytkownika, a także ich ostatecznej weryfikacji. Podczas tworzenia raportu, użytkownik nie ma pewności, czy dane uwzględnione w dokumencie są prawidłowe.

    Realizacja tego procesu może zająć kilka dni, znacznie opóźniając poprawne wykonanie analizy tendencji rynkowych oraz kluczowych wskaźników wydajności. Jeśli wystąpią niezgodności, może upłynąć sporo czasu zanim błędy zostaną wykryte i skorygowane. Zalecane jest stałe monitorowanie wskaźników efektywności (KPI). Jeśli nie jest to możliwe, śledzenie pomiarów powinno odbywać się co najmniej raz dziennie.

    Inne rozwiązanie?

    Do pobierania i przetwarzania danych, poleca się wykorzystanie skutecznego i efektywnego rozwiązania do analityki biznesowej, które w kilka sekund, za pomocą jednego kliknięcia wygeneruje raport. Dzięki dodatkowym funkcjom, takim jak agent powiadomień, dane napływające z systemów ERP, DMS, CRM oraz oprogramowania innych dostawców są na bieżąco monitorowane. W przypadku wystąpienia zmian, użytkownik zostanie o nich natychmiast poinformowany.

    3. Monitorowanie kluczowych wskaźników efektywności raz w miesiącu

    Jednak, śledzenie kluczowych wskaźników efektywności (KPI) raz w miesiącu jest niewystarczające. Aby raport opierał się na aktualnych i precyzyjnych danych, a także wiernie odzwierciedlał faktyczny stan funkcjonowania firmy, wskaźniki powinny być aktualizowane na bieżąco.

    Najlepszym rozwiązaniem byłoby ich śledzenie przez 7 dni w tygodniu, 24 godziny na dobę. W przypadku, gdy nie ma takiej możliwości, kontrola KPI powinna odbywać się przynajmniej raz dziennie. Jeśli natomiast proces generowania raportu trwa aż kilka dni, sprawne i szybkie podejmowanie decyzji strategicznych jest niemożliwe.

    Może coś lepszego?

    Aktualizacja danych powinna odbywać się na bieżąco, przez cały dzień. Organizacje korzystające z narzędzi Business Intelligence konfigurują je pod kątem szybkiego pobierania danych. W ten sposób, mają możliwość trzymania ręki na pulsie, kontroli kondycji firmy oraz identyfikacji przyczyny porażek i sukcesów, a także śledzenia mniejszych i większych zmian.

    Podczas pojawienia się problemu, firmy są w stanie sprawniej określić jego przyczynę oraz wdrożyć działania naprawcze. Czy w przedsiębiorstwie brakuje narzędzi umożliwiających precyzyjną kontrolę stanów magazynowych? Czy istnieje duża rozbieżność pomiędzy liczbą przepracowanych godzin a tych rozliczonych? Odpowiedzenie na te pytania umożliwi usprawnienie funkcjonowania firmy, dzięki możliwości szybkiej identyfikacji procesów, które działają i tych, które są mało skuteczne.

    Z pomocą zaawansowanego i wydajnego rozwiązania Business Intelligence, proces generowania raportów, pulpitów menedżerskich i analiz odbywa się automatycznie, podobnie jak w przypadku wysyłki powiadomień bezpośrednio do skrzynek odbiorczych użytkowników w sytuacji, gdy oczekiwane wartości KPI zostały osiągnięte. Dzięki temu, pracownicy mogą się bezzwłocznie zaangażować w realizację przypisanych zadań.

    4. Ograniczony i mało przejrzysty wgląd realizowanych operacji

    Zdarzają się sytuacje, kiedy kierownicy poszczególnych działów mają trudności z uzyskaniem dostępu do szczegółowych informacji, a potrzebują stałego i szybkiego dostępu do wyników finansowych, prognoz i wydatków, przygotowując się do spotkań z kadrą zarządzającą.

    Niestety, potrzebne im dane trafiają do nich w formie raportu generowanego tylko raz miesięcznie. Jak również w przypadku, kiedy Prezes Zarządu chciałby uzyskać wgląd w statystyki oraz informacje na temat zamówień czy produktów cieszących się największą popularnością w poszczególnych oddziałach, dane, których potrzebuje nie są dostępne.

    To zaledwie kilka przykładów trudności, z jakimi osoby decyzyjne borykają się podczas codziennej pracy.

    Jak to poprawić?

    Narzędzia klasy Business Intelligence oraz oprogramowanie klasy ERP pozwalają na wizualizacje danych za pomocą przejrzystych i czytelnych tabel i wykresów, zastępujących skomplikowane obliczenia arkuszy programu Excel. Wystarczy spojrzeć na wygenerowany raport, by znaleźć potrzebne informacje.

    Wybór właściwego narzędzia analityki biznesowej ułatwia prognozowanie i śledzenie trendów na rynku, a także przetwarzanie i prezentowanie informacji na dowolnym poziomie szczegółowości. Im więcej danych biznesowych zostanie poddanych analizie, tym zwiększa się prawdopodobieństwo podjęcia słusznej i przemyślanej decyzji.

    Proces decyzyjny obejmuje kilka kroków: obserwację, analizę i zapoznanie się z dostępnymi rozwiązaniami, podjęcie ostatecznej decyzji oraz jej realizację. Dzięki wdrożeniu narzędzi Business Intelligence wspierających podejmowanie decyzji, proces ten przebiega szybko i sprawnie.

    Jedną z kluczowych korzyści wynikających z wdrożenia rozwiązania BI w przedsiębiorstwie jest możliwość wyposażenia pracowników w zestaw specjalistycznych narzędzi do tworzenia zaawansowanych i kompleksowych analiz, umożliwiających natychmiastowy wgląd w dane niezbędne do ich wygenerowania. W środowisku pracy, w którym kluczowe dane są na wyciągnięcie ręki, łatwiej realizować wyznaczone cele.

    5. Niespójność danych

    W rozwijających się firmach liczba źródeł, z których pobiera się dane do analizy, podobnie jak ich złożoność, stale rośnie. Tworzenie sprawozdań dla pracowników, korzystających z coraz to nowszych źródeł danych, zajmuje analitykom coraz więcej czasu. Przy zwiększonym obciążeniu pracą, zespoły analityczne składające się zazwyczaj z kilku specjalistów, nie nadążają z terminową realizacją zadań. Pracownicy coraz częściej korzystają również z rozmaitych metod przetwarzania danych. W takim przypadku, zachowanie jednolitej struktury danych staje się sporym wyzwaniem.

    Łatwo na to zwrócić uwagę w sytuacji, kiedy pracownik generuje raporty za pomocą programu Microsoft Excel, a wprowadzone przez niego modyfikacje są widoczne tylko dla niego. Zmiany są udostępniane i przekazywane dalej innym użytkownikom – w formie papierowej, załącznika w wiadomości e-mail lub podczas bezpośredniej rozmowy, tracąc tym samym kontrolę nad spójnością i zgodnością danych.

    Można zrobić to lepiej

    Jedno zintegrowane rozwiązanie BI, zawiera zestaw narzędzi do samodzielnego tworzenia analiz, pulpitów menedżerskich i raportów w przejrzystym dla użytkownika środowisku. Niezależnie od tego, kto i gdzie wprowadza zmiany, są one aktualizowane na bieżąco w czasie rzeczywistym.

    Pracownicy mają możliwość udostępniania dokumentów w przestrzeni całej organizacji oraz poddania analizie danych, które są im niezbędne. Dzięki zaawansowanym funkcjom, raporty i analizy prezentują zawsze bieżące i jednolite dane.

    6. Ograniczenia dostępu danych

    Solidna baza danych nie przełoży się na sukces firmy, jeśli osoby zarządzające procesami w przedsiębiorstwie nie będą miały do nich łatwego dostępu. Ważne jest, aby pracownicy posiadali możliwość monitorowania i analizy nie tylko danych wewnętrznych, ale także danych napływających z zewnętrznych źródeł, spoza przedsiębiorstwa. Już wkrótce, ilość danych zewnętrznych znacznie przewyższy ilość danych wewnętrznych. Przedsiębiorstwa, które nie będą potrafiły efektywnie wykorzystać tych zasobów, pozostaną w tyle za konkurencją.

    Biorąc pod uwagę kompleksowość źródeł danych, a także złożoność większości rozwiązań BI dostępnych na rynku, zadania dotyczące przygotowywania raportów i analiz spoczywają najczęściej na pracownikach działów IT. Jest to żmudne, złożone działanie. Pracownicy nie posiadający odpowiedniej wiedzy informatycznej, nie będą w stanie samodzielnie opanować zasad obsługi systemu.

    Istnieje lepsze rozwiązanie

    Zaawansowane i wydajne narzędzia Business Intelligence pomagają w codziennej pracy oraz w podejmowaniu odpowiednich decyzji biznesowych wszystkich pracowników przedsiębiorstwa, niezależnie od poziomu posiadanej wiedzy technicznej. Tworzenie raportów i analiz jest niezwykle proste.

    Za pomocą kilku kliknięć, użytkownik ma możliwość sprawnego przejścia do różnych poziomów szczegółowości danych przy jednoczesnym zachowaniu bezpieczeństwa i wiarygodności. Takie warunki pracy sprzyjają zastosowaniu biomodalnego podejścia do rozwiązań BI, zakładającego samodzielną eksplorację danych.

    Czy Twoja firma jest gotowa na wdrożenie narzędzi BI?

    Jeśli pojawi się choć jeden z przedstawionych sygnałów ostrzegawczych w firmie,  warto przemyśleć, czy to nie jest dobry moment na wprowadzenie zmian. Zaskakujące może się okazać, jak wiele możliwości usprawnienia procesów biznesowych oferują nowoczesne narzędzia klasy BI.

    Rozwiązania informatyczne wspierające pracę przedsiębiorców są obecnie dostępne nie tylko dla dużych graczy, ale również dla małych i średnich firm. Przy stosunkowo niewielkim koszcie mogą przynieść ogromne korzyści dla organizacji.

    Źródło: www.IT.integro.pl
  • Cisco ogłasza zamiar przejęcia Duo Security

    Cisco ogłasza zamiar przejęcia Duo Security

    Cisco ogłosiło chęć przejęcia firmy Duo Security z siedzibą w Ann Arbor w stanie Michigan, USA. Przedsiębiorstwo jest dostawcą ujednoliconych rozwiązań dostępowych oraz wieloetapowego uwierzytelniania w chmurze. Narzędzia Duo Security umożliwiają potwierdzenie tożsamości użytkowników oraz określenie poziomu bezpieczeństwa urządzeń, z których korzystają, zanim otrzymają one dostęp do aplikacji – chroniąc tym samym organizację przed cyberatakami.

    Integracja platform sieciowych i chmurowych oraz rozwiązań z zakresu cyberbezpieczeństwa z narzędziami Duo Security umożliwi klientom Cisco łatwe i bezpieczne przyłączanie użytkowników do dowolnej aplikacji lub urządzenia sieciowego.

    Wartość transakcji wynosi 2,35 mld dolarów.

    Przejęcie Duo Security przez Cisco pozwoli na:

    ·         Rozszerzenie sieci intuicyjnej na środowiska multicloud. Firma Cisco zapewnia obecnie lokalną kontrolę dostępu do sieci za pośrednictwem swojego produktu Identity Services Engine (ISE). Oprogramowanie Duo jako model usługowy (SaaS) zostanie zintegrowane z Cisco ISE w celu rozszerzenia możliwości ISE o kontrolę dostępu do aplikacji w chmurze.

    ·         Uproszczenie polityki bezpieczeństwa w chmurze. Poprzez weryfikację poziomów zaufania użytkowników i urządzeń, Duo doda zaufaną tożsamość do bezpiecznej bramki internetowej Cisco (Secure Internet Gateway), technologii Cloud Access Security Broker, rozwiązań Enterprise Mobility Management oraz kilku innych produktów dostarczanych w chmurze.

    ·         Rozszerzenie zasięgu widoczności punktów końcowych. Szczegółowa widoczność ponad 180 milionów urządzeń zarządzanych przez Cisco zostanie dzięki możliwościom Duo rozszerzona na urządzenia mobilne i niezarządzane.

    Oczekuje się, że przejęcie powinno zostać sfinalizowane w pierwszym kwartale roku fiskalnego 2019 firmy Cisco, z zastrzeżeniem zwyczajowych warunków zamknięcia i wymaganych zgód regulacyjnych. Na czele Duo Security nadal będzie stał Dug Song, natomiast firma dołączy do struktur działu Cisco Networking and Security prowadzonych przez Davida Goeckelera.

  • Brak szyfrowania danych – ile można na tym stracić?

    Brak szyfrowania danych – ile można na tym stracić?

    O narzędziach do szyfrowania zaczęło się głośno szczególnie w kontekście RODO. Ale należy mieć świadomość, że szyfrowanie to jedno z podstawowych zabezpieczeń zarówno danych osobowych, jak i firmowych. Według mnie, jest ono niezbędne w przypadku przenośnych nośników danych.

    Czy zdarzyło się Wam zgubić pendrive albo nagraną płytę CD/DVD? To zdarza się bardzo często, często zdarza się również, że pożyczamy znajomym czy współpracownikom pendrive, na którym są już jakieś pliki z szeregiem ważnych, a nawet bardzo ważnych danych czy to biznesowych czy osobowych (zdjęcia, wyniki badań).

    Czy ukradziono Wam albo znacie kogoś, komu ukradziono notebooka np. z samochodu podczas pobytu w hipermarkecie? Ja znam co najmniej kilka takich przypadków.

    Można mieć oczywiście ubezpieczone auto czy notebooka od kradzieży, ale przecież dostaniemy w takim przypadku jedynie odszkodowanie za sprzęt, nie zaś za dane. Co istotne, do niezaszyfrowanych danych na takim nośniku czy urządzeniu może mieć dostęp każda osoba.

    Co zazwyczaj pada łupem złodziei danych? Dane osobowe pracowników, klientów, dostawców, umowy, oferty, zamówienia, CV pracowników i kandydatów do pracy….  Jak widać, są to zarówno dane osobowe jak i biznesowe. Utrata danych biznesowych może oznaczać stratę finansową przedsiębiorstwa.

    Brak jednego hasła i strata kilkuset tysięcy złotych

    Wiele lat temu w jednym z przedsiębiorstw, z którym współpracowałem przygotowywana była oferta na dostawę o wartości wielu milionów złotych w ramach postępowania publicznego, na którym firma miała zarobić kilkaset tysięcy. Oferta, zgodnie z wymaganiami, została złożona w terminie, ale niestety okazało się, że jeden z konkurentów złożył ofertę różniącą się ceną o dokładnie 0.4% w każdej z pozycji. Nie mógł być to przypadek – bo przypadki tego typu są mniej prawdopodobne jak wygrana szóstki w totolotka. Dlaczego tak się stało? Otóż dane z ofertą ani nie były chronione jakimkolwiek hasłem ani też nie były szyfrowane. Ktoś, pisząc kolokwialnie, ukradł dane i przekazał konkurencji. Takie zdarzenie nie powinno mieć miejsca w przypadku dokładnie opracowanej polityki bezpieczeństwa IT (czy to szyfrowania danych, czy systemu DLP, czy też opracowaniu właściwego dostępu do sieciowych zasobów dyskowych – a najlepiej kompletu tych narzędzi).

    Życie to jedno, a regulacje prawne to drugie – przypomnijmy, co mówi artykuł 32 RODO dotyczący bezpieczeństwa przetwarzania:

    /…/administrator i podmiot przetwarzający wdrażają odpowiednie środki techniczne i organizacyjne, aby zapewnić stopień bezpieczeństwa odpowiadający temu ryzyku, w tym między innymi w stosownym przypadku: a) /…/szyfrowanie danych osobowych /…/

    Jaką politykę szyfrowania wybrać?

    1.  Co szyfrować? 

    Konieczne jest zaszyfrowanie wszystkich przenośnych nośników danych – dysków notebooków, pendrive, płyt CDRW/DVDRW z danymi. Warto szyfrować współdzielone zasoby dyskowe, do których dostęp ma więcej osób niż wynika to z konieczności udostępniania danych.

    2.  Czy stosować profesjonalne narzędzia do szyfrowania czy opierać się na darmowych programach?

    Darmowe rozwiązania są wystarczające w zastosowaniach domowych albo jednoosobowych działalności gospodarczych. W przypadku organizacji zatrudniającej co najmniej kilku pracowników – warto zdecydować się na rozwiązanie płatne o kilku istotnych funkcjonalnościach, a więc posiadających np. konsolę centralnego zarządzania czy też opcję odzyskiwania haseł. Warto też sprawdzić, jakim algorytmem szyfrowane są dane. No i też w takim przypadku jeśli płacimy za rozwiązanie jesteśmy w stanie wykazać (w kontekście RODO i ewentualnej kontroli – że to narzędzie rzeczywiście było wdrożone i że w określonych sposób zabezpiecza dane).

    Na co zwracać uwagę wdrażając narzędzia do szyfrowania?

    Rozwiązanie powinno:

    – być wyposażone w moduł centralnego zarządzania, najlepiej w języku polskim, sprzężone z Active Directory, tak aby móc z jednego miejsca zarządzać użytkownikami, uprawnieniami i hasłami do systemu,

    – pozwalać na współdzielenie szyfrowanych zasobów (czyli do przykładowego pliku oferty dostęp ma zespół projektowy),

    – pozwalać na szyfrowanie przy pomocy dodatkowych zabezpieczeń, jak np. odciski palców czy karta chipowa,

    – szyfrować pliki, foldery, pocztę i pozwalać na wysyłanie informacji dotyczącym szyfrowania innym kanałem komunikacyjnym (np. SMS),

    – pozwalać na zarządzanie współdzieleniem szyfrowanych plików dzięki kluczom szyfrującym oraz zarządzanie użytkownikami gdy przebywają poza firmą (np. odzyskiwanie haseł),

    – pozwalać na uzyskanie wersji ratunkowej (np. płyty w przypadku awarii sprzętu umożliwia odszyfrować dysk na innym komputerze),

    – posiadać opcję systemu pozwalającą na szyfrowanie danych i umieszczanie ich w „skrzynkach” odbiorców komunikacji, bez udziału systemów poczty elektronicznej.

    Odpowiedź na pytanie czy warto szyfrować dane jest oczywista – warto, bo brak szyfrowania może kosztować. I nie chcę tutaj powielać informacji o potencjalnych karach wynikających z RODO, ale powinniśmy zdać sobie sprawę, że „żałując” kwoty rzędu 100 złotych rocznie na stanowisko, możemy stracić kilka (kilkadziesiąt, kilkaset) tysięcy złotych.

    A czy Ty szyfrujesz swoje dane?

  • Katarzyna Puzyńska i jej najlepsze książki

    Katarzyna Puzyńska i jej najlepsze książki

    Katarzyna Puzyńska to autorka jednej z najciekawszych serii kryminałów o fikcyjnej wsi Lipowo, położonej niedaleko Brodnicy. Z wykształcenia jest psychologiem i przez kilka lat pracowała jako nauczyciel akademicki. Porzuciła wykłady na rzecz realizowania swojej największej pasji, jaką jest pisanie. Seria to nie tylko trzymające w napięciu kryminały psychologiczne, ale przede wszystkim powieści, w których mocno rozbudowane są wątki społeczny i obyczajowy. Nie bez powodu Puzyńską porównuje się do Agathy Christie.

    Katarzyna Puzyńska i jej najlepsze książki

    Katarzyna Puzyńska to autorka jednej z najciekawszych serii kryminałów o fikcyjnej wsi Lipowo, położonej niedaleko Brodnicy. Z wykształcenia jest psychologiem i przez kilka lat pracowała jako nauczyciel akademicki. Porzuciła wykłady na rzecz realizowania swojej największej pasji, jaką jest pisanie. Seria to nie tylko trzymające w napięciu kryminały psychologiczne, ale przede wszystkim powieści, w których mocno rozbudowane są wątki społeczny i obyczajowy. Nie bez powodu Puzyńską porównuje się do Agathy Christie.

    Książki gwiazdy polskiego kryminału

    Saga o Lipowie składa się z dziewięciu części. Książki w dobrych cenach można nabyć w księgarniach internetowych – wydano je w wersji kieszonkowej, dlatego są dostępne już od kilku złotych. Pierwsza z części to, wspomniany wcześniej, “Motylek”, opowiadający historię zamordowanej zakonnicy. Akcja dzieje się oczywiście w niewielkiej, z pozoru sielskiej, wsi – Lipowo. Wkrótce okazuje się, że zamordowanych jest znacznie więcej, a na jaw wychodzą coraz to nowsze i ciekawsze tajemnice mieszkańców.

    Kolejny tom nosi tytuł “Więcej czerwieni”. W Lipowie jest lato, rozpoczyna się sezon żniw. Beztroską atmosferę przerywa informacja o znalezieniu brutalnie okaleczonych ciał dwóch kobiet. Policja podejrzewa, że jest to zaplanowane działanie seryjnego mordercy. Czy uda się go powstrzymać i uchronić kolejne kobiety?

    Trzeci tom sagi o Lipowie to “Trzydziesta pierwsza”. Tym razem akcja dzieje się w trakcie świąt. W kościele śpiewane są kolędy, dookoła pachnie sosnowym igliwiem. Już za kilka dni ma wrócić z więzienia morderca, który był sprawcą pożaru. Nikt nie spodziewa się jednak, że uderzy on na dzień przed Wigilią…

    “Z jednym wyjątkiem” to czwarta część historii ze wsi Lipowo. W miejscowości nie ma już śladu po zimie. Nadchodzi długo wyczekiwana wiosna. W okolicach Lipowa umiera kwiaciarka. Kobieta miała już swoje lata, dlatego nikt nie dostrzega niczego podejrzanego. Szybko okazuje się jednak, że było to zaplanowane morderstwo. Kto mógł chcieć śmierci samotnej starszej pani?

    Piąty tom serii nosi tytuł “Utopce”. W lecie 1974 roku, w niewielkiej wsi Utopce, ofiarą wampira padają dwie osoby, mieszkańcy wierzyli wówczas, że ma to związek z działaniem sił nadprzyrodzonych. Po trzydziestu latach, sprawę próbuje rozwikłać Daniel Podgórski. Czy faktycznie zbrodnia jest dziełem upiora, czy któregoś z mieszkańców?

    Szósta część, o tytule “Łaskun” w domu sędziego, policja odkrywa postać, która składa się z rozczłonkowanych zwłok prawnika i nieznanej kobiety. Na miejscu zbrodni znajduje się dowód, który obciąża Daniela Podgórskiego. Czy faktycznie aspirant jest mordercą, czy ktoś z komendy chce go wrobić w podwójne zabójstwo?

    “Dom Czwarty” jest siódmą częścią sagi. Była komisarz Kopp, wraca w rodzinne strony. Ma przyjrzeć się sprawie pewnego morderstwa. Nie dociera jednak na miejsce, przepadając bez śladu. Co stało się z Klementyną i kto podrzuca martwe ptaki?

    Przedostatni tom sagi nosi tytuł “Czarne Narcyzy”. Brodnica przygotowuje się do obchodów Święta Policji. Podgórski nie ma jednak powodów do radości. Próbuje rozwikłać zagadkę śmierci trójki bezdomnych. Wskazówek udziela mu pewna dziennikarka, która wkrótce przepada bez wieści.

    Serię o Lipowie zamyka tom dziewiąty pt. “Nora”. W szpitalu psychiatrycznym zostaje zabita pacjentka. Kilka godzin przed śmiercią wysyła wiadomość z prośbą o pomoc. Czyżby wiedziała o tym, że ktoś targnie się na jej życie? Czy Podgórskiemu uda się rozwikłać zagadkę?

    Kryminały Katarzyny Puzyńskiej trzymają w napięciu od początku do samego końca. Z pewnością warto przeczytać wszystkie dziewięć części. By kupić najtańsze książki z całej sagi, warto skorzystać z oferty księgarni internetowej.

    Artykuł sponsorowany

  • M4B zmienia KFC

    M4B zmienia KFC

    M4B odpowiada za cyfryzację restauracji KFC należących do sieci AmRest. Firma zrealizowała już największe europejskie wdrożenie menu board – w ciągu 3 lat zamontowała je w 600 restauracjach w Polsce i 9 innych krajach europejskich. Co więcej, w ciągu najbliższych lat M4B będzie wspierać AmRest we wdrożeniu systemu samoobsługowego i wyposaży większość europejskich restauracji KFC w kioski samoobsługowe.

    M4B jest polskim producentem i dostawcą innowacyjnych rozwiązań digital signage (branża, która wykorzystuje cyfrowe nośniki do przekazu informacyjno-reklamowego). Kompleksowa obsługa projektów gwarantowana przez firmę jest doceniana przez klientów i to nie tylko polskie firmy, ale też międzynarodowych liderów w całej Europie. Wśród klientów M4B są przedstawiciele sektora handlowego, HoReCa, finansowego, koncerny paliwowe, zarządzający obiektami sportowymi oraz instytucje kultury, takie jak Europejskie Centrum Solidarności.

    digital signage

    Jesteśmy dynamiczną spółką technologiczną z ambitnymi planami. Chcemy rosnąć w aktualnie obsługiwanych krajach i pojawiać się w kolejnych. Równolegle realizujemy dwie strategie. W pierwszej, tzw. client-following, podążamy za naszymi klientami. W ten sposób weszliśmy do wielu krajów europejskich jak Hiszpania czy Rumunia, gdzie odpowiadaliśmy za instalacje dla restauracji KFC. Druga to tzw. market-seeking, czyli budowanie od podstaw naszych struktur w atrakcyjnych i niezagospodarowanych do tej pory lokalizacjach. W ten sposób zaczynamy właśnie działalność na Bliskim Wschodzie – mówi Jarosław Leśniewski, Prezes Zarządu M4B S.A.

    Kubełek cyfrowych nowości w restauracjach KFC

    Od trzech lat M4B współpracuje z firmą AmRest właścicielem m.in. sieci restauracji KFC, Burger King i Pizza Hut. Projekt początkowo realizowany był tylko w Polsce, ale w tym momencie firma odpowiada za wdrożenia w aż 10 krajach europejskich. Głównym produktem dla KFC są cyfrowe menu boardy, które wdrożono już w 600 restauracjach. Od tego roku KFC wprowadza do swoich restauracji systemy samoobsługowe. Obok rozwiązań typu web ordering, mobile ordering, skip the line – kiosk ordering to niezwykle ważny element cyfrowego świata KFC. Za produkcję kiosków samoobsługowych odpowiada M4B.

    – Dwa lata temu mieliśmy tylko pomysł i pewność, że KFC zacznie stosować tego typu rozwiązania. Zaangażowaliśmy najlepszych projektantów wzornictwa przemysłowego, wspólnie z inżynierami z Schenzhen wypracowaliśmy własne technologie z zakresu ekranów dotykowych, zaangażowaliśmy najlepsze polskie firmy z zakresu elektroniki i mechaniki. W efekcie powstał niezwykły produkt – elegancki, nowoczesny i o unikalnej konstrukcji. Potencjał samych restauracji w AmRest w najbliższych latach liczony jest w tysiącach, bo to nie tylko marka KFC, lecz również Burger King i Pizza Hut, które należą do sieci – mówi Jarosław Leśniewski.

    Czemu międzynarodowa sieć postawiała na polską firmę?

    – Byliśmy zdeterminowani, aby zapewnić klientom zupełnie nowe doświadczenie w zakresie dokonywania zamówienia. M4B nam to umożliwiło dostarczając rozwiązanie, w którym główny nacisk jest położony na połączenie oprogramowania z urządzeniem. Każdy element projektu kiosków oraz aplikacji został dokładnie przemyślany pod kątem dostarczenia klientom unikalnej  jakości, płynności, logicznego przebiegu procesu zakupowego i łatwości wyboru. Dużą wagę przykładaliśmy także do detali takich jak szyba, dotyk czy zaokrąglenia. Realizacja AmRest z M4B to przykład cyfryzacji restauracji, dzięki której to klient znajduje się w centrum zainteresowania i może składać zamówienie tak, jak chce – mówi Maciej Buba, Digital Director, AmRest.

    digital signage

    Ponadprzeciętna rentowność spółki

    Przyjęty model biznesowy realizowany w obszarze digital signage, trafne inwestycje (ekrany LED, kioski samoobsługowe) oraz ekspansja zagraniczna zakładająca podążanie za klientami, przekładają się na wyniki finansowe. Przychody M4B S.A. w 2017 roku sięgnęły prawie 16 mln zł i były o 25% wyższe niż rok wcześniej. Jeszcze lepiej wygląda I kwartał 2018 roku. W ciągu 3 miesięcy przychody spółki notowanej na New Connect wyniosły ponad 5 mln zł i były aż o 377% wyższe niż w analogicznym okresie 2017 roku. Warto podkreślić, że działalność na rynkach zagranicznych pozytywnie wpływa na wyniki sprzedaży i finansowe – już teraz instalacje poza Polską generują ponad 41% przychodów spółki.

    – M4B jest obecnie jedną z największych i najbardziej rozpoznawalnych marek digital signage w Polsce. Naszą siłą napędową w kolejnych latach będą inwestycje w nowe rozwiązania i produkty oraz intensywna ekspansja zagraniczna wykraczająca poza Unię Europejską. W efekcie w ciągu 2-3 lat chcemy być w TOP3 największych dostawców technologii samoobsługowych oraz technologii ekranów LED w Europie – mówi Jarosław Leśniewski, Prezes Zarządu M4B S.A.

  • Kredyt hipoteczny – jak się do niego przygotować?

    Kredyt hipoteczny – jak się do niego przygotować?

    Najwięcej nieruchomości w Polsce kupowanych jest dzięki możliwości skorzystania z kredytu hipotecznego. Szczególnie często decydują się na niego młode rodziny, osiedlające się w miastach, pragnące kupić swoje własne, wymarzone mieszkanie. Co należy więc wiedzieć na temat kredytów hipotecznych i na jakiej zasadzie wyceniana przez bank jest wartość każdego z mieszkań? Poniższy tekst objaśni najbardziej nurtujące zagadnienia związane z tym tematem.

    Czym jest bankowo-hipoteczna wartość nieruchomości?

    Bankowo hipoteczna wartość nieruchomości to dość zagadkowy termin i na pierwszy rzut oka wyglądający bardzo specjalistycznie. W praktyce jednak jest to najprościej mówiąc wartość nieruchomości szacowana przez bank. Zadaniem takiej wyceny jest przede wszystkim ocena ryzyka jakim obciążony jest kredyt zabezpieczony daną nieruchomością. Konieczność sporządzania tego typu wyceny ściśle określona jest w ustawie o listach zastawnych i bankach hipotecznych. Bankowo-hipoteczna wartość nieruchomości oprócz tego, że umożliwia decyzję o przyznaniu kredytu, to również ściśle powiązana jest z oprocentowaniem kredytu. Od wyceny nieruchomości zależą wysokości poszczególnych rat i okres, w którym należy zwrócić należność bankowi.

    Wycena wartości nieruchomości – warto skorzystać z rady specjalistów

    Profesjonalna wycena wartości nieruchomości wymaga wzięcia pod uwagę bardzo wielu czynników. Opiera się głównie na przepisach prawa i specjalistycznych procedurach z jakich korzystają wykwalifikowani eksperci zwani rzeczoznawcami majątkowymi. Powołany rzeczoznawca majątkowy  szacując wartość nieruchomości sporządza operat szacunkowy, który jest wiążącym dokumentem opisującym wszelkie kroki podjęte przy wycenianiu dobytku. Wycena wartości nieruchomości jest szczególnie ważna w przypadku obciążania jej kredytem hipotecznym. To właśnie od niej zależy ile faktycznie będzie kosztował kredyt i czy warto tę nieruchomość obciążać kredytem i odsetkami. Jest to bardzo skomplikowane zadanie, wymagające specjalistycznej wiedzy związanej z zagadnieniem. W tym przypadku warto skorzystać z fachowej porady uznanego rzeczoznawcy, aby mieć pewność, że inwestycja jest opłacalna.

    Opłacalność kredytów hipotecznych

    Zawsze warto inwestować w nieruchomości. Opłacalność kredytu mierzona jest właśnie poprzez wycenę wartości nieruchomości. Bankowo-hipoteczna wartość nieruchomości jest narzędziem analizy tej opłacalności, na którą składa się wiele czynników zależnych od stanu, położenia i wielkości nieruchomości oraz zdolności kredytowych jej nabywcy.

  • F-Secure przejmuje MWR InfoSecurity

    F-Secure przejmuje MWR InfoSecurity

    F-Secure podpisała umowę przejęcia MWR InfoSecurity, globalnego dostawcy usług z zakresu cyberbezpieczeństwa, którego oddziały znajdują się w Wielkiej Brytanii, USA, RPA, Singapurze oraz w Polsce. Decyzja stanowi ważny krok w realizacji strategii rozwoju organizacji i sprawia, że F-Secure jest obecnie największym w Europie podmiotem oferującym produkty oraz usługi do wykrywania i zwalczania cyberzagrożeń.

    Samu_Konttinen_F-Secure
    Samu Konttinen, F-Secure

    Uznane w branży technologie stosowane przez MWR InfoSecurity, takie jak platforma do wykrywania zagrożeń Countercept, będą stanowiły idealne uzupełnienie dla naszych dotychczasowych rozwiązań – mówi Samu Konttinen, prezes firmy F-Secure. – Niezmiernie miło mi powitać kilkuset doświadczonych pracowników, którzy świadczą usługi z zakresu cyberbezpieczeństwa na czterech kontynentach. Wspólnie będziemy mogli opracowywać kolejne rozwiązania w oparciu o połączenie wiedzy ekspertów oraz możliwości sztucznej inteligencji i reagować na cyberataki w trybie 24/7, aby skuteczniej chronić naszych klientów – dodaje Konttinen.

    MWR InfoSecurity jest jednym z największych na świecie dostawców usług z zakresu cyberbezpieczeństwa, który zatrudnia niemal 400 pracowników. Zespół wykwalifikowanych ekspertów nie tylko wykorzystuje nowoczesne technologie do zwalczania cyberzagrożeń, ale stara się również zrozumieć sposób myślenia cyberprzestępców poprzez regularnie przeprowadzone badania.

    Wnioski z analiz technicznych i symulacji zaawansowanych ataków ukierunkowanych pozwolą na bieżąco dostosowywać rozwiązania do najnowszych zagrożeń, skutecznie je wykrywać oraz neutralizować. Portfolio F-Secure zostanie wzbogacone między innymi o platformę Countercept, która aktywnie wykrywa ataki, a także o zarządzane usługi z zakresu ochrony przed phishingiem (phishd).

    Innowacje, które wdrażamy, zawsze były efektem badań przeprowadzanych przez naszych specjalistów i z użyciem nowoczesnych technologii. Dzięki temu zyskaliśmy zaufanie największych organizacji na świecie – mówi Ian Shaw, dyrektor generalny MWR InfoSecurity, który dołączy do kierownictwa F-Secure w lipcu. – Wartości, które wyznaje firma F-Secure są nam bardzo bliskie, dlatego cieszy nas fakt, że będziemy mogli razem pracować i odgrywać istotną rolę w branży cyberbezpieczeństwa – podsumowuje Shaw.

    Transakcja ma zostać sfinalizowana na początku lipca 2018 r. Wstępny wkład pieniężny firmy F-Secure za nabycie wszystkich pozostających w obrocie udziałów MWR InfoSecurity Limited wyniesie 91,6 miliona EUR[1] (rezerwy własne oraz finansowanie bankowe). Ponadto, premia wynosząca maksymalnie 28,6 miliona EUR[2] zostanie wypłacona w gotówce po 18 miesiącach od finalizacji, o ile zostaną osiągnięte uzgodnione cele biznesowe[3].

    Przychód firmy MWR InfoSecurity za rok finansowy 2017[4] wyniósł 25,1 miliona EUR[5], a za rok finansowy 2018[6] 31,1 miliona EUR.

    [1] Dane przeliczono na euro, stosując średni kurs wymiany walut funta brytyjskiego wynoszący 0,8732 w dniu 15 czerwca
    [2] Dane przeliczono na euro, stosując średni kurs wymiany walut funta brytyjskiego wynoszący 0,8732 w dniu 15 czerwca 2018 r.
    [3] dla okresu od 1 lipca 2018 r. do 31 grudnia 2019 r
    [4] 1 lipca 2016 – 30 czerwca 2017
    [5] Dane przeliczono na euro, stosując średni kurs wymiany dla funta brytyjskiego (0,8595 dla roku finansowego 2017: 1 lipca 2016 r. – 30 czerwca 2017 r., 0,8870 dla roku finansowego 2018: 1 lipca 2017 r. – 31 maja 2018 r.).
    [6] 1 lipca 2017 – 30 czerwca 2018
  • Maxcom wypłaci dywidendę

    Maxcom wypłaci dywidendę

    Na dzisiejszym Zwyczajnym Walnym Zgromadzeniu Akcjonariuszy Spółki Maxcom S.A. podjęto decyzję w sprawie podziału zysku za rok obrotowy 2017.

    Zwyczajne Walne Zgromadzenie Spółki przyjęło propozycję Zarządu Spółki dotyczącą podziału zysku netto spółki Maxcom S.A za rok 2017 i wypłacie swoim akcjonariuszom dywidendy z zysku w wysokości 2.700.000,00 zł.

    Walne Zgromadzenie zadecydowało o wypłacie dywidendy w kwocie 1 zł na akcję. Dywidenda będzie wypłacona z zysku osiągniętego w roku 2017. Dzień dywidendy przypada na dzień 26 czerwca 2018 r., a dniem wypłaty dywidendy będzie dzień 4 lipca 2018 r. Wypłatą dywidendy objęto wszystkie 2.700.000 akcji Maxcom S.A.

  • Uczenie maszynowe – możliwości i wyzwania

    Uczenie maszynowe – możliwości i wyzwania

    Machine learning to obecnie jeden z najczęściej pojawiających się terminów w świecie technologicznym. I mimo, że koncepcja uczenia maszynowego jest znana od dawna, to dopiero rozwój technologiczny ostatnich lat spowodował, że zyskała ona na popularności i dzisiaj jest jednym z trendów, które zmieniają obraz współczesnego biznesu. Czy machine learning jest tylko dla dużych graczy? Nie. Jednak, żeby firma mogła w pełni wykorzystywać potencjał tej technologii, musi świadomie zmierzyć się z wyzwaniami jakie wiążą się z takim wdrożeniem.

    Machine learning – aktualny etap rozwoju – szczyt oczekiwań

    Technologie nieustannie poddawane są  procesom rozwojowym – od wynalezienia, przez wzbudzanie euforii, po stopniową komercjalizację. Dobrze obrazuje to model Gartnera ,,Hype Cycle for Emerging Technologies” (cykl szumu wokół technologii lub cykl dojrzałości technologii), który wyróżnia pięć faz przez które, zdaniem ekspertów instytutu, przechodzi każda nowa technologia w czasie swojego rozwoju. Najpierw mamy więc falę wznoszącą, czyli pierwsze informacje na temat technologii, badania, wdrożenia testowe, potem druga faza – dużo szumu oraz wielkie nadzieje i oczekiwania związane z technologią, tu mamy szerokie zainteresowanie ze strony prasy, pierwsze wdrożenia w firmach. Następnie ma miejsce trzecia faza – rozczarowania, wynikającego z pojawiających się ograniczeń danej technologii. Czwarta faza to naprawa tych ograniczeń i pojawiające się kolejne oczekiwania, zaś piąta faza to stabilizacja, faza dojrzała – czyli oczekiwania i możliwości są zbliżone, technologia osiąga pełną dojrzałość rynkową. W której fazie rozwoju jest teraz uczenie maszynowe? Według modelu cyklu szumu wokół technologii, jaki w 2017 roku zaprezentowała firma Gartner, machine learning znajduje się teraz w drugiej fazie rozwoju obok takich technologii jak m.in.: wirtualni asystenci, blockchain, autonomous driving (samochody autonomiczne), connected home (dom podłączony do internetu), czy cognitive computing.

    „Technologie potrzebują różnej ilości czasu, żeby przesunąć się od fazy 1 do 5, jednym zajmuje to kilka lat, innym więcej niż 10. Doskonale widać to na przykładzie uczenia maszynowego, którego koncepcja jest znana od lat. Termin machine learning został zdefiniowany w 1959 r. przez Arthura Lee Samuel’a, a w drugiej fazie modelu Hype Cycle Gartnera pojawił się dopiero w 2015 roku i obecnie nadal się tam znajduje. Co ciekawe trzy lata temu uczenie maszynowe było nawet bliżej fazy trzeciej niż w 2017 roku. Dlaczego dopiero niedawno machine learning zyskał na popularności i zrobił się taki duży szum wokół tej technologii? Wiąże się z tym rozwój technologiczny, który z jednej strony wygenerował olbrzymią ilość danych, która codziennie jest tworzona, a którą biznes chciałby analizować w celu tworzenia nowych produktów i usług oraz optymalizowania swoich procesów biznesowych. Z drugiej strony, dzięki coraz większej mocy obliczeniowej oraz tańszych nośnikach do przechowywania danych możemy wykorzystywać możliwości uczenia maszynowego, aby z tej olbrzymiej ilości danych wyciągać potrzebne nam wnioski. Faza druga w cyklu wzrostu technologii oznacza, że jest to etap, gdzie ilość szumu rośnie, gdzie jest bardzo duże zainteresowanie możliwościami, a temat jest bardzo na topie. Oczekiwania często rosną znacznie szybciej niż biznes jest gotów je wykorzystać, co może spowodować przesunięcie się ku fazie trzeciej, gdzie następuje rozczarowanie wynikające z błędnego rozumienia możliwości. Obecnie jednak uczenie maszynowe to zdecydowanie trend mocno rozgrzewający biznes i nadal mający olbrzymi potencjał” – mówi Jędrzej Fulara, CTO w Sparkbit.

    Machine learning w biznesie

    Pojawiają się coraz większe możliwości związane z wykorzystaniem machine learningu w biznesie. Człowiek nie jest wstanie poradzić sobie z natłokiem danych, których generuje się coraz więcej, dlatego to maszyna ma za zadanie je analizować i wyłuskać z nich te informacje, które są wstanie pomóc rozwijać się firmie. Co więcej dla algorytmów opartych na uczeniu maszynowym im więcej jakościowych danych tym lepiej. Według Deloitte, w roku 2018 wzrośnie wykorzystanie funkcji samouczenia się maszyn w średnich i dużych przedsiębiorstwach. Liczba wdrożeń i projektów pilotażowych opartych o tę technologię podwoi się w porównaniu z rokiem 2017, by ponownie dwukrotnie wzrosnąć do roku 2020.[1] Machine learning ułatwia firmom skupienie wysiłków na optymalizacji procesów, tworzeniu nowych dochodowych rozwiązań dostosowanych do potrzeb klientów, przy jednoczesnym zwiększeniu ich zadowolenia z produktu i całościowej obsługi. Wdrożenie w firmie systemów machine learning może też poprawić zaangażowanie pracowników, zwiększyć ich produktywność, dzięki odciążeniu ich pracy przez chociażby chatboty. W jakich obszarach obecnie najczęściej wykorzystywane jest uczenie maszynowe? Oto kilka przykładów:

    ·         Finanse – automatyzacja procesów

    Grupa banków w Australii i Nowej Zelandii, wdrożyła niemalże całkowitą automatyzację ponad 40 różnych procesów, w tym spłaty kredytów hipotecznych i tworzenia półrocznego audytu, zawierającego dane pobrane z kilkunastu różnych systemów, zyskując dzięki temu w niektórych obszarach nawet 30% oszczędności w skali roku. Branża finansowa wykorzystuje też uczenie maszynowe m.in. do wykrywania oszustów i zarządzania ryzykiem, oceny zdolności kredytowej, analizy i standaryzacji danych, wirtualnej obsługi klientów oraz ich profilowania.

    ·         Obsługa klienta

    Jest to jeden z najbardziej atrakcyjnych obszarów wykorzystania możliwości uczenia maszynowego w firmie, które dodatkowo stosunkowo łatwo wdrożyć. Korzyści? Obniżenie kosztów, poprawa jakości obsługi i usprawnienie jej, a z drugiej strony możliwość uniknięcia potencjalnych problemów. Już teraz wiele firm korzysta z chatbotów, analizuje historyczne dane z obsługi klienta, monitoruje ich aktywność w sieci, a na tej podstawie proponuje nowe produkty i usługi dostosowane do preferencji klienta.

    ·         Logistyka – sprawny łańcuch dostaw

    Dzięki kompleksowej analizie opartej o machine learning, nie tylko można ulepszyć system zamówień, zapewnić terminową dostępność produktu, zautomatyzować zarządzanie asortymentem oraz zasobami, ale też przewidywać potencjalne problemy z dostawą zanim jeszcze powstaną.

    ·        Analiza danych w celu:

    a.   Przewidywania popytu i predykcji problemów/awarii

    b.   Rekomendacji produktów (marketing, reklamy), treści (np. Facebook, Netflix, Spotify)

    c.   Określenia poziomu lojalność klienta

    d.   Tworzenia nowych produktów i usług

    ·       Medycyna

    Wsparcie w wykrywaniu chorób, roboty pomagające przeprowadzać operacje, projektowanie leków

    ·        HR – usprawnienia procesu rekrutacji pracowników

    Mimo coraz większej popularności machine learning, wciąż wiele firm nie wie jak odpowiednio wykorzystać jego możliwości w swoim rozwoju. Żeby wdrożyć uczenie maszynowe trzeba nie tylko posiadać odpowiednią infrastrukturę, wiedzę i dane, na których działamy, ale też mieć odpowiednio wykwalifikowany zespół, który jest w stanie zrealizować takie wdrożenie. Zanim zdecydujemy się na sięgnięcie po machine learning trzeba zrobić odpowiednią analizę, czy rzeczywiście dysponujemy odpowiednimi danymi. Wytrenowanie algorytmu może nie być możliwe, gdy będzie ich mało, nie będą reprezentatywne lub będą mocno zaszumione. Uczenie maszynowe nie naprawi danych, a jeśli ich jakość nie jest wystarczająca może to powodować problemy z jakością analizy i wniosków, które otrzymujemy w wyniku zastosowania algorytmu.

    „Maszynowe uczenie znalazło zastosowanie w najnowocześniejszych systemach decyzyjnych. AI trafiło do banków, ubezpieczalni, administracji rządowej, szkolnictwa i prywatnych firm. Zastąpiła tam człowieka pod obietnicą wyższej wydajności. Decydując o przyznaniu kredytu, przyjęciu na uczelnię, cenie ubezpieczenia, czy nawet ryzyku kryminalnej recydywy. Chcielibyśmy więc, by swoje decyzje systemy takie podejmowały w sposób neutralny i sprawiedliwy. Tylko czy jest to możliwe? Odpowiedź na to pytanie nie jest w tym momencie łatwa. Z jednej strony bowiem musimy dostarczyć dużą liczbę odpowiedniej jakości danych, na których będziemy pracować, a często się zdarza, że takich nie mamy. Przykładowo na dzień dzisiejszy trudno jest przewidywać ryzyko wystąpienia trzęsienia ziemi czy tsunami za pomocą algorytmów uczenia maszynowego, ponieważ nie mamy wystarczająco dużo danych, na podstawie których maszyna mogłaby się uczyć. Kolejne pytanie jakie należałoby zadać brzmi ,,Czy człowiek, który przygotował ten pierwotny zbiór danych do nauki jest skuteczny?” Ten okres intensywnego rozwoju technik maszynowego uczenia, który mamy już za sobą pokazał, że sztuczna inteligencja czasem podejmuje decyzje, z którymi mamy niestety problemy. Dlaczego? Niewinni ludzie byli oznaczani jako terroryści, kierowcy tracili prawa jazdy, pracownicy byli zwalniani, CV kandydatów odrzucane – tylko dlatego, że AI źle ich oceniło. Zła zaś ocena wcale nie wynikała z błędów w oprogramowaniu, lecz z bardzo trudnych do namierzenia błędów w szkoleniu, przede wszystkim dostarczenia zbioru danych, który sam w sobie zawierał to, co nazywamy w statystyce błędem systematycznym doboru próby (selection bias). Czasem zdarza się też maszynowa dyskryminacja w przypadkach, gdy sztuczna inteligencja jest szkolona na niewystarczająco losowej próbce populacji, dochodzi do sytuacji, w której niektórzy członkowie tej populacji są rzadziej, a inni częściej włączani do zbioru danych. Gdy zachodzi generalizacja tej wyuczonej selekcji, w decyzjach sztucznej inteligencji będą odzwierciedlały się te błędy, bez świadomości, że decyzje były niesprawiedliwe” – mówi Jędrzej Fulara, CTO w Sparkbit.

    Uczenie maszynowe ma w sobie olbrzymi potencjał, ale trzeba je wdrażać w firmie mądrze. Złe zastosowanie machine learning może generować duże i w praktyce niepotrzebne koszty. Najpierw więc należy zrobić odpowiednią analizę czy w naszej firmie wdrożenie algorytmów uczenia maszynowego ma sens. Jeśli mamy odpowiednie dane, infrastrukturę i z biznesowego punktu widzenia istnieje możliwość, że w ten sposób nasze przedsiębiorstwo będzie się rozwijać,  to jak najbardziej warto zainwestować w machine learning.

    [1] https://www2.deloitte.com/pl/pl/pages/technology-media-and-telecommunications/articles/tmt-predictions-2018.html
  • ABC Data wypłaci akcjonariuszom jeszcze 28,8 mln zł dywidendy

    ABC Data wypłaci akcjonariuszom jeszcze 28,8 mln zł dywidendy

    Wczoraj akcjonariusze ABC Data zdecydowali o wypłacie dywidendy za 2017 rok. Wysokość dywidendy wynosi 0,31 zł za akcję.

    Po wcześniejszej wypłacie zaliczki na dywidendę, do wypłaty zostało 0,23 zł za akcję, czyli 28,8 mln zł.

    Zwyczajne Walne Zgromadzenie ABC Data S.A. postanawia:

    1) podzielić zysk netto Spółki osiągnięty w roku obrotowym 2017 w kwocie 35.116.957 złotych w ten sposób, że zysk netto w całości zostanie przeznaczony do podziału pomiędzy akcjonariuszy jako dywidenda,

    2) wypłacić dywidendę za rok obrotowy 2017 w wysokości 38.832.738 złotych (tj. 0,31 złotych na jedną akcję), z czego:

    a) 35.116.957,40 złotych z zysku za rok obrotowy 2017,-

     b) 3.715.781,29 złotych z kapitału zapasowego. – napisano w komunikacie.

    Dniem dywidendy ustalono 29 czerwca 2018 r., natomiast wypłata ma nastąpić 25 lipca 2018 r.

  • Epson mocno dominuje

    Epson mocno dominuje

    Po trzech latach wzrostu sprzedaży Epson wyprzedził konkurencję na rynku projektorów do profesjonalnych zastosowań

    Niezależna agencja badawcza Futuresource ogłosiła zmianę lidera w kategorii dostawcy projektorów o jasności powyżej 6 tys. lumenów na rynku EMEAR.

    Zgodnie z najnowszymi badaniami rynku przeprowadzonymi przez Futuresource, Epson objął prowadzenie wśród producentów projektorów o jasności powyżej 6 tys. lumenów na rynku Pro AV i instalacyjnym. Udział Epson w sprzedaży tych projektorów wynosi obecnie 26,7%, co oznacza wzrost o niemal 11 procent w porównaniu do tego samego okresu w zeszłym roku. Co więcej, trend ten utrzymuje się w roku 2018 1.

    Wyniki te spowodowane są fenomenalnym wzrostem sprzedaży projektorów Epson we wszystkich segmentach. Firma jest obecnie głównym producentem projektorów biznesowych w całym regionie EMEAR i krajach Wspólnoty Niepodległych Państw. Udział Epson w rynku projektorów w tych regionach wynosi obecnie 31,3%. Pod względem sprzedanych urządzeń jest to wzrost o 120% w porównaniu do okresu sprzed 6 lat 2.

    Epson utrzymuje największy udział w światowym rynku projektorów już od 17 lat. Od 2006 roku firma sprzedała na całym świecie 22,3 mln projektorów 3. Epson to również globalny lider pod względem udziału w rynku projektorów o jasności powyżej 6000 lumenów.

    Projektory

    „Po prześcignięciu firmy Panasonic, Epson zdecydowanie wysunął się na pozycję lidera na rynku projektorów w regionie EMEAR. Duży wzrost udziału w obszarze projektorów profesjonalnych i biznesowych wynika ze stałego dążenia do zaspokajania oczekiwań klientów, odpowiadając na ich potrzeby poprzez tworzenie najlepszych w swojej klasie produktów z zastosowaniem unikalnych technologii Epson. Co więcej, nasi klienci potrzebują nie tylko najwyższej klasy produktów, lecz także pierwszorzędnego poziomu obsługi, jaki potrafią zapewnić nasze działy sprzedaży i obsługi technicznej. Prowadzimy w tym zakresie największe inwestycje na rynku ogólnoeuropejskim. Choć nie zawsze docieramy na niego z naszymi produktami jako pierwsi, dzięki naszym wyjątkowym relacjom z klientami jesteśmy tu najlepsi, co znajduje potwierdzenie w  liczbach” — skomentował Andrzej Bieniek, Business Account Manager w Epson.

     „Wprowadzenie dwa lata temu pierwszej serii projektorów laserowych, w tym urządzenia o jasności 25 000 lumenów, było momentem przełomowym dla Epson. Nasz pierwszy projektor o rzeczywistej rozdzielczości 4K, zaprezentowany na tegorocznych targach ISE, powstał z wykorzystaniem najnowocześniejszej technologii, dzięki której Epson wkracza w świat obrazu prezentowanego w najwyższej rozdzielczości. Wiodąca linia urządzeń audiowizualnych wkrótce wzbogaci się o nowy kompaktowy model o jasności 20 tys. lumenów. Oferujemy także innowacyjne urządzenia wizualne i rozwiązania do sal konferencyjnych oraz oprogramowanie Epson, dzięki któremu zaawansowane techniki projekcji stają się dostępne i przyjazne w obsłudze przez zwykłych użytkowników.

    Prezentowane wyniki finansowe to niewątpliwie zasługa naszych partnerów i klientów, za które jesteśmy im niezwykle wdzięczni”.

    Gwałtowny wzrost udziału w rynku nastąpił po wprowadzeniu na początku roku kilku nowych, doskonale sprzedających się projektorów w segmentach rozwiązań profesjonalnych, korporacyjnych i edukacyjnych. Należą do nich:

    • Pierwszy projektor o rzeczywistej rozdzielczości 4K firmy Epson, EB-L12000Q, będący zaawansowanym projektorem laserowym 3LCD o jasności 12 000 lumenów. Zaprojektowany został z myślą o wyższej klasy wypożyczalniach oraz stałych instalacjach na imprezach, festiwalach, atrakcjach turystycznych, targach, w dużych audytoriach i centrach handlowych. W modelu tym można stosować te same, zgodne ze standardem 4K, obiektywy co w projektorach Epson z serii EB-L1000, dzięki czemu jest on wyjątkowo uniwersalny.
    • Pierwsze urządzenie firmy Epson w kategorii popularnych kompaktowych projektorów WUXGA o jasności 20 000 lumenów –  EB-L20000U. Stanowi ono uzupełnienie instalacyjnego projektora laserowego o jakości 25 000 lumenów, EB-L25000U, który miał swoją premierę dwa lata temu. Oba modele mają obudowy zaprojektowane z myślą o standardzie branżowym jaki są rurowe ramy stalowe, dzięki czemu można je łatwo zainstalować w już istniejącej infrastrukturze. Sama instalacja jest wyjątkowo łatwa, a maksymalna niezawodność sprawia, że po ich zamontowaniu projektory mogą pracować bez konieczności stałego nadzorowania. Dodatkową zaletą jest fakt, że projekcja jest możliwa pod dowolnym kątem, w tym również w orientacji pionowej.
    • Nowa seria projektorów laserowych 3LCD, zaprojektowanych z myślą o salach konferencyjnych, placówkach oświatowych, muzeach czy zastosowaniach w branży turystycznej. Modele EB-L615U, EB-L610U, EB-L610W, EB-L510U i EB-L400U mogą zastąpić dotychczasowe projektory lampowe w sytuacjach, gdzie potrzebna jest moc światła o jasności w przedziale 4500 do 6000 lumenów. Oferta obejmuje różne zestawy funkcji – od modeli podstawowych, po specjalistyczne urządzenia posiadające takie funkcje jak łączność HDBaseT i przekazywanie obrazu.
    Wielkość wg regionu EMEAR EMEAR Europa Europa CISMEA CISMEA
    Kwartał 4 kw. 2016 r. 4 kw. 2017 r. 4 kw. 2016 r. 4 kw. 2017 r. 4 kw. 2016 r. 4 kw. 2017 r.
    Wielkość rynku 8428 8439 7968 8131 1537 1139
    Udział Epson 18% 28,9% 18% 28% 15% 36%
    Udział Panasonic 27% 24,3% 27% 27% 28% 9%
    Udział NEC 13,3% 13,7% 13,8% 13,1% 11,5% 19,4%
    1) Futuresource Consulting Limited – Projectors Market Insights – WorldWide Analyser CY 2017 – 2018
    2) Futuresource Consulting Limited – Projectors Market Insights – WorldWide Analyser CY 2012 – 2018
    3) Futuresource Consulting Limited – Projectors Market Insights – WorldWide Analyser CY 2006 – 2018
  • Action – wyniki w maju

    Action – wyniki w maju

    Zarząd Action S.A. w restrukturyzacji podał informację o szacunkowych skonsolidowanych przychodach ze sprzedaży Grupy w maju. Okazuje się, że Grupa zwiększyła przychody w porównaniu do maja zeszłego roku.

    Szacunkowo, w maju bieżącego roku Grupa Action wypracowała obroty na poziomie 134 mln zł. Jest to wynik lepszy niż rok wcześniej. W maju 2017 roku było to 118 mln zł.

    Zanotowano również wzrost marż w ujęciu rok do roku. W maju 2018 roku Grupa wypracowała marże na poziomie 6,5 proc.

     

  • Pilotaż z udziałem MedApp w Krakowskim Centrum Diagnostyczno-Klinicznym

    Pilotaż z udziałem MedApp w Krakowskim Centrum Diagnostyczno-Klinicznym

    W Krakowskim Centrum Diagnostyczno-Klinicznym (KCDK) rozpoczął się pilotażowy program zdalnego monitorowania pacjentów z problemami kardiologicznymi, przy wykorzystaniu systemu CarnaLife Lite firmy MedApp.

    Dzięki współpracy z MedApp i rozwiązaniom stworzonym przez tę firmę, zaoferujemy naszym pacjentom możliwość rejestracji badania EKG, pozwalającej na nieinwazyjną prediagnostykę zmienności rytmu serca. Analogicznie do badania EKG, rejestrowane będzie także badanie pomiaru poziomu glukozy we krwi. W przygotowaniu do telemedycznej rejestracji danych są urządzenia do mierzenia ciśnienia krwi oraz wagi ciała – komentuje Marta Filipowska, dyrektor Krakowskiego Centrum Diagnostyczno Klinicznego.

    Pilotaż będzie realizowany bezpłatnie i potrwa do końca lipca bieżącego roku. Do obsługi systemu został oddelegowany specjalnie przeszkolony personel. Pacjenci zainteresowani pilotażem mogą zgłaszać się do KCDK, mieszczącego się przy Al. Beliny Prażmowskiego 60.

    W listopadzie ubiegłego roku MedApp z sukcesem pilotażowo wdrożył system powiadamiania AED dla Wojewódzkiej Stacji Pogotowia Ratunkowego w Poznaniu. Dzięki rozwiązaniu stworzonemu przez spółkę czas dotarcia na miejsce wypadku znacząco się skróci. Partnerem technologicznym projektu był Microsoft. Z kolei w styczniu 2018 r. MedApp wdrożył w Zakładzie Bioinformatyki i Telemedycyny Uniwersytetu Jagiellońskiego Collegium Medicum system telemedyczny CarnaLife Holo. W efekcie studenci mogą w ramach zajęć dydaktycznych poszerzać wiedzę z zakresu obrazowania 3D i rozwiązań holograficznych.

  • I kwartał w Action

    I kwartał w Action

    Grupa Action opublikowała wyniki finansowe dotyczące pierwszego kwartału. „I kwartał 2018 roku zamknęliśmy wynikiem zgodnym z prognozą finansową dla Action. To potwierdza, że realizowany przez nas plan restrukturyzacyjny przynosi coraz lepsze rezultaty” – skomentował raport Wiceprezes Zarządu Action, Sławomir Harazin.

    Grupa Action w pierwszym kwartale 2018 osiągnęła przychody ze sprzedaży na poziomie 391 mln zł. Rok wcześniej wyniosły one 434 mln zł. Wypracowano stratę na działalności operacyjnej w wysokości prawie 6 mln zł, jednak za ten sam okres rok wcześniej zanotowano stratę na działalności operacyjnej wynoszącą ponad 17 mln zł. W porównaniu do poprzedniego roku pomniejszono także stratę netto z 18 mln zł  w pierwszym kwartale 2017 roku do 6,5 mln zł w minionym kwartale. [signinlocker]

    W raporcie stwierdzono, że faktyczna wartość kapitałów własnych Action S.A. w restrukturyzacji na koniec pierwszego kwartału 2018 roku wyniosła 128,3 mln zł. „Różnica pomiędzy wartością faktyczną a prognozowaną jest w dużej mierze efektem dokonanego pod koniec 2017 roku połączenia Spółki Action S.A. w restrukturyzacji m.in. ze Spółką Gram.pl Sp. z o.o. oraz Sferis Sp. z o.o. Należy podkreślić, iż utworzone rezerwy, odpisy aktualizujące oraz połączenie nie mają istotnego wpływu na sytuację płynnościową Spółki.” – dodano w raporcie.

    Jak widać, mamy strategię, realizujemy ją konsekwentnie, co przekłada się na coraz większą efektywność firmy. Na poziomie wyniku netto, po wyłączeniu wpływu połączenia spółek zależnych, zrealizowaliśmy założenia z prognozy restrukturyzacyjnej. A to najlepszy dowód na to, że potrafimy skutecznie działać w tak złożonych warunkach i z sukcesem wdrażać nowy model biznesowy. – dodał Sławomir Harazin.

    Grupa podkreśla ponadto, że Zarząd kładzie także nacisk na zwiększenie marży uzyskiwanej na sprzedaży oraz wolumenu sprzedaży. Uzyskane w ten sposób środki pieniężne posłużą do sukcesywnej spłaty zobowiązań w okresie realizacji układu. Wobec takich założeń, Action zamierza zwiększyć swoją działalność w obrębie dystrybucji z wartością dodaną (Action Business Centre) i w ten sposób utrzymać miejsce na rynku dystrybucji IT.

    Podobnie jak w okresie czwartego kwartału 2017, skupiamy się obecnie na optymalizacji naszej skonsolidowanej działalności, która powstała w wyniku połączenia spółek w połowie czwartego kwartału 2017 – podsumował Wiceprezes Zarządu Action S.A. Sławomir Harazin.

    [/signinlocker]

  • Wyniki finansowe Lenovo

    Wyniki finansowe Lenovo

    Grupa Lenovo przedstawiła wyniki za czwarty kwartał oraz za pełny rok finansowy zakończony 31 marca 2018 r. W czwartym kwartale roku finansowego 2017/18 firma Lenovo osiągnęła przychody na poziomie 10,6 mld USD, co oznacza wzrost o 11 proc. w ujęciu rok do roku. Jest to pierwszy dwucyfrowy wzrost od 10 kwartałów, który świadczy o solidnej dynamice wzrostowej.

    Zysk przed opodatkowaniem grupy Lenovo w czwartym kwartale roku finansowego wyniósł 37 mln USD, czyli wzrósł o 143 proc. w ujęciu rok do roku z poziomu 15 mln USD. Firma zwiększyła też rentowność kwartalną wszystkich trzech głównych działów w ujęciu rok do roku, a wyniki z działalności operacyjnej grupy1 wzrosły o 255 mln USD w ujęciu rok do roku do 76 mln USD. Zysk przypadający na akcjonariuszy w IV kwartale wyniósł 33 mln USD i był niższy niż w tym samym okresie w zeszłym roku ze względu na większą ulgę podatkową odnotowaną w roku finansowym 2016/17.

    Za pełny rok finansowy łączne przychody firmy przekroczyły 45,3 mld USD, a tym samym wzrosły w ujęciu rok do roku o 5 proc. Wyniki z działalności operacyjnej grupy sięgnęły 193 mln USD i poprawiły się o 96 mln USD w ujęciu rok do roku. Firma odnotowała stratę netto w wysokości 189 mln USD za cały rok głównie ze względu na jednorazowe, niegotówkowe obciążenie fiskalne w wysokości 400 mln USD z tytułu odroczonego podatku dochodowego w III kwartale roku finansowego 2017/18.

    Podstawowy zysk na akcję w czwartym kwartale roku finansowego wyniósł 0,28 centa USD, czyli 2,19 centa hongkońskiego, a za pełny rok podstawowa strata na akcję wyniosła 1,67 centa USD, czyli 13,05 centa hongkońskiego. Rada Dyrektorów Lenovo ustaliła dywidendę za rok finansowy zakończony 31 marca 2018 r. w wysokości 2,61 centa USA, czyli 20,5 centa hongkońskiego za akcję.

    Omówienie wyników grup

    • Firma Lenovo kontynuowała realizację „trójfalowej strategii”, w której akcentuje swoją pozycję w zasadniczych obszarach działalności, wzrost w kluczowych segmentach oraz inwestycje w nowe technologie. Wszystkie trzy główne działy biznesowe Lenovo wykazały siłę i dynamikę wzrostu w zarówno czwartym kwartale, jak i całym roku finansowym.
    • Dział Personal Computers and Smart Devices (PCSD) odnotował przychody za IV kwartał w wysokości 7,7 mld USD, co oznacza wzrost o 16 proc. w porównaniu z tym samym okresem rok wcześniej i najwyższy wzrost w ciągu czterech lat. Za cały rok dział PCSD uzyskał przychody w wysokości 32,4 mld USD, co stanowi wzrost względem roku finansowego 2016/17 o 8 proc.
    • Przychody Data Center Group (DCG) wzrosły w ciągu tego kwartału o 44 proc. w porównaniu z IV kwartałem roku finansowego 2016/17 do 1,2 mld USD. Za cały rok dział DCG uzyskał przychody w wysokości 4,4 mld USD, co stanowi wzrost o 8 proc. względem roku finansowego 2016/17.
    • Przychody Mobile Business Group (MBG) za IV kwartał 2017/18 wyniosły 1,3 mld USD, a za pełny rok — 7,2 mld USD. Zarząd Lenovo spodziewa się znacznie lepszych wyników w ciągu roku finansowego 2018/19, do czego przyczyni się zdecydowane cięcie kosztów oraz wyjątkowo wysoka efektywność MBG w Ameryce Łacińskiej (wolumen wzrósł o 40 proc. w ujęciu rok do roku za cały rok finansowy, czyli 20 razy więcej niż dla całej branży) oraz w Ameryce Północnej (gdzie wolumen za cały rok wzrósł o 57 proc. w ujęciu rok do roku).

    W trakcie kwartału firma Lenovo zapowiedziała także integrację działów Personal Computer and Smart Devices Group i Mobile Business Group w nową grupę Intelligent Devices Group (IDG). Podmiot ten dodatkowo przyspieszy osiąganie przez firmę pozycji lidera innowacyjności oraz realizację ambicji rozwojowych w pełnym spektrum urządzeń inteligentnych.  Nowa struktura dodatkowo zwiększy efektywność firmy dzięki wykorzystaniu wspólnego globalnego łańcucha dostaw oraz usług. IDG przyspieszy także innowacyjność Lenovo, łącząc na jednej platformie technologie telekomunikacyjne i komputerowe, co udoskonali komunikację między urządzeniami, użytkownikami, aplikacjami i zawartością cyfrową.

    Podsumowanie wyników za kwartał i pełny rok finansowy zakończony 31 marca 2018 r.

    (w milionach USD, poza wartościami w przeliczeniu na akcję)

    4 kw. 17/18 4 kw. 16/17 ZMIANA ROK DO ROKU ROK FINANSOWY 17/18 ZMIANA ROK DO ROKU
    Przychody 10 638 9579 11% 45 350 5%
    Zysk brutto 1544 1368 13% 6272 3%
    Marża zysku brutto 14,50% 14,30% 0,2 pkt 13,80% -0,4 pkt
    Koszty operacyjne -1443 -1294 11% (5885) 8%
    Stosunek kosztów do przychodów 13,60% 13,50% 0,1 pkt 13,00% 0,4 pkt
    Zysk operacyjny 101 74 36% 387 -42%
    Inne koszty pozaoperacyjne netto -64 -59 9% -234 28%
    Dochód przed opodatkowaniem 37 15 143% 153 -69%
    Opodatkowanie 12 89 -87% -280 N/D
    Zysk (strata) za okres/rok 49 104 -53% -127 N/D
    Udziały niedające kontroli -16 3 N/D -62 N/D
    Zysk (strata) przypadające na akcjonariuszy 33 107 -69% -189 N/D
    Zysk/(strata) w przeliczeniu na akcję (w centach USA)
    Podstawowy 0,28 0,97 -0,69 -1,67 N/D
    Rozwodniony 0,28 0,97 -0,69 -1,67 N/D
    [1] Wyniki z działalności operacyjnej mierzy się jako dochód przed opodatkowaniem z wyłączeniem kosztów restrukturyzacyjnych oraz zysków ze sprzedaży nieruchomości.
    2 Źródło: IDC Quarterly Personal Computing Device Tracker, 2018Q1 Final Historical
  • Jak działa pozycjonowanie lokalne?

    Jak działa pozycjonowanie lokalne?

    Każdy z nas codziennie wykorzystuje wyszukiwarkę Google w celu znalezienia interesujących nas informacji – a także produktów, usług, lokali itd. Wyszukiwarka Google jest w stanie samodzielnie wskazać najbliższe nam większe miasto, określając naszą lokalizację i dopasowując wyniki do naszych zapytań.

    Wykorzystując możliwości Google skutecznie może rozpocząć działania, dzięki którym możliwe będzie łatwe wypromowanie lokalnego biznesu. Pozycjonowanie lokalne składa się z różnorodnych elementów, które współdziałając umożliwiają pozyskanie nowych klientów, zwiększenie sprzedaży oraz sukcesywne budowanie wizerunku danej firmy.

    Jak działa pozycjonowanie lokalne?

    Pozycjonowanie lokalne w nieznacznym stopniu różni się od pozycjonowania ogólnego. W obu przypadkach najważniejszą rolę odgrywa optymalizacja strony oraz ilość i jakość linków prowadzących. W przypadku pozycjonowania lokalnego często stosuje się również promowanie za pomocą Google Maps. Najważniejsza różnica polega na tym, że w przypadku pozycjonowania lokalnego istotną część frazy stanowi odniesienie do lokalizacji – miasta, regionu czy nawet kraju. Czym charakteryzują się techniki lokalnego SEO?

    • Zdobywanie linków prowadzących do naszej strony jest jednym z bardziej efektywnych sposobów na wypromowanie danej strony internetowej w wynikach wyszukiwania Google. W przypadku pozycjonowania lokalnego zazwyczaj wykorzystuje się linki z lokalnych serwisów dotyczących np. wiadomości z miasta, lokalnych forów czy innych form zamieszczenia linku pozwalających na wskazanie lokalizacji.
    • Pozycjonowanie w Google Maps sprawia, że po wpisaniu przez zainteresowaną osobę frazy związanej z daną działalnością zostanie ona przedstawiona w wynikach wyszukiwania na mapie Google. Dodatkowo dołączone powinny zostać informacje na temat kontaktu, adresu. Koniecznie należy sprawdzić czy wszystkie dane umieszczone w internecie są zgodne – algorytm Google odnotowując, że wszystkie dane są jednakowe na różnych serwisach i stronach uzna daną stronę za wiarygodną. Dodatkowo umieszczenie odpowiednich zdjęć zagwarantuje wzrost zainteresowania potencjalnych klientów. Istotną rolę mogą również odegrać opnie. Pozytywne, ale także negatywne – bo przecież naturalną rzeczą jest to, że klienci różnią się w opiniach. Warto jednak dbać o to, by zapewnić swoim klientom taką jakość, aby przeważał pozytywny feedback.
    • Optymalizacja witryny – przygotowując witrynę pod kątem pozycjonowania należy zadbać o to, aby w treściach na stronie znalazły się czytelne odniesienia do obszaru działalności. Jeśli firma działa na kilka obszarach – np. w kilku sąsiednich miastach – warto utworzyć osobne, dedykowane podstrony, tak aby ułatwić botom Google zidentyfikowanie usług w powiązaniu z określoną lokalizacją.

    Co można zyskać decydując się na pozycjonowanie lokalne?

    Korzystając z możliwości lokalnego wypromowania własnej działalności każdy przedsiębiorca może liczyć na długotrwały wzrost zainteresowania klientów. Obecnie internet jest podstawowym źródłem czerpania informacji na wszelkie tematy. Każdy z nas decydując się na wybranie np. lokalnego fryzjera czy restauracji w pierwszej kolejności sprawdza informacje na jej temat w internecie. Wykorzystanie pozycjonowania lokalnego sprawia, że więcej osób zainteresuje się oferowanymi usługami lub towarami. Z pozycjonowanie mogą skorzystać również wszelkie organizacje non profit, np. fundacje.

    Stosując metody pozycjonowania na lokalnym rynku każda działalność, niezależnie od jej konkurencyjności czy tego jak długo funkcjonuje na rynku może znacznie polepszyć wyniki finansowe poprzez zwiększenie sprzedaży i zdobycie nowych klientów. Zadbawszy o dobre miejsce w rankingu stron w Google z większą skutecznością można budować pozytywny wizerunek firmy, który zapewni lepszy odbiór przez osoby z zewnątrz oraz wpłynie na wiarygodność przedsiębiorstwa.

    Pozycjonowanie lokalne najlepiej powierzyć profesjonalnym firmom zajmującym się promocją w internecie – Agencja SEO LTB Wrocław to miejsce, w którym znajdziesz rozwiązania dopasowane do potrzeb twojego przedsiębiorstwa.