Tag: GUS

  • Płace w górę, zatrudnienie w dół. Nowe dane GUS z sektora przedsiębiorstw

    Płace w górę, zatrudnienie w dół. Nowe dane GUS z sektora przedsiębiorstw

    Najnowsze dane GUS za marzec 2026 roku kreślą obraz polskiej gospodarki w fazie głębokiej transformacji kosztowej. Średnie wynagrodzenie w sektorze przedsiębiorstw wzrosło do poziomu 9652,19 zł, co oznacza skok o 6,6% w skali roku. Jednocześnie rynek pracy odnotował spadek zatrudnienia o 0,9%, sygnalizując, że liderzy biznesu coraz mocniej stawiają na optymalizację struktur zamiast na ekstensywną ekspansję zespołów.

    Marcowy odczyt płacowy nieznacznie przebił konsensus rynkowy, który zakładał wzrost na poziomie 6,3%. Szczególną uwagę przykuwa dynamika miesięczna – wzrost o 5,7% względem lutego sugeruje, że presja na portfele pracodawców nie słabnie. Jest to prawdopodobnie wypadkowa wypłat premii kwartalnych oraz walki o utrzymanie kluczowych specjalistów w otoczeniu, gdzie kompetencje stają się cenniejsze niż liczba etatów.

    Z perspektywy strategicznej, spadek liczby etatów do poziomu 6,39 mln przy jednoczesnym dynamicznym wzroście płac to klasyczny sygnał „robienia więcej mniejszymi zasobami”. Przedsiębiorstwa, mierząc się z wysokimi kosztami operacyjnymi, rezygnują z masowej rekrutacji na rzecz podnoszenia wynagrodzeń tym pracownikom, którzy realnie generują najwyższą wartość dodaną. To strategia wymuszona przez rynek: kapitał ludzki staje się najdroższym i najbardziej wymagającym składnikiem bilansu.

  • Nowe trendy na rynku mieszkaniowym – czego oczekują Polacy?

    Nowe trendy na rynku mieszkaniowym – czego oczekują Polacy?

    Mieszkanie w hierarchii potrzeb człowieka zajmuje czołową pozycję. Choć nie każdy ma tę świadomość, wpływa bezpośrednio na jakość życia. Tymczasem z danych Eurostatu za 2019 rok wynika, że w Polsce na jedną osobę statystycznie przypada 1,1 pokój. Ten wynik plasuje nas na ostatnim miejscu, ex aequo z Rumunią i Chorwacją. O czym w praktyce świadczą te liczby? Prawie 38% Polaków żyje w przepełnionych mieszkaniach. Sytuacja mieszkaniowa polskiego społeczeństwa jest problemem, z którym od lat borykają się kolejne rządy. Mimo że mieszkań przybywa, nadal popyt przewyższa podaż.

    Jak podaje GUS, liczba mieszkań, których budowę rozpoczęto w maju 2021, wzrosła o 92% w porównaniu z analogicznym okresem ubiegłego roku. Odpowiedź na rosnący popyt nie zawsze widać już w produkcji, niemniej w pozwoleniach i rozpoczętych budowach zdecydowanie tak. Tylko w pierwszym półroczu 2021 r. wydano pozwolenia lub dokonano zgłoszenia budowy 171,5 tys. mieszkań, co oznacza wzrost o 40,2% w porównywaniu z  tym samym okresem w 2020 r.

    Ceny materiałów budowlanych nie odstraszają

    Na popyt na nieruchomości z rynku pierwotnego nie wpływają negatywnie nawet ceny materiałów budowlanych, które biją dziś rekordy. W maju 2021, w stosunku do maja 2020, wzrosły o średnio 6,5%. Porównanie cen z października 2021 wobec tego samego miesiąca rok wcześniej, to już wzrost o średnio 20,5%. Tymczasem, paradoksalnie, część osób inwestuje dziś w nieruchomości nie mimo wysokich cen, ale z obawy, że te niedługo jeszcze wzrosną. Tym bardziej, że trwający od 8 lat boom budowlany zdaje się te obawy potwierdzać. Jest jeszcze inny powód, dla którego zakup nieruchomości cieszy się niesłabnącym powodzeniem. Jak wynika z badań, co najmniej dwie trzecie Polaków uważa to za optymalną formę lokowania oszczędności. Nic więc dziwnego, że coraz więcej osób chce zainwestować swój kapitał w podobne przedsięwzięcia.

    Chcemy mieszkać na powierzchni co najmniej 100 m2

    Jakie nieruchomości w zakresie domów jednorodzinnych cieszą się największym zainteresowaniem? Jak wynika ze statystyk, to domy o powierzchni od 100 do 140 metrów kwadratowych. – Tego typu inwestycje deweloperskie powstają dziś zwykle w nowych lokalizacjach. To z jednej strony efekt braku gruntów budowlanych w centrach miast, ale także odzwierciedlenie oczekiwań Polaków. Nie każdy chce dziś mieszkać w mieściezauważa Paweł Kuczera, założyciel i Prezes Zarządu Horyzont Inwestycji. Jak wynika z badań przeprowadzonych w latach 2019-2020 wśród wszystkich 66 miast na prawach powiatu, exodus na wiejskie obrzeża stał się normą. Jedynie Warszawa, Kraków, Rzeszów, Świnoujście i Żory zanotowały w tym czasie wzrost liczby mieszkańców. Biorąc pod uwagę te migracje, strukturę popytu na domy i to co oferuje rynek, łatwo zauważyć, że podaż nowych domów jest niewystarczająca względem wzrastającego zapotrzebowania. W efekcie widać rosnącą aktywność budownictwa w segmencie domów jednorodzinnych oraz wzrost transakcji na tym rynku, który z pewnością się utrzyma, mimo ciągłego wzrostu cen.

    Kusząca wizja domku z ogródkiem

    60% Polaków deklaruje chęć zamieszkania w domu z ogródkiem. Te marzenia wydają się być coraz trudniejsze do spełnienia. I nie chodzi tylko o kwestie finansowe. Już dwa lata temu aż 11% inwestorów wskazywało trudniej dostępne grunty jako czynnik, który może mieć negatywny wpływ na liczbę planowanych inwestycji. Ostatni rok zweryfikował te obawy i jedno trzeba przyznać – niska podaż gruntów, w połączeniu z ich rosnącymi cenami sprawiają, że inwestycje deweloperskie coraz częściej powstają w nowych lokalizacjach. Czy w związku z tym, że pozyskiwanie atrakcyjnych działek pod nowe inwestycje mieszkaniowe staje się coraz bardziej skomplikowane a deweloperzy budują mniej? Wręcz przeciwnie. – Mimo że w pierwszym półroczu 2020 roku na rynku mieszkaniowym można było wyczuć dużą niepewność, a większość deweloperów zaliczyła znaczące spadki sprzedaży, to już druga połowa roku zdecydowanie odwróciła ten trend. Co więcej, to właśnie sytuacja pandemiczna sprawiła, że Polacy coraz częściej marzą o własnym domu z kawałkiem ogródka tłumaczy Paweł Kuczera z Horyzontu Inwestycji. – Najlepszym potwierdzeniem jest zainteresowanie nabyciem nieruchomości już na etapie przysłowiowej „dziury w ziemi”, czego osobiście doświadczamy przy okazji realizowanych inwestycji deweloperskich.dodaje.

    O chęci realizacji marzeń mieszkaniowych Polaków świadczy także systematycznie wzrastająca liczba wniosków kredytowych na nieruchomości nabywane w powiatach otaczających metropolie. Jak wynika z analiz przeprowadzonych przez jeden z największych banków w Polsce, w 2016 roku stanowiły one 20% wszystkich wniosków na zakup domów jednorodzinnych. W 2019 już 24%, zaś w II-IV kwartale 2020 r. – aż 26%. Powstające dziś inwestycje deweloperskie są więc odpowiedzią na bieżące potrzeby klientów.

  • Windows 11 – Czy nowy system Microsoftu podbije serca użytkowników?

    Windows 11 – Czy nowy system Microsoftu podbije serca użytkowników?

    Przy okazji wydania nowej jedenastej już wersji Windowsa gigant z Redmont obiecywał bardzo wiele. Choćby niewiarygodnie nowoczesny i intuicyjny interfejs czy niepowtarzalną wydajność. Od premiery Windows 11 minęły już ponad dwa miesiące. Czas sprawdzić, czy Microsoft zrealizował swoje ambitne zapowiedzi.

    Wydajność systemu można sprawdzić w dosyć prosty sposób. Wydajemy kilka poleceń, uruchamiamy zadania w tle, mierzymy czas i porównujemy wyniki. Znacznie trudniej jest sprawdzić produkty pod kątem doświadczeń użytkownika, czyli tzw. user experience.

    Czy korzystanie z produktu jest intuicyjne? Czy nie jest irytujące? Jak wiele uwagi użytkownika zabiera sam interfejs urządzenia? Czy system może wykluczać jakąś grupę osób? W tych pytaniach kryją się wyzwania, którym czoła musieli stawić designerzy nowej jedenastej już wersji Windowsa.

    Windows 11 – nie dla każdego?

    W ramach uproszczenia interfejsu zabrano wielu ikonom podpisy. Użytkownik musi domyślać się, który symbol co oznacza. To może być trudne, bo przecież zmieniono wygląd ikon, przestawiono menu, a wiele funkcji poukrywano. W efekcie dużo trudniej jest znaleźć i nauczyć się nowych rozwiązań. Wiele opcji wymaga nie jednego, a co najmniej kilku kliknięć.

    Co więcej, w Windowsie 10 wiele funkcji w folderach i menu było dostępnych poprzez wygodne skróty. Wciskając klawisz Alt w menadżerze plików, można było podejrzeć skróty klawiszowe i obsługiwać foldery jedynie klikając. Było to bardzo pomocne dla zaawansowanych użytkowników, jak i dla osób, które np. mogły mieć problemy z obsługą myszki.

    Ikoniczny bałagan

    – Design jaki stworzyli twórcy Windowsa 11, bywa nazywany „glasomorfizmem”, co jest oczywistym nawiązaniem do efektu szkła. Jest to odejście od tzw. flat design, czyli maksymalnego uproszczenia interfejsu. Jednak nałożenie jedynie cieni i efektu szkła nie sprawi, że system stanie się bardziej czytelny. Zbyt duże uproszczenie może sprawić, że UX będzie trudniejszy w obsłudze i nieintuicyjny. Co ciekawe, to o czym mówimy, nie jest niczym nowym. Microsoft miewa problemy z flat design już od czasów Windowsa 8. Natomiast efekty szkła były już wcześniej wykorzystywane w poprzednich iOSach i w Windowsie 10komentuje Szeran Millo, Managing Director w Symetrii, największej polskiej agencji UX oraz trener międzynarodowego certyfikatu UX-PM, potwierdzającego znajomość narzędzi User Experience oraz metodyki projektowania doświadczeń użytkownika w organizacjach.

    Wiele ikon jest do siebie na tyle podobnych, że mogą się mylić. Na przykład na pasku zadań w dolnej części ekranu, mamy tak naprawdę do czynienia z kilkoma rodzajami ikon. Klawisze „Start”, „Szukaj”, przycisk do zmiany pulpitów, „Widżety” oraz „Rozmawiaj” (chodzi o Teams) zachowują się zupełnie inaczej od pozostałych, a przede wszystkim są tam umieszczone na stałe i nie można ich usunąć.

    Kolejne ikony mogą być już dowolnie przesuwane i usuwane. Sytuacja robi się jeszcze gorsza, kiedy uruchomi się większą liczbę programów i okien. Wtedy ikony na pasku zadań rozsuwają się na boki i całość się przemieszcza.

    Jak stworzyć optymalny interfejs?

    Trudno nie wspomnieć o tym, jak duży błąd popełniono, blokując pasek zadań u dołu ekranu. Zablokowany „task bar” jest jedną z najczęściej wymienianych przez internautów wad nowego Windowsa.

    Bardzo wielu użytkowników przyzwyczaiło się do umieszczania paska u góry pulpitu (w stylu macOS) lub z boku. Ta ostatnia opcja była wyjątkowo wygodna dla osób korzystających z dużych, panoramicznych ekranów.

    Jedną z podstaw UX jest nauka o tym, w jakich miejscach umieszczać podstawowe i najpopularniejsze elementy interfejsu. Chodzi o to, żeby użytkownik jak najszybciej i możliwie bez wysiłku odnalazł daną funkcję.

    – Bardzo istotne jest, jak wysoko projektanci UX są umieszczeni w hierarchii zespołu. Im wyżej, tym więcej będzie można zastosować rozwiązań przyjaznych użytkownikowi. Zespoły projektowe UX lub UI na ogół dysponują określonymi badaniami zachowań i preferencji użytkowników. Przy pomocy aplikacji testowych, czy nawet narzędzi rozszerzonej rzeczywistości, mogą śledzić ruchy myszki i oczu testerów. Widzą, jak długo użytkownik szuka danej rzeczy i ile wysiłku potrzeba na dane zadanie. W ten sposób profesjonaliści tworzą intuicyjne i przyjazne systemy, aplikacje, strony internetowe, a nawet interfejsy maszyn czy kokpity samochodówtłumaczy Szeran Millo z Symetrii.

    Z przeprowadzonych analiz wynika, że umieszczanie ikon w rogach ekranu jest optymalne z punktu widzenia użytkowników. Jakie funkcje w tamtych miejscach osadzono w Windowsie 11?

    Zmarnowana przestrzeń

    Idąc od prawego górnego rogu zgodnie z ruchem wskazówki zegara mamy: przycisk wyłączenia programu, zegar, kalendarz oraz opcję „Pokaż pulpit”, a w dwóch rogach nie dzieje się nic, chyba że dana aplikacja akurat korzysta z menu Windows.

    W nowym systemie dużo więcej dzieje się pośrodku. W „menu Start” nie wysuwa się po lewej stronie, bezpośrednio ze swojej ikonki, lecz pokazuje się na środku pulpitu. Użytkownik musi pokonać myszką odległość od przycisku start u dołu, do odpowiedniej opcji na środku. Natomiast najbliższym przyciskiem w „menu Start” od ikony jest raczej rzadko klikany profil użytkownika. Najważniejsze programy i opcja „szukaj” są na samej górze menu, czyli najdalej.

    Dodatkowo liczni internauci i recenzenci skarżą się, że „menu Start” jest jeszcze większe niż w Windowsie 10. Folder, którego nie można zmniejszać ani przesuwać, zasłania znaczną część obszaru roboczego.

    Widżety i ekrany dotykowe

    W nowym Windowsie przeniesiono znane z „Dziesiątki” widżety do oddzielnej sekcji, którą można znaleźć w panelu zadań. Widżety oferują prosty i szybki dostęp do wiadomości ze świata, pogody czy kalendarza.

    Problem w tym, że żeby je znaleźć, trzeba wybrać oddzielną sekcję Do tego użytkownicy przyzwyczaili się do czytania wiadomości w przeglądarkach, na socialach czy w smartphone’nach (np. w Google News). Przez to widżety Windowsa mają mniejsze szanse poznać gusta użytkowników i dostosować się do nich.

    Po drugie, Microsoft udostępnił stosunkowo małe możliwości personalizacji widżetów. Można dodawać nowe nakładki z różnych kategorii, ale często okazuje się, że w danej sekcji dostępna jest tylko jedna. Co więcej, niektórzy użytkownicy skarżą się, że nie wszystkie rozwiązania działają. Na przykład pojawiają się wzmianki o problemach z kalendarzem.

    Szkoda, że do sekcji widżetów przeniesiono pogodę. Była dużo bardziej funkcjonalna jako ikona po prawej stronie paska zadań. Nie trzeba było otwierać oddzielnego menu, a dodatkowe informacje były dostępne po jednym kliknięciu.

    Ciekawym pomysłem byłoby zastosowanie widżetów w ramach personalizacji pulpitów. Można by wtedy upodobnić Windowsa do systemów mobilnych, na przykład Androida. Niestety zrezygnowano zarówno z większej personalizacji w tym kierunku, jak i w ogóle z trybu tabletu. System sam powinien dostosowywać się do ekranów dotykowych, ale to wychodzi mu różnie.

    – Jak na tak światowy produkt zastosowano zbyt wiele nieoczywistych rozwiązań np. pięć różnych sposobów przesuwania plików w oknach lub niewygodne pod kątem ekranów dotykowych umiejscowienie ikon i okienmówi Szeran Millo z Symetrii.

    Krytyka także należy się również m.in. trybowi ciemnemu. Jest za jasny, żeby mógł „oszczędzać” oczy albo chociaż energię w przypadku ekranów OLED. Praktycznie nie można pozbyć się aplikacji Teams oraz dysku OneDrive. Sposób, w jaki ustawia się domyślną przeglądarkę inną niż autorski Edge, zdaje się być celowo utrudniony.

    Więcej wad, niż zalet?

    Trzeba jedno przyznać, że aktualna wersja Windows jest naprawdę ładna. Mamy do czynienia z nowymi ikonami, bardzo nowoczesnym i „szklanym” designem oraz ogólnym poczuciem lekkości. Dodatkowo zastosowano wiele nowatorskich pomysłów, jak chociażby dostosowująca się do użytkownika lista plików i programów w Menu Start.

    W nowym systemie także mocno rozwinięto kwestie bezpieczeństwa użytkowników. Świetnie działa funkcja dzielenia ekranu i wprowadzono obsługę aplikacji na Androida. Z pewnością nie można powiedzieć, że Windows 11 niczego nie zmienił lub, że jest po prostu zły.

  • Digital Hub firmy Bayer rozpoczyna współpracę z AGH oraz Politechniką Śląską

    Digital Hub firmy Bayer rozpoczyna współpracę z AGH oraz Politechniką Śląską

    Digital Hub firmy Bayer nawiązuje współpracę z dwiema uczelniami kształcącymi najwyższej klasy ekspertów w zakresie IT: Akademią Górniczo–Hutniczą w Krakowie oraz Politechniką Śląską w Gliwicach. Współpraca obejmie dwa obszary: program staży studenckich w dziedzinie technologii informatycznych o nazwie „Zaprogramuj swoją karierę” oraz wspólne projekty badawczo-rozwojowe realizowane z Bayer.

    – Digital Hub opracowuje innowacyjne rozwiązania cyfrowe, wspierające ochronę zdrowia i rolnictwo – jako, że Bayer działa w obu tych kluczowych dla każdego człowieka obszarach. Nasza praca przynosi rzeczywistą zmianę dla świata – w myśl wizji „Health for All, Hunger for None” mówi Bogusław Tobiasz, dyrektor Digital Hubu firmy Bayer Jesteśmy świetnym miejscem dla młodych ludzi zafascynowanych technologiami, którzy oczekują, że ich praca będzie miała znaczenie dla innych, a przy tym chcą związać się z globalną firmą oferującą duże możliwości rozwoju.

    Bayer rozwija już innowacje w zakresie life science we współpracy z wiodącymi na świecie uczelniami technicznymi, takimi jak Massachusetts Institute of Technology. Do tego grona dołącza teraz Akademia Górniczo-Hutnicza oraz Politechnika Śląska. Digital Hub firmy Bayer oferuje studentom zdobywanie doświadczenia i pracę w międzynarodowych zespołach w takich obszarach, jak data science, software engineering, IT security engineering, full stack engineering, data engineering. Digital Hub zapewnia elastyczny czas pracy, umożliwiając studentom łączenie nauki na uczelni ze zdobywaniem doświadczenia zawodowego, konkurencyjne wynagrodzenie, indywidualny program mentoringowy i szkoleniowy. Uruchomione w tym roku centrum charakteryzuje „startupowa“ atmosfera, bardzo ceniona przez jej pracowników.

    – Zapraszamy studentki i studentów ostatnich lat studiów inżynierskich i magisterskich z zafascynowanych nowymi technologiami – zaangażowanych, lubiących pracę w zespole i chętnych do podejmowania wyzwań. Po zakończeniu stażu na najlepszych czekać będą miejsca pracydodaje Bogusław Tobiasz.
     
    Umowa z Politechniką Śląską została zawarta 15.12, zaś z Akademią Górniczo–Hutniczą – 21.12. Program wystartuje w 2022 roku: pierwsza grupa studentów rozpocznie staż w marcu, kolejna – w październiku. Udział w nich weźmie kilkudziesięciu stażystów. Przygotowano dla nich 5-miesięczny moduł zawodowo-szkoleniowy.

    Dodatkowo, Digital Hub firmy Bayer planuje realizację wspólnych projektów badawczych w obszarze rozwiązań cyfrowych dla rolnictwa. Ich start przewidziano na trzeci kwartał 2022 roku.

    – Współpraca AGH z tak ważnym partnerem z obszaru life science i ochrony zdrowia jest dla nas dużym zaszczytem i wyzwaniem. Będziemy przede wszystkim realizować wspólne projekty badawczo-rozwojowe. Ponadto zależy nam na rozwoju programów studenckich w dziedzinie technologii informatycznych. Jestem także przekonany, że możemy sobie wzajemnie służyć dużym wsparciem eksperckim. Umowę z naszej strony będzie koordynował Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej i w szczególności rozwiązania z obszaru inżynierii biomedycznej mogą okazać się zarówno dla nas, jak i dla firmy Bayer niezwykle ciekawe i przyszłościowe – podkreśla prof. Jerzy Lis, Rektor AGH.

    – Jesteśmy dumni, że możemy współpracować z taką firmą jak Bayer, której marka znana jest na całym świecie. Liczymy, że nasza współpraca zaowocuje ciekawymi, innowacyjnymi rozwiązaniami, które dzięki globalnemu charakterowi firmy uzyskają taki sam status. Pozwoli to pokazać światu, jak silnym potencjałem intelektualnym dysponujemy w kraju. Nasi studenci odbywający staż w firmie będą ambasadorami tego potencjału. Jestem pewien, że firma Bayer stworzy dla naszych studentów świetne środowisko do rozwoju swojej kariery zawodowej wokół najnowszych technologii i światowych trendów w ITmówi dr hab. inż. Dariusz Mrozek, profesor Politechniki Śląskiej w Gliwicach, Prodziekan ds. Współpracy i Rozwoju na Wydziale Automatyki, Elektroniki i Informatyki oraz kierownik Katedry Informatyki Stosowanej tego Wydziału.   

  • Do chmury najszybciej przekonują się „najmniejsi”

    Do chmury najszybciej przekonują się „najmniejsi”

    Jak informuje ostatnia edycja raportu GUS – Społeczeństwo Informacyjne w Polsce, liczba małych przedsiębiorstw, które korzystają z płatnych usług w chmurze wzrosła względem poprzedniego analizowanego roku o niemal 50%.

    W przypadku średnich firm, odsetek ten wyniósł 35%, zaś dla dużych przedsiębiorstw był równy 14%. Oznacza to, że dynamika implementacji cloud computingu w Polsce jest zdecydowanie najwyższa wśród mikro oraz małych przedsiębiorstw. Wynika to najczęściej z faktu, iż decydują się one na zakup rozwiązań chmurowych po raz pierwszy, cyfryzując procesy, które w dużych organizacjach zostały zdigitalizowane już dużo wcześniej. I nadal potrzebują pogłębiania swojej wiedzy z tego zakresu.

    Trudniejszy start

    Możliwości rozwiązań chmurowych, ich całkowity koszt użytkowania (TCO), rodzaje usług i wiele podobnych zagadnień to kwestie dość oczywiste dla dużych firm i korporacji. Najczęściej, mają one wydzielone w swojej strukturze departamenty czy działy IT, na bieżąco obserwujące rynek technologii i podpowiadające zarządom którą drogą cyfrowej transformacji podążyć, by jak najszybciej zobaczyć efekty. W przypadku małych oraz średnich przedsiębiorstw, sytuacja prezentuje się już zgoła odmiennie. – W niewielkich firmach nie ma zwykle nie tyle działów, co nawet osób zajmujących się wyłącznie obszarem IT, którzy dysponują wiedzą z zakresu technologii chmurowych i mają świadomość tego, co może im zaoferować. W tym sektorze przedsiębiorstw panuje często także przekonanie, że są to rozwiązania bardzo drogie, zarezerwowane wyłącznie dla dużych graczy. Cieszy fakt, że to właśnie małe firmy przekonują się do chmury najszybciej, niemniej ze swoich doświadczeń obserwuje tu także niesłabnąca potrzebę budowania świadomości na jej temat i obalania związanych z nią mitów tłumaczy Marcin Zmaczyński z Aruba Cloud.

    Wiedza otwiera drogę

    Na drodze do powszechnego zwrotu w stronę cloud computingu małych czy średnich firm wciąż stoją pewne bariery, dostrzegane nie tylko przez polskie przedsiębiorstwa, ale również europejskie czy te działające za oceanem. Opublikowane właśnie przez NETdepot badanie dowodzi, że ponad jedna trzecia niewielkich firm wciąż czuje się niekomfortowo lokując swoje prywatne dane w środowiskach chmurowych. Co piąta uważa, że przed migracją powstrzymuje ją brak wiedzy i zrozumienia mechanizmów działania clooud computingu – tyle samo obawia się utraty swoich danych po ich przeniesieniu na zewnętrz swojej organizacji. Niemal wszyscy jednak (95%) dostrzegają jeden z kluczowych benefitów operowania w chmurze – zdalny dostęp do firmowych plików z dowolnej lokalizacji i dowolnego urządzenia. – To już pewien sygnał na stopniowe rozpoznawanie funkcjonalności chmury, który tutaj akurat w ogromnej mierze jest efektem pandemii i przejścia na pracę zdalną. Konkretnie i zrozumiale przedstawiający jedną z możliwości cloud computingu. By zaznajomić sektor MŚP, w tym osoby zupełnie niezaznajomione z zagadnieniami technicznymi czy informatycznymi, z całym obrazem tej technologii, potrzebujemy prosto i przejrzyście tłumaczących ją materiałów. Jeden z nich, zatytułowany „Chmurowy przewodnik dla małych i średnich firm, czyli wszystko, co musisz wiedzieć o chmurze” przygotowaliśmy właśnie w takim tonie – jest on dostępny do pobrania za darmo na naszej stronie internetowejdodaje Marcin Zmaczyński z Aruba Cloud.

    MŚP napędem gospodarki

    Jak informuje najnowsza analiza firmy McKinsey Cloud 2030: Capturing Poland’s potetntial for accelerated digital growth, powszechna implementacja usług chmurowych przez polskie firmy oraz instytucje administracji publicznej wniesie do krajowej ekonomii wartość odpowiadająca 4% polskiego PKB, czyli ok. 27 miliardów euro, do 2030 roku. Biorąc pod uwagę dynamikę wdrażania cloud computingu wśród małych i średnich przedsiębiorstw, oraz fakt, iż są oni najliczniej reprezentowanym sektorem polskiej gospodarki, niewątpliwie w ogromnym stopniu przyczynią się oni do wygenerowania tej kwoty.

    Darmowy Ebook „Chmurowy przewodnik dla małych i średnich firm, czyli wszystko, co musisz wiedzieć o chmurze” dostępny jest do pobrania pod tym linkiem

  • Polski Ład i różne formy opodatkowania przedsiębiorców

    Polski Ład i różne formy opodatkowania przedsiębiorców

    Polski Ład w nowej odsłonie wprowadza wiele rozwiązań, które istotnie wpłyną na opłacalność poszczególnych form opodatkowania. Chociaż projekt ustawy nie jest jeszcze sfinalizowany, to już teraz warto uwzględnić nowe przepisy w toku planowania podatkowego, tym bardziej że zmiany mają wejść w życie, począwszy od stycznia 2022 r.

    Analiza zawartych w Polskim Ładzie propozycji wskazuje, że najdalej idące konsekwencje mogą dotknąć przedsiębiorców rozliczających się w formie podatku liniowego. Na znaczeniu może z kolei zyskać opodatkowanie w formie ryczałtu. Jednocześnie istotne ułatwienia przyniosą zmiany w zakresie estońskiego CIT-u.

    Podatek liniowy może nie przetrwać Polskiego Ładu

    Od wielu lat podatek liniowy jest jedną z ulubionych form opodatkowania przedsiębiorców. Oferuje bowiem stałą 19% stawkę opodatkowania bez względu na poziom osiąganych zysków. Dodatkowo podatek liczony jest z uwzględnieniem ponoszonych wydatków.

    Jednocześnie od tak obliczonego podatku przedsiębiorcy mogą obecnie odliczyć zapłaconą składkę zdrowotną, która ustalana jest ryczałtowo bez względu na wysokość osiąganych dochodów. W 2021 r. składka ta wynosi 381,81 zł, a odliczyć od podatku można kwotę odpowiadającą iloczynowi podstawy wymiaru i 7,75%, co daje możliwość odliczenia od podatku 328,78 zł.

    Zmiany spowodowane „Polskim Ładem”

    Zaproponowane przez Rząd zmiany spowodują, że przedsiębiorcy będą zobowiązani do płacenia składki zdrowotnej liczonej proporcjonalnie od dochodu według 4,9% stawki i – co istotne – zapłaconej składki nie będzie już można odliczyć od podatku. Jak łatwo zatem skalkulować, rozwiązanie to zwiększy realny poziom opodatkowania do 23,9% i chociaż pierwotnie Rząd przewidywał składkę zdrowotną na poziomie 9%, to obniżenie jej do 4,9% nadal istotnie wpłynie na opłacalność tej formy rozliczenia.

    Przykład: Przedsiębiorca rozliczający się w formie podatku liniowego osiągający miesięczny dochód na poziomie 10.000,00 zł (zgodnie z najnowszą wersją założeń Polskiego Ładu składka na poziomie 4,9%) zapłaci miesięczną składkę zdrowotną w wysokości 437,29 zł. Jest to faktycznie mniej, niż gdyby musiał zapłacić tę składkę według pierwotnych założeń Polskiego Ładu (składka zdrowotna na poziomie 9%). W tej konfiguracji musiałby bowiem zapłacić miesięczną składkę w wysokości 803,19 zł. Pozorna korzyść znacznie jednak blednie w zestawieniu z obecnie obowiązującymi w tym zakresie zasadami, według których, biorąc również pod uwagę istniejącą możliwość odliczenia składki zdrowotnej od podatku, ten sam podatnik płaci obecnie miesięczną składkę zdrowotną w wysokości 53,03 zł.

    Pozostając przy powyższym przykładzie, należy stwierdzić, że w skali roku różnice te będą jeszcze bardziej jaskrawe. Zakładając powtarzalność danych w każdym miesiącu roku, przedsiębiorca rozliczający się na obecnych zasadach zapłaci składki zdrowotne za cały rok w łącznej kwocie 636,36 zł. Natomiast, według aktualnej propozycji Rządu – 4,9%, będzie to wydatek rzędu 5.247,48 zł. Łatwo zatem policzyć, że na przedmiotowej zmianie podatnik podatku liniowego straci rocznie 4.611,12 zł.

    Należy podkreślić, że im wyższy będzie dochód przedsiębiorców opodatkowanych liniowo, tym różnica w obciążeniach będzie większa, a to z uwagi na proporcjonalny wzrost wysokości składki zdrowotnej, która dotychczas miała charakter stały.

    Zatem miesięczne obciążenie ww. przedsiębiorcy z tytułu podatku dochodowego i składki zdrowotnej wyniesie 2.337,29 zł, tj. 1.900 zł podatku liniowego i 437,29 zł składki zdrowotnej.

    Ryczałt od przychodów ewidencjonowanych będzie korzystniejszy, ale stawki zdrowotnej też nie odliczymy

    Ryczałt od przychodów ewidencjonowanych jest stosunkowo prostą formą opodatkowania, w której podatek płaci się od przychodu nie pomniejszonego o koszty jego uzyskania. Natomiast stawki podatku, które oferuje ta forma opodatkowania, są różne w zależności od rodzaju prowadzonej działalności. Przykładowo programista i fotograf płacą obecnie ten podatek według stawki 15%, a nauczyciel udzielający korepetycji czy lekarz – według stawki 17%.

    Jednocześnie wysokość składki zdrowotnej i możliwość jej odliczenia od podatku wygląda obecnie w zasadzie analogicznie jak w podatku liniowym.

    Zmiany spowodowane „Polskim Ładem”

    Wprowadzone zmiany nie będą tak daleko idące, jak w przypadku podatku liniowego. Jak wynika z projektu ustawy, obniżeniu ulegną niektóre stawki podatku zryczałtowanego. Wspomniani powyżej programista i fotograf będą mogli od 2022 r. rozliczać podatek według stawki 12% zamiast obecnych 15%, a nauczyciel udzielający korepetycji i lekarz zapłacą podatek według stawki 14%, a nie 17%, jak ma to miejsce obecnie.

    Poza obniżeniem niektórych stawek, co jest niezaprzeczalnie korzystne, zmianie ulegną też dotychczasowe zasady rozliczania składek zdrowotnych.

    Wysokość składki zdrowotnej będzie uzależniona od przeciętnego miesięcznego wynagrodzenia oraz przychodów osiąganych przez danego podatnika. Zgodnie z zaproponowanym przez ustawodawcę przelicznikiem będzie to wyglądać następująco:

    • jeśli przychody roczne będą osiągać kwotę do 60.000 zł, podstawa ta wyniesie 60% przeciętnego wynagrodzenia;
    • jeśli przychody roczne będą wynosić od 60.000 zł do 300.000 zł, podstawa wyniesie 100% przeciętnego wynagrodzenia;
    • jeśli przychody roczne osiągną kwotę ponad 300.000 zł, to podstawa wyniesie 180% przeciętnego wynagrodzenia.

    Przenosząc to na powyższy przykład, można zatem skalkulować, że wskazany powyżej programista, dla którego właściwa będzie 12% stawka ryczałtu, poza podatkiem zapłaci dodatkowo miesięczną składkę zdrowotną w wysokości 305,45 zł, zakładając wysokość przeciętnego miesięcznego wynagrodzenia według danych GUS za IV kw. 2020 r.

    Zatem miesięczne obciążenie ww. przedsiębiorcy z tytułu podatku dochodowego i składki zdrowotnej wyniesie 1.505,45 zł, tj. 1.200,00 zł podatku liniowego i 305,45 zł składki zdrowotnej.

    Estoński CIT – będzie korzystniej

    Stosunkowo nowe rozwiązanie, jakim jest „estoński CIT”, zostało wprowadzone do CIT w 2021 r. i teoretycznie daje przedsiębiorcom, którzy je wybiorą, istotne korzyści. Jednak w praktyce z tej formy rozliczenia korzysta jedynie kilkuset przedsiębiorców z całej Polski, co wynika z licznych i trudnych warunków, którymi ustawodawca obwarował możliwość skorzystania z tego rozwiązania.

    Niewątpliwie największą korzyścią płynącą z tej formy rozliczenia jest fakt, iż podatnik nie płaci podatku dochodowego, dopóki osiągane przez spółkę zyski podlegają reinwestowaniu. Z kolei mali podatnicy, tj. osiągający roczne przychody nieprzekraczające 2 mln euro, mogą płacić podatek według 9% stawki. Istotne jest też, że podatnicy wybierający tę formę opodatkowania nie muszą prowadzić odrębnej rachunkowości dla potrzeb podatkowych.

    Niestety wybór tej formy opodatkowania zarezerwowany jest obecnie tylko dla spółek kapitałowych i nie mogą z niego korzystać spółki komandytowe i komandytowo-akcyjne. Z estońskiego CIT-u nie skorzystają też podmioty osiągające roczne przychody wyższe niż 100 mln zł, a firmy, które go wybrały, w razie przekroczenia w ciągu roku tego pułapu mogą narazić się na domiar podatku. Istotnym utrudnieniem jest też ścisłe określenie przez ustawodawcę, jakie nakłady i w jakiej wysokości ma ponosić spółka, aby mogła rozliczać się w tej formie.

    Zmiany spowodowane „Polskim Ładem”

    Wydaje się, że w tym przypadku Rząd zauważył problem, bowiem wedle projektowanych zmian kryteria umożliwiające wybór „estońskiego CIT-u” mają zostać istotnie złagodzone. W tym zakresie za najważniejsze zmiany uznać należy:

    • obniżenie stawki CIT podatku małych podatników do 20% dla większych podatników do 25%;
    • rozszerzenie możliwości rozliczenia w tej formie na spółki komandytowe i komandytowo-akcyjne;
    • zniesienie górnego limitu przychodów wynoszącego 100 mln zł rocznie, a zatem po zmianach również podmioty osiągające wyższe przychody będą mogły korzystać z tego rozliczenia, a w konsekwencji zniknie także możliwość domiaru podatku związanego z przekroczeniem tego limitu;
    • zniesienie obowiązku ponoszenia nakładów inwestycyjnych, który będzie jedynie dobrowolnym warunkiem dla dużych podatników, którzy zechcą mieć możliwość zastosowania niższej stawki podatkowej;
    • obowiązek uiszczenia podatku od różnicy między wynikiem podatkowym a bilansowym u podmiotów przechodzących na „estoński CIT” zostanie odłożony w czasie lub nawet całkowicie zniesiony, jeśli podatnik ten będzie opodatkowany w tej formie dłużej niż przez 4 lata.

    Projektowane w tym zakresie zmiany ocenić należy pozytywnie i w praktyce większe grono przedsiębiorców powinno rozważyć ten sposób opodatkowania. Należy przy tym pamiętać, iż nadal z rozwiązania tego nie będą mogły korzystać podmioty, których wspólnikami nie są osoby fizyczne, a także podmioty, których większość przychodów pochodzi z działalności finansowej, a nie operacyjnej.

    Nowy Podatek Przychodowy

    Nie ma jednak nic za darmo. Rząd zgodził się bowiem na obniżenie stawki składki zdrowotnej, a co za tym idzie – na zmniejszenie wpływów do budżetu, wprowadzając jednak w zamian tzw. podatek przychodowy, z którego wpływy mają zrekompensować wpływy do budżetu.

    Podatkiem tym mają być obciążone wyłącznie spółki kapitałowe, a kryterium powstania tego podatku będzie udział dochodu w przychodach na poziomie niższym niż 1%. Przy czym przy obliczeniu tej proporcji będą brane pod uwagę wyłącznie dochody i przychody operacyjne.

    Podatek ma dotyczyć tylko dochodów i przychodów z działalności operacyjnej i wynosić będzie 0,4% osiąganych przez firmy przychodów plus 10% nadmiarowych płatności biernych.

    Rozwiązanie to ocenić należy bardzo negatywnie. Zasadniczo ma ono bowiem obciążać podmioty, które osiągają bardzo niski dochód. Jakkolwiek Rząd by tego nie uzasadniał, idea dodatkowego opodatkowania niskich dochodów jest całkowitym odwróceniem praw logiki, które nakazują uważać, iż ten, kto osiąga niższy zysk, nie powinien płacić więcej podatku.

    Reasumując, należy stwierdzić, że pomimo szumnych zapowiedzi Rządu Polski Ład nie spowoduje zmniejszenia obciążeń podatkowych nakładanych na obywateli, a jak wynika z powyższych wyliczeń, będzie zupełnie odwrotnie, przynajmniej w odniesieniu do polskich przedsiębiorców. Wobec tego już teraz należałoby w zdecydowany sposób podjąć działania w zakresie strategii rozliczeń podatkowych w 2022 r.

    Autor: Kancelaria Prawna Skarbiec specjalizuje się w ochronie majątku, doradztwie strategicznym dla przedsiębiorców oraz zarządzaniu sytuacjami kryzysowymi.

  • Fałszywi rachmistrzowie pytają o zarobki, dane z dowodu osobistego i konta bankowego

    Fałszywi rachmistrzowie pytają o zarobki, dane z dowodu osobistego i konta bankowego

    Oszuści nie porzucili metody „na rachmistrza” i nawet po zamknięciu Narodowego Spisu Powszechnego starają się wyłudzić w ten sposób dane osobowe. Pytają m.in. o dane z dowodów osobistych lub do logowania w banku. Ofiar szukają wśród spóźnialskich, którzy nie spisali się w terminie i teraz nerwowo, w obawie przed karą szukają kontaktu z jakimkolwiek rachmistrzem. Częściej trafią na oszustów. Ekspert serwisu ChronPESEL.pl radzi, jak się przed nimi ustrzec.

    Zakończony 30 września Narodowy Spis Powszechny miał nam pomóc zebrać informacje na temat tego, jaka jest aktualnie liczba Polaków, czy się zajmują i jak żyją. To dane, które umożliwiają przeprowadzenie analizy zmian demograficznych i społecznych na przestrzeni lat. Nie znamy jeszcze dokładnych wyników tegorocznego spisu. Nieznane są również dokładne statystki dotyczące przypadków wyłudzenia danych metodą „na rachmistrza”, ponieważ policja nie ma oddzielnego katalogu na tego typu przestępstwa i traktuje je jako „oszustwa”. Niestety zarówno organizator spisu, jak i policja nadal uważają to za realne zagrożenie.

    W trakcie ostatnich miesięcy oszuści podszywający się pod rachmistrzów najczęściej dzwonili do swoich ofiar z prośbą o podanie danych takich, jak zarobki, majątek, dane z dowodu osobistego, konta w banku. W rzeczywistości GUS takich informacji nie zbierał. O tym, że podobne telefony to realny problem, świadczą wyniki badania przeprowadzonego w I połowie 2021 r. przez serwis ChronPESEL.pl i Krajowy Rejestr Długów pod patronatem Urzędu Ochrony Danych Osobowych. Co czwarty ankietowany potwierdził, że w czasie pandemii otrzymał telefon z prośbą o podanie numeru PESEL lub danych do logowania w bankowości elektronicznej.

    Dodatkowo jedna na dziesięć osób przyznała, że zdarzyło jej się przekazać dane do logowania osobom trzecim. Najczęściej dotyczyło to najmłodszej grupy badanych (18-24 lat), w której przyznało się do tego blisko 30 proc.

    Oszuści czekają na spóźnialskich

    Zakończenie spisu wcale nie oznacza, że zagrożenie minęło. Jak informuje GUS, rachmistrzowie oddzwaniają jeszcze do osób, które przed 30 września zgłosiły chęć udziału w Narodowym Spisie Powszechnym. Dodatkowo, część osób, które nie zdążyły spisać się wcześniej, szuka teraz w Internecie informacji na temat tego, czy można to jeszcze zrobić. To stwarza idealne warunki dla oszustów, którzy podszywają się pod rachmistrzów. Problemów można jednak uniknąć, jeśli będziemy pamiętać o kilku zasadach.

    – Jeśli nie wypełniliśmy spisu przed 30 września i przed upływem tego terminu nie zgłosiliśmy się do GUS-u, nie możemy już tego zrobić. Nie dajmy się nabrać na umieszczane na różnych forach numery rachmistrzów czekających na spóźnialskich. Ostrożność zachować powinni również ci, którzy spis wypełnili. Oni powinni z kolei uważać na telefony i wizyty rachmistrzów, którzy będą twierdzili, że trzeba coś uzupełnić lub ponownie wypełnić ankietę. Spis wypełnia się tylko raz i przy każdej takiej próbie kontaktu powinna nam się zapalić czerwona lampka ostrzegawcza tłumaczy Bartłomiej Drozd, ekspert serwisu ChronPESEL.pl.

    Należy również pamiętać o tym, że każdego rachmistrza można zweryfikować.

    – Dzwoniący rachmistrz powinien podać nam m.in. imię i nazwisko oraz swój identyfikator, które możemy sprawdzić w internetowej bazie na stronie spisu lub bezpośrednio zadzwonić na infolinię spisową. Oszusta zdemaskować możemy także po zadawanych pytaniach. Żaden rachmistrz nie będzie nas prosił o podanie kwoty naszych zarobków, oszczędności, numeru konta, PIN do karty czy dane do logowania do bankowości internetowej. Takie pytania mogą świadczyć o próbie wyłudzeniadodaje Bartłomiej Drozd.

    W przeprowadzonym badaniu, blisko 40 proc. ankietowanych zadeklarowało, że nie wie, jakie działania należy podjąć w przypadku wyłudzenia. Dlatego oprócz zachowania ostrożności, należy od razu reagować w sytuacjach, w których mamy podejrzenie, że doszło do kradzieży danych, ponieważ może to prowadzić do przykrych konsekwencji np. w postaci zaciągniętych w naszym imieniu zobowiązań. Wszystkie takie przypadki należy zgłaszać na policję. Warto również, zgodnie z rekomendacją Urzędu Ochrony Danych Osobowych, założyć konto w systemie informacji gospodarczej, aby monitorować swoją aktywność kredytową.

    Jak zapewnia GUS, wszystkie dane osobowe przetwarzane w ramach prac spisowych są poufne i podlegają szczególnej ochronie. Od momentu ich zebrania stają się danymi statycznymi i objęte zostają tajemnicą statystyczną, która ma charakter absolutny – jest wieczysta, obejmuje wszystkie dane osobowe i nie przewiduje żadnych wyjątków umożliwiających jej uchylenie. Za złamanie tajemnicy i udostępnienie tych informacji w celach innych niż przewidziane przez spis grozi odpowiedzialność karna.

    Badanie na zlecenie serwisu ChronPESEL.pl i Krajowego Rejestru Długów pod patronatem Urzędu Ochrony Danych Osobowych zostało przeprowadzone w I połowie 2021 roku metodą CAWI na reprezentatywnej grupie 1007 respondentów przez IMAS International.

  • Ekonomista: Inflacja w Polsce jest najwyższa od ponad roku

    Mimo że ekonomiści przewidywali, że marcowy odczyt inflacji będzie ostatnim mieszczącym się w dopuszczalnym paśmie odchyleń od celu inflacyjnego, nie spodziewali się aż tak wysokiego poziomu w kwietniu. Wzrost cen miał oscylować wokół 3,8–3,9 proc. w ujęciu rocznym, tymczasem według szybkiego odczytu Głównego Urzędu Statystycznego przyspieszył aż do 4,3 proc., a to poziom najwyższy od 13 miesięcy. Składa się na to kilka czynników, m.in. wzrost kosztów pracy. – Ryzyko wzrostu inflacji jest dość spore uważa ekonomista Marek Zuber.

    Według szybkiego odczytu inflacji Głównego Urzędu Statystycznego w kwietniu ceny średnio poszybowały do poziomu 4,3 proc. – najwyższego od marca 2020 roku. Polska ma najwyższą inflację w Unii Europejskiej, nawet już w marcu, gdy mieściła się jeszcze ona w dopuszczalnym paśmie wahań od celu inflacyjnego (wyniosła 3,2 proc.), wyraźnie wyprzedzała inne kraje. HICP, czyli inflacja zharmonizowana, pozwalająca na porównanie wzrostu cen w różnych krajach, wyniósł 4,4 proc., podczas gdy drugie w kolejności Węgry odnotowały wzrost cen o 3,9 proc., a trzecia Rumunia – o 2,5 proc.

    – Wzrost wynagrodzeń jest jednym z ważniejszych czynników działających na rzecz wzrostu cen towarów i usług w Polsce i to od kilku lat. Nie musiałoby tak być, gdyby wydajność pracy w Polsce istotnie rosła. Ona dalej jest piąta od końca w Unii Europejskiej. Wprawdzie w ostatnich latach jesteśmy w czołówce pod względem wzrostu wydajności pracy, tyle tylko, że to jest średnia dla całej gospodarki – mówi Marek Zuber.Tymczasem po jednej stronie mamy potężny wzrost w supernowoczesnej fabryce, np. z sektora automotive, ale po drugiej stronie mamy małe i średnie polskie firmy, które od pięciu lat nie inwestują albo inwestują niewiele, więc skąd ma się wziąć ten wzrost wydajności.

    Jak podał GUS 30 kwietnia, przeciętne miesięczne wynagrodzenie brutto w gospodarce narodowej w Polsce w 2020 roku wyniosło 5167,47 zł. W porównaniu z 2019 rokiem wzrosło o 5,0 proc., czyli trochę wolniej niż rok wcześniej (7,2 proc.). W sektorze publicznym wyniosło 5900,60 zł (o 14,2 proc. więcej niż średnia), a w sektorze prywatnym 5013,54 zł (o 3,0 proc. mniej od średniej).

    Jeśli wziąć pod uwagę sekcje PKD, w 2020 roku przeciętne miesięczne wynagrodzenie brutto wahało się od 3793,01 zł w sekcji „zakwaterowanie i gastronomia” do 9250,85 zł w sekcji „informacja i komunikacja”. W porównaniu do 2019  roku odnotowano wzrost przeciętnego miesięcznego wynagrodzenia brutto we wszystkich analizowanych sekcjach PKD. Największy w sekcji „edukacja” (o 8,8 proc.), a najmniejszy w sekcji „zakwaterowanie i gastronomia” (o 0,8 proc.).

    Przeciętne miesięczne wynagrodzenie brutto w 2020 roku pozostało zróżnicowane także w regionach. W warszawskim stołecznym było ono najwyższe i wyniosło 6839,72 zł. Było to więcej o 2076,66 zł niż w regionie warmińsko-mazurskim, gdzie zanotowano najniższą jego wartość.

    – Wzrost wynagrodzeń będzie w najbliższym czasie istotnym czynnikiem tworzącym presję na wzrost cen i to nawet wtedy, gdy w 2021 roku po rozliczeniu tarcz finansowych dojdzie do wzrostu bezrobocia, bo ten wzrost będzie przejściowy. W Polsce za chwilę znowu pojawi się w zdecydowanej większości branż problem z ludźmi do pracy – uważa ekspert.

    Kolejnymi czynnikami sprzyjającymi wzrostowi cen, zwłaszcza w usługach, są drożejąca energia elektryczna, dodatkowe opłaty, takie jak tzw. opłata cukrowa w przypadku napojów czy podatek od sprzedaży detalicznej, presja ekologiczna wymuszająca inwestycje w zmianę opakowań oraz spowodowany pandemią „dodruk” pieniądza.

    – Banki centralne mogą oczywiście, bo mają takie narzędzia, hamować ewentualny wzrost inflacji w przyszłości. Zresztą dyskusja na temat ryzyka wzrostu inflacji nie toczy się tylko w Polsce, ale w zasadzie na większości rynków. Przykładem są Stany Zjednoczone, w których ekonomiści debatują w kontekście nowego planu Joe Bidena. Mam na myśli nie ten ostatni akt pomocy pandemicznej, czyli 1,9 bln dol., ale także plan rozwoju infrastruktury wart 2 bln dol. – zwraca uwagę ekonomista. – Podobną sytuację mamy w Europejskim Banku Centralnym. Na razie wzrostu inflacji nie ma, ale mówimy o przyszłości. Banki mogą to ograniczyć, jeżeli zaczną operacje ograniczania ilości wydrukowanego pieniądza w gospodarce. Ale to oznacza ściąganie tego pieniądza lub podnoszenie stóp procentowych.

    W grudniu 2015 roku amerykański Fed podniósł stopy po raz pierwszy po kryzysie finansowym z lat 2008–2009. Rok później podniósł główną stopę procentową do 0,50–0,75 proc. z 0,25–0,50 proc., a w kolejnym roku zdecydował się aż na trzy podwyżki. W grudniu 2018 roku stopy sięgnęły przedziału 2,25–2,50 proc. Jednak już jesienią 2019 roku Fed zaczął obniżać ten poziom.

    – Banki centralne wiedzą, w którym kierunku iść, ale to będzie oznaczało także hamowanie gospodarki, więc moim zdaniem pomysł jest taki: niech ona się rozkręci, odbuduje po pandemii i dopiero za rok, półtora, dwa lata zaczniemy coś robić, jeżeli będzie taka potrzeba. Miejmy nadzieję, że to się uda, że ewentualne działania przeciwko inflacji nie doprowadzą potem do bardzo dużego hamowania czy recesjipodkreśla Marek Zuber.

  • Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    „Dokładny, pewny czas ma swoją wartość i ona stale rośnie.” – mówi Tomasz Widomski z Elpromy – jednego ze światowych liderów synchronizacji w IT, czyli dostarczania siecią komputerową precyzyjnej informacji o czasie w rozmowie z Waldemarem Sielskim.

    Waldemar Sielski: Kiedy pojawiło się w Elpromie zainteresowanie synchronizacją czasu?

    Tomasz Widomski: W roku 1996 opracowaliśmy pierwszy odbiornik GPS dołączany przez RS232 do komputera PC. Wówczas byliśmy przekonani, że GPS to świetne rozwiązanie. Jednak na przestrzeni lat zrozumieliśmy, że przemysł ewoluuje w stronę systemów rozproszonych i zbyt silnie uzależnia się od niedoskonałego GPS. Coraz częściej pytano o rozwiązania sieciowe Ethernet z protokołem NTP (Network Time Protocol). W roku 2000 powstał pierwszy sieciowy serwer czasu zrealizowany na zamówienie polskiego Sejmu. Tak się składa, że w roku 2020, a więc równo w 20 lat później, najnowszą wersję tego serwera z protokołem PTP IEEE1588 dostarczyliśmy do Parlamentu Europejskiego i Komisji UE. Ta wersja jest odporna na manipulacje sygnału GPS.
    Czytaj: Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE | BrandsIT.pl – Portal Technologiczny

    WS: Synchronizacja czasu to zagadnienie specjalistyczne i mało znane. Może dlatego, że nawet zdefiniowanie czasu nie jest łatwe, prawda?

    TW: Odpowiadając na pytanie „Czym jest czas” zacytuję św. Augustyna „Jeśli nikt mnie o to nie pyta, wiem. Jeśli pytającemu usiłuję wytłumaczyć, nie wiem”. Intuicja podpowiada, że skoro umiemy czytać zegary to sprawa nie jest trudna – nic bardziej mylnego. W fizyce czas oznacza zmianę, a w elektronice pełni rolę „dyrygenta orkiestry” układów scalonych. Określanie jednoczesności zdarzeń z dużą dokładnością jest dzisiaj w cenie. Szczególnie widać to w sektorze finansowym na zrobotyzowanych giełdach Wall Street i w Londynie, gdzie algorytmy wychwytują najdrobniejsze różnice notowań akcji tych samych spółek, w idealnie tym samym momencie, ale na oddalonych od siebie parkietach. Sprzedają, gdzie drożej i kupują te same papiery taniej – to czysty zysk i to bez ryzyka. Rygory synchronizacji określa unijna dyrektywa MiFID II. Obowiązuje ona też w Polsce.
    Czytaj: Czas i pieniądze | BrandsIT.pl – Portal Technologiczny
    Od prawie ćwierć wieku zajmujemy się profesjonalną telemetrią M2M (Machine-to-Machine), a przesyłanie czasu siecią TCP/IP jest jej poddziedziną z pogranicza metrologii czasu. Niewiele osób wie, że synchronizacja zegarów opiera się na zwykłej teorii sygnałów. Sam mechanizm przesyłania danych z czasem nie różni się od zdalnego odczytu liczników prądu, gazu czy wody, czyli popularnego dziś smart-metering. Zadziwić może fakt, że przesyłanie czasu siecią nie wymaga nawet rygoru zachowania czasu rzeczywistego. Nie ma znaczenia dla dokładności czy dane te podróżują siecią długo, czy krótko. Ważna jest za to ich cykliczność, stabilna regularność i dwukierunkowa wymiana informacji między synchronizowanymi komputerami. Synchronizacja to porównanie zegarów na poziomie systemu operacyjnego Windows, Linux, OSX, wymuszająca korektę ich nastawień, tak aby pozostawały możliwie zgodne. Synchronizacja różni się więc od telemetrii właśnie o dodatkową inteligencję korygowania zegara.

    WS: Dlaczego synchronizacja przenosi się do sieci komputerowej?  Przecież synchronizacja działała do tej pory dobrze poza siecią.

    TW: Wcześniej do sieci uciekł przemysł, telekomunikacja, energetyka, multimedia, a ostatnio również telewizja. W sieci jest wszystko, bo tak jest taniej, mniej kabli do układania i łatwiejsze zarządzanie. Teraz przyszła kolej na „czas z gniazdka”, tzn. taki, który zapewni stabilność całego IT. Czas dystrybuowany Ethernetem stanowi skuteczną alternatywę dla lokalnego GPS, z którym mamy coraz większy kłopot. Czas wywołuje w przemyśle skutki prawne i wzrasta odpowiedzialność karna za powstałe awarie infrastruktury. Chcemy to minimalizować. Chodzi o to, aby być przygotowanym, gdy współzależność systemów w Przemyśle 4.0 osiągnie tak wysoki poziom, w którym zaburzenie jednego elementu zagrozi efektem domina w skali odczuwalnej dla regionu lub całej gospodarki. Zachód to już zrozumiał. Nam niestety nie starcza tu wyobraźni, że to ostatni już moment na poprawę krytycznych infrastruktur szkieletowych. Trochę przypomina to dyskusje nad zmianami klimatycznymi. Ponoć zawsze jest pora, ale pewnego dnia okaże się, że już jest za późno, a skutki będą fatalne.
    Jest też inny powód, dlaczego synchronizacja przenosi się do sieci komputerowej. To konieczność synchronizacji systemów rozproszonych. A dzisiaj w erze chmury wszystko jest rozproszone, zaczynając od Microsoft Azure, po miniaturową sieć łączącą lidary-IP pracujące pod maską autonomicznego samochodu marki Tesla. Wyzwaniem jest zawsze precyzyjne wyznaczanie wspólnego momentu – chwili „teraz” i znakowanie danych jakie sensory wysyłają do serwera centralnego nadzorującego proces. Dokładność osiągnęła już poziom nanosekund i podąża w stronę pikosekund. Te największe dokładności widać w systemach jednofotonowej kryptografii kwantowej QKD, jakie mają od dekady banki w Szwajcarii i British Telecom. Nas interesuje jednak zwykły przemysł i dużo mniejsze dokładności, gdzie potrzebne jest wspólne źródło stabilnego czasu. A stabilność i dokładność idą w jednej parze.

    WS: To może źródłem czasu mógłby być GPS i jego sygnał 1PPS (Pulse-per-second signal – Wikipedia)?

    TW: Zasadniczym problemem amerykańskiego GPS i innych systemów satelitarnych GNSS jest ich wojskowa natura. Z wyjątkiem europejskiego GALILEO, wszystkie pozostałe nie mogą zapewnić dostępności UTC (Uniwersalny czas koordynowany – Wikipedia, wolna encyklopedia) w sytuacjach kryzysowych. Istnieją stosowne dyrektywy zezwalające na ograniczanie dostępności GPS bez uprzedzenia opinii publicznej. Zdarzają się też awarie, błędy satelitów, pomyłki w telemetrii ziemia-kosmos. Jako firma śledzimy i analizujemy wszystkie te przypadki. W Elpromie posiadamy wiedzę jak temu zapobiegać. Największy problem stanowią jednak same urządzenia do odbioru sygnału satelitarnego. W synchronizacji opartej o odbiorniki komercyjne GNSS błąd jednego roku jest tak samo prawdopodobny jak błąd o jedną milisekundę. Dzieje się tak, ponieważ wewnątrz sprzętu GNSS czas reprezentowany jest numerycznie i podlega procesowi przetwarzania wykazując podatność na błędy przepełnień. Ma to miejsce, zwłaszcza, gdy producent upchnie w jednym bajcie obok siebie czas i datę. Łatwo wtenczas przenieść bit przepełnienia określający milisekundę na pole kodującą informacje o dacie i problem dużego skoku w czasie jest gotowy. Sam odbiornik GNSS ma tu sporo do policzenia i wiele okazji do pomyłek. Danymi z GNSS można też łatwo manipulować tworząc fałszywą emisję sygnałów satelitarnych na ziemi. Nazywa się to spoofingiem. Można też zagłuszać oryginalny sygnał, co nazywamy jammingiem. Obecnie sygnał GPS jest bardzo narażony na takie manipulacje i celowe cyberataki. Coraz częściej zdarzają się ataki na całe infrastruktury krytyczne państw. W 2019r. Izrael odnotował zagłuszanie GPS nad tym państwem, więc to może się przydarzyć również Polsce. Znane są też przypadki podobnych awarii telekomunikacyjnych w Wielkiej Brytanii. Niewiele firm przyznaje się jednak do takich problemów w obawie o skutki komercyjne, ryzyko utraty klientów, niechęć inwestorów. Dlatego są one możliwie ukrywane przed opinią publiczną. Firmy starają się im same zapobiegać.

    WS: Czyżby synchronizacja jest obok telemetrii również dziedziną cyberbezpieczeństwa?

    TW: Zdecydowanie – TAK! Dziś synchronizacja ściśle wiąże się z cyberbezpieczeństwem. Zamiast włamywać się do sieci wewnętrznej, prościej jest destabilizować jej pracę poprzez zdalne zaburzenie synchronizacji, np. manipulując sygnałami GPS. Reszta destrukcji wykona się praktycznie sama, jeżeli system nie jest na to przygotowany. Elproma pokazała konkretne scenariusze ataków na system synchronizacji podczas paneli eksperckich w Brukseli w roku 2017, w sesji poświęconej bezpieczeństwu energetyki DG-Energy i bezpieczeństwu sieci DG-CNET. Mieliśmy też przydzielony czas w 2018r. podczas pokazów salonu lotniczego w Paryżu. Niestety gdziekolwiek jesteśmy zapraszani jako eksperci nie spotykamy nikogo z Polski – jesteśmy tam jedyni – to nas bardzo martwi.
    Ponadto, manipulując czasem można zaburzyć chronologię zapisanych zdarzeń w dziennikach LOG. Traci się wtenczas bezpowrotnie szansę analizy błędów i ustalenia źródła awarii. To idealne warunki dla hakerów, którzy odwracają w ten sposób uwagę od rzeczywistej przyczyny ataku. Nietrudno tak zmanipulować zapis LOG, że zarejestrowany skutek wyprzedzi w czasie własną przyczynę. Dlatego rekomendujemy, aby w infrastrukturach krytycznych używać autentykacji serwerów czasu oraz znakować kryptograficznie czasem zapisy w LOG. Dziś zmianie uległ cały paradygmat cyberbezpieczeństwa, a ataki hackerskie klasy „Time synchronization attack” i „Time delay attack” są jednymi z prawdopodobnych i najniebezpieczniejszych dla silnie zautomatyzowanej i uzależnionej od GPS gospodarki.
    Dlatego mówi się dziś o rosnącym znaczeniu czasu urzędowego. Potrzebna jest unifikacja wzorca czasu UTC i normalizacja standardów dla Przemysłu 4.0. Alternatywne dla GPS przesyłanie wzorca siecią Ethernet robi się ważne. Standaryzacja jest tu przedmiotem prac wschodzącej technologii TSN (ang.  Time Sensitive Networking – Time-Sensitive Networking – Wikipedia). Synchronizacja i precyzyjne znakowanie czasem będzie też wywoływać następstwa prawne, nie tylko jako konsekwencja awarii, ale również wprowadzi skutki w postaci np. nowych rodzajów podatków. Tak jest już dziś we Włoszech dla transakcji giełdowych w tzw. HFT.
    Podobnie wygląda sytuacja w energetyce rozproszonej smart-grids. W Polsce mamy obecnie okres poprzedzający tę erę. Jako kraj pozostajemy nadal skoncentrowani na telemetrii zdalnych odczytów smart-metering, gdzie dokładność nie jest aż tak ważna, chociaż sama synchronizacja jest bardzo tam bardzo potrzebna. Wyzwaniem będzie transformacja do energetyki rozproszonej. Polskę czeka tu milowy krok i konieczność stworzenia skalowalnej infrastruktury szkieletowej oferującej dwukierunkowy przepływ prądu. Rejony z nadmiarem energii muszą w przyszłości wspierać rejony z jej niedomiarem. Sytuacja energetyczna i kierunek płynięcia prądu będą się zmieniać dynamicznie i to wymaga synchronizacji nanosekundowej.
    Czytaj: Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna? | BrandsIT.pl – Portal Technologiczny
    Bez zgodności czasu, niemożliwym jest też precyzyjne strojenie pasm radiowych ani zarządzanie kanałami transmisyjnymi telefonii 5G, ani telewizji cyfrowej DVB-T2. Można by było ratować się wprowadzaniem tu dodatkowych zabezpieczeń, ale odbywałoby się to kosztem obniżenia wydajności posiadanego pasma, zakupionego przecież za bardzo duże pieniądze. W konsekwencji zmniejszałaby szybkość transmisji oraz liczba jednocześnie obsługiwanych abonentów, w tym urządzeń telemetrii bezprzewodowej M2M, a to ponownie stwarza zagrożenie dla stabilności Przemysłu 4.0.
    Czytaj: Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0 | BrandsIT.pl – Portal Technologiczny

    WS: Jak uzyskuje się dokładną informację o czasie?

    TW: Za wyznaczanie czasu UTC odpowiada w każdym państwie narodowy instytut metrologii.
    W Polsce rolę tę pełni Główny Urząd Miar RP, z którym Elproma współpracuje od lat. Urząd może kalibrować, tzn. dostrajać dostarczone mu zegary do narodowych, cezowych wzorców czasu. Urząd udostępnia też swoje wzorce publicznie przy pomocy protokołów NTP, a ostatnio również PTP IEEE1588. Sposoby rozpowszechniania wzorców czasu urzędowego określa rozporządzenie (Dz.U 56/2004 poz. 548). Czas jest chroniony prawnie nie tylko w naszym kraju. Niebawem, czasem obowiązującym na terenie UE będzie również czas z systemu GALILEO. Wyznaczanie narodowych skal UTC koordynuje BIPM Francja. Czas dla GALILEO tworzą europejskie laboratoria. Polska i GUM biorą w tym również czynny udział.  Firmy Elproma i PIK-Time współuczestniczą w projekcie GIANO Horizon 2020. To projekt budowy pierwszego europejskiego odbiornika satelitarnego z kryptograficzną autentykacją PKI bezpośrednio z poziomu satelitów GALILEO. Liderem projektu jest fabryka satelitów Thales Alenia Space Włochy, a wykonanie części sieciowej powierzono polskiej Elpromie.
    Ale czas UTC nie jest tak uniwersalny jak wskazuje to jego nazwa i tu pojawiają się rozbieżności między UTC laboratoriów poszczególnych państw UE. To wyzwanie również dla GALILEO, którego czas zależy od wielu laboratoriów. Dzięki uprzejmości BIPM w Paryżu, możemy to pokazać na danych historycznych porównania UTC: Włoch, Wielkiej Brytanii, Niemiec, Francji i Hiszpanii. Pokazane tu rozbieżności są większe niż wymaga się dziś od stabilności UTC dla telekomunikacji 5G. Dzisiaj wygląda to lepiej niż 10 lat temu, ale prace nad poprawą dokładności nadal trwają nieustannie. Wprowadza się też nowe generacje satelitów GPS i GALILEO. Różny jest też czas pomiędzy poszczególnymi systemami satelitarnymi grupy GNSS. Np. rozbieżność między amerykańskim GPS a rosyjskim GLONASS wynosi aż 40ns. Dla energetyki rozproszonej smart-grids i telekomunikacji 5G to zdecydowanie zbyt dużo.

    UTC(k)
    źródło: konferencja PTTI/ION dzięki uprzejmości prof. Patrycji Tavelli z BIPM

    WS: A jaki jest wkład Elpromy w synchronizację światową?

    TW: Elproma wyspecjalizowała się w synchronizacji infrastruktur krytycznych oraz w obsłudze profesjonalnej metrologii czasu. Dostarczamy zgodny i stabilny czas urzędowy na dużym obszarze tam, gdzie warunki odbioru sygnałów satelitarnych są trudne lub niepewne, a priorytetowe pozostaje cyberbezpieczeństwo. W roku 2019 dostarczyliśmy 300+ rubidowych serwerów NTS-5000 do energetyki smart-grid w Azji. Pokonaliśmy tam nowozelandzką firmę Tekron, którą niedawno kupił amerykański koncern Microchip notowany na NASDAQ. Wartość transakcji została utajniona, ale uważa się, że mogła ona osiągnąć wielkość 20mln U$. Wcześniej Microchip przejął Microsemi, ten wchłonął Symmetricom, który w pierwszej dekadzie tego millenium porządkował amerykański rynek synchronizacji i przejął w USA firmy Truetime (za ok. 20mln US$) i Datum (za ok. 80mln US$). Podkreślam to, ponieważ wygrywamy na arenie, gdzie są przejęcia i fuzje liczone w dziesiątkach milionów dolarów. Elpromę traktuje się tu z dużą powagą jako gracza i konkurenta. Podpatruje się co robimy,
    a nierzadko kopiuje nasze pomysły. Wydaje nam się, że to spory wkład – bo w taki sposób rozsławiamy polską myśl techniczną, w trudnym niszowym segmencie zaliczanym do high-tech.
    Nasz udział w światowej służbie czasu wykracza też poza codzienny biznes. Wyznaczamy kierunki i trendy – szczególnie te w zakresie cyberbezpieczeństwa synchronizacji. W latach 2009-2013 współtworzyliśmy protokół White Rabbit w CERN, który w maju 2020 doczekał się standaryzacji i włączenia do IEEE1588:2019. Później w latach 2013-2014 opracowaliśmy specjalistyczny komputer przemysłowy TAKT kompensujący wewnętrzne opóźnienia do zera. W latach 2015-2016 uczestniczyliśmy w projekcie Horizon 2020 DEMETRA prezentując unikatowy model dystrybucji czasu urzędowego z funkcją zdalnego audytu czasu. Nasze prace są wysoko ocenione i jesteśmy regularnie cytowani. Jesteśmy też zapraszani jako eksperci przez firmy takie jak Facebook i NVIDIA.
    Czytaj: Historia Czasu i Synchronizacji – od dyliżansów do Białego Królika | BrandsIT.pl – Portal Technologiczny
    Ale największy i zarazem może najmniej znany wkład Elpromy w światową synchronizację to pomoc w zablokowaniu jednej jedynej sekundy, tzw. sekundy przestępnej (ang. leap second – Sekunda przestępna – Wikipedia, wolna encyklopedia) dodawanej nieregularnie do skali czasu UTC. Po czterech latach międzynarodowej aktywności Elpromy, organizacje BIPM i NIST zgodziły się m.in. na postulaty Elpromy zasadności usunięcia tej trudnej w obsłudze dla przemysłu sekundy. Tym samym zapobiegliśmy potencjalnym awariom sektora energetycznego na świecie.
    Trochę do pełnego sukcesu brakuje nam codziennego biznesu – przede wszystkim wielkości sprzedaży dorównującej Amerykanom z Microchip, szwajcarskiej Advie-Oscilloquartz czy francuskiej Orolii. Plasuje się nas w pierwszej piątce globalnych producentów serwerów czasu NTP/PTP, ale nasza sprzedaż jest zdecydowanie niższa od konkurencji. Bariera wejścia na rynki USA i UE pozostaje bardzo wysoka. Nie pomaga nawet fakt, że serwery Elpromy od 2017r. są dopuszczone do użycia w NATO w Europie, a naszym klientem jest m.in. Ministerstwo Obrony Australii.

    WS: Czy zagadnienie czasu jest dobrze rozumiane przez polskich specjalistów?

    TW: Nie jest. Brakuje nam poparcia w Polsce zapewniającego lokalny zbyt tak, jak robią to Francuzi, Niemcy i Amerykanie. U nas wiele przetargów opisywanych jest wg. specyfikacji urządzeń zagranicznych, na czym dużo tracimy. Chyba nikt nie robi tego specjalnie. To wynika z niszowej natury i właśnie braku wiedzy, co jest ważne, a co nieistotne w produkcie. Nasi decydenci, nieświadomi wag parametrów, po prostu najczęściej kopiują specyfikację tego, co im wpadnie w necie. Później zostają pozostawieni z tym sami. To generuje z czasem bardzo wysokie koszty utrzymania. A przecież, my jesteśmy w miejscu w Polsce, moglibyśmy im pomóc.
    Sama edukacja to oddzielna sprawa. Większość klientów uważa, że skoro dotychczas problemów u nich nie było, to dlaczego mają się one pojawić akurat teraz. Zapominają, że dwadzieścia pięć lat temu, na rynku pojawiały się dopiero pierwsze odbiorniki GPS i gospodarka nie była tak uzależniona od tych systemów. Nie wiadomo było też wtenczas, że tak łatwo będzie można manipulować sygnałami satelitarnymi. Ten problem pozostaje do dziś piętą Achillesa największych korporacji światowych. Pomagamy, doradzając między innymi firmom takim jak Facebook i NVIDIA. To dla nas zaszczyt, ale nie biznes. Największe firmy tworzące dziś CLOUD/EDGE/FOG korzystają z projektów open hardware/software i grupują się w projekcie OCP  (Home » Open Compute Project). Można tam znaleźć również konsultantów z Elpromy. Ostatnio, w listopadzie 2020, przekazaliśmy uwagi dla zespołu pracującego nad synchronizacją chmury Facebook’a, co pewnie przyczyni się do poprawy jej stabilności w przyszłości. Uwagi nasze uwzględniono, ale niestety do tej pory nie doczekaliśmy zamówienia, ba nawet zwykłego słowa „dziękuję” czy podania nas choćby jako źródło informacji. Dlatego wolelibyśmy, aby z naszych usług więcej korzystał krajowy rynek IT. Problemy z synchronizacją pojawiają się statystycznie raz na dekadę, a więc na tyle rzadko, że inwestycje takie odsuwa się na później, a szczególnie w Polsce. Przypomina to deklaracje rozbudowy i wzmocnienia wałów przeciwpowodziowych, gdy nastaje ryzyko powodzi. Gdy mija, inwestycje odsuwa się i tak do następnego razu.
    Czytaj: Czas – ukryty i niedoceniany problem nowoczesnych technologii | BrandsIT.pl – Portal Technologiczny

    WS: W których polskich firmach pracują urządzenia Elpromy?

    TW: W Polsce możemy się pochwalić wdrożeniami do Sejmu RP i Senatu RP, Ministerstwa Sprawiedliwości, Ministerstwa Finansów, policji, wojska, w ING Śląski, PeKaO SA, T-Mobile, Orange, Polkomtel, Tauron, do licznych elektrowni, rozgłośni radiowych i TV, korporacji i firm produkcyjnych. Jest tego sporo, ale w Polsce kupowane są od lat wyłącznie pojedyncze urządzenia, najczęściej te najprostsze, a wiele z nich kupiono aż 10-20 lat temu, kiedy zakup jednostkowych sztuk był zasadny. Dziś, wraz ze zmianą paradygmatu cyberbezpieczeństwa, pojedyncze serwery powinny być zastępowane systemami synchronizacji składających się z wielu nowoczesnych serwerów wytwarzających czas UTC bez udziału GNSS. Taką konfigurację zaprojektowaliśmy i wdrożyliśmy do Polskiej Agencji Żeglugi Powietrznej (PAŻP), gdzie kilkadziesiąt specjalnych serwerów NTS-5000 Rubidium współtworzy autonomiczną skalę czasu UTC na co dzień zarządzaną centralnie w Warszawie, ale przechodzącej natychmiast w stan pracy rozproszonej w warunkach sytuacji kryzysowych braku łączności. Takie rozwiązania powielają od nas dziś najwięksi światowi gracze. Coraz częściej, czas jest sprzedawany dzięki temu jako usługa, bo dokładny, pewny czas ma swoją wartość i ona stale rośnie. Ta wartość jest inna dla każdego, w zależności od indywidualnej oceny skutków awarii jakie wywołałaby choćby raz na dekadę niewystarczająca synchronizacja. Dziś na każde wydane na synchronizację 1000 EURO w krajach Benelux, Polska wydaje jedynie 1 EURO, a takie dysproporcje 1000:1 mówią same za siebie.

    Elproma

  • W Warszawie powstał pierwszy poza Chinami specjalny salon Xiaomi. Producent rozważa otwarcie kolejnych

    W Warszawie powstał pierwszy poza Chinami specjalny salon Xiaomi. Producent rozważa otwarcie kolejnych

    Nowy Mi Store w warszawskim centrum handlowym Westfield Arkadia to jedyny taki koncept poza Chinami. To nie tylko sklep, lecz także serwis i miejsce do testowania urządzeń Xiaomi. Klienci mogą skorzystać ze strefy odzwierciedlającej warunki domowe i sprawdzić, jak inteligentne urządzenia do domu funkcjonują jako cały ekosystem. Marka w przyszłym roku zamierza otwierać kolejne sklepy, a także skupić się na rozwoju swoich produktów. – Planujemy dalszy rozwój naszego biznesu dotyczący smartfonów i telewizorów, będziemy także mocno koncentrować się na urządzeniach 5G – zapowiada Marcin Szczepankowski z Xiaomi Polska.

    – Mi Store w Arkadii to pierwszy taki concept store w Europie Środkowo-Wschodniej. Powstał on w Warszawie, bo tu jest nasza centrala i biuro, z którego obsługujemy całą Europę Środkowo-Wschodnią – wskazuje  Marcin Szczepankowski, szef działu GTM w Xiaomi Polska.

    W centrum handlowym Westfield Arkadia otwarto właśnie nowy salon Xiaomi. Jest to jedyny tego typu koncept stworzony poza Chinami. Wyróżnikiem sklepu jest nie tylko jego powierzchnia (ponad 300 mkw.), ale też duża strefa do testowania rozwiązań ekosystemu marki.

    – Pierwsza część salonu jest ułożona dość klasycznie, bo znajdują się w niej smartfony i produkty ekosystemowe na sprzedaż. W drugiej części przygotowaliśmy strefę Mi Smart, w której klienci mają okazję skorzystać z naszych produktów, zobaczyć, jak na co dzień mogą one funkcjonować jako cały ekosystem – wyjaśnia szef działu GTM w Xiaomi Polska.

    Strefa ta została zaprojektowana na kształt mieszkania. Można w niej zobaczyć i sprawdzić działanie inteligentnych rozwiązań w ramach ekosystemu łączącego produkty lifestyle oraz codziennego użytku. Wszystkimi urządzeniami można sterować za pomocą jednej aplikacji lub asystenta głosowego w ramach platformy Mi Home. W ekosystemie Xiaomi w Polsce dostępnych jest ok. 200 urządzeń internetu rzeczy, podczas gdy w Chinach jest ich ok. 2 tys.

    – Wyjątkowe jest również to, że otworzyliśmy w sklepie dedykowaną strefę dla serwisu. Wszyscy klienci będą mogli dokonać naprawy bądź jakiejkolwiek konsultacji serwisowej na miejscu  zaznacza ekspert.

    Nowy Mi Store zastąpi ten już istniejący w Westfield Arkadia. Jak podkreśla Marcin Szczepankowski, decyzja o uruchomieniu konceptu w Polsce została podjęta mimo trudnej sytuacji w handlu detalicznym, która jest efektem pandemii i kolejnych lockdownów. 17 grudnia rząd poinformował o wprowadzeniu kwarantanny narodowej, co wiąże się m.in. z zamknięciem galerii handlowych (poza sklepami zapewniającymi podstawowe potrzeby). Okres lockdownu potrwa od 28 grudnia do 17 stycznia.

    – Okres pandemii jest wyzwaniem dla sprzedaży detalicznej. Podjęliśmy jednak decyzję, żeby kontynuować naszą strategię i pomimo uwarunkowań zewnętrznych w tym czasie otworzyliśmy sześć kolejnych salonów. To 20. salon, który otwieramy w Polsce  mówi szef działu GTM w Xiaomi Polska.

    Jak podaje GUS, sprzedaż detaliczna w cenach stałych w październiku 2020 roku była niższa niż przed rokiem o 2,3 proc. (wobec wzrostu o 4,6 proc. w październiku 2019 roku). Ogółem w okresie styczeń–październik 2020 roku sprzedaż spadła o 3 proc. r/r, przy wzroście o 5,6 proc. w 2019 roku. Spowolnienie widać też w wynikach odwiedzalności galerii handlowych. Z danych Polskiej Rady Centrów Handlowych wynika, że wprawdzie klienci chętnie wrócili do otwartych od 28 listopada obiektów, wciąż jednak jest ich o ok. 30 proc. mniej niż przed rokiem.

    – Będziemy otwierali kolejne salony sieci własnej, będziemy także kontynuować nasz biznes z partnerami w kanale otwartym i w kanale operatorskim – wymienia Marcin Szczepankowski. Na przyszły rok mamy zaplanowane otwarcie kolejnych sklepów. Decyzję o tym, czy będą to takie punkty jak nowy Mi Store w Arkadii, podejmiemy już niedługo.

    Xiaomi zadebiutowało w Europie nieco ponad trzy lata temu. Obecnie jest trzecią największą marką smartfonów – nie tylko w Europie, ale i na całym świecie. W Polsce jest numerem jeden pod względem dostaw. Z tym rynkiem Xiaomi wiąże szczególne nadzieje, zwłaszcza w kontekście planowanego rozwoju sieci 5G.

    – Nasze plany na przyszły rok można scharakteryzować na trzy sposoby. Planujemy dalszy rozwój biznesu smartfonowego, a także naszego ekosystemu urządzeń. Będziemy wprowadzali nowe produkty, w tym telewizory, a także będziemy się mocno koncentrować na urządzeniach 5G – zapowiada szef działu GTM w Xiaomi Polska.

  • Twardy reset, czyli jakie wyzwania staną przed branżą IT w 2021 roku?

    Twardy reset, czyli jakie wyzwania staną przed branżą IT w 2021 roku?

    Kończący się rok to twardy reset dla całego świata i dla branży IT. Mimo, że cyfryzacja stała się powszechna i większość przedsiębiorstw oraz sektor publiczny oparty jest o wykorzystanie zasobów cyfrowych, to ostatni rok przedefiniował priorytety w tych obszarach. Wchodząc w 2021 rok rysują się wyraźne trendy dla branży IT, która musi odpowiedzieć na nowe wyzwania. Poniżej przestawiamy 6 trendów technologicznych na 2021 rok, które prezentuje Robert Strzelecki – prezes TenderHut – jednej z najszybciej rozwijających się grup IT w Polsce.

    Cyberbezpieczeństwo

    Cyberbezpieczeństwo u progu trzeciej dekady XXI wieku stoi pod nazwą Blockchain. Technologia głównie kojarzona z kryptowalutami, z uwagi na swoje możliwości stanowi doskonałe narzędzie do zabezpieczania danych. Dlaczego właśnie w 2021 roku cyberbezpieczeństwo zyska na znaczeniu? – Ponieważ z dnia na dzień cały świat był zmuszony zacząć korzystać z usług online, na znacznie większą skalę niż kiedykolwiek wcześniej. Praca, nauka, zakupy – wszystko to przeniosło się do sieci i znaczna część nowych użytkowników zostanie już tam na stałe.  Kluczowe stało się w tym momencie zachowanie bezpieczeństwa połączeń, danych czy zakupów online. Wzmożony ruch w sieci to także wzmożona aktywność cyberprzestępców, którzy szybko zaadaptowali się do nowych warunków i właśnie dlatego 2021 rok będzie stał pod znakiem bezpieczeństwa cyfrowego.

    Sieć 5G

    5G stało się rzeczywistością, teraz przyszedł czas na ekspansję zasięgu sieci oraz praktyczne wykorzystanie możliwości, jakie niesie za sobą ta technologia, a te mogą dotykać każdej dziedziny naszego życia. Transport, edukacja, medycyna, mieszana rzeczywistość czy rozrywka to tylko niektóre obszary, w których w nadchodzącym roku będziemy obserwowali praktyczne wykorzystanie szerokopasmowej zdalnej transmisji danych. Pierwsze zastosowania zaobserwujemy w przemyśle i transporcie, ale szybko użytkownicy indywidualni także skorzystają z możliwości tego rozwiązania. Jednym z ciekawszych praktycznych zastosowań będzie wykorzystanie sieci 5G do rozwoju technologii Mixed Reality, a to za sprawą minimalnych opóźnień w przesyle danych, na jakie zezwala ta technologia.

    Mixed Reality

    Rozwój rozszerzonej rzeczywistości w postaci urządzeń, które nosimy na sobie (Wearables) a tak naprawdę na głowie, czyli hełmu lub okularów to właśnie technologia mieszanej rzeczywistości. Ma ona także nieco szersze możliwości niż AR (Augmented Reality), ponieważ umożliwia większą interakcję użytkownika z generowanym obrazem. Dlaczego rozwój mieszanej rzeczywistości przyspieszy w nadchodzącym okresie? Przede wszystkim z uwagi na same urządzenia – stały się one lżejsze, wydajniejsze i bardziej mobilne. Każda z większych firm technologicznych pracuje nad swoim rozwiązaniem. HoloLens 2 od Microsoft, używane na razie w biznesie, czy zapowiadane na 2021 rok Apple Glasses dla użytkowników indywidualnych, spowodują rozwój aplikacji i samej technologii. Praktyczne wykorzystanie mieszanej rzeczywistości możemy obserwować już w telemedycynie.

    Telemedycyna

    Pandemia uświadomiła nam jedno – znaczenie wykorzystania nowoczesnych technologii w medycynie i diagnostyce diametralnie rośnie. W najbliższym czasie będziemy obserwowali wzrost popularności urządzeń, które zdalnie będą monitorowały nasze funkcje życiowe i w razie potrzeby alarmowały odpowiednie służby. Wokół takich usług powstanie cały ekosystem teleinformatyczny. Technologia, która także będzie intensywnie rozwijać się w nadchodzących latach to wykorzystanie możliwości Mixed Reality zarówno w diagnostyce medycznej, jak i pracy w laboratoriach. Zestaw w postaci hełmu do mieszanej rzeczywistości może zostać wykorzystany do triage’u medycznego lub wsparcia pracy laborantów wykonujących testy diagnostyczne. Takie rozwiązania już funkcjonują, ale właśnie w 2021 roku wzrośnie ich popularność i poziom wykorzystania w obszarze medycyny.

    Prop-Tech

    Praca zdalna stała się rzeczywistością, – ale, na jaką skalę? Według danych GUS na koniec września 2020 roku zaledwie 5,8% pracowników pracowało w takim systemie. Mimo wzrostu zakażeń w kolejnych miesiącach ilość osób pracujących zdalnie z pewnością nie przekroczyła 10% z pośród wszystkich zatrudnionych. To, czego możemy z pewnością spodziewać się w 2021 roku, to model pracy hybrydowej, w której pracownicy spędzają tylko część tygodnia pracy w biurze. Ma to odzwierciedlenie w rynku nieruchomości biurowych. Inwestorzy, jak i klienci szukają inteligentnych biur, które będą wspierały ich potrzeby zakresu zarządzania zasobami ludzkimi patrząc na nie także przez pryzmat pandemii. Rozwiązania takie jak Hot Desk czy rotowanie pracowników na stanowiskach pracy z zachowaniem dystansu społecznego, wymagają rozwiązań zarówno dostępnych dla wszystkich (np. poprzez aplikację mobilną) oraz na tyle zaawansowanych, aby były wstanie zarządzać dostępnymi zasobami takimi jak wolne biurka, sale konferencyjne czy miejsca parkingowe. Nowe biurowce będą powstawały i będą coraz bardziej smart, bo tego będzie oczekiwał postpandemiczny rynek.

    Cyfrowa edukacja

    Rynek edukacji wyszedł z pierwszego szoku, w którym głównym celem było zapewnienie minimalnych potrzeb takich jak dostępność rozwiązań do zdalnego prowadzenia zajęć. 2021 rok będzie okresem rozwijania narzędzi wspierających zdalną edukację w znacznie szerszym wymiarze. Na rynek usług edukacyjnych należy spojrzeć nie tylko przez pryzmat powszechnego nauczania. Webinaria, kursy online czy całe programy kształcenia praktycznego wymagają przedefiniowania i zaprzęgnięcia nowoczesnych technologii do procesu edukacji. Coraz większe znaczenie będą miały narzędzia do wsparcia motywacji osób zarówno pracujących, jak i uczących się zdalnie. Zarówno szkoły, uniwersytety, jak i działy HR w poprzednim roku miały okazję na żywo przekonać się o tym, z jakimi wyzwaniami wiąże się kształcenie online. W 2021 roku te zdefiniowane potrzeby przekują się w realne rozwiązania, które będą wdrażane na masową skalę w obszarze edukacji.

    Pandemia z jednej strony obnażyła słabości systemu z drugiej pozwoliła na swoistą akcelerację rozwiązań, które bez niej czekałyby na wdrożenie przez kolejne lata. Cyfrowe technologie okazały się niezwykle pomocne we wsparciu prowadzenia biznesu. Zmieniło się także nastawienie zarówno przedsiębiorców, jak i administracji publicznej, co przyspieszyło wprowadzenie zmian w obszarze cyfrowych rozwiązań w wielu obszarach codziennego funkcjonowania rynku pracy.

  • Rok wielu emocji, czyli co Polacy oglądali na Netflix

    Co Polacy oglądali najchętniej w mijającym roku? Netflix właśnie to podsumował – lista filmowych gatunków jest obszerna, a wachlarz emocji, które towarzyszyły polskim widzom, jeszcze szerszy. Jak się okazuje, na ekranach królowały przede wszystkim dramaty, produkcje komediowe oraz kino dla najmłodszych. Polacy z entuzjazmem odkrywali także nowości z całej gamy innych kategorii dostępnych na Netflix.

    Coraz bardziej lubimy fantazjować

    Najciekawszym zaskoczeniem był ogromny, bo o niemal 500%, wzrost zainteresowania filmami fantasy. Choć nikogo nie powinno dziwić, że w tym pełnym emocji roku Polacy chętnie sięgali po kino, pozwalające na chwilę oderwać się od rzeczywistości, jaką znamy. Pomogły nam w tym m.in. produkcje Oryginalne Netflix – jeśli chodzi o fantasy dużą popularnością cieszyły się np. seriale Przeklęta czy Locke & Key. Dobrze się składa, gdyż rok 2021 również zapowiada się ciekawie dla kategorii fantasy – trwają już prace nad drugim sezonem Wiedźmina.

    Zapragnęliśmy romantyzmu

    Ostatni rok to także wzrost popularności historii miłosnych. W porównaniu z 2019 oglądalność romansów na Netflix jest teraz ponad trzy razy większa. Czyżby, jak śpiewali Beatlesi, “All you need is love”? Popularnością cieszyły się takie tytuły jak The Kissing Booth 2, Zakochany bogacz czy Miłość gwarantowana. Te pogodne, momentami zabawne, ale też chwytające za serce produkcje dostarczały Polakom nie tylko bardzo potrzebną dawkę pozytywnych emocji, ale także wiele rozwiązań na “domowe” randki.

    Oglądaliśmy w rytmie muzyki

    Musicale – to kolejna kategoria, którą odkryli Polacy w tym roku. Rozśpiewane produkcje porwały nas zarówno fabułą okraszoną szczyptą magii, jak i chwytliwymi piosenkami. M.in. dzięki takim tytułom jak Grease, Sweeney Todd, The Eddy z Joanną Kulig czy produkcji Oryginalnej Netflix z Rachel McAdams – Eurowizja, muzyczne historie kończą 2020 rok z ponad trzykrotnym wzrostem zainteresowania.

    Przeżywaliśmy też mocniejsze historie

    Poza odkrywaniem nowości, Polacy pozostali wierni swoim gustom – i tak wciąż najczęściej wybieranym w Polsce gatunkiem, zarówno wśród filmów jak i seriali, jest szeroko rozumiany dramat. Kategoria okazywała się bezkonkurencyjna w miesięcznych rankingach – wiodła prym przez cały rok. W 2020 roku Netflix znacząco poszerzył bibliotekę produkcji tego typu – filmy obyczajowe, polityczne, społeczne czy melodramaty to tylko namiastka treści, spośród których mogliśmy wybierać. Cieszy fakt, że wśród najpopularniejszych w tym roku reprezentantów gatunku, znalazło się sporo lokalnych tytułów – wśród nich stworzony w Polsce serial oryginalny Netflix W głębi lasu oraz filmy Jak zostałem gangsterem, Boże Ciało, Proceder i Zabawa Zabawa. Globalnym hitem – także niezwykle popularnym w Polsce – okazał się miniserial Gambit Królowej z polskim akcentem, czyli Marcinem Dorocińskim w roli szachowego mistrza.

    Oglądaliśmy razem

    Wśród najczęściej wybieranych przez Polaków gatunków znalazły się także komedie oraz produkcje dla dzieci/kino familijne – na podium jest miejsce dla obu kategorii, ale jak się okazało to Dzieciak rządzi. Tytuły przeznaczone dla młodszych użytkowników dominowały przez większą część roku, szczególnie w okresie letnim. Niewątpliwie jest to zasługa imponującej bazy treści licencjonowanych oraz tegorocznych premier wysokiej jakości produkcji oryginalnych Netflix, w tym Wyprawa na Księżyc, Park Jurajski: Obóz Kredowy czy SpongeBob Film: Na ratunek. 2020 przyniósł także udoskonalone funkcje ochrony rodzicielskiej, dzięki którym korzystanie z serwisu przez najmłodszych stało się nie tylko łatwiejsze, ale i bezpieczniejsze.

    Było nam do śmiechu

    Jeśli zaś chodzi o komedie – poza tym, że oglądaliśmy ich dużo, to znacznie częściej po “wesołe tytuły” sięgaliśmy w zimowych miesiącach (początek roku to szczególnie dobry czas dla tej kategorii – może to efekt szampańskich nastrojów panujących w czasie karnawału?). Wśród ulubionych komedii pojawiły się oryginalne produkcje Netflix – perypetie specjalistki od marketingu Emily w Paryżu, serial o dojrzewaniu Sex Education czy opowieść o niefortunnej pomyłce Niewłaściwa Missy.

    Szukaliśmy dreszczyku grozy i przygód!

    Podczas miesięcy jesienno-zimowych użytkownicy chętnie wybierali także horrory. Wygląda na to, że im mniej przyjazna aura na zewnątrz, tym chętniej szukamy nie tylko tytułów, które rozweselą w czasie jesiennej pluchy, ale także mrocznych historii, które wzbudzą gęsią skórkę nie tylko z zimna, ale i ze strachu. Jednym z horrorów, który cieszył się największą popularnością wśród polskich widzów był rodzimy tytuł W lesie dziś nie zaśnie nikt – został on premierowo udostępniony w serwisie, także użytkownicy Netflix mogli obejrzeć go jako pierwsi w Polsce. Co ciekawe, w cieplejszych miesiącach – jak kwiecień, lipiec i sierpień – swój złoty okres przeżywały filmy akcji. W tym roku poziom adrenaliny podnosiły Polakom takie tytuły jak Tyler Rake Ocalenie z Chrisem Hemsworthem czy The Old Guard z Charlize Theron. Chętnie sięgano także po kolejny sezon emocjonujących przygód nietuzinkowego rodzeństwa z The Umbrella Academy.

    Odkrywaliśmy świat

    Rok 2020 nie mógł nas powstrzymać od podróżowania. Polacy chętnie oglądali lokalne produkcje z różnych zakątków świata. Kierunków było sporo, a ciekawych historii i bohaterów jeszcze więcej. Nasze serca zdobyła np. historia spektakularnych rabunków w Madrycie. Dom z Papieru utrzymywał się na naszej top liście aż przez 122 dni! Fenomen serialu sięgnął dużo dalej – patrząc na poczynania Profesora i jego ekipy, Hiszpanię również chętnie “odwiedzali” mieszkańcy także 91 innych krajów. Wśród popularnych kierunków ekranowych podróży znalazły się także takie kraje jak Stany Zjednoczone (Ostatni taniec – aż 50 dni w TOP 10), Meksyk (Mroczne pożądanie – 42 dni) czy Rosja (Ku Jezioru – 37 dni). Odkrywaliśmy też kulturę Dalekiego Wschodu – ponad trzykrotnie wzrosło zainteresowanie koreańskimi produkcjami, a anime oglądało ponad 150% więcej Polaków niż w 2019 roku. Poznawaliśmy świat także dzięki szerokiej bibliotece filmów dokumentalnych na Netflix. W tym roku oglądaliśmy ich ponad dwa razy więcej! Wśród tematów, które najbardziej interesowały Polaków (oczywiście poza dokumentem na temat Domu z Papieru) znalazły się także Dylemat Społeczny czyTajemnice grobowca w Sakkarze.

  • Powstaje aplikacja oparta o AI, mająca zastąpić projektanta wnętrz

    Powstaje aplikacja oparta o AI, mająca zastąpić projektanta wnętrz

    Polacy na potęgę kupują i urządzają mieszkania, ale na każde 14 osób wyposażających i wykańczających swoje lokum, tylko jedna korzysta z pomocy projektanta wnętrz. Twórcy Lofty chcą sprawić, by usługa dostępna dotąd dla niewielu stała się powszechna. Wykorzystują do tego sztuczną inteligencję.

    Wnętrzarskie magazyny i programy telewizyjne cieszą się w Polsce ogromną popularnością, instagramowe profile o wnętrzach mają tysiące obserwujących, a sklepy z wyposażeniem wnętrz nieustająco przeżywają oblężenie. Pandemia tylko pogłębiła ten trend.

    Lofty, czyli wirtualny projektant wnętrz

    Wybór i dostęp do inspiracji wnętrzarskich jest dziś nieograniczony. I to jest problem, bo z ogromu propozycji ciężko jest coś wybrać. Lofty ma pomóc uporządkować ten chaos: jest brakującym ogniwem między markami a inspiracjami.

    Jak przebiega proces? Użytkownik zaczyna od rozmowy z botem, który zadaje kilka praktycznych pytań i poprosi o wskazanie podobających się wnętrz. Pozwala również załadować kartę mieszkania i wkleić link do swojej tablicy inspiracji na Pintereście. W efekcie otrzymujemy dobrany do wskazanego stylu projekt optymalnego ułożenia wnętrza oraz moodboard z propozycją mebli i wykończenia. Lofty ma już umówione warunki współpracy z ponad 50 producentami, sprzedawcami i marketplacami w branży, w tym Cersanit, Allegro, Lectus24 czy Pakamera. Co więcej, system dopuszcza także wykorzystanie własnych mebli i je również uwzględnia w wizualizacji. W czasie kiedy większość zakupów musiała przenieść się do sfery on-line, to ogromne ułatwienie.

    „Jako architekt z wykształcenia, który swoją karierę związał z technologią, widzę narastające problemy związane z projektowaniem wnętrz i budynków. Ten proces nie zmienił się od dziesiątek, nawet setek lat! Indywidualny projekt nadal wymaga zatrudnienia wysoko wykwalifikowanego, kreatywnego człowieka i opłacenia każdej godziny pracy nad projektem. To czasochłonne i bardzo kosztowne, a przez to wciąż dostępne tylko dla nielicznych. Ja wiem, że można to zmienić”.wyjaśnia Tomek Wiszniewski, założyciel i CEO Lofty.

    Tym sposobem usługa do tej pory dostępna dla nielicznych, teraz może być dostępna dla każdego. Lofty opiera się na zaawansowanych technologiach sztucznej inteligencji takich jak uczenie głębokie czy widzenie komputerowe. I to właśnie technologia odróżnia polską aplikację od podobnych tego typu istniejących za oceanem, działających bardziej jak wnętrzarski Uber.

    Chłonny i rosnący rynek

    Grupą docelową Lofty są wszyscy, którzy urządzają dom, mieszkanie czy nawet pokój, a według danych GUS to około 460 tys. potencjalnych klientów rocznie. Projektanci wnętrz docierają do ok. 7% z nich. Pozostali, czyli ponad 90% rynku, na stworzenie funkcjonalnej i estetycznej przestrzeni poświęcają dziesiątki wieczorów, przeglądając zakamarki internetu i często nie znajdując zadowalających produktów. Lofty chce rozwiązać ten problem.

    „Lofty jest pierwszą aplikacją, która oferuje aranżację wnętrza z indywidualnie dobranym zestawem produktów, tak aby odpowiadała wymiarom urządzanej przestrzeni i potrzebom mieszkańców oraz była w stylu, który im się podoba. Oprócz oszczędności czasu daje to pewność, że przestrzeń jest optymalnie zagospodarowana, a zwizualizowanie urządzonej przestrzeni pomaga dokonać potem właściwych zakupów”.przekonuje Wiszniewski.

    Pierwsi klienci pojawili się w Lofty w sierpniu. Co miesiąc w aplikację odwiedza ok. 10 tys. osób, z czego 7% odpowiada na wszystkie pytania chatbota Lofty, spędzając z nim średnio 5 minut – mimo, że w wersji beta chatbota liczba pytań jest bardzo ograniczona.

    „Dane pokazują bardzo wysokie zaangażowanie użytkowników w pracę nad aranżacją wnętrza z chatbotem Lofty. Dzięki temu widzimy, że są gotowi na wsparcie sztucznej inteligencji w tym ważnym procesie nadawania charakteru wnętrzom”. – komentuje Wiszniewski. Wśród osób, które kontynuują współpracę i otrzymują indywidualny projekt wnętrza, ponad 34% decyduje się na zakup rekomendowanych produktów.

    W lutym 2020 Lofty wygrało w ramach ReaktorX Demo Night zarówno nagrodę jury, jak i nagrodę publiczności. Ostatnim sukcesem jest zebranie przez twórców ok. 1,5 mln zł finansowania na dalszy rozwój w programie PARP Rozwój Startupów w Polsce Wschodniej oraz od dziewięciorga aniołów biznesu. Jeden z nich – Michał Jaskólski – tak tłumaczy swoje zaangażowanie: “Kiedy usłyszałem o modelu biznesowym Lofty, zorientowałem się, że jest na styku dwóch bardzo atrakcyjnych i znanych mi obszarów: agregacji ofert e-commerce oraz nieruchomości. To sprawiło, że uwierzyłem w powodzenie tego projektu.” Wśród doradców Lofty znaleźli się specjaliści w dziedzinie uczenia maszynowego i algorytmiki: Piotr Czubak, Ric Szopa i Łukasz Czerwiński.

    „Od momentu wybuchu pandemii zauważyliśmy zwiększone zainteresowanie funduszy VC, które dostrzegły nadchodzące zmiany na rynku. Ludzie mają obawy przed spotkaniami z projektantem wnętrz i wizytami w sklepach – w niektórych krajach i okresach sklepy stacjonarne są wręcz zamykane. Rynek przenosi się do e-commerce, a nie ma jeszcze miejsca online, w którym można zaaranżować i zwizualizować wnętrze przy użyciu produktów od różnych marek. Nie wspominając o tym, że wszyscy spędzają teraz w domu znacznie więcej czasu niż kiedyś, więc naturalne jest to, że jakość tej przestrzeni i jej funkcjonalność (np. home office) jest dla nich o wiele ważniejsza niż wcześniej”.podsumowuje Wiszniewski.

  • Amazon zatrudnia już milion osób

    Amazon zatrudnia już milion osób

    Pandemia na całym świecie winduje wyniki branży e-commerce. Trudno się więc dziwić, że Amazon, światowy lider tego rynku, notuje kolejne rekordy w swej działalności. Washington Post doniósł właśnie, że firma zatrudnia już ponad milion pracowników.
    Do Gwiazdki bez śniegu większość z nas zdążyła się już przyzwyczaić. Jednak trudno nam wyobrazić sobie Święta bez upominków dla najbliższych i przyjaciół. Koronawirus skutecznie jednak odbiera części kupujących chęć odwiedzania sklepów stacjonarnych. Stąd prezenty w sieci zamierza w tym roku kupić 57% klientów dokonujących zakupów w Internecie, wynika z badania przeprowadzonego przez Krajowy Rejestr Długów (KRD) i serwis ChronPESEL.pl. To zaś między innymi, jak i zwykłe, codzienne zakupy, które coraz większa grupa klientów robi w sieci, napędza rozwój e-handlu. Jak bardzo? Jak donosi GUS, udział zakupów przez Internet w sprzedaży detalicznej wzrósł z 6,8 proc. całości sprzedaży w sierpniu br. do 7,3 proc. w październiku br. Wartość sprzedaży przez Internet w Polsce wzrosła o 9,1 proc. w ujęciu miesięcznym. I choć to dane tylko dla naszego kraju, to przecież trend ten zauważalny jest na całym świecie.

    W efekcie rynek wzrasta z dnia na dzień, na czym zyskują i ci duzi, i ci mali. Gigant tego rynku, Amazon, w tym roku zwiększył swój poziom zatrudnienia łącznie o 400 tys. osób. Tylko od lipca do września zatrudnił 250 tys., a w samym październiku aż 100 tys. Osoby te w większości zasiliły szeregi pracowników magazynów oraz personelu odpowiedzialnego za realizowanie dostaw do klientów.

    – Te dane doskonale obrazują, jaki potencjał wciąż znajduje się w rynku e-commerce i jakich wzrostów można się jeszcze spodziewać. Nie znam bowiem drugiej takiej firmy, która w ostatnich latach tylko w ciągu jednego miesiąca zatrudniłaby liczbę osób odpowiadającą mniej więcej ilości mieszkańców Legnicy czy Kaliszakomentuje Aleksandra Szarmach, Chief Marketing&Sales Officer w firmie Nethansa, specjalizującej się we wsparciu sprzedaży na Amazonie, i dodaje A jeśli ktoś myśli, że zatrudnienia te związane były tylko z zachorowaniami na Covid-19 wśród pracowników Amazona – o czym donosiły media – i koniecznością uzupełnienia wynikłych stąd braków kadrowych, to jest w błędzie. Od początku pandemii, jak podaje firma, zakażenie koronawirusem potwierdzono co prawda u 20 tys. pracowników, jednak liczba ta, jak widać, to tylko ułamek tego, ile zatrudnił Amazon.

    Tylko nad Wisłą, jeszcze przed gorączką Black Friday i Cyber Monday, Amazon deklarował, że zatrudni w znajdujących się tu centrach logistycznych 10 tys. osób jako pracowników sezonowych, aby wesprzeć, jak to określa branża doręczeń kurierskich “szczyt paczkowy”. Ostatecznie gigant zatrudnił 18 tyś. osób.

    Rok żniw

    W bieżącym kwartale Amazon zarobił 6,3 mln USA. W tym czasie ogólna wartość sprzedaży na platformie, jak podaje S&P Global Market Intelligence, wzrosła o 37 proc., sięgając kwoty 96,1 mld USD. Jak zauważa Aleksandra Szarmach z Nethansy:

    – To pieniądze, które trafiły do szeregu podmiotów z całego świata, korzystających ze sprzedaży na Amazon. Cześć z nich popłynęła także do naszego regionu, do Polski i Niemiec, bo także tu nie brakuje sklepów e-commerce, które postanowiły wypłynąć na szerokie wody handlu internetowego i skorzystać z możliwości sprzedawania na cały świat swoich produktów. Wzrosty Amazon są więc także ich wzrostami i ich zyskiem.

    Ekspertka spodziewa się także, że biorąc pod uwagę dynamiczny rozwój polskiej branży e-commerce, liczba sklepów internetowych z naszego regionu, które zdecydują się na rozpoczęcie handlu na Amazonie, będzie sukcesywnie wzrastać.

    – Jak podała ostatnio firma, tylko od Black Friday do Cyber Monday przychody niezależnych sprzedawców na Amazon przekroczyły 4,8 mld USD, co daje wzrost aż o 60 proc. w stosunku do tego samego okresu w roku ubiegłym. Oczywiście jest to tort do podziału na szereg podmiotów, sprzedaż poprzez Amazon prowadzi bowiem ok. 71 tys. sklepów. Jednak dziś nic nie stoi na przeszkodzie, aby spróbować zawalczyć o swój kawałek tego tortu prowadząc e-sklep w Polsce, w Niemczech czy gdziekolwiek indziej. Dzięki Internetowi przestały istnieć jakiekolwiek granice. Wszystko zależy tylko od skuteczności działań marketingowych i widoczności ofertkonkluduje Aleksandra Szarmach.

  • Trend „anywhere operations” zdominuje biznes

    Trend „anywhere operations” zdominuje biznes

    Gartner przewiduje, że do końca 2023 roku, 40 proc. organizacji na świecie wdroży model IT, który umożliwi pracę z dowolnego miejsca oraz usprawni wdrażanie usług biznesowych w rozproszonej infrastrukturze informatycznej. Jak wskazują eksperci, trend „anywhere operations” to coś więcej niż tylko wdrożenie narzędzi do zdalnej pracy i komunikacji. To całościowe podejście do modelu informatycznego firmy, które dzięki wykorzystaniu infrastruktury chmurowej i brzegowej oraz automatyzacji zdalnych operacji, zapewnia bardziej wydajną współpracę, bezpieczny dostęp do firmowych zasobów oraz lepsze doświadczenia cyfrowe podczas pracy. Jak wynika z obserwacji specjalistów baramundi, u podstaw zdalnej i skutecznej operacyjności biznesowej leży UEM (Unified Endpoint Management), czyli ujednolicone zarządzanie punktami końcowymi.

    Dlaczego UEM jest dzisiaj tak istotny?

    Unified Endpoint Management to klasa narzędzi służących do zarządzania urządzeniami znajdującymi się w infrastrukturze informatycznej firmy z poziomu jednego, wspólnego interfejsu. W czasach, gdy coraz więcej organizacji decyduje się wprowadzić hybrydowy model pracy na stałe, zdalne zarządzanie infrastrukturą IT jest szczególnie istotne. Dobre narzędzie UEM zapewnia kontrolę zarówno nad komputerami stacjonarnymi, jak i laptopami, tabletami czy smartfonami, do których administratorzy nie mają bezpośredniego dostępu. Przykładem jest baramundi Management Suite, który dzięki opartemu o chmurę obliczeniową modułowi Argus Cocpit, pozwala monitorować stan środowiska informatycznego w dowolnym miejscu i czasie przy użyciu przeglądarki internetowej. Dzięki temu działy IT zyskują stały dostęp do zasobów informatycznych firmy i mogą wykonywać swoją pracę z każdego miejsca na Ziemi, zapewniając przy tym zdalnym pracownikom zaktualizowane i wolne od luk bezpieczeństwa urządzenia do pracy.

    Bezpieczeństwo na odległość

    Umożliwienie pracownikom wykonywania swoich obowiązków z dowolnego miejsca w myśl zasady „anywhere operations” wiąże się również z zastosowaniem szczególnych procedur związanych z cyberbezpieczeństwem. Pracownicy zabierając z biur firmowe laptopy i smartfony sprawiają, że administratorzy IT nie mają do nich fizycznego dostępu. Dodatkowo, wykorzystują je często do celów prywatnych, instalują na nich aplikacje z niepewnych źródeł lub łączą się z niezabezpieczonymi sieciami Wi-Fi. Takie praktyki zwiększają zagrożenie cyberatakami. Warto również podkreślić, że w ostatnich miesiącach mamy do czynienia ze wzmożoną aktywnością cyberprzestępców. Jak podawało FBI w kwietniu tego roku, liczba incydentów online, które wpłynęły do internetowego centrum zgłaszania przestępstw (IC3) wzrosła o 400 proc. w stosunku do sytuacji sprzed pandemii. Natomiast najnowszy raport Cisco wskazuje, że największym wyzwaniem w warunkach pracy zdalnej jest ochrona urządzeń końcowych, między innymi firmowych laptopów i urządzeń osobistych.

    Zapewnienie bezpieczeństwa firmowych urządzeń mobilnych, które wykorzystywane są przez pracowników w ich domowych biurach na całym świecie, możliwe jest dzięki rozwiązaniom do ujednoliconego zarządzania punktami końcowymi. Narzędzia UEM automatyzują wiele podstawowych czynności administratorskich, które muszą być regularnie wykonywane ze względów bezpieczeństwa. Są to m.in. inwentaryzacja sprzętu i oprogramowania, aktualizacje systemów, skanowanie urządzeń pod względem podatności na zagrożenia, instalacja niezbędnych łatek czy backupy.

    Smartfon w pracy

    Trend „anywhere operations” przyczynia się również do coraz częstszego wykorzystania w pracy smartfonów i tabletów. W wielu przypadkach pracownicy po prostu instalują aplikacje biznesowe na swoich prywatnych urządzeniach, aby być w stałym kontakcie z klientami czy współpracownikami. Jednak w wielu branżach standardem staje się zapewnienie pracownikom wysokowydajnych urządzeń i jednoczesne zezwolenie na wykorzystywanie ich w celach prywatnych. W obu przypadkach należy przywiązać szczególną wagę do bezpieczeństwa danych przechowywanych na smartfonie. W tym celu organizacje coraz częściej stosują rozwiązania tworzące na urządzeniach mobilnych dwa oddzielne profile – osobisty i służbowy, który charakteryzuje się specjalnymi zabezpieczeniami. Dzięki temu nieautoryzowane przez pracodawcę aplikacje nie mają dostępu do danych firmowych, a administratorzy IT nie mają wglądu do prywatnych informacji pracownika. Rozwiązanie to zwiększa bezpieczeństwo zdalnych operacji biznesowych.

    Trwałe zmiany na rynku pracy

    Choć praca zdalna już dzisiaj staje się „nową normalnością” to za trzy lata możemy spodziewać się, że spora część firm będzie wdrażać rozwiązania służące nie tylko do komunikacji i współpracy, ale i wykonywania najważniejszych operacji biznesowych dosłownie z dowolnego miejsca. Jednak trend „anywhere operations” wynika nie tyle z dostępu do nowoczesnych narzędzi, co z trwałych zmian kulturowo-społecznych. Dlatego przygotowując podwaliny pod nowy model informatyczny warto wziąć pod uwagę ewolucję preferencji pracowników odnośnie miejsca i sposobu wykonywania swoich obowiązków. System informatyczny firmy powinien być przygotowany w taki sposób, aby nie tylko odpowiadał na potrzeby wynikające z warunków pracy, ale przy tym umożliwiał zabezpieczenie w sposób zdalny wszystkich elementów jego infrastruktury.

  • Inflacja – skąd się bierze i jak ją mierzyć?

    Inflacja – skąd się bierze i jak ją mierzyć?

    O tym, że inflacja to wzrost przeciętnego poziomu cen dóbr i usług konsumpcyjnych w gospodarce, wie większość osób, które choć trochę interesują się gospodarką i ekonomią. Nie wszyscy jednak zdają sobie sprawę z tego, że nawet z pozoru nieduże wahania tego wskaźnika mogą wpływać na wartość portfela gospodarstw domowych.

    Co to jest inflacja, a jak definiuje się deflację?

    Inflacja to w uproszczeniu wzrost przeciętnego poziomu cen dóbr i usług konsumpcyjnych w gospodarce. Taki wzrost oznacza, że gospodarstwa domowe (konsumenci) więcej wydają na swoje zakupy, a ich oszczędności topnieją.

    Jak zaznacza ekonomista SGH dr Piotr Maszczyk, zjawisko niewielkiej inflacji samo w sobie nie powinno mieć większych negatywnych konsekwencji, jeśli wzrostowi cen towarzyszy natychmiastowa podwyżka płac nominalnych.

    „Jeśli tak się dzieje, to wzrost cen np. chleba nie ma żadnych negatywnych konsekwencji. Podwyżka cen chleba o 5 proc. i analogiczny wzrost wynagrodzeń nie zmieni liczby bochenków chleba, które przeciętny konsument może kupić. Ekonomiści powiedzą w takiej sytuacji, że realne wynagrodzenia się nie zmieniają”tłumaczy dr Maszczyk.

    Ekonomista zaznacza jednak, że jeśli wzrostowi cen nie towarzyszy analogiczny wzrost wynagrodzeń, to konsekwencją takiej sytuacji będzie spadek wynagrodzeń realnych i tym samym mniejsza ilość dóbr i usług, którą gospodarstwa domowe mogą nabyć za tą samą ilość pieniędzy.

    Z kolei pojawienie się deflacji oznacza, że przeciętny poziom cen dóbr i usług konsumpcyjnych spada. W tej sytuacji wynagrodzenia realne rosną nawet wtedy, gdy ich nominalny poziom się nie zmienia. Zjawiska deflacji nie należy jednak mylić z dezinflacją, która oznacza spadek wskaźnika inflacji. Na przykład ze 105% rdr do 102%. Zauważmy, że inflacja jest wyższa od zera. Deflacja to obniżanie się przeciętnego poziomu cen, co oznacza, że stopa inflacji staje się ujemna, a wskaźnik inflacji spada poniżej 100. Z deflacją w polskiej gospodarce mieliśmy do czynienia od lipca 2014 aż do października 2016 r. włącznie. Przy czym największy spadek cen (-1,6%) odnotowano w lutym 2015 r.

    Wyjaśniając zjawisko deflacji, dr Piotr Maszczyk wskazuje, że „jeśli przeciętny konsument otrzymuje stałe wynagrodzenie, ale chleb tanieje o 5 proc., to liczba bochenków chleba, które za to wynagrodzenie można nabyć, rośnie. Co więcej, trudno sobie wyobrazić, żeby deflacja pociągała za sobą spadek wynagrodzeń nominalnych. Oznacza to, że deflacja powoduje wzrost siły nabywczej wynagrodzeń i poprawę sytuacji gospodarstw domowych”.

    Ekspert dodaje przy tym, że nie ma żadnego powodu, dla którego ceny wszystkich towarów miałyby zmieniać się w jednakowy sposób. Stąd zarówno pojęcie inflacji, jak i deflacji odnosi się do średniego poziomu cen.

    „Dokładniej, jest to średnia ważona liczona udziałem wydatków na dane produkty w całości wydatków przeciętnego konsumenta”wskazuje ekonomista, dodając zarazem, że warto o tym pamiętać, gdyż percepcja inflacji ze strony poszczególnych gospodarstw domowych może się znacznie różnić od jej oficjalnego odczytu ogłaszanego przez GUS.

    „Jeśli ceny artykułów dla niemowląt gwałtownie wzrosną (np. na skutek podwyżki podatku VAT na te produkty), to będzie to zmiana silnie odczuwana przez gospodarstwa domowe posiadające małe dzieci, jednak wpływ tej podwyżki na ogólny wskaźnik inflacji będzie znacznie mniejszy. Odczuwalna inflacja dla tych gospodarstw domowych będzie znacznie wyższa niż ta, która jest charakterystyczna dla całej gospodarki, w związku z czym, nawet jeżeli wzrost nominalnych wynagrodzeń będzie rekompensował wzrost cen zgodny ze wskaźnikiem inflacji, to gospodarstwa domowe z niemowlętami odczują spadek dochodów realnych”tłumaczy dr Maszczyk.

    Skąd się bierze inflacja?

    Na poziom cen wpływa wiele różnorodnych czynników. We współczesnej gospodarce rynkowej ceny, jakie za produkty i usługi płacą klienci, ustalane są przez producentów oraz handlowców doliczających swoje marże. Naturalnym hamulcem ograniczającym wzrost cen jest konkurencja.

    Na poziom cen wpływ mają ceny na rynkach międzynarodowych, zarówno ceny importu, głównie surowców niezbędnych do funkcjonowania gospodarki, jak i ceny uzyskiwane w eksporcie. Wzrost cen ma uzasadnienie w potrzebie podwyższania płac, otrzymywania rekompensaty za nakłady poniesione na badania nad nowymi technologiami i lepszymi wyrobami.

    Na zmiany cen wpływają także zjawiska atmosferyczne prowadzące do nadmiaru produktów rolnych na rynku w przypadku urodzaju, powodując spadki cen, a w przypadku niedoborów w sytuacji nieurodzaju i w rezultacie – wzrost cen.

    Przyczynami inflacji są także czynniki makroekonomiczne, leżące po stronie zarządzania gospodarką państwową, jak niezrównoważony budżet, zaburzona struktura gospodarki, czy też nadmiar inwestycji finansowanych przez państwo.

    Ekonomiści są zgodni, że dla gospodarki i konsumentów najbardziej korzystny jest stabilny poziom cen, gdyż pozwala utrzymać osiągnięty poziom życia. Ma on także znaczenie psychologiczne, umożliwiając uzyskanie trwałego poczucia bezpieczeństwa, co ma niebagatelne znaczenie przy planowaniu wszelkich działań. Jest on korzystny również dla przedsiębiorców i strategii gospodarczej rządu, bowiem umożliwia podejmowanie efektywnych i długofalowych decyzji.

    W Polsce utrzymaniem stabilnego poziomu cen zajmuje się Rada Polityki Pieniężnej (RPP), organ Narodowego Banku Polskiego (NBP). Instrumentem realizacji tego zadania przez RPP jest polityka pieniężna, w której dąży się do utrzymania wzrostu cen w przedziale od 1,5 do 3,5 procent w skali roku, przy tzw. celu inflacyjnym 2,5 procent. Szczegółowe dane o inflacji stanowią dla RPP jedno z najważniejszych źródeł informacji.

    Jak w Polsce mierzy się inflację?

    Najczęściej wykorzystywaną miarą inflacji jest zmiana wskaźnika cen towarów i usług konsumpcyjnych, tak zwanego wskaźnika CPI (Consumer Price Index). Jego popularność wynika przede wszystkim z tego, że dotyczy on cen towarów i usług konsumpcyjnych, a więc kategorii stanowiącej największą część PKB. Ponadto, jest on publikowany z dużą częstotliwością (zazwyczaj co miesiąc) i relatywnie szybko (w Polsce ok. 15 dni po zakończeniu każdego miesiąca).

    W Polsce pomiarem wskaźnika inflacji zajmuje się Główny Urząd Statystyczny, który robi to w oparciu o wyniki badania cen towarów i usług konsumpcyjnych na rynku detalicznym oraz o wyniki badania budżetów gospodarstw domowych, dostarczającego danych o przeciętnych wydatkach na towary i usługi konsumpcyjne.

    Aby policzyć ten wskaźnik, co miesiąc zbierane są ceny ok. 1400 towarów (takich jak pieczywo, mięso, owoce, gazety, środki do prania, meble, sprzęt komputerowy) i usług (internetowych, transportowych, turystycznych) z ok. 35 tysięcy punktów handlowych i usługowych. Lista tych towarów i usług jest corocznie weryfikowana, a jej zmiany odzwierciedlają zmiany w strukturze konsumpcji gospodarstw domowych.

    Aby policzyć zmianę przeciętnego poziomu cen – oprócz znajomości cen poszczególnych kategorii towarów i usług – konieczna jest także znajomość udziału tych kategorii w wydatkach konsumentów. Zmiana cen produktów, które mają znaczny udział w wydatkach w większym stopniu wpływa na ogólny poziom cen, niż zmiana cen produktów o niskim udziale. Wspomniane udziały służą jako wagi przy wyliczaniu ogólnego poziomu cen.

    Inflacja bazowa banku centralnego

    Pomiaru zmian cen towarów i usług konsumpcyjnych w gospodarce dokonuje także bank centralny, który stosuje w tym celu tzw. inflację bazową. Jest ona tworzona poprzez wyłączenie cen określonych towarów i usług z koszyka.

    Od 2009 r. NBP stosuje cztery miary inflacji bazowej:

    – inflację po wyłączeniu cen administrowanych,

    – inflację po wyłączeniu cen najbardziej zmiennych,

    – inflację po wyłączeniu cen żywności i energii,

    – 15% średnią obciętą.

    Inflacja bazowa służy przede wszystkim do wyznaczania kierunku zmian cen towarów i usług konsumpcyjnych w średnim i długim terminie. Może służyć także jako podstawa oceny realizacji polityki pieniężnej banku centralnego w średnim okresie (uwzględniając w szczególności czynniki, na które bank centralny miał pośredni wpływ i te wynikające z przyjętych regulacji prawnych oraz wystąpienia różnego rodzaju szoków gospodarczych, szczególnie zewnętrznych).

  • Optymalizacja przez cyfryzację

    Optymalizacja przez cyfryzację

    W coraz większym stopniu o ekonomii funkcjonowania transportu wewnętrznego stanowi nie tylko jakość wózków, ale także elektroniczne systemy optymalizujące. Szereg tego typu rozwiązań wdrożono w centrum dystrybucji Fresenius Kabi.

    Wszystko, co jest potrzebne, by dbać o przewlekle chorych pacjentów: leki generyczne, terapie infuzyjne, produkty żywienia klinicznego, leki biopodobne używane w chorobach autoimmunologicznych i onkologicznych, produkty do pobierania składników krwi i terapie pozaustrojowe oraz urządzenia do podawania leków – to najważniejsze obszary działania firmy Fresenius Kabi. Na świecie zatrudnia ona łącznie 40 tys. osób i w skali roku sprzedaje produkty warte niemal 7 mld euro. Wśród swoich wartości organizacja wymienia m.in. „koncentrację na kliencie” i „dążenie do doskonałości”. Podobnego podejścia oczekiwano od dostawcy rozwiązań intralogistycznych do obiektu, który stworzono od podstaw pod kątem specyficznych potrzeb firmy przy jej oddziale w brytyjskim Runcorn.

    Charakterystyka obiektu

    W 2018 roku rozpoczęto budowę nowego centrum operacyjno-dystrybucyjnego przy istniejącym zakładzie Fresenius Kabi w Runcorn. Zgodnie z założeniami miał on zapewniać przepustowość magazynowania, dzięki której możliwy będzie dalszy wzrost na rynku ochrony zdrowia w Wielkiej Brytanii. – Ten moment to dla nas powód do dumy. Jako przedsiębiorstwo dokładamy starań, by odgrywać istotną rolę w poprawie jakości życia chronicznie i krytycznie chorych pacjentów w Zjednoczonym Królestwie. Czyniąc naszą firmę lepszą, mocniejszą i lepiej przygotowaną na przyszłość, będziemy w stanie pomagać większej liczbie osób i wspierać Narodową Służbę Zdrowia w dostarczaniu pacjentom najlepszych rozwiązań – mówił ogłaszając początki prac nad budową Niamh Furey, Dyrektor Zarządzający Fresenius Kabi Ltd. By sprostać tak sformułowanym celom, wzniesiono przeznaczony do obsługi farmaceutycznego łańcucha dostaw obiekt o powierzchni 8,3 tys. mkw. We współpracy z ekspertami po stronie dostawcy dobrano zróżnicowaną flotę intralogistyczną z dostosowanymi do konkretnych zadań nowoczesnymi wózkami widłowymi i systemami optymalizacji ich pracy.

    Zastosowane rozwiązanie

    Jako kluczowe zadania zidentyfikowano: rozładunek i załadunek, uzupełnianie regałów oraz kompletację, a do ich wykonania dobrano wózki 4 rodzajów. – Czołowy wózek RX 20 służy w Fresenius Kabi na pierwszej linii rozładunku. W obsłudze ładowania wspierają go wózki unoszące EXU. Regały zapełniane są następnie z użyciem wózków wysokiego składowania FM-X, a zadania z obszaru kompletacji wykonywane są przy pomocy łącznie 13 pojazdów serii OPX – flagowego obecnie rozwiązania STILL do kompletacji poziomejmówi Grzegorz Kurkowski, specjalista ds. produktu STILL Polska.Istotnym z punktu widzenia efektywności procesów intralogistycznych czynnikiem było wyposażenie obsługujących regały wysokiego składowania wózków FM-X w system aktywnej stabilizacji ładunku ALS redukujący czas drgania masztu podczas pracy na ostatnich kondygnacjach nawet o 80 proc. W transporcie poziomym skorzystano natomiast z przewag konkurencyjnych serii OPX – na czele z ergonomiczną, dającą dostęp do wszystkich funkcji wózka kierownicą STILL Easy Driverelacjonuje. Klamrą spinającą całą inwestycję było wdrożenie systemów: zarządzania bateriami oraz flotą (STILL FleetManager 4.x).

    Efekt wdrożenia

    – Wiemy, że nowa flota znacząco ułatwi wykonywanie zadań w centrum, a cała załoga cieszy się już na prowadzenie przeznaczonych do obiektu innowacyjnych wózków. Szczególnie do gustu przypadły nam wózki OPX z podnośnikiem nożycowym, dające operatorom nowy poziom komfortu i wydajnościmówi Stuart Garswood, menadżer ds. operacji magazynowych Fresenius Kabi. Docenia także korzyści wynikające z wdrożenia komplementarnych z flotą usług optymalizacyjnych.

    – Mieliśmy potrzebę unowocześnienia akumulatorowni oraz zwiększenia wydajności procesów dzięki regałom wysokiego składowania. Dzięki możliwości zaprogramowania w obsługujących je wózkach typu reach truck wstępnych wysokości podnoszenia, mamy nadzieję poprawić BHP oraz pomóc zapobiegać uszkodzeniom regałów i główek zamocowanych na stropie zraszaczy. Dodatkowo, dzięki integracji wózków z oprogramowaniem STILL FleetManager 4.x i łączności GPRS uzyskaliśmy całkowitą przejrzystość danych nt. eksploatacji wózków oraz ich uszkodzeń relacjonuje. System zarządzania ładowaniem baterii pomaga z kolei zapewnić równomierne wykorzystanie akumulatorów, wydłużenie ich trwałości i obniżenie kosztów eksploatacji.

  • Podsumowanie XXVI Forum Teleinformatyki  „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    Podsumowanie XXVI Forum Teleinformatyki „System informacyjny państwa wobec globalnej transformacji cyfrowej”

    Tegoroczne Forum rozpoczęło uroczyste wręczenie nagród: im. Marka Cara, Złotego Herolda I stopnia oraz Złotego wykładu.

    Laureatami 19. edycji nagrody im. Marka Cara, tragicznie zmarłego, pomysłodawcy Forum Teleinformatyki zostali dr hab. Dominik Batorski, socjolog i analityk danych w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego (ICM) Uniwersytetu Warszawskiego, wykładowca na studiach podyplomowych na wielu uczelniach i Kazimierz Schmidt, Radca Ministra w Departamencie Zarządzania Systemami w Ministerstwie Cyfryzacji. Nagroda przyznawana jest za wybitne osiągnięcia w tworzeniu warunków dla rozwoju społeczeństwa informacyjnego. Fundatorem nagrody był SAS Institute.

    Nagroda „Złotego Herolda”, przyznawana jest przez Radę Programową za upowszechnianie przesłania Forum: „Budowa nowoczesnego państwa opartego na powszechnym wykorzystaniu technologii teleinformatycznych nie jest celem antagonistycznym dla nikogo!”. Tegorocznymi laureatami nagrody I stopnia zostali: Asseco Poland SA i Uniwersytet Warszawski.

    Część merytoryczną Forum otworzył w sesji Zaproszonych Gości minister Marek Zagórski, przedstawiając wykład pt. „Cele i działania MC wobec globalnej transformacji cyfrowej”. Następnie prof. Jan Madey z Uniwersytetu Warszawskiego wygłosił „Złoty wykład” pt. „50 lat wspinaczki ku chmurom”. Profesor Jan Madey z Uniwersytetu Warszawskiego jest współtwórcą informatyki polskiej, inicjatorem i promotorem działań na rzecz rozwoju informatyki oraz wielu przedsięwzięć charytatywnych. Złoty wykład to nagroda i jednocześnie przywilej zaprezentowania autorskiego wykładu na zaproszenie Rady Programowej Forum w trakcie plenarnej sesji, inicjującej obrady Forum. Każdy kolejny wykład będzie rejestrowany i wraz z charakterystyką Laureata będzie dostępny w specjalnej części strony www Forum – galerii „Złotych wykładów”. Przedsięwzięcie to uzyskało Patronat Ministra Nauki i Szkolnictwa Wyższego, natomiast jego Patronami były firmy GPW Tech i Orange Polska.

    W sesji o Kluczowych projektach w administracji dr Dominik Rozkrut, prezes GUS zaprezentował nowatorskie i unikatowe w skali światowej rozwiązania, umożliwiające „bezpapierową” realizację spisu powszechnego 2020, realizowanego w warunkach pandemii.

    Przemysław Koch, pełnomocnik ministra finansów ds. informatyzacji na przykładzie integracji rozliczeń podatkowych omówił kolejne etapy transformacji cyfrowej w Ministerstwie Finansów.

    Włodzimierz Owczarczyk, członek zarządu ZUS mówił o skutecznej transformacji działania ZUS w odpowiedzi na „lockdown” i inne wyzwania w czasie epidemii, a także o zupełnie nowych zadaniach, jak obsługa m.in. 10 mln wniosków o pomoc w ramach tarczy czy obsługi bonu turystycznego i związanych z tym transakcji płatniczych.

    Krzysztof Bonicki i Mariusz Komorowski z PKO Bank Polski mówili o usługach chmurowych, wspomagających transformację cyfrową w Banku. Sesję zakończyła prezentacja Dominika Rogowieckiego z Urzędu m.st. Warszawy – zastosowania narzędzi Business Intelligence w finansach publicznych, na przykładzie budżetu m.st. Warszawy.

    Sesji ubezpieczeniowej, tym razem zatytułowanej Zaawansowane narzędzia stymulujące i chroniące procesy biznesowe w ubezpieczeniach, już po raz ósmy patronował Ubezpieczeniowy Fundusz Gwarancyjny. Otwierając sesję dr hab. Wojciech Bijak z UFG podkreślił, że wszystkie projekty UFG, o których mówiono na Forum zostały zrealizowane i wspomagają codzienną działalność zakładów ubezpieczeniowych, obsługując m.in. 80 mln zapytań kierowanych do UFG miesięcznie. O nowych usługach – ID UFG i Token UFG – wspierających potwierdzenie tożsamości w sektorze ubezpieczeniowym mówił Andrzej Parafian z UFG. System oceny ryzyka ubezpieczeniowego eSCOR przedstawił Mateusz Sobeczek z DahliaMatic. Sesję zakończyła prezentacja Zbigniewa Świerczyńskiego z MILSTAR o Cyberincydentach, minimalizacji ryzyka ich wystąpienia oraz doskonaleniu metodyki obsługi w przypadku ich zaistnienia.

    W sesji Architektura i technologie w infrastrukturze informacyjnej państwa, o cyfrowej transformacji działalności firmy pod presją pandemii mówili Daniel Olejniczak i Tomasz Kozłowski z firmy Bonair, która była partnerem tej sesji. Z ich doświadczeń wynika, że liderem cyfryzacji w firmach jest ostatnio COVID-19, a nie CIO, CTO czy CEO. Mówiąc o technologiach i systemach nie wolno zapominać o tzw. aspekcie ludzkim. Arkadiusz Wójcik z Asseco Poland podkreślał, jakie znaczenie mają rozwiązania IT dla Państwa w czasie kryzysu i mówił o czynnikach sukcesu, kiedy projekt informatyczny zamienia się w wyścig z czasem. Dzięki otwartej architekturze i elastyczności swoich systemów, ZUS wspierany przez firmy informatyczne zrealizował zadania, wynikające z tarcz antykryzysowych, mimo tego, że ustawy miały w praktyce zerowy okres vacatio legis.

    Joanna Gospodarczyk z Urzędu m.st. Warszawy omówiła projekt Eduwarszawa.pl, dotyczący transformacji cyfrowej zadań oświatowych w Warszawie, wspomagającej m.in. zdalną edukację we wszystkich szkołach w Warszawie.

    Sesję tę zakończyły rozważania Pawła Pisarczyka z Atende Software na temat modeli zarządzania rozproszonym wytwarzaniem i konsumpcją energii elektrycznej. Jako najważniejsze bariery rozwoju w tej dziedzinie wskazał nadal obowiązujące, przestarzałe regulacje prawne.

    Sesję Cyberbezpieczeństwo procesów informacyjnych otworzył Krzysztof Silicki, z-ca dyrektora NASK PIB, dyrektor ds. cyberbezpieczeństwa i innowacji, prezentując doświadczenia i wnioski po dwóch latach funkcjonowania ustawy Krajowy System Cyberbezpieczeństwa. W tym czasie powstały m.in. dodatkowe przepisy sektorowe, nieprzerwanie rozszerza się katalog wyzwań, opracowano także narodowe standardy cyberbezpieczeństwa chmur obliczeniowych wspólnej infrastruktury informacyjnej państwa (WIIP). Ewidentnym efektem działania ustawy jest wzrost liczby zgłaszanych incydentów naruszenia bezpieczeństwa – 6,5 tys. w 2019 roku. Wystąpienie zakończył apelem o aktywne uczestnictwo branży w opiniowaniu nowelizacji ww. ustawy.

    Doświadczenia z wdrażania systemu zarządzania tożsamością w różnych firmach i urzędach przedstawił Sławomir Szydłowski z firmy Comp. Praktyka pokazuje, że bardzo czasochłonnym elementem jest ustalenie schematów uprawnień poszczególnych grup pracowników i pojedynczych osób, które musi zdefiniować użytkownik systemu.
    Sesję zakończyła prof. Grażyna Szpor z Sektorowej Rady ds. Kompetencji – Telekomunikacja i Cyberbezpieczeństwo, omawiając problemy pojęciowe i kompetencyjne cyberbezpieczeństwa.

    Pierwszy dzień wirtualnych obrad Forum zakończył panel dyskusyjny „Analityka danych z wykorzystaniem sztucznej inteligencji” moderowany przez przez dra hab. Marcina Paprzyckiego, prof. IBS PAN. Uczestnikami dyskusji byli: Patryk Choroś – SAS Institute, Marek Gajewski – Urząd Patentowy RP, Robert Kroplewski – Ministerstwo Cyfryzacji, Andrzej Sarnowski – Centrum e-Zdrowia. Dyskutowano w tej dziedzinie m.in. o źródłach danych, ich gromadzeniu i bezpiecznym udostępnianiu (wirtualne składnice danych, block chain), o danych w i dla administracji publicznej (np. publicznie dostępne www.data.gov.pl), o powstającej strategii AI w Polsce i braku kadr w tej dziedzinie.

    Drugi dzień obrad rozpoczęła sesja Forum Młodych Mistrzów. Witold Wieteska, przewodniczący jury Konkursu Młodych Mistrzów, przedstawił wyniki Konkursu Młodych Mistrzów, w którym do finału zakwalifikowano 28 prac z 11 uczelni. Nagrodzono 14 prac – pełna lista nagród i laureatów dostępna jest na stronie www.forumti.pl. Konkurs odbył się pod Patronatem Ministra Nauki i Szkolnictwa Wyższego. Organizacja Konkursu tradycyjnie została wsparta finansowo przez Narodowy Bank Polski w ramach programu edukacji ekonomicznej. Partnerami sesji i Konkursu Młodych Mistrzów byli: Atende Software, Centrum e-Zdrowia i NASK Państwowy Instytut Badawczy.

    Jak w 7 minut do swojej idei, projektu czy produktu przekonać potencjalnego odbiorcę klienta – radził Młodym Mistrzom w specjalnym wystąpieniu bezpośrednio z Brukseli – dr Wojciech Wiewiórowski – Europejski Inspektor Ochrony Danych.

    W sesji Systemy zarządzania dokumentacją elektroniczną w administracji publicznej, której honorowym patronem był Bohdan Paszkowski, Wojewoda Podlaski, odbyły się dwie prezentacje.

    Mariusz Madejczyk, dyrektor Oddziału NASK w Białymstoku, pełnomocnik Wojewody Podlaskiego ds. informatyzacji prezentował stan realizacji projektu EZD RP – jednolitego, chmurowego systemu EZD, będącego własnością skarbu państwa. Projekt EZD RP podmiotowo obejmuje swoim zasięgiem administrację rządową RP (styczeń 2022), natomiast system EZD RP, będący efektem projektu, wraz z innymi produktami będzie dostępny dla całej administracji publicznej (2022/2023). Pilotażowe uruchomienie w 16 jednostkach administracji rządowej planowane jest na październik 2020.

    Magdalena Sawicka, zastępca dyrektora Oddziału NASK w Białymstoku, omawiała program rozwoju systemu EZD PUW. Od roku 2011 EZD PUW wdrażany jest w administracji rządowej RP jako jednolity system. Obecnie ma 1524 wdrożenia i ponad 92,5 tys. użytkowników w całym kraju.

    Omówiono nowo udostępnione moduły systemu: e-faktury, podpis e-Dowodem, paczka administracyjna i migracyjna, podpis xml za pomocą profilu zaufanego. Zapowiedziano także nowe moduły m.in. eDoręczenia integracja z ADE, dostosowanie do potrzeb Prokuratorii Generalnej, zastosowanie sztucznej inteligencji.

    Sesja Forum Nowych Idei, organizowana przez Polską Izbę Informatyki i Telekomunikacji, w całości poświęcona była dwóm tematom: Rynkowi telekomunikacyjnemu w analizie PIIT oraz ocenie stanu i perspektyw sieci 5G. Sesję rozpoczął Borys Stokalski z PIIT prezentacją nt. wykorzystania technologii 5G, następnie Aleksander Jakubczak z Huawei omówił stan obecny i różne scenariusze przyszłości 5G w Polsce, a Robert Kuźmiak z IDC Polska zaprezentował szanse, jakie dla rozwoju gospodarki stwarzają technologie 5G. Sesję zakończyła dyskusja nt. „Rozwój sieci 5G: raport z placu budowy”, moderowana przez Borysa Stokalskiego, w której uczestniczyli: Mariusz Busiło – Ekspert PIIT, Aleksander Jakubczak – Huawei, Marek Lipski – Ekspert PIIT, Jarosław Smulski – IDC Polska.

    Obrady Forum tradycyjnie zakończył Kocioł dyskusyjny zatytułowany – „Czy i jak doświadczenia pandemii zmienią wizję i pragmatykę cyfrowej transformacji państwa”. Dyskusję moderował Borys Stokalski, a swoimi doświadczeniami dzielili się: Hubert Gniadowicz – zastępca dyrektora departamentu informatyzacji w ministerstwie finansów, Adam Marciniak – wiceprezes zarządu PKO Banku Polskiego, Włodzimierz Owczarczyk – członek zarządu ZUS, Michał Przymusiński – dyrektor departamentu rozwoju usług w ministerstwie cyfryzacji.

    Ostatnim punktem programu Forum było wręczenie nagród „Złotego Herolda II stopnia”. Tegorocznymi laureatami nagrody zostali: Przemysław Koch – ministerstwo finansów, Adam Marciniak – PKO Bank Polski oraz instytucjonalnie PKO Bank Polski i Wojskowa Akademia Techniczna.

    Zamykając obrady XXVI Forum Teleinformatyki, prof. WAT Bolesław Szafrański, Przewodniczący Rady Programowej Forum, życzył wszystkim, by kolejna XXVII edycja Forum mogła się odbyć w tradycyjnych, konferencyjnych warunkach.

    Komitet Honorowy tegorocznego Forum tworzyli: Marek Zagórski – Minister Cyfryzacji, Anna Trzecińska – Wiceprezes NBP, prof. dr hab. Jan Madey – Uniwersytet Warszawski, Wiesław Paluszyński – Prezes Polskiego Towarzystwa Informatycznego, dr inż. Andrzej Dulka – Prezes Polskiej Izby Informatyki i Telekomunikacji, dr hab. inż. Bolesław Szafrański – Profesor WAT i Przewodniczący Rady Programowej Forum.

    Honorowymi Patronami XXVI Forum byli: Ministerstwo Cyfryzacji, Narodowy Bank Polski, Rektor Uniwersytetu Warszawskiego, Prezes Polskiego Towarzystwa Informatycznego i NASK Państwowy Instytut Badawczy.

    Partnerami XXVI Forum byli: Microsoft – złoty partner, Asseco Poland – srebrny partner.

    Patronami medialnymi byli: BrandsIT.pl, CyberDefence24, Gazeta Ubezpieczeniowa, ITWIZ.pl i Pismo Samorządu Terytorialnego WSPÓLNOTA.

    Organizatorami Forum byli: BizTech Konsulting SA i Polska Izba Informatyki i Telekomunikacji.

  • Agencja content marketing – jak wybrać najlepszą?

    Agencja content marketing – jak wybrać najlepszą?

    Przemyślana i konsekwentnie realizowana strategia działania to nieodłączny element marketingowej układanki. Dotyczy to również content marketingu, który dla laika może okazać się syzyfową pracą bez gwarancji widocznych efektów. Aby skutecznie prowadzić swoje media społecznościowe oraz budować spójny wizerunek w sieci, warto rozważyć podjęcie współpracy z profesjonalną agencją copywriterską. Na co należy zwrócić uwagę przy wyborze zespołu? Zanim do tego przejdziemy, dwa słowa na temat tego…

    Czym zajmuje się agencja content marketingu?

    Kompleksowe budowanie wizerunku marki, tworzenie merytorycznych i łatwych
    w odbiorze tekstów, prowadzenie firmowego bloga czy komunikacja w mediach społecznościowych – to wszystko składa się na content marketing, a konsekwentne realizowanie jego założeń owocuje zwiększoną ilością lojalnych klientów. Odpowiednio skoordynowana praca na wielu kanałach informacyjnych oraz tworzenie ciekawej i wartościowej treści to główne zadania osób zarządzających treścią i wizerunkiem w sieci.

    Aby sprawdzić, jakie korzyści płyną ze współpracy z agencją content marketingową wejdź na: https://contentwriter.pl/agencja-content-marketing/

    Współpraca z zespołem doświadczonych twórców w dalszej perspektywie bardziej się opłaca, niż zamawianie pojedynczych tekstów od freelancera. Nie każda agencja będzie jednak dobra. Na co warto zwrócić uwagę przy podejmowaniu decyzji o współpracy?

    Jak wybrać najlepszą agencję?

    W sieci można bez problemu znaleźć ogromną ilość ofert współpracy, jednak zgodnie ze znanym polskim przysłowiem: „nie wszystko złoto, co się świeci”. Zacznij więc od kilku kluczowych aspektów:

    • Zapoznaj się z ofertą na stronie www – każdy z nas ma inny gust. Przeglądając wstępnie przykładowe strony z ofertami dokonujemy selekcji informacji i wybieramy te firmy, które najbardziej nas zainteresowały. Agencje często zamieszczają też swój cennik, jednak indywidualna wycena może okazać się korzystniejsza w przypadku dłuższej współpracy. Zacznij od wysłania e-maila z zapytaniem.
    • Poproś o próbny tekst lub przejrzyj portfolio – na stronach agencji możemy odnaleźć przykładowe teksty o różnorodnej tematyce. Warto przeczytać kilka, aby mieć pojęcie w jakim tonie zostanie stworzony content dla nas.
    • Obecność w mediach społecznościowych – sprawdź, czy dana agencja prowadzi aktywnie swoje strony w sieci, a także co mówią na jej temat internauci (opinie, komentarze, polecenia). Przeanalizuj wcześniejsze współprace firmy. Ważne, aby działać z doświadczonym zespołem, który zna się na swojej pracy i może pochwalić się wcześniejszymi sukcesami.
    • Wiedza i profesjonalizm – sprawdź, czy wybrana agencja specjalizuje się we wszystkich kluczowych zagadnieniach content marketingu – SEO, mediach społecznościowych, tworzeniu treści i artykułów o wybranej, branżowej tematyce. Jeżeli chcemy tworzyć spójny content i działać efektywnie, warto zainwestować w zespół, który ma pojęcie na temat wszystkich sfer marketingu online.
    • Terminowość – dowiedz się, jaki jest czas realizacji poszczególnych działań. Cała strategia powinna zostać ujęta w plan oraz ramy czasowe, dzięki czemu mamy pewność, że zadania zostaną zrealizowana szybko i przyniosą mierzalne efekty.
    • Elastyczność, dopasowanie do oczekiwań – każde działanie content marketingowe powinno być efektem współpracy oraz realizacją wspólnie wypracowanej wizji. Warto współpracować z taką agencją, która nie narzuca swojej wizji promocji, a jedynie oferuje skuteczne narzędzia dostosowane do oczekiwań i możliwości finansowych klienta.

    business-2846221_1280

    Dlaczego warto podjąć współpracę z agencją content marketingu?

    Dobrze przemyślana strategia promocyjna obejmuje jednoczesną aktywność w wielu obszarach, a więc jest dość czasochłonnym zajęciem. Trzeba wciąż tworzyć nowy, ciekawy content, wchodzić z potencjalnym klientem w interakcję, odpowiadać na zapytania użytkowników, dostarczać nowych porad oraz informacji, trzeba wciąż „być” online. Często nie jesteśmy w stanie poświęcać tyle czasu na sam content, kiedy prowadzimy własną firmę lub rozwijamy nowy biznes.

    Zespół doświadczonych copywriterów ze znajomością aktualnych trendów SEO oraz dostępem do nowoczesnych narzędzi analitycznych jest w stanie stworzyć terminowy i przynoszący korzyści content. Nie dość, że oszczędzasz swój czas, to jeszcze zyskujesz pewność, że ustalona strategia działania jest realizowana na wysokim poziomie merytorycznym i technicznym.

    Współpraca z agencją content marketingu – podsumowanie

    Treść stała się jednym z uniwersalnych elementów, które mogą zadecydować
    o stawaniu się liderem w dowolnej branży. Content marketing oraz cały sektor marketingu online bardzo zyskał przez to na popularności. Dzięki wymienionym
    w wskazówkom, wybór profesjonalnego zespołu content marketingowego nie będzie stanowił już problemu. Agencja copywriterów z powodzeniem zatroszczy się
    o Twoich klientów oraz przyczyni się pośrednio do pozyskania nowych.

    Zadbaj więc o swój content i postaw na specjalistów branży marketingu online.

  • Elite Shipyard z Ełku wybrał platformę 3DEXPERIENCE w chmurze na potrzeby projektowania jachtów klasy premium

    Elite Shipyard z Ełku wybrał platformę 3DEXPERIENCE w chmurze na potrzeby projektowania jachtów klasy premium

    Firma Dassault Systèmes (Euronext Paris: #13065, DSY.PA) poinformowała, że startup Elite Shipyard,należący do fińskiej marki Saxdor Yachts, projektuje innowacyjne łodzie motorowe przy użyciu aplikacji ENOVIA i CATIA bazujących na platformie 3DEXPERIENCE w chmurze.

    Elite Shipyard powstał w 2019 roku w Ełku. Liczący ponad 20 osób zespół projektuje i buduje sześciometrowe jednostki Saxdor 200, oferujące połączenie wygody i łatwości użytkowania skutera wodnego z bezpieczeństwem i komfortem łodzi kompaktowej.

    Z uwagi na fakt, że prace projektowe odbywają się w rozproszonym środowisku międzynarodowym, firma Elite Shipyard potrzebowała rozwiązania umożliwiającego płynną współpracę w czasie rzeczywistym. Dodatkowe wymagania dotyczyły skrócenia czasu wprowadzania produktów na rynek w przypadku nowych projektów oraz szybkiego wdrożenia funkcjonalnego środowiska roboczego CAD.

    Platforma 3DEXPERIENCE w chmurze nie tylko usprawniła komunikację i współpracę między zespołami z Polski i Słowenii, ale także zapewniła ciągły przepływ informacji między zespołami inżynierów i projektantów. Rozwiązanie oparte na chmurze obliczeniowej pozwoliło startupowi Elite Shipyard uniknąć dużych inwestycji, które są zwykle wyzwaniem dla nowych firm.

    Aplikacje CATIA i ENOVIA bazujące na platformie 3DEXPERIENCE pozwalają Elite Shipyard projektować wyjątkowe i innowacyjne łodzie dostosowane do potrzeb oraz oczekiwań klientów z szerokimi możliwościami personalizacji. Aplikacje te pozwalają projektantom Elite Shipyard nie tylko tworzyć gustowne kształty i powierzchnie, ale także generować wysokiej jakości, realistyczne obrazy.

    Za wdrożenie platformy 3DEXPERIENCE w chmurze, wstępne wsparcie, szkolenia i pomoc techniczną odpowiadała firma IBS POLAND Sp. z o.o., polski partner Dassault Systèmes.

  • Ceny usług podbijają inflację, ta jednak będzie niższa od wzrostu wynagrodzeń

    Ceny usług podbijają inflację, ta jednak będzie niższa od wzrostu wynagrodzeń

    Zgodnie z finalnymi danymi GUS inflacja zmniejszyła się w sierpniu do 2,9% r/r wobec 3,0% w lipcu. Czynnikiem oddziałującym w kierunku obniżenia inflacji było zmniejszenie dynamiki cen żywności i napojów bezalkoholowych (3,0% r/r w sierpniu wobec 3,9% w lipcu). Niższe tempo wzrostu cen w tej kategorii wynikało przede wszystkim ze zmniejszenia dynamiki cen mięsa (efekt wysokiej bazy sprzed roku) oraz owoców i warzyw (wynik lepszych tegorocznych zbiorów).

    Inflacja byłaby niższa, gdyby nie rosły tak bardzo ceny usług. W sierpniu był to wzrost o 6,6 % r/r.

    – Mamy wysoką inflację i na tych podwyższonych poziomach pozostanie ona do końca roku, a ceny usług przyczyniają się do tegomówi w rozmowie z MarketNews24 dr Przemysław Kwiecień, główny ekonomista XTB.Już na początku roku mieliśmy do czynienia ze wzrostem cen usług związanych z użytkowaniem mieszkań czyli zaczęło się od „inflacji śmieciowej”, a później wzrosły ceny niektórych usług w związku z dodatkowymi kosztami dostosowania do wymagań pandemicznych.

    Inflacja będzie niższa już od początku przyszłego roku. To będzie w dużym stopniu związane z tzw. efektem bazy. Nie będą już np. rosły ceny wywozu śmieci. Zniknie więc efekt „inflacji śmieciowej”.

    – Przewiduję, że inflacja początkowo spadnie nawet w okolice 1,5 proc., a przez większość roku będzie oscylować w okolicach 2 proc. ocenia ekspert XTB.Nie ma więc zagrożenia, że RPP będzie musiała przeciwdziałać inflacji zmieniając stopy procentowe.

    Czy możliwe jest, że pomimo recesji wynagrodzenia będą rosnąć i to w tempie wyższym niż inflacja?

    – Dynamika wzrostu już nie będzie tak wysoka, ale okaże się nadal wyższa od inflacjiodpowiada dr P.Kwiecień.

    W sierpniu br. inflacja byłaby niższa także wówczas, gdyby nie wyższa dynamika cen paliw (-12,3% r/r w sierpniu wobec -16,1% w lipcu) w ślad za rosnącymi cenami ropy naftowej na światowym rynku. Dynamika cen nośników energii nie zmieniła się w sierpniu w porównaniu do lipca i wyniosła 4,5% r/r.