Tag: Energia

  • Grupa CD PROJEKT podsumowuje początek roku

    Grupa CD PROJEKT podsumowuje początek roku

    W pierwszych trzech miesiącach 2019 r. Grupa CD PROJEKT wypracowała 81 mln zł skonsolidowanych przychodów ze sprzedaży. Zysk netto Grupy w omawianym okresie wyniósł 17,8 mln zł.

    Największy udział w zrealizowanych przychodach ze sprzedaży miała utrzymująca się dobra sprzedaż Wiedźmina 3 z dodatkami oraz w mniejszym stopniu GWINT-a i Wojny Krwi. Na przychody Grupy pozytywnie wpłynęły też dobre wyniki sprzedażowe platformy GOG.com

    W pierwszym kwartale 2019 r. energia twórcza Grupy skierowana była na rozwój nowych tytułów i technologii. Wydatki Grupy w tym obszarze wyniosły 25 mln zł co przełożyło się na skumulowane saldo nakładów na prace rozwojowe w wysokości 264 mln zł.

    W studiu CD PROJEKT RED kontynuowano intensywne prace nad produkcją gry Cyberpunk 2077, w którą zaangażowanych jest ponad 400 osobowy zespół.

    Równolegle do tworzenia gry, trwały prace nad CD PROJEKT RED STORE, dzięki któremu Grupa chce bezpośrednio dotrzeć do jak największej liczby fanów swoich tytułów. W sklepie, uruchomionym na początku maja, można znaleźć wysokiej jakości produkty – koszulki, akcesoria czy figurki inspirowane grami studia.

    Z kolei, GOG na przestrzeni ostatnich kwartałów intensywnie rozwijał projekt GOG Galaxy 2.0. Aplikacja przedstawiona graczom 22 maja 2019 umożliwi im połączenie w jedną bibliotekę wszystkich posiadanych gier oraz komunikację ze znajomymi i śledzenie ich postępów, niezależnie od platform, na których grają. Propozycja będzie rozwiązaniem dla wszystkich graczy na platformach PC i konsolach – wykraczając poza użytkowników GOG.COM. Aplikacja to odpowiedź na obecną sytuację na rynku, którego fragmentacja stale rośnie przez coraz większą ilość nowych podmiotów cyfrowej dystrybucji oraz kolejne tytuły ukazujące się na wyłączność na danych platformach.

    W najbliższym czasie będziemy uczestniczyć w E3, które będą największymi targami w historii CD PROJEKT-u. Chcemy, aby nasza obecność w Los Angeles była jeszcze bardziej widoczna niż rok temu – komentuje Adam Kiciński, Prezes CD PROJEKT.

    W tym roku CD PROJEKT zaplanował na E3 dedykowaną komunikację i przestrzeń do spotkań dla mediów (w tym dziennikarzy i liderów opinii), partnerów biznesowych, inwestorów giełdowych, jak również dla graczy, a Cyberpunk 2077 będzie po raz pierwszy pokazywany w przestrzeni publicznej targów.

  • Zamiany w Zarządzie S4E S.A.

    Zamiany w Zarządzie S4E S.A.

    Zmiana na stanowisku Prezesa Zarządu

    Paweł Piętka zrezygnował z członkostwa w Zarządzie S4E S.A. ze skutkiem natychmiastowym.
    Roman Durka został delegowany przez Radę Nadzorczą do czasowego wykonywania czynności Prezesa Zarządu na okres trzech miesięcy od dnia 16.04.2019 roku.

    Roman DurkaRoman Durka ma wieloletnie doświadczenie w branży na stanowiskach kierowniczych i zarządczych w polskich i międzynarodowych firmach. Ostatnio był dyrektorem operacyjnym Mellon Poland (2017 – 2018) i wiceprezesem Sygnity (2015 – 2017). Wcześniej był prezesem Kapsch BusinessCom (2012 – 2015), szefem Fujitsu w Polsce (2009 – 2011), dyrektorem generalnym Sun Microsystems (2008), CEO Nortela (2007 – 2008), Clearwire (2006 – 2007) i Dell’a (1997 – 2006) oraz zastępcą dyrektora IBM (1991 – 1997).

    Zmiana na stanowiskuWiceprezesaZarządu ds. Finansowych

    Aneta Bartnicka zrezygnowała z członkostwa w Zarządzie S4E ze skutkiem na koniec dnia 10 maja 2019 r.
    Marcin Sobka został powołany przez Radę Nadzorczą na Członka Zarządu, Wiceprezesa ds. finansowych, ze skutkiem na dzień 11 maja 2019 r.

    Marcin Sobka od lipca 2017 roku pełni rolę Dyrektor Kontrolingu i Raportowania GK ABC Data. Poprzednio pracował jako Dyrektor Kontrolingu GK Polenergia. Odpowiadał za szereg działań o strategicznym dla spółki znaczeniu m. in. w zakresie analizy projektów inwestycyjnych, pozyskania finansowania. optymalizacji funkcji finansów oraz planowania i budżetowania. Karierę rozpoczął w EY gdzie przez 9 lat pracował w działach audytu, doradztwa biznesowego oraz transakcyjnego.
    Absolwent Szkoły Głównej Handlowej oraz programu menadżerskiego AMP w IESE Business School.
    Posiada uprawnienia biegłego rewidenta oraz certyfikat ACCA.

  • Rekrutacja do kolejnej edycji programu MIT Enterprise Forum CEE

    Rekrutacja do kolejnej edycji programu MIT Enterprise Forum CEE

    Choć dopiero niedawno rozpoczęła się wiosna, MIT Enterprise Forum CEE, akcelerator adresowany do startupów technologicznych z Polski oraz czternastu krajów Europy Środkowo-Wschodniej, już otwiera rekrutację do jesiennej edycji programu.

    Młodzi przedsiębiorcy zainteresowani udziałem w projekcie mogą składać aplikacje za pośrednictwem strony internetowej mitefcee.org do 30 czerwca 2019 roku. Około 25 najlepszych startupów, wyłonionych do udziału w programie, przejdzie kompleksowy, trzymiesięczny proces akceleracji, otrzyma dofinansowanie na rozwój działalności w kwocie nawet do 200 tysięcy złotych, a także zyska szansę na nawiązanie komercyjnej współpracy z czołowymi polskimi i międzynarodowymi przedsiębiorstwami.

    Celem akceleratora MIT Enterprise Forum CEE jest wsparcie najbardziej innowacyjnych startupów naukowo-technologicznych z Polski i Europy Środkowo-Wschodniej poprzez połączenie ich potencjału z wiedzą i zasobami dużych przedsiębiorstw,  a także doświadczeniem mentorów, którzy osiągnęli spektakularne sukcesy w biznesie międzynarodowym. Partnerami  programu są tacy rynkowi giganci jak m.in. Adamed, PZU, Nationale-Nederlanden. Projekt wspiera Polska Agencja Rozwoju Przedsiębiorczości, która przyznała grant na realizację programu w wysokości 15 milionów złotych.

    Startupy z Europy Środkowo-Wschodniej chcą się rozwijać w Polsce

    Organizatorem programu jest Fundacja Przedsiębiorczości Technologicznej, która z sukcesem zrealizowała dotychczas pięć edycji programu MIT Enterprise Forum Poland, a obecnie przygotowuje się do startu pierwszej rundy akceleracji dla startupów z regionu CEE.

    Oceniamy właśnie aplikacje, które wpłynęły do nas w związku z naborem do pierwszej rundy programu MIT Enterprise Forum CEE. Wkrótce ogłosimy startupy, które zakwalifikowały się do udziału w akceleracji, a w maju rozpoczną  się pierwsze warsztaty oraz spotkania z mentorami i przedstawicielami dużych korporacji – mówi Łukasz Owczarek, Head of Acceleration w Fundacji Przedsiębiorczości Technologicznej. – Otrzymaliśmy kilkaset zgłoszeń, z czego niemal połowę od startupów z krajów Europy Środkowo- Wschodniej, w tym m.in. z Ukrainy, Rumunii, Węgier, Estonii i Bułgarii. Jesteśmy już po pierwszych rozmowach z ich przedstawicielami. Są to zespoły mocno zmotywowane do tego, aby rozpocząć swoją działalność na rynku polskim – dostrzegają bowiem nie tylko bardzo sprzyjający klimat dla rozwoju biznesu panujący obecnie w naszym kraju, ale również coraz większą otwartość dużych przedsiębiorstw na współpracę ze startupami – dodaje Owczarek.

    W związku z dużym zainteresowaniem akceleracją, MIT Enterprise Forum CEE już otworzył rekrutację do kolejnej edycji programu, która wystartuje w listopadzie 2019 roku. Przez trzy miesiące młodzi przedsiębiorcy, którzy się do niej zakwalifikują, będą dopracowywali swoje modele biznesowe pod okiem polskich i międzynarodowych mentorów, uzyskają dostęp do unikalnego know-how, zaplecza technicznego i technologicznego partnerów programu, a także dofinansowanie na rozwój działalności i przeprowadzenie pilotażu w kwocie nawet do 200 tysięcy złotych. Startupom z krajów CEE zostanie dedykowany specjalny zespół wspierający je w rozwijaniu działalności na rynku polskim.

    Do aplikowania do programu zapraszamy startupy technologiczne z Polski i krajów CEE, które rozwijają technologie mogące znaleźć zastosowanie m.in. w przemyśle farmaceutycznym i Industry 4.0, a także w sektorze energetycznym, ubezpieczeniowym,  finansowym czy w branży Smart Buildings. Specjalnie już teraz uruchamiamy nabór do edycji jesiennej, aby dać zespołom więcej czasu na przesyłanie swoich zgłoszeń. Znacznie uprościliśmy też samą formułę aplikowania, przez co jest ona o wiele szybsza i bardziej intuicyjna – podkreśla Owczarek.

    Polska to dopiero początek drogi

    Program MIT Enterprise Forum CEE jest częścią globalnej sieci MIT Enterprise Forum, która posiada swoje oddziały w kilkunastu stanach USA, a także m.in. w Grecji, Hiszpanii, Izraelu, Turcji i Pakistanie. Swoim zasięgiem obejmuje Polskę oraz czternaście państw: Czechy, Słowację, Węgry, Austrię, Rumunię, Słowenię, Chorwację, Serbię, Bułgarię, Ukrainę, Białoruś, Litwę, Łotwę oraz Estonię. Projekt ukierunkowany jest nie tylko na rozwój na rynku polskim, ale również na szeroko rozumianą internacjonalizację.

    Naszym celem jest przyspieszenie rozwoju firm, które chcą się rozwijać na rynkach międzynarodowych, w tym przede wszystkim w Stanach Zjednoczonych. W ramach każdej edycji akceleracji pięć najlepszych startupów otrzymuje szansę uczestnictwa w tygodniowym bootcampie w Bostonie. W trakcie wyjazdu mają one nie tylko możliwość poznania ekosystemu innowacji skupionego wokół Massachusetts Institute of Technology – uczelni z którą afiliowany jest nasz program, ale również okazję nawiązania ważnych relacji biznesowych z tamtejszymi przedsiębiorcami oraz  zaprezentowania swojej technologii przed inwestorami z USA. Dla wielu z nich to pierwszy poważny krok do rozwoju biznesu na rynku amerykańskim – mówi Łukasz Owczarek. – Nawiązujemy również coraz więcej relacji z czołowymi przedsiębiorstwami na Dalekim Wschodzie, które są zainteresowane współpracą ze startupami z Europy Środkowo-Wschodniej. Udział w programie MIT Enterprise Forum CEE może stać się więc dla młodych przedsiębiorców również szansą na ekspansję na tamtejsze rynki – dodaje.

    Startupy, które zakwalifikują się do projektu przejdą akcelerację zgodnie z modelem 24 kroków zdyscyplinowanej przedsiębiorczości rozwiniętym przez Williama Aulet’a, profesora  Massachusetts Institute of Technology (MIT), a także otrzymają możliwość globalnego networkingu, w tym nawiązania relacji biznesowych z potencjalnymi partnerami oraz inwestorami. W agendzie programu przewidziano ponadto konsultacje z prawnikami, rzecznikami patentowymi, coachami sprzedaży czy specjalistami z zakresu HR.

    Partnerami głównymi programu są Adamed – firma farmaceutyczno-biotechnologiczna, która powstała na bazie polskiej myśli naukowej i własnych patentów oraz MCX – trzon silnej grupy wyspecjalizowanych spółek, w skład której wchodzą m.in. spółki z obszaru rozwiązań teleinformatycznych oraz energii odnawialnej.

    Partnerami wspierającymi są LINK4, Nationale-Nederlanden, MDI Energia SA, Sollers Consulting, PZU oraz Vetasi, Partnerami merytorycznymi – Autoryzowane Centrum Szkoleniowe Sandler Training – Twarowski & Posmyk, CRIDO, kancelaria patentowa EUPATENT.PL, Extended Tools, Novismo,  TaxLab oraz Hasik Rheims & Partners. Organizacjami wspierającymi akcelerację są CMS Law.Tax, Fundacja na rzecz Nauki Polskiej oraz Stowarzyszenie Organizatorów Ośrodków Innowacji i Przedsiębiorczości w Polsce (SOOIPP).

    Realizacja programu wspierana jest grantem przyznanym Fundacji Przedsiębiorczości Technologicznej przez Polską Agencję Rozwoju Przedsiębiorczości w ramach Działania 2.5 POIR Programy Akceleracyjne.

  • Nowy indeks WIG.Games już w marcu na GPW

    Nowy indeks WIG.Games już w marcu na GPW

    GPW rozpoczyna publikację indeksu WIG.GAMES (indeks producenci gier) oraz indeksów makrosektorowych z branż: banki-ubezpieczenia-rynek kapitałowy-wierzytelności, paliwa-chemia-gaz oraz energia-górnictwo-surowce. Makroindeksy będą instrumentami bazowymi dla kontraktów terminowych co wpisuje się w ogłoszoną inicjatywą strategiczną GPW.

    Nowe indeksy makrosektorowe

    Od 18 marca 2019 r. GPW rozpocznie publikowanie nowych indeksów: WIG.GAMES – skupiający producentów gier oraz indeksów makrosektorowych. W skład indeksów makrosektorowych wejdą spółki z branż:

    • Banki-ubezpieczenia-rynek kapitałowy-wierzytelności (WIG.MS-FIN)
    • Paliwa-gaz-chemia (WIG.MS-PET)
    • Energia-górnictwo-surowce (WIG.MS-BAS)

    Nowe indeksy grupują spółki z wybranych branż, jednolitych ze względu na swoją specyfikę. Co ważne, liczba spółek, uczestników indeksu będzie stała, ich kwalifikacja będzie miała miejsce na podstawie analizy płynności, zaś udziały największych spółek będą limitowane. Takich zasad nie spełniają indeksy sektorowe, gdzie kwalifikacja spółek i ich wagi wynikają z ich udziału w WIG. Dzięki temu poszerzymy naszą ofertę indeksową o wskaźniki, które mogą być instrumentami bazowymi dla kontraktów terminowych – mówi Izabela Olszewska, Członek Zarządu GPW.

    Kontrakty terminowe na indeksy makrosektorowe

    W kolejnym etapie GPW planuje wprowadzenie kontraktów terminowych opartych o indeksy makrosektorowe. To element rozwoju rynku instrumentów pochodnych i realizacja ogłoszonej w ubiegłym roku inicjatywy strategicznej.

    – Dzięki kontraktom terminowym na indeksy makrosektorowe inwestorzy otrzymają możliwość zastosowania strategii zakładającej spadek kursów z danego makrosektora bez pożyczania akcji, a także szanse na dokonanie strategii łączonych na rynku kontraktów terminowych: WIG20/mWIG40 vs makrosektor, makrosektor vs makrosektor, makrosektor vs akcje – dodaje Izabela Olszewska.

    Kontrakty terminowe na indeksy makrosektorowe pojawią się w obrocie giełdowym po zatwierdzeniu Warunków Obrotu dla tych kontraktów przez Komisję Nadzoru Finansowego.

    indeksy makrosektory GPW

  • Dobry początek roku Giełdowego Indeksu Produkcji

    Dobry początek roku Giełdowego Indeksu Produkcji

    Giełdowy Indeks Produkcji urósł w styczniu o 3.28% do poziomu 892.16 punktów, odrabiając tym samym część strat z poprzedniego roku.

    Analitycy z firmy DSR S.A. prognozują pozytywne zmiany. Pierwszy miesiąc 2019 roku to był dobry okres dla większości spółek notowanych na GPW, czego potwierdzeniem jest wzrost wartości większości indeksów WIG. W tych sprzyjających warunkach dobrze radzili sobie również polscy producenci, notowani na warszawskim parkiecie.

    W styczniu na rynkach wschodzących zanotowano znaczne ocieplenie nastrojów. Również na polskiej giełdzie dominował kolor zielony, a fala wzrostów przybrała niemalże po równo, niezależnie od wielkości spółek. Największe spółki notowane w ramach WIG20 wzrosły o 4.55%, MWIG40 wzrósł o 4.28%, a najwięcej na styczniowym odbiciu zyskały najmniejsze spółki z SWIG80, bo aż 4.83%.  Przypływ nie ominął także 60 spółek z Giełdowego Indeksu Produkcji. Wartość aż 36 spośród nich wzrosła, przy jedynie 19 spadkach,  co pozwoliło całemu indeksowi GIP60 zyskać w tym czasie 3.28%.

    Jak podaje dr Maciej Zaręba – analityk i współtwórca GIP z DSR S.A., jedynym indeksem branżowym z całej palety indeksów WIG, który zanotował w styczniu spadek wartości był indeks WIG-LEKI (-5.03% m/m). Również na wyniku GIP60 najbardziej ciążyły spółki z branży farmaceutycznej, które w  styczniu straciły średnio -4.66%. Ale to nie jedyna branża z GIP60, dla której średnia stopa zwrotu zatrzymała się poniżej zera. Traciła również branża motoryzacyjna (-2.55% m/m), głównie przez nieprzemijające problemy spółki URSUS (-24% m/m) – wyjaśnia Zaręba . Z kolei korekta na akcjach CCC (-7.50% m/m) i Vistuli (-4.95%) odbiła się negatywnie na średniej stopie zwrotu projektantów i dystrybutorów odzieży (-1.94% m/m).

    Pozostałe indeksy WIG na solidnych plusach z wyraźnymi liderami w postaci indeksów WIG-CHEMIA i WIG-ENERGIA, które w styczniu zyskały odpowiednio 16.23% i 13.69%. Również w grupie polskich producentów spółki z branży chemicznej stanowiły największą, zajmując odpowiednio 1, 4, 5 i 6 miejsce w styczniowym rankingu GIP60, ze średnią stopą zwrotu dla branży na poziomie 16.68%. Bardzo dobre średnie stopy zwrotu osiągnęli też producenci z przemysłu lekkiego (+8.25% m/m), drzewnego (+5,04% m/m) i elektromaszynowego (+4.44% m/m).

    MERCATOR MEDICAL zwycięzcą styczniowego rankingu GIP60

    Styczniowy ranking GIP60 wygrała krakowska spółka MERCATOR MEDICAL za wzrost wartości o 24.07% m/m, dzięki czemu po raz pierwszy znalazła się na podium tej klasyfikacji. Spółka ta zajmuje się produkcją odzieży ochronnej jednorazowego użytku i obłożeń pola operacyjnego, czyli rękawic medycznych, opatrunków oraz produktów ochronnych z włókniny. Siedziba spółki znajduje się w Polsce, jednak ze względu na bliskość podstawowego surowca (lateks kauczuku naturalnego), część produkcyjna ulokowana jest w Tajlandii. Poza tym spółka posiada liczne podmioty zależne m.in. na Ukrainie, w Rosji, w Czechach oraz na Węgrzech. Cena akcji spółki wzrosła znacznie po ogłoszeniu przez właściciela zmiany w strukturze akcjonariatu na początku miesiąca.

    Drugie miejsce dla spółki CDRL, która w styczniu wypracowała dla swoich akcjonariuszy 21.46% wzrostu wartości rynkowej. Producent odzieży dziecięcej z Pianowa, który posiada setki sklepów na terenie całej Polski i licznych partnerów w różnych częściach świata, nie po raz pierwszy znalazł się na podium GIP60. Spółka w ostatnim czasie zaktywizowała swoje działania akwizycyjne, porządkując strukturę całej grupy. Działania te zostały bardzo dobrze odebrane przez inwestorów, co przełożyło się na ponadprzeciętny wynik w pierwszym miesiącu 2019 roku.

    Miejsce trzecie w styczniowym rankingu GIP60 zajęła spółka SONEL, której wartość rynkowa wzrosła o 21.29%. Na wzrost kursu akcji spółki SONEL największy wpływ miała umowa na dostawę liczników energii pomiędzy FOXYTECH (spółka zależna Sonela), a Tauron Dystrybucja, która opiewa na 12.7 mln zł netto.

    Nastroje w przemyśle

    Ochłodzenie nastrojów, które można było zaobserwować pod koniec zeszłego roku w wielu krajach, utrzymało się na początku bieżącego roku kontynuując serię korekty odczytów takich wskaźników jak PMI czy ISM. Spośród wszystkich krajów, w których przeprowadzane są badania nastrojów w przemyśle, tylko w niektórych zaobserwowano wzrost wartości PMI®. Takim przykładem jest gospodarka USA, dla której PMI wyniósł 54.9 (dwumiesięczny szczyt), ale też Polska, której wzrost nastrojów nie pozwolił niestety przekroczyć granicznej wartości 50 punktów, oznaczającej rozwój, ponieważ udało się osiągnąć jedynie 48.2 punkty. Równie niepokojący jest pierwszy od 27 miesięcy spadek poniżej 50 punktów u naszego największego partnera zza Odry (49.7). Inwestorzy z dużymi obawami zerkają również w stronę Chin, gdzie PMI spadł do najniższego poziomu od lutego 2016 roku (48.3).

    Powiało optymizmem

    „Polska gospodarka na razie radzi sobie lepiej niż oczekiwano. Wzrost PKB w IV kwartale na poziomie 4.9% r/r to ciągle wynik wyższy od oczekiwań analityków (średnia prognoz oscylowała wokół  4.7% r/r). Pogorszenie nastrojów w rozwiniętych gospodarkach w styczniu przełożyło się na odpływ kapitału w kierunku rynków rozwijających się. Polski rynek akcji również znalazł się wśród beneficjentów takiego stanu rzeczy i możliwe, że ta sytuacja utrzyma się przynajmniej w pierwszej połowie tego roku. Optymistyczne są też prognozy dla małych spółek z indeksu sWIG80, który w ostatnich latach nie rozpieszczał swoich inwestorów, a który posiada w swoim portfelu najwięcej spółek z Giełdowego  Indeksu Produkcji. Pozwala to wierzyć tezie, że w najbliższych miesiącach polskie spółki produkcyjne wrócą na drogę wzrostu wartości” – podsumowuje Maciej Zaręba.

  • Orange: startupy i ich innowacyjne pomysły

    Orange: startupy i ich innowacyjne pomysły

    Niemal 250 przeanalizowanych projektów, 15 start-upów w trakcie akceleracji, pilotaże i wdrożenia innowacyjnych rozwiązań m.in. w obszarze monitoringu bezpieczeństwa, efektywności energetycznej, inteligentnej infrastruktury miejskiej oraz lokalizacji osób i obiektów, dwie nagrody za wspieranie innowacyjnych firm – to najważniejsze efekty programu Orange Fab w 2018r. Orange Polska 24 stycznia podczas uroczystego  „Demo Day” podsumował swoją współpracę ze start-upami w minionym roku.

    Innowacyjność zmienia reguły gry rynkowej. Bez niej nie da się osiągnąć przewagi nad  konkurencją. Mamy świadomość, że na poprawę jakości życia naszych klientów wpływamy nie tylko dzięki budowaniu szerokiej dostępności usług ale także dzięki stałemu ich rozwijaniu i wdrażaniu nowych rozwiązań. Dlatego jesteśmy otwarci na niekonwencjonalne pomysły małych firm. Korzystają obie strony – start-upy zyskują wsparcie umożliwiające rynkowe wdrożenie swoich pomysłów zaś Orange Polska może dzięki temu rozwijać ofertę. Będziemy tę współpracę rozszerzać – powiedziała Bożena Leśniewska, Wiceprezes Zarządu Orange Polska.

    W ubiegłym roku operator pięciokrotnie kierował do startupów zapytania dotyczące współpracy w takich dziedzinach jak  Customer Experience, Fintech, Cybersecurity, IoT, e-commerce. 15 firm zostało zaproszonych do akceleracji. Zyskały one bezpośredni kontakt z inwestorami, mentorami i ekspertami, a także dostęp do  klientów i infrastruktury Orange Polska. Są to:

    1. Asta Labs – system zarządzania zasobami IoT,

    2. Magic To Go – komunikacja z klientem oparta o rozszerzoną rzeczywistość,

    3. Smartporter – systemem zarządzania budynkami komercyjnymi,

    4. Retailic – wspomaganie procesów sprzedażowych w sklepach stacjonarnych,

    5. Fabe – system monitoringu bezpieczeństwa dla sektora przemysłowego,

    6. Shield Bike – system zabezpieczenia rowerów,

    7. Erly – mobilne ładowanie telefonu,

    8. Teraz Energia – zarządzanie efektywnością energetyczną,

    9. Unified API – integracja oraz agregacja danych z różnych źródeł,

    10. BillTech – aplikacja do płacenia rachunków,

    11. Whirla – bezprzewodowe ładowanie telefonów dla biur i centrów handlowych,

    12. Fastpass – aplikacja do przyjmowania płatności BLIKIEM,

    13. NaviParking  – zarządzanie miejscami parkingowymi,

    14. SEEDiA – solarnie zasilana inteligentna infrastruktura dla miast i biznesu,

    15. JT Weston – platforma automatyzacji pracy i procesów biznesowych.

    Młode spółki technologiczne doceniły Orange Fab przyznając Orange Polska nagrodę specjalną Startups’ Choice w rankingu „The Heart Open Innovation Awards”. Firma  otrzymała również nagrodę w kategorii Mecenas Startupu w konkursie „Diamenty Top Industry”.

    W roku 2019 wspólnie ze start-upami Orange będzie poszukiwał nowych rozwiązań z zakresu Customer Experience, Process automation, Artificial intelligence, Internet of Things, Big data, E-commerce, AR, VR, Security, FinTech, Blockchain, 5G, Energy.

    Ponadto Orange nawiązał partnerstwo z firmami Blue Dot Solutions oraz Accelpoint. Jako odbiorca technologii będzie korzystał z ich wsparcia w naborze start-upów odpowiednich dla swoich potrzeb biznesowych. W ramach wspólnych projektów, które ruszą już I kwartale 2019, startupy mogą otrzymać do 200 tys. zł na wdrożenie rozwiązania.

    Orange Fab planuje wzmocnić wymiar międzynarodowy programu, który działa już w 16 krajach na całym świecie. Start-upy otrzymają możliwość uczestniczenia w wielu wydarzeniach zagranicznych – m.in. w lutym niektóre wezmą udział w Mobile World Congress w Barcelonie. W kwietniu Orange Fab zaprasza na Innovations Garden Summit do Miasteczka Orange w Warszawie, a w maju na Viva Technology w Paryżu.

    W ramach programu Poland Prize kontynuowana będzie współpraca z Ad Ventures i Startup Hub Poland przy wyszukiwaniu rozwiązań start-upów z zagranicy.

  • System „UPS jako rezerwa” zdał swój egzamin

    System „UPS jako rezerwa” zdał swój egzamin

    Firma Eaton, producent systemów z zakresu zarządzania zasilaniem, ogłosiła sukces realizacji pilotażowego centrum przetwarzania danych, w którym wykorzystano system „UPS jako rezerwa” (UPSaaR) do regulacji częstotliwości sieci zasilającej. Basefarm, norweska firma z branży data center, przetestowała usługę w ramach projektu prowadzonego przez firmę Statnett, norweskiego operatora systemu przesyłowego oraz firmę Fortum, wiodącego dostawcę energii w krajach bałtyckich i skandynawskich. Projekt pokazał, w jaki sposób odbiorcy energii elektrycznej mogą pomóc w zapewnieniu stabilnej sieci energetycznej i został ukończony latem (trzeci kwartał) 2018 r.

    W ramach projektu zasilacze UPS Eaton 93PM i Power Xpert 9395P w centrum przetwarzania danych firmy Basefarm zostały rozszerzone o funkcję UPSaaR. Funkcja ta umożliwia operatorom data center współpracę z dostawcami energii w celu chwilowego zmniejszenia zapotrzebowania centrum przetwarzania danych na energię, a nawet jej zwrotu do sieci. Jest to ważny krok naprzód w umożliwieniu dostawcom energii zapewnienia bardziej stabilnych systemów energetycznych, opartych na energii ze źródeł odnawialnych, której jakość, ilość i dostawy są trudniejsze do przewidzenia i zaplanowania. Oprócz wypełniania podstawowych funkcji ochrony obciążeń o krytycznym znaczeniu, zasilacze UPS były w stanie zapewnić moc 1,5 MW. Centrum przetwarzania danych mogłoby potencjalnie zarobić 50 000 euro na MW energii przeznaczonej na wsparcie sieci rocznie, w zależności od lokalnego rynku.

    Projekt ten pozwolił dowieść, w rzeczywistym centrum przetwarzania danych, podczas realnych awarii zasilania, że UPS jest najszybciej działającą rezerwą i jest w stanie pomóc dostawcom energii w zrównoważeniu sieci energetycznej, jednocześnie pełniąc swoją podstawową rolę w zakresie ochrony odbiorów – wyjaśnia Jussi Vihersalo, dyrektor ds. rozwoju biznesu w firmie Eaton.

    Podczas tego pilotażowego projektu zasilacze UPS zostały przetestowane pod kątem pracy w czasie awarii elektrowni, która spowodowała niestabilność sieci elektroenergetycznej. Rezerwy centrum przetwarzania danych były w stanie zadziałać najszybciej, zapewniając pożądany dopływ mocy w czasie znacznie krótszym niż wymagane dwie sekundy i szybszym niż inne rezerwy podłączone do sieci, takie jak pompy, zużycie z sektora przemysłowego czy pojazdy elektryczne.

    Ketil Hjort K Elgethun z centrum przetwarzania danych firmy Basefarm wyjaśnia – Jako jeden z większych konsumentów energii mamy obowiązek przyczynić się do tego, aby energia ta była bardziej ekologiczna. System UPSaaR firmy Eaton umożliwia nam bezpośrednią współpracę z dostawcami energii w celu uczynienia odnawialnych źródeł energii bardziej solidną częścią ekosystemu energetycznego, dzięki wykorzystaniu naszych istniejących rozwiązań UPS.

    Omawiany program pilotażowy udowodnił, że magazynowanie energii w centrach przetwarzania danych jest realnym i szybko działającym środkiem rezerwowym do bilansowania sieci energetycznej i nie ma wpływu na podstawową funkcję zasilacza UPS, jaką jest zabezpieczanie odbiorów. Firma Eaton zakończyła już udane projekty pilotażowe UPSaaR w zakresie sieci energetycznej w Wielkiej Brytanii i Skandynawii. W związku z tym system UPSaaR jest już gotowy do zaoferowania na rynku odpowiedzi strony popytowej, jako rozwiązanie modernizacyjne lub jako wbudowana funkcjonalność w nowo powstałych centrach przetwarzania danych.

  • Nowy projekt badawczy Volvo

    Nowy projekt badawczy Volvo

    Rozpoczął działalność prawdopodobnie pierwszy w Europie magazyn energii, wykorzystujący baterie autobusów elektrycznych. Baterie pochodzące z autobusów elektrycznych Volvo kursujących na linii 55 w Göteborgu w Szwecji otrzymają „drugie życie” i posłużą do magazynowania energii słonecznej. Jest to część projektu badawczego, w ramach którego Volvo Buses, Göteborg Energi, Riksbyggen i Johanneberg Science Park współpracują w celu zbadania możliwości magazynowania energii elektrycznej w blokach mieszkalnych, które samodzielnie produkują energię za pośrednictwem paneli słonecznych.

    Dążenie do ponownego użycia i recyklingu baterii jest kwestią kluczową, ponieważ coraz więcej miast planuje przejście na transport elektryczny. Volvo Buses bierze udział w projekcie badawczym, w wyniku którego używane baterie autobusowe otrzymają „drugie życie” i posłużą do magazynowania energii słonecznej. Testy prowadzone są w spółdzielni mieszkaniowej Viva w Riksbyggen w Gothenburgu, kompleksie mieszkalnym, który ma być najbardziej innowacyjnym i zrównoważonym szwedzkim projektem mieszkaniowym – Positive Footprint Housing. Najemcy dopiero zaczynają wprowadzać się do swoich nowych mieszkań.

    W spółdzielni mieszkaniowej Viva, w Riksbyggen, Volvo, Göteborg Energi i Johanneberg Science Park stworzyły wyjątkowy system, w oparciu o który energia z paneli słonecznych zamontowanych na dachach budynków mieszkalnych przechowywana jest w akumulatorach, które wcześniej zasilały elektryczne autobusy na trasie linii 55. Magazynowanie energii pomaga pomniejszać szczytowe wartości zużycia energii w obiekcie, a także służy do przechowywania lub sprzedaży nadwyżki energii słonecznej. Energia może także zostać odkupiona od krajowych dostawców i magazynowana w celu przyszłego użycia, jeśli tylko będzie niedroga oraz ekologiczna. Poprawia to efektywność systemu energetycznego spółdzielni Viva oraz sieci energetycznej miasta.

    Wiemy, że akumulatory do autobusów elektrycznych mają duży potencjał w zakresie innych zastosowań, takich jak magazynowanie energii po zakończeniu ich eksploatacji w transporcie publicznym. Sprawdzamy, w jakim stopniu możemy wykorzystać ten potencjał. Wykorzystanie akumulatorów w magazynach energii zapewnia im dłuższe funkcjonowanie, co z kolei oznacza lepsze wykorzystanie zasobów i mniejszy wpływ na środowisko. W Volvo badamy różne możliwości ponownego wykorzystania akumulatorów autobusowych do magazynowania energii, a Viva stanowi jeden z przykładów takich działań – mówi Ylva Olofsson, koordynator projektu w Volvo.

    W magazynie energii znajduje się 14 używanych akumulatorów litowo-jonowych pochodzących z autobusów elektrycznych. Są one instalowane w komorze baterii i połączone ze sobą w celu utworzenia pakietu o pojemności 200 kWh. Dzięki takiemu magazynowi większa część energii słonecznej wytwarzanej przez Viva jest wykorzystywana na potrzeby energetyczne spółdzielni mieszkaniowej.

    Testy magazynowania energii w używanych akumulatorach autobusowych odbywają się przy wsparciu projektu UE IRIS Smart Cities. Z kolei IRIS jest projektem Light House, finansowanym przez UE HORIZON 2020.

    źródło: Volvo
  • Ekonomia dzielona – brzmi jak utopia? Pewnie tak.

    Ekonomia dzielona – brzmi jak utopia? Pewnie tak.

    Wyobraźmy sobie system społeczny, w którym takie kategorie ekonomiczne jak: zysk, marża, popyt i podaż zastąpione są wartościami, takimi jak: zaufanie, współuczestnictwo, dzielenie się, pogłębianie relacji, zrównoważona gospodarka zasobami. Brzmi jak utopia? Pewnie tak. Witam w świecie sharing economy.

    Warto jednak pamiętać, że myślenie utopijne generuje wiele pomysłów, które są siłą napędową wielkiego biznesu. Żyjemy w czasach technologicznej rewolucji, więc dlaczego jej efektem nie może być ekonomiczny przełom?

    Krytycy współczesnej ekonomii, socjologowie, orędownicy kryptowalut, a nawet założyciele korporacji z obszaru nowych technologii mówią jednym głosem: żyjemy w czasach postępującego upadku tradycyjnej ekonomii.

    Niewydolność współczesnego systemu finansowego najlepiej ilustrują: cykliczne kryzysy systemu bankowości, niesprawiedliwa dystrybucja zysków, nierówności społeczne, manipulacyjna polityka walutowa rządów, kulejąca solidarność społeczna i rozbudowany korporacjonizm. To wszystko może lub musi prowadzić prędzej czy później do kryzysu o wymiarze globalnym. Może nawet do krachu, którego efektem będzie przewartościowanie roli pieniądza w życiu każdego z nas.

    Czy więc nowa globalna ekonomia jest potrzebna i możliwa? Czy rewolucja technologiczna, która wyniosła na szczyty takie urządzenia jak smartfon i takie technologie wymiany plików jak peer-to-peer (a zatem wykreowała nowe sposoby korzystania z własności intelektualnej i nowe relacje międzyludzkie) mogą zrewolucjonizować nasze podejście do posiadania, zysku, korzyści?

    Przywołam dwie nieżyjące postaci, z których jedna nie miała nic wspólnego z ekonomią, a druga prezentowała poglądy, które przez lata były traktowane jako wyraz intelektualnego ekscentryzmu.

    Pierwsza z nich to Bronisław Malinowski – wybitny polski przedwojenny badacz kultur, znany z monumentalnego dzieła „Życie seksualne dzikich”.

    W swojej książce „Argonauci Zachodniego Pacyfiku” opisał on rytuał Kula, który polegał na tym, że członkowie plemion zamieszkujących Nową Gwineę, przemierzali wiele kilometrów, by wymienić się cennymi przedmiotami o charakterze religijnym. Wedle tego zwyczaju, każdy wartościowy przedmiot nie mógł być zbyt długo przetrzymywany, a jego właściciel miał obowiązek przekazania go innej osobie. Rytuał generował istotne zjawisko: tworzyły się silne międzyludzkie więzi oparte na szacunku. A to z kolei kreowało całą nową kulturę, której częścią była zasada wymiany dóbr.

    Drugą interesującą postacią, którą chcę przywołać jest amerykański futurolog, konstruktor, wynalazca Jacques Fresco, który zmarł w tym roku w wieku 101 lat. Postać barwna i niezwykła. W latach 60 stworzył projekt „Americana”, w którym „wrażliwe maszyny” będą chłodzić i czyścić całe miasta w reakcji na proces zanieczyszczania środowiska. Postulował technologię komunikacji między samochodami, tak by zapobiegać wypadkom. Darzył wielką czcią komputery, twierdząc, że są lepsze od ludzi, bo nie mają szkodliwych ambicji. Postanowiłem przywołać jego postać ze względu na to, że całe życie poświęcił na propagowanie ekonomii opartej na zasadzie darmowego i powszechnego dostępu do dóbr naturalnych. Twierdził, że na tym etapie rozwoju cywilizacji mamy wszystko, co potrzebne (zasoby naturalne i technologię komputerową), by tworzyć podwaliny nowej ekonomii.

    Krytykując współczesny świat, mówił: „(…) Chciałbym zlikwidować wojny, ubóstwo i cierpienia ludzkie. Ale nie jest to możliwe w systemie monetarnym, w którym najbogatsze państwa kontrolują większość zasobów światowych. Widzę natomiast powtórzenie serii tych samych wydarzeń: wojny, biedy, recesji, boomu, wojny”.

    Rozwiązaniem miałoby według niego być stworzenie systemu, w którym narody deklarują, że zasoby takie jak: czyste powietrze i woda, ziemia uprawna, edukacja, opieka zdrowotna, energia i żywność tworzą rodzaj „wspólnego dziedzictwa” wszystkich ludzi, którzy mogą mieć dostęp do tych chronionych dóbr dzięki technologii komputerowej.

    U obu wymienionych myślicieli można znaleźć wątki, które obecne są we współczesnych trendach ekonomicznych. Proces wymiany dóbr, dzielenie się, skoncentrowanie się na dostępnych „tu i teraz” zasobach, położenie akcentu na budowanie więzi i poczucia grupowego zadowolenia – to wszystko znajdujemy w zjawisku, które określa się jako „sharing economy”.

    Nie można w tym przypadku mówić już tylko o utopii. Mówimy o biznesowym trendzie wywodzącym się z początku wieku, z czasu kryzysu zwanego „internetową bańką”, kiedy to siła nabywcza ludzi znacznie zmalała – w Europie, ale przede wszystkim za Oceanem. Po latach, kiedy pionierzy pojawiali na rynku i z niego szybko znikali, dotarliśmy do momentu, w którym wysoko skapitalizowane i rozpoznawalne marki ciągle się rozwijają, mając swoją wierną publiczność. Trend pod nazwą sharing economy, chociaż ciągle niszowy – biorąc pod uwagę jego udziały w rynku usług – zaczyna generować spore zainteresowanie zarówno konsumentów jak i innowacyjnie nastawionych biznesmenów.

    Według artykułu o sharing economy na witrynie eMarketer.com tempo wzrostu całego rynku w USA w 2017 roku miało sięgnąć 25 procent z liczbą 15,2 milionów klientów i przewidywaniami, że w 2018 roku będzie to już 18,7 miliona osób. Do tych liczb należy jednak dodać dane o zakupach w sieci na takich witrynach jak: Pinterest czy Ebay do czego przyznawało się już 50 proc dorosłej populacji. Są to przecież witryny, które pozwalają ludziom łączyć się w trakcie zakupu produktów, po które nie trzeba wybierać się do tradycyjnego sklepu. I chociaż mówimy o zjawisku ciągle niszowym, to nie można mu odmówić już trwałości, dynamiki, wzrostu i mocy do zmiany nawyków konsumenckich.

    Za całym tym zjawiskiem stoją więc już poważne pieniądze, coraz to nowe organizacje, marketing i przede wszystkim ludzie, którzy – zakładając firmy – mają ambicję tworzenia nowych jakości.

    Jedni z nich stawiają akcent ciągle na zyski i marżę (Uber), inni na pobudzanie lokalnej mikroprzedsiębiorczości (Etsy), jeszcze inni na relacje międzyludzkie i przyjemność (Airbnb). Ale są też inicjatywy mniej znane, zakorzenione na rynkach lokalnych, pozbawione wartości takiej, jaką jest globalna rozpoznawalność marki. Przykładem może być Streetbank w Wielkiej Brytanii, społeczność, której celem jest wymiana sprzętu AGD i przy okazji – wzajemne poznawanie się ludzi między sobą.

    Wszystkie te inicjatywy mają cechy wspólne i posługują się podobnymi narzędziami do samorozwoju. Postrzegane razem, zaczynają tworzyć interesującą jakość rynkową, która jest wypadkową refleksji o niewydolności współczesnego systemu i powszechnego dostępu do najnowszych technologii: internetu, nowoczesnych aplikacji, sieci społecznościowych.

    Wspólne jest też co innego – filozofia biznesu i system wartości. Składa się na nie poczucie, że każdy z nas dysponuje odpowiednimi zasobami, które może przekazywać innym. Zamiast eksploatacji dóbr wykorzystujemy nasze prywatne zasoby, „wolne moce” (wolny czas, wolne mieszkanie, wolny samochód) i na tej podstawie tworzymy konkretną ekonomiczną jakość. Oczywiście nie pozbawioną zysków. Przy czym konkurowanie zostaje zastąpione tu zaufaniem i partnerstwem, a walka o zyski – dzieleniem się.

    Zaufanie jako podstawowa kategoria w marketingu – tutaj staje się pojęciem kluczowym. Być może nawet dużo głębszym, autentycznym i ekonomicznie opłacalnym dla każdego uczestnika-twórcy-konsumenta w tym biznesie. I to ono, wraz z user experience – potrzebą wygody i poczuciem bycia we wspólnocie – tworzy energię napędową dla całego trendu.

    Zmienia się tu też model własnościowy i kapitałowy. Firma z obszaru sharing economy swoją pozycję rynkową buduje z pozycji dostawcy narzędzia – aplikacji umożliwiającej komunikowanie się uczestników (wszystkich beneficjentów) procesu biznesowego, w którym oni uczestniczą.

    W opisywanym trendzie są dla mnie ciekawe dwie zbieżności. W 2008 roku Apple uruchamia swoją platformę służącą wymianie aplikacji. I w tym samym roku przychodzi na świat firma, która jest dzisiaj jedną z najsilniejszych marek „sharing economy”, czyli airbnb. Na tym prostym zestawieniu widać, że nowa ekonomia jest dzieckiem filozofii „sharingu”, która na dobre obecna jest w internecie od 10 lat. Nie byłoby sharing economy bez internetu, wymiany plików p2p, freeware’u. Nie byłoby jej bez eksplozji portali społecznościowych, gdzie połączenia między ludźmi są generowane błyskawicznie, weryfikowalne i przekładają się na wielką mozaikę kontaktów, interesów i celów.

    Nowa ekonomia jest częścią filozofii millenialsów, generacji C, dla których cały proces zakupowy odbywa się w internecie, a jego podstawowymi elementami są: marketing rekomendacji, wygoda, szybkość, cenowa konkurencyjność i używanie smartfonu do szukania usług i błyskawicznej za nie zapłaty.

    Częścią tej filozofii jest swoisty minimalizm, który zakłada, że „posiadanie” zmieniam na „używanie”, „wypożyczanie” i „korzystanie”. Bez wątpienia zjawisko to jest także owocem nowego podejścia do przetwarzania danych. Bo przecież informacja o konsumencie, informacja dostarczana dobrowolnie przez niego samego – o sobie, swojej potrzebie, ale i zasobach – jest tu kluczowa.

    Wreszcie, nie byłoby tego całego zamieszania bez podstawowego narzędzia, czyli aplikacji. Już o tym nie pamiętamy, ale popularność aplikacji pojmowanej jako konsumencki, codziennie używany software, to ostatnie dziesięć lat.

    Jeden z polskich producentów piwa zasłynął ostatnio intensywną kampanią reklamową, której „key wordem”, „big idea” jest słowo „tymczasem” Myślę, że owo słowo dobrze oddaje istotę nowej ekonomii.

    Tymczasowość, chwila, moment, stanowią podstawę tej koncepcji. Mam (chwilowo) wolne miejsce w samochodzie, wolny pokój w mieszkaniu, mam trochę wolnego czasu – dzielę się więc z tobą tym wszystkim, zarabiam na tym, a ty zarobisz w ten sam sposób udostępniając mi swoje identyczne zasoby. To pokazuje jak nietrwałość, zmienność, rozproszenie, dystopijność, a jednocześnie poszukiwanie więzi wspólnotowych mogą stworzyć konglomerat idei biznesowo policzalnych i atrakcyjnych nawet z punktu widzenia dużego kapitału.

    Mam też poczucie, że opisywane zjawisko, ciągle dynamicznie zmieniające się, jest efektem faktu, że nowe technologie rzeczywiście tworzą rewolucję – dziejącą się, rozgrywającą się na naszych oczach. Uważam, że wielkie chwile biznesu spod znaku sharing economy są jeszcze przed nami.

    https://norbertbiedrzycki.pl

    Powiązane artykuły:

    Czy gwarantowany dochód podstawowy będzie koniecznością?

    Zmierzch ery człowieka

    Niewidzialna pajęczyna wokół nas, czyli Internet Rzeczy

    Blockchain – święty Graal systemu finansowego?

    Upadek hierarchii, czyli kto właściwie rządzi w Twojej firmie

  • Sztuczna inteligencja wpływa na coraz więcej aspektów naszego życia

    Sztuczna inteligencja wpływa na coraz więcej aspektów naszego życia

    Jak wynika z danych SAS, ponad 72 proc. organizacji na całym świecie wykorzystuje sztuczną inteligencję w jednym lub kilku obszarach działalności biznesowej. Dzieje się tak, gdyż AI sprawia, że technologia jest w stanie szybciej i bardziej precyzyjnie reagować na potrzeby klientów oraz pomaga zapewnić wyższy poziom świadczeń w przypadku administracji publicznej. Obecnie trudno wskazać branżę, w której sztuczna inteligencja nie byłaby wykorzystywana choćby w niewielkim stopniu.

    Termin sztuczna inteligencja powstał w latach 50-tych ubiegłego wieku. Od tego czasu zarówno przedstawiciele biznesu, jak i środowiska akademickiego pracowali nad rozwojem sieci neuronowych, które miały wykonywać określone obliczenia przypominające pracę ludzkiego mózgu. Z biegiem lat AI (ang. Artificial Intelligence) stała się naturalnym elementem naszego codziennego życia, co dla przeciętnej osoby nie zawsze jest oczywiste. Nie udało się stworzyć komputera, który zastąpiłby człowieka, potrafił myśleć abstrakcyjnie lub odczuwał emocje. Eksperci SAS zwracają jednak uwagę, że chociaż AI nie ma fizycznej formy, towarzyszy nam w wielu sytuacjach, których przykłady podają poniżej.

    AI pomoże odblokować kartę kredytową

    Jak podaje Narodowy Bank Polski, na początku 2018 r. Polacy posiadali 39,6 mln kart płatniczych. Obok telefonu komórkowego, dla wielu z nas jest to obecnie jeden z najważniejszych przedmiotów codziennego użytku. Jakiekolwiek problemy z wypłaceniem środków lub dokonaniem płatności sprawiają, że nie możemy normalnie funkcjonować. W takiej sytuacji niezbędna jest sprawna obsługa klienta. Firma Lotte Card z Korei Południowej wykorzystała sztuczną inteligencję oraz system przetwarzania języka naturalnego do stworzenia chatbota, który odpowiadałby na zapytania ze strony klientów w czasie rzeczywistym, maksymalnie redukując czas oczekiwania na odpowiedź. Co warto podkreślić, język koreański jest niezwykle skomplikowany i proste systemy obsługi klienta, niewykorzystujące sztucznej inteligencji, często miały problemy z poprawnym formułowaniem zdań, a udzielane przez nie odpowiedzi były nieprecyzyjne i czasem wprowadzały klientów w błąd.

    Powyższy przykład pokazuje, że sztuczna inteligencja przede wszystkim przyśpiesza działanie biznesu, ułatwia pracę konsultantów i pozwala na indywidualne podejście do klienta. W obecnych czasach ma to ogromne znaczenie, gdyż nikt z nas nie lubi czekać. Klienci wymagają szybkiego kontaktu, w przeciwnym wypadku zrezygnują z usługi.

    AI w szpitalnej poczekalni

    Wizyta w szpitalu zwykle nie jest niczym przyjemnym. Nie wynika to tylko z faktu, że wiąże się ona z problemami zdrowotnymi, ale często również długim oczekiwaniem w poczekalni, kłopotami z odszukaniem dokumentacji, wydłużonym czasem realizacji poszczególnych procedur medycznych itp. Jednym z powodów tej sytuacji są problemy z dostępem do informacji i potrzeba ich manualnego wyszukiwania. Szpital Uniwersytecki w Montpellier na południu Francji wykorzystuje sztuczną inteligencję do analizy danych na temat pacjentów, co pozwala lepiej zarządzać ich wizytami i czasem pracy personelu. System analizuje zarówno ustrukturyzowane, jak i nieustrukturyzowane dane pochodzące z dokumentacji medycznej, notatek lekarzy i pielęgniarek, tworząc pełen obraz osoby odwiedzającej szpital i umożliwiając skrócenie czasu obsługi pacjenta, szybsze postawienie diagnozy oraz zaproponowanie leczenia w ramach przyjętej klasyfikacji.

    e-zakupy ze sztuczną inteligencją w tle

    Według badania „E-commerce w Polsce 2018. Gemius dla e-Commerce Polska”, coraz więcej Polaków robi zakupy przez Internet. Może to wynikać z rosnącego zaufania do kupowania w sieci – co czwarty respondent uważa, że zakupy online są w pełni bezpieczne.

    Bezpieczeństwo transakcji jest również kluczowym aspektem dla e-sklepów, takich jak np. Shop Direct, jednego z największych sprzedawców w Wielkiej Brytanii, obsługującego ponad cztery miliony klientów. Shop Direct oferuje klientom różne formy zapłaty za towary, w tym własną kartę kredytową. Firma wykorzystuje sztuczną inteligencję do scoringu kredytowego w czasie rzeczywistym. Podczas gdy kupujący nabywają interesującą ich rzecz, komputer weryfikuje czy można im udzielić kredytu. Cała operacja przebiega na tyle sprawnie, że nie wstrzymuje klienta na żadnym etapie procesu zakupowego.

    Woda, prąd, AI

    Dla większości z nas woda w kranie, prąd w gniazdku i ciepło bijące z grzejników są czymś naturalnym. Nie zastanawiamy się, jaki jest proces dystrybucji mediów i w jaki sposób firmom i administracji udaje się zachować ciągły dostęp do tych dóbr. Firma Energias de Portugal, S.A. (EDP), jeden z największych dostawców energii w Portugalii, wykorzystuje sztuczną inteligencję do przewidywania potencjalnych usterek i planowania prac serwisowych, co pozwala zminimalizować ewentualne przerwy w dostawie prądu. EDP używa również AI do określania zapotrzebowania użytkowników, dzięki czemu może bardziej optymalnie dystrybuować posiadane zasoby.

    Dzięki aplikacjom takim jak Siri czy Google Assistant, sztuczna inteligencja jest obecna w różnych formach w większości modeli smartfonów. Niemal każdy z nas wie, jak działa asystent głosowy, który może nas poinformować o tym jaka jest pogoda czy wskazać najbardziej optymalną trasę podróży. Warto jednak pamiętać, że w wielu przypadkach sztuczna inteligencja nie jest produktem „samym w sobie” adresowanym do użytkownika końcowego. Częściej stanowi narzędzie umożliwiające świadczenie różnego rodzaju usług szybciej i bardziej efektywnie.

  • Polscy inżynierowie próbują rozwiązań kosmiczny problem

    Polscy inżynierowie próbują rozwiązań kosmiczny problem

    Przetestowanie żagla deorbitacyjnego będzie najważniejszym elementem misji czwartego polskiego satelity – PW-Sat2. Żagiel, rozwiązanie zaprojektowane przez studentów Studenckiego Koła Astronautycznego (SKA) Politechniki Warszawskiej, ma szansę zapoczątkować nową erę w eksploracji kosmosu, zapobiegając pozostawaniu na orbicie niepotrzebnych i zaśmiecających go satelitów. W ramach swojej misji PW-Sat2 wykona łącznie cztery eksperymenty. Satelita zostanie umieszczony na orbicie 19 listopada 2018 r., z pokładu rakiety Falcon 9. Strategicznymi partnerami studenckiego projektu są gliwickie firmy Future Processing oraz FP Instruments.

    Żagiel deorbitacyjny zbudowany został z folii mylarowej o grubości dziesięciokrotnie cieńszej niż ludzki włos. Jego prototyp testowany był w warunkach stanu nieważkości i niskiego ciśnienia w wieży zrzutów w Bremie. Średnica zwiniętego żagla to około 8 cm, co jest niezwykle istotne ze względu na możliwość stosowania tego rozwiązania w mikrosatelitach. Żagiel, po otwarciu na orbicie, będzie miał wymiary 2×2 metry.

    PW-Sat2
    PW-Sat2

    Otwarcie żagla spowoduje znaczne zwiększenie powierzchni satelity, a co za tym idzie oporu aerodynamicznego, który na niskiej orbicie okołoziemskiej będzie hamował satelitę. Po przeprowadzeniu pozostałych trzech eksperymentów satelita rozłoży żagiel, co spowoduje stopniowe obniżanie jego orbity, a w konsekwencji spalenie w atmosferze Ziemi – mówi Inna Uwarowa, koordynator projektu. – Komputer pokładowy, czyli „mózg” PW-Sata2 został ufundowany oraz oprogramowany przez firmę Future Processing – dodaje Inna Uwarowa.

    Ramiona żagla deorbitacyjnego zbudowane są ze sprężyn płaskich umieszczonych w mylarowych kieszeniach. Zmagazynowana energia sprężysta pozwala rozwinąć się żaglowi po jego wysunięciu z zasobnika, a kształt sprężyn pozwala zachować sztywność i stabilność nawet w warunkach normalnego ziemskiego ciążenia. Taka konstrukcja pozwoliła na osiągnięcie bardzo małych gabarytów żagla w konfiguracji zwiniętej (w zasobniku). PW-Sat2 ma kształt prostopadłościanu o wymiarach 10x10x22 cm, a żagiel zajmuje mniej niż 25 proc. objętości urządzenia.

    PW-Sat2 jedna ze ścian satelity z dołączonymi czujnikami eksperymentalnymi i referencyjnymi
    Jedna ze ścian satelity z dołączonymi czujnikami eksperymentalnymi i referencyjnymi

    Kolejny eksperyment będzie związany z określeniem PW-Sat2 na orbicie, którą umożliwi czujnik Słońca. Czujnik ten może być w przyszłości używany na innych satelitach orientacji przestrzennej. Dzięki temu instrumentowi panele słoneczne satelitów używających taki czujnik będą mogły być optymalnie ustawiane względem źródła światła. Zaprojektowany czujnik jest czujnikiem dwuosiowym i umożliwia wyznaczenie kierunku do Słońca w dwóch płaszczyznach. Elementy światłoczułe, określające natężenie padającego na nie światła, rozmieszczone są na czterech ściankach czujnika. W tym samym czasie promienie słoneczne padają na każdą ze ścianek pod różnym kątem, co pozwala określić kierunek do Słońca. Dane o natężeniu światła z każdej ze ścianek są przekazywane do procesora, gdzie przy użyciu odpowiedniego algorytmu i danych kalibracyjnych przeliczane są na wartości kątowe. Dokładność czujnika zbudowanego dla PW-Sat2 jest szacowana na około 1°. W satelicie zastosowana jest potrójna redundancja czujników światła.

    PW-Sat2 eksperymentalny czujnik Słońca podczas montażu
    Eksperymentalny czujnik Słońca podczas montażu

    Na pokładzie satelity umieszczone są także dwie kamery, które zarejestrują proces otwierania się żagla deorbitacyjnego. Dzięki temu możliwe będzie zweryfikowanie poprawnego otwarcia się żagla. Być może PW-Sat2 wykona i prześle zdjęcia Ziemi, niemniej jednak nie jest to priorytetem misji. Użyte kamery używają matrycy CMOS o rozdzielczości 640×480 px.

    Czwartym eksperymentem jest mechanizm rozkładania paneli słonecznych zaprojektowany przez studentów. Ogniwa słoneczne są podstawowym źródłem energii dla komputera pokładowego i urządzeń PW-Sata2. Satelita będzie stosował ogniwa zarówno przymocowane na stałe do obudowy urządzenia jak i na rozkładanych panelach słonecznych. Mechanizm rozkładania paneli słonecznych został zaprojektowany tak, aby zajmować minimalną ilość miejsca, zgodnie z wymaganiami standardu CubeSat. Mechanizmy takie stosowane są do otwierania paneli, aby zwiększyć efektywną powierzchnię odbierania światła słonecznego, zbieranego przez fotoogniwa.

    PW-Sat2 montaż satelity
    Montaż satelity
  • Danny Allan: Blockchain może przyczynić się do powstania rynku pamięci masowej

    Danny Allan: Blockchain może przyczynić się do powstania rynku pamięci masowej

    Potencjał technologii blockchain daleko wykracza poza kryptowaluty, znajdując swoje zastosowanie w takich dziedzinach, jak bankowość czy uwierzytelnianie dokumentów. Umożliwienie konsumentom dokonywania płatności transgranicznych bez udziału banków, zapewnienie firmom logistycznym stałego wglądu w lokalizację ich dostaw czy uiszczanie odpowiednich opłat za słuchanie muzyki online to tylko kilka z przykładów wykorzystania blockchain w życiu codziennym.

    Wszystkie te aspekty są z pewnością bardzo istotne i atrakcyjne z perspektywy indywidualnego użytkownika, jednak warto przyjrzeć się temu, jakie korzyści płyną z wykorzystania tzw. łańcucha bloków w przedsiębiorstwie. Istnieje pewien obszar działalności, który jest wspólny dla wszystkich firm, niezależnie od branży, a tym obszarem jest przechowywanie danych. W tym bez wątpienia krytycznym aspekcie prowadzenia biznesu wydaje się, że blockchain otwiera zupełnie nowe perspektywy rozwoju. Obecnie często organizacje myślą o przechowywaniu danych jako o archiwizowaniu danych w siedzibie firmy, chmurze lub obiekcie kolokacyjnym. Jednak dzięki technologiom blockchain możliwe będzie stworzenie bezpiecznej, zdecentralizowanej pamięci masowej, a w efekcie powstanie osobnego rynku pamięci masowych.

    Rynek pamięci masowych

    Rzadko zdarza się, że organizacja dysponuje dokładnie taką ilością pamięci masowej, jakiej potrzebuje w danym momencie. Rozwijające się przedsiębiorstwa często muszą kupować więcej pojemności, podczas gdy dostawcy pamięci masowej mogą mieć do czynienia z odwrotnym problemem. Większość centrów danych (a nawet pojedyncze firmy i konsumenci) wciąż ma pewną ilość niewykorzystanej pamięci masowej, mimo że wirtualizacja i inne ulepszenia znacznie poprawiły ich efektywność wykorzystania. Obecnie ta wolna pojemność jest skutecznie marnowana, ale już niedługo organizacje mogą mieć możliwość sprzedaży – i zakupu – nadmiaru miejsca na rynku pamięci masowych.

    Działanie takiego rynku można porównać do funkcjonowania sieci elektrycznej. Przedsiębiorstwa energetyczne kupują i sprzedają sobie nawzajem energię, aby stale dopasowywać podaż i popyt do sytuacji rynkowej. Wszystko to dzieje się w celu uzupełnienia niedoborów, jak również monetyzacji nadwyżek. Początkowo istniało kilka głównych centrów dystrybucji energii elektrycznej, jednak obecnie na rynku działa ogromna liczba dostawców na poziomie lokalnym i krajowym. Ostatecznie użytkownik końcowy nie potrzebuje wiedzy o tym, skąd dana energia pochodzi – ważne jest to, aby w gniazdkach był prąd.

    Rynek pamięci masowej działałby na zasadzie wspólnotowej sieci pamięci masowej, obejmującej zarówno dostawców, jak i konsumentów – a wszystko to w oparciu o blockchain. Organizacje z niewykorzystaną pamięcią masową mogłyby działać jako dostawcy dla tych, którzy mają lokalne wymagania w zakresie pamięci. W razie konieczności odzyskania potrzebnego miejsca, technologie blockchain umożliwiłyby płynne przeniesienie danych klientów do odpowiedniej lokalizacji, co odbywałoby się przy zachowaniu wymagań wydajnościowych, polityk bezpieczeństwa oraz przestrzeganiem wiążących umów. To właśnie stanowiłoby nowy, rozproszony model usługowy przechowywania danych.

    Dlaczego nie poprzestać na chmurze?

    Idea elastycznego przechowywania danych z pewnością nie jest nowa, a wiele organizacji już dziś korzysta z usług w chmurze, aby elastycznie zwiększać i zmniejszać pojemność swoich pamięci masowych.

    Istnieje jednak szereg istotnych ograniczeń chmury, takich jak przepustowość czy opóźnienia. Chmura publiczna o wysokiej skali jest przydatna w sytuacji, gdy przepustowość i opóźnienia nie są najważniejsze, jednak w innym przypadku te czynniki mogą być bardzo ograniczające. Co bardzo ważne, niektórzy dostawcy usług w chmurze mogą nie być odporni na czynniki takie, jak przerwy w dostawie energii i działania złośliwe, które mogą mieć poważny wpływ na przedsiębiorstwa.

    Natomiast w modelu rozproszonej pamięci masowej przepustowość i opóźnienia nie stanowią już problemu. Organizacjom nigdy nie zabraknie pojemności, ponieważ mogą one odblokować nadwyżki z otaczającego środowiska; oznacza to, że zespoły IT nie muszą już kupować więcej pamięci masowej niż potrzebują w danym momencie. Tymczasem firmy, które mają nadwyżkę pamięci masowej, mogą ją spieniężyć. Utylizacja przestrzeni dyskowej pozwoli firmom działać znacznie wydajniej, z wyraźnym zwrotem z inwestycji w pamięć masową.

    Jak zbudować rynek pamięci masowej w trzech krokach?

    1) Dystrybucja

    Stworzenie rynku pamięci masowej sprowadza się to do trzech zasadniczych elementów, z których pierwszym jest dystrybucja – być może najprostszy problem do rozwiązania. Możliwe jest osiągnięcie wysokiej wydajności dystrybucji w środowisku wielowęzłowym z dystrybucją treści peer-to-peer. Ta metoda dostarczania treści jest już w użyciu w organizacjach takich jak Microsoft, w których zmniejsza się nacisk na centra dystrybucji. Dystrybucja może być jeszcze bardziej przyspieszona przez dzielenie plików lub obiektów na standardowe lub adaptacyjne fragmenty, w zależności od potrzeb.

    2) Bezpieczeństwo

    Drugi aspekt jest bez wątpienia krytyczny dla każdej firmy, która zleca przechowywanie danych podmiotom zewnętrznym. Chodzi tu nie tylko o bezpieczeństwo samo w sobie, lecz także poufność, dostępność i integralność. Poufność można osiągnąć dzięki znanym technikom szyfrowania i ochrony danych, a skuteczne zarządzanie kluczami zapewnia ochronę komponentów danych przed ciekawskimi spojrzeniami.

    Dostępność jest równie ważna, aby zapewnić, że dane nie zostaną utracone i pozostaną dostępne, gdy węzły nie będą działać w trybie offline lub w sytuacji, gdy dostawcy pamięci masowej odzyskają swoją pojemność. Można to osiągnąć poprzez zapewnienie, że każdy element danych jest przechowywany w wielu lokalizacjach, także tych nadmiarowych.

    Integralność oznacza natomiast zapobieganie ingerencji w dane, w czasie gdy są one rozpraszane, przechowywane i odbierane. Można to wymusić poprzez silną kontrolę dostępu użytkowników, wykorzystanie sum kontrolnych i tablic anonimizujących udostępnianych w sieci pamięci masowej dla całej społeczności.

    3) Rynek

    Trzecim i ostatnim wymaganiem jest oczywiście sam rynek. Aby model dystrybucji działał, rynek musi śledzić każdą sprzedaż i zakup przepustowości. Każda transakcja musi być niezmienna – tak, aby wszystkie płatności mogły być skutecznie zarządzane, a zarówno dostawca, jak i konsument mogli odnieść korzyści z wymiany.

    Znaczenie technologii blackchain

    Blockchain będzie miał fundamentalne znaczenie zarówno dla bezpieczeństwa modelu rozproszonego, jak i dla funkcjonowania samego rynku. Rozwiązania blockchain mogą zagwarantować, że każda transakcja jest rejestrowana, niezależnie od segmentacji i rozproszenia danych w całej sieci. Łańcuch blockchain zapewni, że nic nie wydarzy się bez rejestracji, zagwarantuje niezmienność, skutecznie eliminując słabe punkty. Blockchain wspiera również zwiększoną dostępność, zapewniając, że każda pamięć masowa, w przypadku żądania uwolnienia przestrzeni przez jej właściciela, zainicjuje kopiowanie tych danych do innego miejsca.

    Technologie blockchain będą również potwierdzać istnienie umowy pomiędzy właścicielem danych a dostawcą usługi przechowywania danych, a także dowodzić istnienia konkretnych danych. Dostarczając jasnych dowodów transakcji, blockchain może wyeliminować potrzebę ręcznego śledzenia przez przedsiębiorstwa wymiany danych, zwiększając zaufanie i wygodę w całym systemie.

    Nowy sposób myślenia o przechowywaniu danych

    Rynek przechowywania danych wydaje się być naturalnym etapem rozwoju świata biznesu, który został już częściowo ujednolicony przez pojawienie się chmury. Jednakże przyjęcie nowego modelu rozproszonego będzie wymagało od przedsiębiorstw wyraźnej zmiany sposobu myślenia. Od dawna przyjmuje się założenie, że dane muszą być przechowywane centralnie. Obecnie dane są najcenniejszym dobrem przedsiębiorstw, co sprawia, że prywatność danych i bezpieczeństwo stają się najpoważniejszym problemem. Z tego powodu potrzeba będzie sporo czasu, aby zmienić podejście przedsiębiorstw do kwestii zabezpieczania danych.

    Jednak na organizacje, które zdecydują się spróbować działania w nowym modelu, czekają liczne korzyści biznesowe. Rozproszona pamięć masowa może stworzyć szybsze sieci, zmniejszyć opóźnienia i zwiększyć wydajność dla każdego użytkownika. Istnieje także możliwość realizacji niewykorzystanych dotychczas źródeł przychodów. Nie jesteśmy daleko od powstania takiego modelu rynkowego, gdyż w rzeczywistości wszystkie potrzebne technologie już istnieją. Blockchain prezentuje ekscytujący nowy paradygmat pamięci masowej, tym ciekawiej będzie można obserwować rozwój tych technologii w najbliższym czasie.

    Autor: Danny Allan, wiceprezes ds. strategii produktowej w Veeam

  • Tauron i Ericsson wdrożą IoT we Wrocławiu

    Tauron i Ericsson wdrożą IoT we Wrocławiu

    Usługi na potrzeby inteligentnego miasta z wykorzystaniem technologii Internetu Rzeczy to cel projektu zainicjowanego przez Tauron Polska Energia i światowego giganta w dziedzinie teleinformatyki – firmę Ericsson we Wrocławiu. Wdrożenie tego typu rozwiązań będzie pierwszym w Polsce przedsięwzięciem, które wykorzystuje Internet Rzeczy na skalę kilkusettysięcznego miasta.

    Odpowiednio dobrane, nowoczesne rozwiązania technologiczne ułatwią bezpieczne i efektywne zarządzanie oświetleniem ulicznym czy szybkie znalezienie miejsca parkingowego. Powstanie aplikacja pokazująca jakość powietrza. Dzięki opomiarowaniu wrocławskich parków, będzie można w każdej chwili sprawdzić gdzie powietrze jest najmniej zanieczyszczone i wybrać najlepsze miejsce na spacer czy piknik.

    Wdrożenie zakłada optymalizację wykorzystania i budowę nowych usług na bazie infrastruktury miejskiej, komunalnej, energetycznej i telekomunikacyjnej. Będzie to możliwe dzięki zastosowaniu sieci czujników dostarczających informacji ułatwiających zarządzanie poszczególnymi funkcjami aglomeracji.

    Po raz pierwszy w Polsce wdrożymy rozwiązania z zakresu Internetu Rzeczy na skalę kilkusettysięcznego miasta. Wykorzystamy istniejącą infrastrukturę dystrybucyjną Grupy Tauron po to, aby świadczyć zaawansowane usługi technologiczne dla mieszkańców i biznesu – mówi Jarosław Broda, wiceprezes zarządu ds. zarządzania majątkiem i rozwoju w Tauron Polska Energia. – Duży potencjał widzimy w synergii z aktywami Grupy oraz różnorodnymi usługami oferowanymi przez spółki, takimi jak np. oświetlenie, które może pełnić szereg dodatkowych funkcji związanych z przesyłem danych i pomiarami. Inicjatywa wynika wprost z tworzonego w Grupie Tauron ekosystemu innowacji, który ma kreować nowe produkty i usługi dla naszych klientów – dodaje wiceprezes.

    Projekt rozpocznie się jeszcze w tym roku we Wrocławiu, jako pilotaż programu. Istotnym elementem projektu, będzie również zastosowanie nowoczesnych technologii komunikacyjnych oraz zbieranie, przetwarzanie i analizowanie dużych ilości danych pochodzących z zainstalowanych czujników oraz inteligentnej infrastruktury.

    Ericsson mając wiedzę i doświadczenie w projektowaniu i wdrażaniu rozwiązań mobilnych, toruje drogę wdrożeniom Smart City i IoT, w ramach przygotowań do wprowadzenia 5G. Smart City oraz upowszechnienie IoT usprawni życie mieszkańców, poprawi standard ich życia i zwiększy atrakcyjność inwestycji. Dzięki sieci operatora komorkowego Plus, po raz pierwszy w Polsce zostanie wykorzystana technologia Narrow Band Internet of Things (NB-IoT) dostarczona w ramach rozwiązania Ericsson Radio System – powiedział Martin Mellor, szef firmy Ericsson w Polsce.

    Do realizacji projektu wykorzystane zostaną rozwiązania firmy Ericsson wdrożone w innych tego typu inicjatywach na świecie – np. w holenderskim Tilburgu i amerykańskim Dallas, gdzie testowane były rozwiązania związane z zarządzaniem ruchem ulicznym, czy systemem pomiarów, ocen i prognoz stanu środowiska

    Łączność radiową za pomocą infrastruktury Narrow Band IoT (NB-IoT) umożliwi operator sieci komórkowej Plus. Miasto zapewni usługi IoT. Będzie to pierwsza takie wdrożenie w Polsce.

    Internet Rzeczy to system, w którym przedmioty komunikują się między sobą, za pośrednictwem człowieka lub bez jego udziału. To wykorzystanie potencjału danych i informacji zgromadzonych w poszczególnych przedmiotach w celu usprawniania wielu dziedzin życia.

  • Nowe trendy na rynku magazynowania energii

    Nowe trendy na rynku magazynowania energii

    Wykorzystanie baterii do magazynowania energii jest coraz bardziej powszechne. Eksperci firmy doradczej Deloitte, autorzy raportu „Supercharged: Challenges and opportunities in global battery storage markets”, rosnącą popularność tego typu rozwiązań wiążą z dynamicznym spadkiem cen baterii oraz globalnym zwrotem w kierunku odnawialnych źródeł energii. Ich zdaniem w zapewnieniu ciągłości dostaw istotną rolę odgrywają także oparte o baterie magazyny energii oraz odpowiednia regulacja pracy systemów elektroenergetycznych. Wskazane w raporcie trendy będą się nasilać wraz z rozwojem inteligentnych sieci elektroenergetycznych oraz elektromobilności. Komercyjnemu wykorzystaniu baterii na rynku energetycznym sprzyja też rozwój technologii cyfrowych, umożliwiających tworzenie „wirtualnych magazynów”.

    Dwucyfrowy wzrost rynku

    Rynek magazynowania energii rozwija się w dwucyfrowym tempie. Niektóre z szacunków mówią o tym, że osiągnie on wartość ponad 26 miliardów dolarów do 2022 roku, co przekłada się na roczną stopę wzrostu (CAGR) w wysokości 46,5 proc.[1] Mniej optymistyczne przewidywania zakładają średnioroczny wzrost w wysokości 16 proc., co przełoży się na wartość 7 mld dolarów do 2025 roku.[2]

    Rozbieżności w prognozach wynikają przede wszystkim z różnego podejścia do definiowania rynku magazynowania energii. Część analityków uwzględnia jedynie wielkoskalowe magazyny usytuowane „przed licznikiem” użytkownika końcowego, instalowane przez energetykę zawodową. Z kolei inni eksperci biorą również pod uwagę magazyny energii instalowane „za licznikiem” przez odbiorców energii. Zdarza się także, że do definicji rynku wliczany jest dynamicznie rozwijający się segment baterii samochodowych.

    To właśnie popularyzacja samochodów elektrycznych doprowadziła do skokowego wzrostu wolumenów produkcji baterii litowo-jonowych, który pociągnął za sobą dynamiczny spadek kosztów produkcji oraz oferowanych cen. Pomiędzy rokiem 2010 a 2017 ceny baterii w przeliczeniu na kWh spadły o prawie 80 proc., z 1000 USD do 209 USD. W efekcie na rynku magazynowania energii, obok tradycyjnie dominujących elektrowni szczytowo-pompowych, coraz większe znaczenie zaczęły zyskiwać magazyny oparte o baterie.  Rosnąca popularność magazynowania energii w ten sposób nie wynika jednak wyłącznie z malejących kosztów. Równie ważna jest wciąż rosnąca rola, jaką magazyny pełnią w nowoczesnych systemach elektroenergetycznych.

    Magazyny energii ważnym elementem inteligentnych sieci energetycznych

    Wielu operatorów sieci rozpoczęło w ostatnich latach modernizację swoich sieci energetycznych, chcąc zwiększyć ich odporność w razie wystąpienia poważnych zakłóceń pogodowych, takich jak burze czy huragany. Dzieje się to zarówno w Polsce jak i na świecie. Przykładem tego jest zbudowany niedawno przez Teslę, we współpracy z Neonen,100 MW magazyn energii w południowej Australii. Bezpośrednim bodźcem do inwestycji była wielka awaria systemu, która w roku 2006 pozbawiła elektryczności 1,7 miliona Australijczyków.

    Oprócz standardowych modernizacji poprawiających jakość sieci, projekty te obejmują często wdrażanie inteligentnych technologii, umożliwiających cyfrową kontrolę nad sieciami oraz wykorzystywaniem odnawialnych źródeł energii, co wpływa również na popularyzację systemów magazynowania – mówi Andrzej Zienkiewicz, Partner w Zespole ds. Energii i Zasobów Naturalnych Deloitte.

    Globalny zwrot w kierunku odnawialnych źródeł energii postawił przed zarządzającymi sieciami elektroenergetycznymi nowe wyzwania. Rosnąca ilość mało stabilnych i trudno przewidywalnych źródeł energii, takich jak wiatraki czy farmy fotowoltaiczne, bardzo utrudnia zarządzanie siecią energetyczną i bilansowanie rynku.

    Tu z pomocą przychodzą magazyny energii, które mogą przechować nadmiar energii odnawialnej wyprodukowany w okresach mniejszego popytu i zwrócić go do sieci w okresach szczytu zapotrzebowania. Są one oparte o baterie i charakteryzują się dużą elastycznością, która daje  możliwość niemal natychmiastowego uruchomienia. To sprawia, że magazyny energii są coraz częściej wykorzystywane do realizacji usług systemowych na rynku energii, takich jak regulacja częstotliwości sieci energetycznych czy zapewnianie mocy rezerwowej – wyjaśnia Marek Chlebus, Dyrektor w Dziale Doradztwa Finansowego Deloitte, Ekspert w Zespole ds. Energii i Zasobów Naturalnych.

    Rosnący segment magazynów instalowanych „za licznikiem” energii

    Dynamicznie rosnącym segmentem rynku są również magazyny instalowane „za licznikiem” energii przez odbiorców końcowych, czyli firmy oraz gospodarstwa domowe. Najczęściej magazyny takie są zintegrowane z odnawialnymi źródłami energii i pozwalają na maksymalizację wykorzystania wyprodukowanej w nich energii. To ma istotne znaczenie w sytuacji, gdy warunki odsprzedaży do sieci energii wyprodukowanej przez prosumentów nie są zbyt korzystne.

    Głównym motywem skłaniających odbiorców do inwestycji w magazyny energii, jest możliwość zapewnienia sobie samowystarczalności energetycznej. Jest to istotne dla przedsiębiorstw, w których ciągłość dostaw energii ma krytyczne znaczenie dla realizowanych przez nie procesów produkcyjnych.

    Co ciekawe, motyw ten ma również duże znaczenie dla licznych odbiorców indywidualnych. Możliwość uniezależnienia się od spółek energetycznych i oparcia o własne, w pełni ekologiczne źródła energii, jest dla nich wartością samą w sobie, skłaniającą ich do inwestycji w baterie nawet wtedy, gdy stopa zwrotu jest bardzo niska – tłumaczy Andrzej Zienkiewicz.

    Rozwój inteligentnych sieci energetycznych oraz technologii cyfrowych umożliwia tworzenie magazynów energii złożonych z wielu niewielkich magazynów zainstalowanych „za licznikiem” i rozproszonych na dużym obszarze. W oparciu o takie rozwiązania, powstają nowe modele biznesowe, w ramach których przedsiębiorcy pełnią rolę agregatorów oferując usługi takich „wirtualnych” magazynów na rynku.

    Wsparcie ze strony Państwa

    Niektóre państwa stosują zachęty, chociażby w postaci ulg podatkowych, dla rozwiązań ułatwiających magazynowanie energii elektrycznej. Na takie wsparcie zdecydowały się na przykład rządy Włoch czy Korei Południowej.

    Wiele krajów w energii pochodzącej z odnawialnych źródeł i jej magazynowaniu dostrzega szansę na uniezależnienie się od importu energii i wypełnienie luki w tworzonym przez siebie miksie energetycznym – mówi Marek Chlebus.

    W Polsce jak dotąd nie zostały wprowadzone istotne zachęty do inwestycji w magazyny energii, jeśli nie liczyć dofinansowania do modernizacji sieci energetycznych z POIiŚ. Pewnym ukłonem w kierunku potencjalnych inwestorów jest również ustawa o rynku mocy dopuszczająca do niego magazyny energii.

    Rynek magazynowania energii zdominowany jest w Polsce przez elektrownie szczytowo-pompowe, jednak wraz rozwojem sieci inteligentnych, na znaczeniu zyskiwać będą magazyny energii oparte o baterie. Budowa takich magazynów stanowi obecnie integralny element projektów związanych z modernizacją sieci elektroenergetycznych, realizowanych przez wiodących operatorów systemów dystrybucyjnych – podsumowuje Marek Chlebus.

    [1] P&S Market Research, “Energy Storage Market to Reach $26,137 Million by 2022,” Press Release, 7 lipca 2017, https://globenewswire.com/news-release/2017/07/07/1041306/0/en/Energy-Storage-Market-to-Reach-26-137- Million-by-2022-P-S-Market-Research.html
    [2] Peter Maloney, “Global energy storage market to hit 8.8 GW by 2025, IHS Markit says,” Utility Dive, 4 sierpnia 2017, http://www.utilitydive.com/news/ global-energy-storage-market-to-hit-88-gw-by-2025-ihs-markit-says/448606/
  • Partnerzy Microsoft nagrodzeni

    Partnerzy Microsoft nagrodzeni

    Przeszło 500 przedstawicieli Partnerów Microsoft wzięło udział w dorocznym spotkaniu Microsoft Partner Strategy Conference 2018, jakie w dniach 9 i 10 października odbyło się w Łodzi. W trakcie konferencji Microsoft zaprezentował główne kierunki strategii współpracy z ekosystemem firm partnerskich na polskim rynku. Jej osią jest chmura obliczeniowa, która stanowi jednocześnie fundament do tworzenia rozwiązań partnerskich, szansę do rozwoju polskiego IP oraz podstawę transformacji firm i instytucji. W trakcie wydarzenia nastąpiła również oficjalna premiera Fabryki Przyszłości – wizji transformacji przedsiębiorstw produkcyjnych i przemysłowych, która opiera się na platformie technologii Microsoft i przeszło 30 rozwiązaniach partnerskich. Jest to wyraz podejścia Microsoft do współpracy z Partnerami, które integruje ich unikatowe branżowe rozwiązania w myśl założenia, że wspólnie możemy faktycznie transformować realne procesy biznesowe przedsiębiorstw.

    Tegoroczna konferencja odbyła się pod hasłem Chmura TAK. Nie „CZY”, ale „JAK”, które wyraża dążenie Microsoft i gotowość Partnerów do wykorzystania mocy i możliwości technologii cloud jako koła zamachowego cyfrowej transformacji klientów, bez względu na sektor, w którym działają. Zainteresowanie współpracą z Microsoft i wykorzystaniem chmury potwierdza rekordowa frekwencja i niesamowita energia wydarzenia, które obok sesji merytorycznych oferowało również mnóstwo okazji do wzajemnej interakcji i inspiracji.  Obok chmury to podejście branżowe zdecydowanie wyłania się jako strategiczny kierunek współpracy w ekosystemie Microsoft

    Tegoroczna konferencja partnerska jest dla mnie dowodem gotowości ekosystemu Partnerów Microsoft na realizowanie ambitnych projektów na rynku, nie w pojedynkę, ale wspólnie. Partnerzy tworzą ciekawe rozwiązania, które odpowiadają na realne wyzwania biznesowe u klientów w poszczególnych sektorach rynku. Naszą rolą jest konsolidować je w scenariusze transformacyjne, których potrzebują klienci. W tym celu zachęcamy Partnerów do angażowania się w branżowe projekty jak Sklep Przyszłości „Zofia” czy Fabryka Przyszłości, które pozwalają integrować komplementarne rozwiązania firm partnerskich wokół kompleksowej wizji transformacji danej branży – mówi Krzysztof Florczak z Microsoft, odpowiedzialny za sprzedaż rozwiązań partnerskich.

    Nagrody 2018

    Tradycją dorocznej konferencji dla Partnerów Microsoft jest również uhonorowanie tych spośród nich, którzy zrealizowali przełomowe projekty, dokonali realnej zmiany na rynku i osiągnęli szczególne wyniki. W tym roku nagrody otrzymali:

    Partner Roku 2018 – Synerise

    Dystrybutor: Software and Device Sales – AB

    Microsoft Azure – Lingaro

    Dynamics 365 – Bonair

    Office 365 – APN Promise

    Reseller – Onex Group

    New Star – Beyond.pl

    SAM (software asset management) – Auditoria Marcin Wojna

    Dodatkowe wyróżnienia w kategorii Microsoft Dynamics otrzymali:

    Partner Roku: NAV – EIP

    Partner Roku: Dynamics 365 Customer Engagement – Intersys Group

  • Polska w gronie 25-ciu najbardziej rozwiniętych rynków świata

    Polska w gronie 25-ciu najbardziej rozwiniętych rynków świata

    24 września 2018 r. globalna agencja indeksowa FTSE Russell przekwalifikowała Polskę z Emerging Markets do Developed Markets. Dzięki awansowi Polska znalazła się w grupie 25-ciu najbardziej rozwiniętych światowych gospodarek, takich jak Stany Zjednoczone, Wielka Brytania, Niemcy, Francja, Japonia czy Australia. Polska to pierwszy kraj od niemal dekady, który awansował do rynków rozwiniętych, to również pierwszy przypadek zakwalifikowania do tego grona kraju z Europy Środkowo-Wschodniej.

    Według FTSE Russell, Polska posiada wszystkie zalety rynków rozwiniętych, m.in. bezpieczeństwo obrotu i usług post-transakcyjnych oraz rozwiniętą infrastrukturę.

    Dzisiejszy awans Polski do grona rynków rozwiniętych w ramach globalnej klasyfikacji rynków akcji FTSE Russell to znaczące osiągnięcie. Ministerstwo Finansów i Giełda Papierów Wartościowych w Warszawie od dawna dążą do usprawnienia infrastruktury polskiego rynku kapitałowego i wzmocnienia polskiej gospodarki, a dzisiejszy dzień jest zwieńczeniem ich wysiłków zmierzających do spełnienia restrykcyjnych kryteriów tej klasyfikacji – powiedział Reza Ghassemieh, Chief Research Officer, FTSE Russell.

    Przekwalifikowanie naszego kraju daje możliwość zainteresowania nowych inwestorów akcjami polskich spółek i stanowi ogromną szansę dla całego rynku kapitałowego. Wierzę, że w dłuższej perspektywie spowoduje to napływ większego kapitału na warszawski parkiet – powiedział Marek Dietl, prezes Zarządu GPW.

    Dokonując rewizji klasyfikacji FTSE Russell bierze pod uwagę m.in. otoczenie regulacyjne, infrastrukturę, jakość rynku kapitałowego, kształt systemu depozytowo-rozliczeniowego czy rozwój rynku instrumentów pochodnych.

    Do indeksów FTSE Russell benchmarkują się wiodące światowe fundusze inwestycyjne. Kwalifikacja wiąże się z przesunięciem spółek w ramach indeksów FTSE grupujących spółki z rynków rozwijających się do indeksów spółek z rynków rozwiniętych.

    Ostateczna lista 37 polskich spółek, które wejdą w skład indeksów rynków rozwiniętych (wg przypisanej przez FTSE Russell kategorii wielkości), została opublikowana 25 sierpnia:

    • duże spółki (large cap): PKO Bank Polski
    • średnie spółki (mid cap): PKN Orlen, Grupa Lotos, PGE, PGNiG, KGHM Polska, Bank Pekao, PZU, BZ WBK, mBank, LPP, Dino Polska, CD Projekt, Cyfrowy Polsat.
    • małe spółki (small cap): Bank Millennium, AmRest Holdings, Bank Handlowy, JSW, Alior Bank, CCC, Play Communications, Orange Polska, Grupa Azoty, Enea, Tauron Polska Energia, Kernel Holding, Kruk, Asseco Poland, Budimex, Eurocash, Ciech, Energa, PKP Cargo, Lubelski Węgiel Bogdanka, GPW, Boryszew, Neuca.

    Polska została przekwalifikowana z Emerging Markets do Developed Markets w wyniku decyzji ogłoszonej przez FTSE Russell 29 września 2017 r., kiedy agencja podała wyniki dorocznej klasyfikacji krajów pod względem statusu rozwoju. Decyzja weszła w życie 24 września 2018 r. wraz z prowadzoną co pół roku weryfikacją globalnych indeksów akcji FTSE.

    Z okazji zbliżającej się reklasyfikacji polskiego rynku, 11 maja tego roku FTSE Russell opublikowała „białą księgę” poświęconą Polsce i zorganizowała konferencję “Talking Poland – Charting Success, From Emerging to Developed”. W dzień awansu Polski do grona rynków rozwiniętych 24 września 2018 r. w siedzibie London Stock Exchange odbyła się ceremonia „Market Open”. W wydarzeniu wzięli udział: Reza Ghassemieh – Chief Research Officer FTSE Russell, Marek Dietl – Prezes Zarządu GPW, Michał Krupiński – Prezes Zarządu Banku Pekao S.A., Maciej Trybuchowski – Prezes Zarządu KDPW, Paweł Borys – Prezes Zarządu PFR, Jakub Papierski – Wiceprezes Zarządu PKO Banku Polskiego oraz Paweł Surówka – Prezes Zarządu PZU S.A.

    Nie tylko agencja FTSE Russell zdecydowała się na przesunięcie Polski z Emerging Markets do Developed Markets. Również firma Stoxx, operator indeksów Deutsche Boerse Group, podjęła taką decyzję, a rewizja obu indeksów zbiegła się w czasie  i nastąpiła na zamknięciu sesji 21 września 2018 r. W rezultacie od 24 września Polska jest przez obie firmy klasyfikowana jako rynek rozwinięty.

    Polska jest wciąż klasyfikowana przez agencję indeksową MSCI jako rynek rozwijający się, dzięki czemu znacznie poszerza się spektrum inwestorów zainteresowanych polskim rynkiem.

    Polska giełda jest w o tyle dobrej sytuacji, że według dwóch firm: FTSE Russell i Stoxx jesteśmy krajem rozwiniętym, a według innej globalnej agencji MSCI jesteśmy wciąż krajem rozwijającym się. Większość funduszy inwestycyjnych na świecie – ok. 87 proc. – inwestuje w najbardziej rozwiniętych krajach jeśli chodzi o rynek kapitałowy. Do tej pory mieliśmy dostęp do 12-13 proc. światowych pieniędzy inwestycyjnych, od września będziemy mieć dostęp do 100 proc. Choć oczywiście proces przebudowy portfeli inwestycyjnych związany z decyzją FTSE Russell potrwa parę lat – powiedział Marek Dietl, prezes Zarządu GPW.

    W przypadku Stoxx Polska awansowała z indeksu Emerging Markets 1500, obejmującego spółki z całego świata do Europe 600, grupującego tylko spółki z rynków rozwiniętych Europy. Do grona 600-set najważniejszych spółek w Europie dołączyło osiem z naszego kraju: Bank Pekao, BZ WBK, CD Projekt, KGHM Polska, LPP, PKN Orlen, PZU i PKO Bank Polski.

  • Błędna diagnoza lekarska? Powodem mogą być… luki w zabezpieczeniach IoT

    Błędna diagnoza lekarska? Powodem mogą być… luki w zabezpieczeniach IoT

    Wraz z rozwojem Internetu Rzeczy coraz więcej urządzeń będzie podłączonych na stałe do sieci. I to prawie w każdej branży – od przemysłu, przez logistykę, na służbie zdrowia kończąc. W każdym przypadku urządzenia IoT wymagają jednak odpowiednich zabezpieczeń. Szczególnie, że luki w nich mogą stać się furtką dla hakerów. A stąd już prosta droga do fałszowania np. danych diagnostycznych w szpitalach. Efekt? Nawet śmierć pacjenta.

    Według badań przeprowadzonych przez zespół badawczy McAfee’s Advanced Threat Research, medyczne urządzenia diagnostyczne, wykorzystujące technologię IoT, mogą stanowić potencjalny cel ataku hakerów. Wiele z nich posiada bowiem luki w zabezpieczeniach. Umożliwiać mogą one hakerom zmianę odczytów w czasie rzeczywistym m.in. w trakcie monitoringu stanu zdrowia pacjenta. Nawet 5-sekundowy, zmieniony odczyt może wymusić na lekarzu podjęcie, zalecanej w danym momencie, decyzji klinicznej.

    Jeśli okaże się ona nieprawidłowa, konsekwencje mogą być bardzo groźne dla pacjenta. Przykładowo, zmiana rytmu serca może skutkować zapisaniem leków na nadciśnienie, a to może negatywnie się odbić na zdrowiu. Wyobraźmy sobie też sytuację, gdy urządzenie medyczne IoT wskazuje, że pacjent spokojnie odpoczywa, podczas gdy w rzeczywistości doszło do zatrzymania akcji serca. – tłumaczy dr Shaun Nordeck, ekspert medyczny zespołu McAfee’s Advanced Threat Research.

    Wyniki badań wykazały, że hakerzy nie tylko mogą fałszować wyniki podłączonych do sieci urządzeń medycznych, ale także podłączać do niej własne wirtualne urządzenia, fałszujące dane medyczne.

    Pod presją bezpieczeństwa

    Mimo tych zagrożeń, technologie IoT to ogromna szansa na rewolucję w medycynie. Umożliwiają one monitorowanie stanu zdrowia pacjentów przez 24 godziny na dobę, zindywidualizowanie leczenia, automatyczne dozowanie lekarstw, a także mobilny telemonitoring urządzeń takich jak kardiostymulatory. Zdaniem Deloitte, technologie cyfrowe zrewolucjonizują sektor opieki medycznej już do 2022 roku. Badania McAfee’s Advanced Threat Research pokazują jednak wyraźnie, że wdrażanie innowacji, np. IoT, to także ogromne wyzwanie pod kątem bezpieczeństwa.

    Do tej pory większość ataków na urządzenia IoT odbywało się przy wykorzystaniu podatności routerów sieciowych i polegało na rozprzestrzenianiu złośliwego oprogramowania. Cyberprzestępcy nieustannie jednak szukają nowych metod ataku. Szczególnie, że według raportu Symantec Internet Security Threat Report, tylko w 2017 r. liczba cyberataków na urządzenia IoT wzrosła o 600 proc.

    Innowacje wymagają wsparcia

    Dane firm analitycznych wskazują wyraźnie, że urządzeń IoT w środowiskach firmowych będzie przybywać. Dużym wyzwaniem będzie zapewnienie bezpieczeństwa tego rozwijającego się ekosystemu, bo rozwiązania rzadko pochodzą od tych samych dostawców. To utrudnia nie tylko zarządzanie nimi, ale także analizowanie wszelkich luk, które mogą wykorzystać cyberprzestępcy. Na rozwiniętych rynkach przedsiębiorcy zaczynają ten problem dostrzegać i wdrażać rozwiązania zarządzające systemem IoT. W Polsce jesteśmy na początku tej drogi – tłumaczy Stanisław Bochnak, strateg i doradca w VMware Polska.

    Dobrze ilustruje to przykład holenderskiej firmy Siza.  Placówka oferująca prywatną opiekę zdrowotną i codzienne wsparcie dla osób niepełnosprawnych, wykorzystuje od pewnego czasu rozwiązania IoT do monitoringu stanu zdrowia pacjentów. Zarząd uznał jednak, że bezpieczeństwo przetwarzania danych medycznych jest na tyle istotne, że Siza wdrożyła dodatkowo VMware Pulse IoT Center – system do zarządzania urządzeniami IoT.

    Zwykłe, codzienne rzeczy stają się prawdziwym wyzwaniem, gdy zmagasz się z nieuleczalną chorobą lub niepełnosprawnością. Nowe technologie mogą wielu ludziom przezwyciężyć te ograniczenia. Urządzenia IoT pozwalają nam wspierać osoby niepełnosprawne zarówno w naszych placówkach, jak i w domach pacjentów. Potrzebujemy jednak narzędzi, którym możemy zaufać – tłumaczy powód decyzji Jorrit Ebben, dyrektor działu  strategii i innowacji w firmie Siza.

    Miliardy do zabezpieczenia

    Zdaniem analityków z Gartnera do 2020 r. na całym świecie do sieci podłączonych będzie blisko 20 mliardów urządzeń IoT, a wartość rynku (urządzenia, oprogramowanie i usługi) wyniesie ponad 300 mld dolarów. W Polsce dane te przedstawiają się nieco ubożej. Według IDC, w 2018 r. w naszym kraju największą wartość będzie miał rynek monitorowania pojazdów (344 mln dolarów) oraz branża energetyczna inwestująca w inteligentne sieci smart grid (227 mln dolarów).

  • BCC: opodatkowanie gruntów, na których znajduje się infrastruktura energetyczna, wymaga zmian

    BCC: opodatkowanie gruntów, na których znajduje się infrastruktura energetyczna, wymaga zmian

    Celem zmian proponowanych w projekcie ustawy o zmianie ustawy o podatku rolnym, ustawy o podatkach i opłatach lokalnych oraz ustawy o podatku leśnym jest wprowadzenie jasnych i preferencyjnych dla podatników zasad opodatkowania gruntów, na których posadowione są urządzenia służące do przesyłania lub dystrybucji płynów, pary, gazów lub energii elektrycznej oraz infrastruktura telekomunikacyjna, poprzez wskazanie, że korzystanie z tych gruntów przez przedsiębiorcę (który nie jest ich właścicielem, użytkownikiem wieczystym lub posiadaczem) nie jest traktowane jako zajęcie ich na prowadzenie działalności gospodarczej.

    Business Centre Club stoi na stanowisku, iż w interesie publicznym jest dostosowanie kwestii opodatkowania przedsiębiorstw utrzymujących urządzenia infrastruktury w taki sposób, aby zmniejszyć ciężary publicznoprawne ponoszone przez te przedsiębiorstwa.

    W ostatnim czasie zaczęła kształtować się niekorzystna linia orzecznicza sądów administracyjnych, zgodnie z którą grunty, na których posadowiona została infrastruktura służąca do przesyłania dystrybucji płynów, pary, gazów lub energii elektrycznej oraz infrastruktury telekomunikacyjnej, powinny być opodatkowane podatkiem od nieruchomości w wysokości przewidzianej dla gruntów zajętych na prowadzenie działalności gospodarczej. Potwierdza to także opinia Ministerstwa Finansów do projektu z 21 maja 2018 r. (PS2.8401.2.2018), gdzie wskazano, iż w ostatnich latach linia orzecznicza ujednoliciła się w kierunku uznania gruntów pod napowietrznymi liniami energetycznymi (w tym sklasyfikowanych jako lasy), za zajęte przez zakłady energetyczne na prowadzenie działalności gospodarczej, którą jest przesył energii i opodatkowania ich podatkiem od nieruchomości wg stawki najwyższej, tj. jak dla gruntów związanych z prowadzeniem działalności gospodarczej (np. w wyrokach NSA z 18 lutego 2016 r., sygn. Akt II FSK 1314/14, z 9 czerwca 2016 r., sygn. Akt II FSK 1238/14, z 1 lutego 2017 r. Sygn. akt II FSK 3714/14, z 9 marca 2017 r. Sygn. akt II FSK 1987/15, 12 stycznia 2018 r. Sygn. akt II FSK 3336/15 oraz 14 lutego 2018 r. Sygn. akt II FSK 315.16).

    Z punktu widzenia przedsiębiorcy

    Opierając się na tych orzeczeniach, organy skarbowe przyjmują interpretację, że sam fakt posadowienia infrastruktury jest wystarczającą przesłanką do klasyfikowania gruntów jako zajętych na prowadzenie działalności gospodarczej. Taka interpretacja skutkuje tym, że podatnicy (właściciele nieruchomości), którzy pomimo tego, że nie prowadzą działalności gospodarczej i nie czerpią z niej zysków, zobowiązani są do płacenia wyższego podatku, tylko przez sam fakt istnienia infrastruktury na gruncie, stanowiących ich własność. Podkreślić w tym miejscu należy, iż w wielu przypadkach posadowienie infrastruktury wpływa na obniżenie wartości gruntu ze względu na zmniejszone walory estetyczne oraz ograniczenie sposobu korzystania z nieruchomości przez właściciela. Zatem właściciel gruntu, na którym znajduje się infrastruktura (niestanowiącego de facto jego własności) obciążany jest wyższym podatkiem, przy jednoczesnym spadku wartości jego nieruchomości. Zdaniem Business Centre Club, sytuacja ta jest niepożądana i wymaga zmiany.

    W obecnym stanie prawnym, działania organów podatkowych mają negatywny wpływ także na sytuację ekonomiczną odbiorców końcowych energii elektrycznej i przedsiębiorców energetycznych. Oczywistym jest fakt, iż wyższe koszty prowadzenia działalności, w tym np. wyższe opłaty za korzystanie z gruntów (uwzględniające także wyższe podatki), powodują wzrost cen towarów i usług oferowanych przez przedsiębiorcę. Koszty związane z posadowieniem infrastruktury znajdują bowiem swoje odzwierciedlenie w taryfach lub cennikach przedsiębiorstw świadczących usługi w zakresie dostarczania wody, energii, gazu, paliw czy odprowadzania ścieków oraz usług w zakresie telekomunikacji.

    Projektowane rozwiązania zmierzają do ochrony interesów odbiorców usług sieciowych, a zwłaszcza odbiorców energii, przed wzrostem opłat za świadczone na ich rzecz usługi. Efektem projektowanej ustawy będzie uporządkowanie i ujednolicenie kwestii opodatkowania gruntów, na których posadowiona jest infrastruktura. Organy podatkowe i sądy nie będą miały możliwości interpretowania przepisów podatkowych w innym kierunku, niż określi to projekt ustawy. Zapobiegnie to odmiennej wykładni przepisów. Jasność i przewidywalność prawa jest jednym z podstawowych postulatów przedsiębiorców, zgłaszanych od wielu lat przez Business Centre Club. Projekt ustawy, jakkolwiek w wąskim zakresie, materializuje ten postulat, dlatego zasługuje na poparcie. Jednocześnie Business Centre Club wyraża nadzieję, iż ustawodawca wprowadzi także dalsze zmiany w kierunku uproszczenia i ujednolicenia systemu podatkowego.

  • IoT w biznesie i w domu

    IoT w biznesie i w domu

    Internet of Things (IoT) to termin, który obok sztucznej inteligencji, big data i blockchain jest wymieniany często jako technologia, która zmieni świat. Nie ulega wątpliwości, że Internet Rzeczy dotknie praktycznie wszystkich gałęzi gospodarki. Gartner prognozuje, że do 2020 roku do sieci będzie podłączonych 20,4 mld urządzeń. W IoT drzemie więc olbrzymi potencjał.  Co konkretnie w naszym życiu może zmienić na lepsze Internet Rzeczy? W jaki sposób IoT może usprawnić biznes? Jakie są korzyści i wyzwania stojące przed tą technologią?

    Czym jest Internet of Things?

    Internet Rzeczy ( z ang. Internet of Things) w skrócie IoT to koncepcja bazująca na idei łączności między urządzeniami (M2M – machine to machine) zakładająca możliwość komunikacji, gromadzenia i przetwarzania danych oraz ich wymiany przez te urządzenia za pomocą sieci komputerowej, bez udziału człowieka. Jest to więc przede wszystkim bezprzewodowe połączenie wielu urządzeń komunikujących się ze sobą za pośrednictwem Internetu lub dedykowanej sieci, które tworzą wzajemnie pewien ekosystem.  IoT jest kolejnym  etapem rewolucji informacyjnej. Samochody, urządzenia kuchenne, wyposażenie domu, oświetlenie, telefony komórkowe, monitory serca mogą być połączone za pośrednictwem Internetu Rzeczy. IoT z definicji obejmuje każdy przedmiot, który może zostać podłączony do ogólnoświatowej sieci.

    Michał Kręglewski_Sparkbit
    Michał Kręglewski, Sparkbit

    Internet szerokopasmowy staje się coraz bardziej dostępny, zmniejsza się koszt połączenia, powstaje coraz więcej urządzeń z funkcjami Wi-Fi i wbudowanymi czujnikami, koszty technologii spadają, a użycie smartfonów gwałtownie rośnie. Wszystkie te rzeczy tworzą znakomite pole dla rozwoju dla IoT. Wraz ze wzrostem liczby podłączonych urządzeń konsumenckich i urządzeń przemysłowych, ekosystem IoT będzie ewoluował, by stać się rynkiem wartym miliardy dolarów w ciągu następnej dekady. Zmiana jaką powoli obserwujemy z prostego łączenia urządzeń w stronę konkretnych sektorów z dopasowanymi rozwiązaniami powoduje, że szansa na dochód z wykorzystania potencjału jaki drzemie w IoT wielokrotnie wzrasta. Skuteczni gracze na rynku, dostosowując swoje modele biznesowe zgodnie z tymi rynkowymi trendami, mogą zyskać nie tylko przewagę konkurencyjna, ale też znacząco poprawić funkcjonowanie swojej firmy. Zebrane dzięki IoT dane stanowią bowiem ogromny potencjał dla biznesu. Kluczem do sukcesu jest jednak zrozumienie, że IoT samo w sobie nie jest wystarczająco transformacyjne, dopiero konwergencja z innymi nowymi technologiami, takimi jak AI czy blockchain, pozwoli odpowiednio analizować zebrane dane i wykorzystywać je do podejmowania decyzji przekładających się na realne zyski biznesowe mówi Michał Kręglewski, CEO Sparkbit.

    IoT obejmują rozwiązania, które można podzielić na dwie grupy. Pierwsza to rozwiązania służące użytkownikom końcowym zarówno tym indywidualnym jak i biznesowym. Korzystanie z nich ma m.in. podnieść jakość życia czy zmaksymalizować korzyści i przychody. Drugie to rozwiązania dedykowane firmom, umożliwiające przede wszystkim minimalizowanie kosztów i lepsze wykorzystanie zasobów.

    Smart Home, Smart City, Smart Factory – Jaki to wpływa na Ciebie?

    Dzięki Internetowi Rzeczy rozwinęło się wiele rozwiązań typu  „smart home”, których celem jest oszczędność energii, bardziej ekonomiczne używania naszych zasobów, a także podnoszenie jakości życia. Przykładem mogą być inteligentne termostaty ułatwiające zarządzaniem ogrzewaniem. Taki termostat wyłączy np. dany grzejnik, jeśli wyczuje otwarcie okna w danym pokoju. Dzięki możliwości zdalnego sterowania możemy też ustawić dogodną temperaturę w domu wychodząc np. z pracy. Automatyka budynkowa już dziś tworzy duży potencjał dla firm, które chciałyby zaproponować rozwiązania w tym zakresie. Rozwój IoT spowodował też, że coraz więcej miast interesuje się wykorzystaniem jego potencjału do automatyzacji oraz tworzenia rozwiązań ułatwiających życie mieszkańców. Transport, bezpieczeństwo, zarządzanie systemami usług miejskich, oświetlenie, energia to tylko niektóre aspekty inteligentnego miasta wykorzystujące IoT. Nowy Jork, Dubaj, Tajpej to przykłady miast określanych mianem Smart City.

    Mimo, że idea Smart City czy Smart Home dziś jest dopiero na początku swojej drogi to na pewno jest w niej spory potencjał do rozwoju. Dziś nie trudno sobie wyobrazić, że nasza lodówka będzie wiedziała, że trzeba uzupełnić zapasy i sama zamówi potrzebne produkty w internetowym sklepie. Istnieje wiele przykładów tego, jak może wyglądać niedaleka przyszłość lub jaka może być potencjalna wartość z IoT. Powiedzmy, że mamy umówione spotkanie, nasz samochód może mieć dostęp do naszego kalendarza i już zna najlepszą trasę do pokonania. Jeśli natężenie ruchu jest duże, to bez naszego udziału nasz samochód może również wysłać tekst do drugiej strony informując, że się spóźnimy. Budzik powiadamiający ekspres, żeby zaczął parzyć kawę bo właśnie wstaliśmy. Maszyny, które wiedzą, że wymagają naprawy i same zgłaszają to w odpowiednim czasie kierownikowi zmiany. Sprzęt biurowy, który sam zamawia materiały eksploatacyjne, bo wie, że te właśnie się kończą. Kosze na śmieci, które informują, że są pełne. Lekarze dostający zawsze aktualne informacje na temat zdrowia pacjenta. Autonomiczne samochody komunikujące się ze sobą i centralnym systemem zarządzania ruchem w celu zwiększenia bezpieczeństwa. To potencjalne przykłady zastosowania IoT. Jednak już teraz Internet Rzeczy dowiódł swojej wartości w handlu, finansach, na rynku pracy, w przemyśle, reklamie, marketingu a to dopiero początek tej drogi – dodaje Michał Kręglewski ze Sparkbit.

    Internet of Things stwarza też duży potencjał w Przemyśle 4.0 –  te dwa tematy są praktycznie nierozerwalne. Automatyzacja, przetwarzanie i wymiana danych, wdrażanie nowych technologii pozwalających na zmianę sposobów wytwarzania, współpracujące ze sobą roboty. Przemysł 4.0 to wykorzystywanie potencjału kilku nowych technologii jednocześnie m.in. IoT, AI, big data, chmury obliczeniowej,  rozszerzonej rzeczywistości. Korzyści to m.in. zdecydowane poprawienie przepływu pracy, zmiana systemu zarządzania produkcją pozwalającąca na osiąganie bardzo ekonomicznego i wysokowydajnego systemu, redukcja czasów przestoju oraz czasów i kosztów serwisów, poprawa jakości, zwiększenie produktywności, identyfikacja zagrożeń w czasie rzeczywistym.

    Cyberbezpieczeństwo i inne wyzwania

    Rzeczywistość jest taka, że IoT pozwala na praktycznie nieograniczone połączenia i często w tym momencie jego rozwoju nie jesteśmy w stanie jeszcze określić jakie to będzie miało zastosowanie w przyszłości. To z pewnością otwiera drzwi do wielu możliwości, ale także do wielu wyzwań i potencjalnych zagrożeń. Bezpieczeństwo to największe wyzwanie związane z Internetem Rzeczy.  Biorąc pod uwagę, że miliardy urządzeń są ze sobą połączone, co mogą zrobić ludzie, aby upewnić się, że ich informacje są bezpieczne? Wiele osób zadaje pytanie czy ktoś będzie mógł włamać się do ich tostera czy lodówki i w ten sposób uzyskać dostęp do całej sieci? IoT wymusza więc na firmach jeszcze większą troskę o bezpieczeństwo danych. Cyberataki wymierzone w sieci IoT już teraz się zdarzają. Gartner w swoim raporcie ,,Forecast: IoT Security, Worldwide, 2018”[1] podaje, że blisko 20% organizacji w ciągu ostatnich trzech lat zaobserwowało przynajmniej jeden atak oparty na IoT. Garner prognozuje, że aby chronić się przed tymi zagrożeniami, światowe wydatki na zabezpieczenie Internetu Rzeczy wyniosą w 2018 r. 1,5 mld dol. , co stanowi 28-proc. wzrost w porównaniu do 2017 r. (1,2 mld dol.)[2].

    Kolejnym wyzwaniem jest kwestia prywatności i udostępniania danych. Wiele firm będzie też musiało zmierzyć się z ogromną ilością danych, które wszystkie te urządzenia będą produkować. Firmy muszą znaleźć dobry sposób na przechowywanie, śledzenie, analizę i zrozumienie tych informacji, które zostaną wygenerowane. Tu kluczem jest wykorzystanie różnych innych technologii np. sztucznej inteligencji czy blockchain.

    – IoT gwarantuje wiele korzyści, ale też niesie ze sobą wyzwania, z którymi firma musi się zmierzyć, żeby w pełni korzystać z potencjału tej technologii. Dlatego tak ważne jest jakich podwykonawców wybiera się do wdrożenia tak złożonych technologii. Wybierając dostawców oprogramowania, którzy stawiają w swojej pracy na jakość oferowanych usług można skutecznie te zagrożenia zminimalizować – mówi Michał Kręglewski, CEO Sparkbit.

    [1] https://www.gartner.com/doc/3863770/forecast-iot-security-worldwide-
    [2] https://www.gartner.com/newsroom/id/3869181
  • Trendy i oczekiwania w projektowaniu nowoczesnych zasilaczy UPS

    Trendy i oczekiwania w projektowaniu nowoczesnych zasilaczy UPS

    Wybór odpowiedniego zasilacza UPS dla centrum przetwarzania danych lub środowiska IT jest wielowymiarowym zadaniem, które obejmuje decyzje dotyczące wydajności, integracji z istniejącym środowiskiem, dostępności, elastyczności, bezpieczeństwa cybernetycznego i innych czynników. Jest to decyzja, którą należy podjąć w oparciu o ogólną strategię działalności firmy i inwestycje modernizacyjne.

    W zależności od tego, czy zasilacz UPS jest przeznaczony do pracy w serwerowniach, szafach sieciowych i małych centrach przetwarzania danych, czy też w dużym centrum przetwarzania danych, należy wziąć pod uwagę odpowiedni jego typ – jednofazowy lub trójfazowy. Rozważane są również kwestie dostępności, niezawodności, zajętej przestrzeni, łatwości integracji i wpływu na środowisko, ale te oczekiwania stanowią minimum. Zasilacz UPS musi znacznie wykraczać poza te ramy, aby zapewnić inteligentniejsze zarządzanie energią i wartość biznesową.

    Zapotrzebowanie na centra przetwarzania danych rośnie i podczas gdy muszą one odpowiednio reagować na wzrost pojemności, oczywiste trendy nie polegają na tym, aby firmy otwierały więcej takich centrów, ale na tym, aby zareagować poprzez inwestycje mające na celu uczynienie istniejącej infrastruktury bardziej wydajną. Nowoczesna infrastruktura jest kluczem do prowadzenia skutecznego, wydajnego i efektywnego kosztowo obiektu, a jej realizacja w dużej mierze wiąże się z przejściem na systemy zwirtualizowane i bardziej energooszczędne.

    Modernizacja poprzez wymianę starszych urządzeń, renowację obiektów, stosowanie środowisk wirtualnych i automatyzacji tam, gdzie jest to możliwe, ułatwia konsolidację i redukcję kosztów operacyjnych na rynku nieruchomości, energii i siły roboczej. Nie chodzi tylko o podstawowe systemy informatyczne czy inwestowanie w infrastrukturę obiektów pomocniczych wokół zasilania. Chłodzenie i szafy rack są również ważne, zarówno z powodu wirtualizacji, jak i zmian w gęstości sprzętu, klasy energetycznej i zwiększonych wymagań dotyczących odporności. Przestarzałe techniki zarządzania infrastrukturą i centrami przetwarzania danych prowadzą nie tylko do nieefektywności energetycznej lub braku pojemności obliczeniowej, ale stwarzają również większe ryzyko awarii i przerw w dostawach energii.

    Wirtualizacja jest kluczowa

    Nowoczesne, zwirtualizowane systemy informatyczne umożliwiają centrom przetwarzania danych zwiększenie mocy obliczeniowej, pojemności pamięci masowej i innych zasobów przy znacznie mniejszym obciążeniu, podczas gdy architektury oparte na chmurze zwiększają wykorzystanie zasobów. Inwestycje niezbędne do modernizacji zwracają się zazwyczaj dzięki wydajności, niezawodności i sprawności nowoczesnego systemu, w porównaniu z kosztami i ograniczeniami związanymi ze starszym środowiskiem.

    W przypadku zarządzania energią w środowiskach wirtualnych najważniejszym aspektem jest możliwość integracji zasilacza UPS z istniejącymi platformami wirtualizacji. Jeśli nie udaje się tego zrobić, to zasilacz UPS jest tylko zwykłym pudełkiem z bateriami.

    Wirtualizacja serwera znacznie komplikuje ochronę danych podczas awarii zasilania. Wyzwanie polega na tym, że gdy zwirtualizowane centrum przetwarzania danych jest pozbawione zasilania, technicy muszą wyłączyć nie tylko fizyczne serwery, ale także wirtualne maszyny działające na tych serwerach. Dodatkowo muszą oni wykonać wiele kroków w tym procesie w określonej kolejności, często w obliczu dużej presji czasu. Na przykład muszą wyłączać maszyny wirtualne przed maszynami fizycznymi, a urządzenia podstawowe – takie jak kontrolery domen i współdzielone macierze pamięci – po serwerach, które od nich zależą.

    Wydajność z założenia

    Oprócz rosnących potrzeb w zakresie przepustowości, centra przetwarzania danych są również napędzane przez podwójną presję związaną z rosnącymi kosztami energii i większą świadomością ich wpływu na środowisko. Wyzwaniem stojącym przed profesjonalistami z branży IT i centrów przetwarzania danych jest zmniejszenie zużycia energii bez wpływu na niezawodność serwerów, urządzeń do przechowywania danych lub sieci.

    Oczywiście zasilacz UPS powinien być oceniany zgodnie z jego wartością. To, co wnosi on do firmy, to ciągłość działania, odporność i przywracanie sprawności po awarii – wartości, które zapewnią, że firma będzie mogła kontynuować działalność nawet w przypadku przedłużających się i nieoczekiwanych przerw w dostawach energii. Mimo to, gdy dostępność, jaką zapewnia UPS, jest oczywista – lub przynajmniej powinna taka być – często wartość zasilacza zależy od wydajności i możliwości zmniejszenia całkowitego kosztu posiadania, co różnicuje zasilacze UPS.

    Nowoczesne zasilacze UPS są projektowane z myślą o niskim całkowitym koszcie posiadania i wyposażone w technologie zwiększające wydajność oraz redukujące koszty utrzymania i serwisu. Przyczynia się to do czegoś więcej niż tylko do redukcji kosztów energii, bowiem daje informatykom narzędzia do maksymalizacji czasu pracy sieci, odporności i przedłużenia okresu użytkowania.

    Nieodłączna sprawność nowoczesnego zasilacza UPS oznacza, że centrum przetwarzania danych i infrastruktura ulegają poprawie, aby osiągnąć wskaźnik efektywności wykorzystania energii (PUE) na poziomie, który będzie trudny do przebicia. Z tych samych powodów zasilacze UPS są z założenia ekologiczne. Zwracamy teraz uwagę na to, w jaki sposób można zwiększyć wydajność zasilacza UPS, aby zapewnić większy zwrot z inwestycji i jeszcze bardziej ograniczyć negatywny wpływ centrum przetwarzania danych na środowisko.

    Energia odnawialna może być niejednostajna, ale nowoczesny zasilacz UPS może pomóc operatorom sieci przezwyciężyć pewną niestabilność, gwarantując, że centrum przetwarzania danych przyczyni się do wykorzystania energii odnawialnej i będzie za to wynagradzane. Pierwszym tego przykładem jest wykorzystanie zasilacza UPS jako rezerwy w celu zapewnienia równowagi między popytem a podażą w sieci, gdzie centra przetwarzania danych natychmiast reagują na zapotrzebowanie energetyczne na poziomie sieci, aby utrzymać częstotliwość w dozwolonych granicach, co pomaga operatorom sieci uniknąć przerw w dostawach energii na dużą skalę. Oznacza to, że centra przetwarzania danych wspierają sieć w wykorzystywaniu odnawialnych źródeł energii, a także maksymalizują zyski z inwestycji w zasilacze UPS, otrzymując rekompensatę za brak poboru energii lub za oferowanie mocy z powrotem do sieci.

    Podsumowanie

    Utrzymanie ciągłości działania obciążenia krytycznego jest priorytetem centrum przetwarzania danych podczas przerw w dostawie prądu, ale oczekuje się, że nowoczesny zasilacz UPS zapewni znacznie większą wydajność i funkcjonalność. Oczekiwane minimum to zapewnienie wysokiej dostępności, ekologiczna konstrukcja, łatwa integracja ze wszystkimi środowiskami fizycznymi, odporność na zmiany w przyszłości i optymalizacja w celu wydłużenia okresu użytkowania. Oddzielenie inteligentnego systemu zarządzania energią od nieużytecznej skrzynki z bateriami wykracza dużo dalej.

    Spośród wszystkich trendów w zakresie zasilania centrów przetwarzania danych, wirtualizacja i wydajność mają największy wpływ na wydłużenie czasu pracy i obniżenie całkowitych kosztów posiadania. Firmy powinny postrzegać zaawansowane systemy zarządzania energią jako niezbędny element każdego dobrze zaprojektowanego środowiska wirtualizacji, jednocześnie poszukując funkcji, które zmniejszą koszty eksploatacji i umożliwią zasilaczowi UPS zapewnienie większej wartości dla działalności biznesowej.

  • Wirtualna elektrownia zbilansuje różnice między popytem i podażą energii?

    Wirtualna elektrownia zbilansuje różnice między popytem i podażą energii?

    Poznańska firma Lerta stworzyła automatycznie samobilansującą się wirtualną elektrownię, która umożliwia precyzyjne i elastyczne zarządzanie podażą i popytem na rynku energii. Platforma pozwala m.in. minimalizować koszty związane z bilansowaniem i redukcją zapotrzebowania. W dalszy rozwój technologii, adresowanej przede wszystkim do dużych sprzedawców energii, 2,5 miliona złotych zainwestowały właśnie fundusze PGE Ventures i ValueTech.

    Wirtualna elektrownia umożliwia reagowanie w czasie rzeczywistym na zwiększone zapotrzebowanie na energię poprzez włączenie nowych jednostek wytwarzających, np. farm wiatrowych czy fotowoltaicznych. System może również automatycznie redukować zapotrzebowanie na energię, minimalnie zmieniając parametry oświetlenia czy klimatyzacji w biurowcach i galeriach handlowych.

    Dziś sprzedawcy energii muszą bardzo precyzyjnie przewidywać, ile jej zakupić, aby zaspokoić potrzeby wszystkich odbiorców. Zarówno przeszacowanie, jak i niedoszacowanie ilości zakupionej energii skutkuje stratami finansowymi. Podstawowym celem naszego rozwiązania jest dążenie do tego, aby w każdej chwili zapewnić równowagę pomiędzy mocą wytwarzaną a konsumowaną. To technologia adresowana przede wszystkim do dużych sprzedawców energii. Dzięki niej mogą oni w elastyczny sposób zarządzać popytem i podażą mocy, przez co nie muszą np. dokupywać energii na rynku bilansującym – mówi Borys Tomala, założyciel i prezes firmy Lerta.

    Energetyczne zrównanie popytu z podażą

    Jak twierdzi Borys Tomala jednym z wyzwań polskich elektrowni jest produkowanie dokładnie takiej ilości energii, jaką zużywamy. Jest to o tyle trudne, iż popyt na prąd w skali doby czy roku jest różny. Stąd sytuacje, w których dochodzi do niedoboru lub nadmiaru energii.

    Dzięki automatycznie samobilansującej się wirtualnej elektrowni możemy elastycznie zarządzać rozproszonymi jednostkami wytwarzającymi energię, w tym również tymi małymi, przydomowymi. W momencie, kiedy zapotrzebowanie na energię jest zwiększone, w automatyczny sposób uruchomiamy  nowe źródła wytwarzające, np. załączając tysiąc instalacji fotowoltaicznych w całej Polsce – mówi Tomala. – Z drugiej zaś strony wirtualna elektrownia pozwala na redukowanie zapotrzebowania na energię, ponieważ czasami nie mamy już czego włączać lub włączanie tego jest bardzo drogie. Wtedy korzystniejszym rozwiązaniem jest np. obniżenie popytu. Możemy to osiągnąć m.in. poprzez nieznaczne zmiany parametrów klimatyzacji czy oświetlenia na przykład w stu biurowcach. Dla użytkowników są to zmiany praktycznie niezauważalne, ale dzięki efektowi skali, redukcja pobieranej energii jest znaczna – dodaje.

    Dotychczas w przypadku niedoborów energii Polskie Sieci Elektroenergetyczne uruchamiały zarządzanie stroną popytową, płacąc wybranym wcześniej obiektom za to, żeby zredukowały pobór mocy. To rozwiązanie wiąże się jednak z wysokimi kosztami, a także skutkuje przestojami w zakładach przemysłowych. Technologia opracowana przez Lertę eliminuje te problemy.

    Zamiast zatrzymywać produkcję w jednym obiekcie przemysłowym, chcemy to przeskalować np. na 1000 czy 10 000 gospodarstw domowych lub biurowców. Jeśli poprosimy dziesięć tysięcy ludzi, żeby zrobiło pranie dwie godziny później niż to mają w zwyczaju lub minimalnie zmniejszymy moc klimatyzatorów w tysiącu biurowców, unikniemy sytuacji, w której dystrybutorzy energii będą zmuszeni do jej dodatkowego zakupu – przekonuje Tomala.

    Najwięksi rynkowi gracze zainteresowani nową technologią

    Rozwiązaniem  stworzonym przez Lertę zainteresowały się już największe grupy energetyczne, m.in. Enea i Tauron, które nawiązały komercyjną współpracę ze spółką. Rozwój technologii  dofinansował też  fundusz PGE Ventures, którego celem jest inwestowanie w innowacyjne projekty z zakresu energetyki.

    Równocześnie z PGE Ventures w technologię Lerty zainwestował fundusz ValueTech. Spółka otrzymała łącznie 2,5 miliona złotych na dalszy rozwój.

    Finansowanie z funduszy PGE Ventures i ValueTech to  nie pierwsze środki zewnętrzne pozyskane przez Lertę na rozwój. W 2017 roku spółka zawarła umowę z NCBiR w ramach tak zwanej szybkiej ścieżki i otrzymała prawie 1,1 mln złotych na rozwój platformy do analizy poboru energii elektrycznej i gazu w gospodarstwach domowych.

    W 2016 roku Lerta została doceniona przez ekspertów branżowych i inwestorów z Doliny Krzemowej oraz ogłoszona jedną z 30 najlepszych na świecie młodych firm rozwijających technologie z obszaru energetyki. W 2017 zespół Lerty ukończył prestiżowy program akceleracyjny MIT Enterprise Forum Poland, w ramach którego realizuje pilotaż z Grupą PGNiG.