Tag: Philips

  • Polacy kochają telewizję

    Polacy kochają telewizję

    Polacy kochają telewizję. Jest dla nich źródłem informacji i rozrywki, ale też… czują się dzięki niej mniej samotni. Pandemia tylko nieznacznie zmieniła nasze przyzwyczajenia dotyczące oglądania telewizji. Przy zakupie nowego telewizora kierujemy się przede wszystkim jego ceną, jakością obrazu i dźwięku oraz wielkością ekranu – wynika z badania przeprowadzonego dla TP Vision, właściciela marki Philips TV & Sound przez PanelWizard Direct.

    Po co nam telewizor

    97% polskich gospodarstw domowych ma telewizor, a ponad połowa z nich – dwa lub więcej. Za pośrednictwem telewizora korzystamy z różnego rodzaju rozrywki – przede wszystkim oglądamy tradycyjną telewizję oraz serwisy streamingowe i VoD (78,3% respondentów) oraz czerpiemy wiedzę o świecie (75,9%). Pomimo ciągłego rozwoju Internetu i mediów społecznościowych, dla ponad 40 proc. Polaków telewizja jest wciąż głównym źródłem informacji. Ponad 40 proc. rodziców posiadających dzieci do 13-go roku życia używa telewizora, aby zapewnić rozrywkę lub zająć czas swoim pociechom. Jednocześnie ponad 20 proc. respondentów przyznaje, że dzięki oglądaniu telewizji czuje się mniej samotna. Telewizory są dziś też wykorzystywane jako sprzęty audio – do słuchania muzyki (ponad 8%).

    – Współczesny telewizor to domowe centrum rozrywki. Dzięki połączeniu z Internetem, szerokiej gamie aplikacji i dostępności wielu serwisów streamingowych, daje wiele możliwości. Filmy, seriale, programy informacyjne i rozrywkowe, sport, programy dla dzieci – wszystko to jest dziś łatwo dostępne, a nowoczesne technologie stosowane we współczesnych telewizorach – takie jak system podświetlenia Ambilight, samouczące się systemy czy sztuczna inteligencja wykorzystywana do optymalizacji jakości obrazu w telewizorach marki Philips, gwarantują wyjątkowe doznania. Podczas oglądania filmu, serialu czy wydarzeń sportowych, a także dla użytkowników wykorzystujących telewizor do słuchania muzyki ważna jest też jakość dźwięku. W naszych telewizorach kładziemy na to szczególny nacisk – zarówno w segmencie soundbarów, jak i w głośnikach wbudowanych w telewizor, rozwijanych wspólnie z Bowers & Wilkins, firmą doskonale zananą melomanomkomentuje Marcin Habzda, dyrektor generalny TP Vision w Polsce.

    Telewizja vs. pandemia

    Dla połowy Polaków czas spędzony na oglądaniu telewizji w trakcie lockdownów w porównaniu do czasu sprzed pandemii nie uległ zasadniczym zmianom. Z drugiej strony – 40 proc. respondentów twierdzi, że na oglądaniu telewizji spędziła więcej czasu, a 9 proc. – że mniej.

    W trakcie pandemii najchętniej korzystaliśmy z platform streamingowych (41,3% respondentów), a w dalszej kolejności wykorzystywaliśmy telewizory do grania (17,7%), słuchania muzyki i radia (17,4%) czy oglądania filmów na VoD (17,3%).

    Podczas pandemii jedna trzecia polskich telewidzów kupiła nowy telewizor. Najczęściej wymieniane powody takiej decyzji to awaria starego urządzenia oraz chęć posiadania nowszego i lepszego modelu.

    Czym się kierujemy przy zakupie – kwestie eko coraz istotniejsze

    Cena, rozmiar i wysoka rozdzielczość ekranu, jakość dźwięku oraz możliwości techniczne – to najważniejsze cechy telewizorów, na które zwracają uwagę Polacy, wybierając nowe urządzenie, na te elementy wskazało ponad 90 proc. respondentów. Przed podjęciem decyzji o zakupie nowego telewizora informacji najczęściej szukamy w porównywarkach internetowych (55,2% wskazań), czytając opinie użytkowników (53,4%), pytamy o radę sprzedawców w sklepach i salonach (43,5%), zasięgamy opinii znajomych i rodziny (38,7%). Coraz ważniejsze są też kwestie związane ze środowiskiem naturalnym – chętniej wybieramy telewizory zużywające mniej energii, z wyższą, „zieloną” etykietą energetyczną. Połowa respondentów jest skłonna zapłacić więcej za telewizor, który jest bardziej przyjazny dla środowiska. Dla 70 proc. ważne jest, aby do produkcji telewizora wykorzystane zostały materiały z recyklingu.

    Telewizory z nami zostaną

    Dla ponad 60 proc. respondentów telewizor jest ważnym elementem wyposażenia salonu w mieszkaniu. Co więcej – ponad połowa Polaków uważa telewizor i telewizję za istotną, wręcz niezbędną część ich życia. Ponad trzy czwarte polskich telewidzów spodziewa się, że za pięć lat nadal będzie mieć telewizor w swoim salonie, a prawie połowa – że będzie to odbiornik większy niż obecnie. Ponad jedna trzecia spodziewa się, że za pięć lat telewizor będzie używany wyłącznie do oglądania tradycyjnej telewizji.


    O badaniu

    Badanie zostało przeprowadzone przez PanelWizard Direct, na reprezentatywnej grupie 1027 osób w wieku od 18 do 75 roku życia, w dniach 1-15 marca 2022 roku.

  • Światowy Dzień Telewizji. Polacy ją kochają.  Co najchętniej oglądamy i czym kierujemy się przy zakupie telewizora?

    Światowy Dzień Telewizji. Polacy ją kochają. Co najchętniej oglądamy i czym kierujemy się przy zakupie telewizora?

    W niedzielę, 21 listopada przypada Światowy Dzień Telewizji, ustanowiony 25 lat temu przez Zgromadzenie Ogólne ONZ. Dziś telewizja jest bez wątpienia symbolem kultury masowej, ma znaczący wpływ zarówno na nasze życie, jak i zachodzące w społeczeństwie zmiany. Wyniki badania przeprowadzonego na zlecenie TP Vision, właściciela marki Philips TV & Sound, wykazały, że korzystając z odbiorników wciąż jednak najczęściej sięgamy po tradycyjną telewizję, mimo że nowoczesne telewizory oferują dużo więcej możliwości. Czym kierujemy się kupując telewizor, co, z kim i kiedy najchętniej oglądamy?

    Zacznijmy od zakupu

    Trwałość, stosunek jakości do ceny i wysoka rozdzielczość ekranu to trzy najważniejsze cechy telewizorów, na które zwracają uwagę Polacy, wybierając nowe urządzenie. Dla ponad 92% ankietowanych to trwałość urządzenia jest najważniejsza. Coraz większą uwagę przywiązujemy również do jakości – 91% badanych potwierdza, że ważną cechą telewizora jest korzystny stosunek poniesionego wydatku do jakości urządzenia. Trzecim czynnikiem jest wysoka rozdzielczość ekranu – 88% respondentów oraz dla 87% – jakość dźwięku.

    – Wyraźnie widzimy, że wyniki badań są odzwierciedlone w preferencjach zakupowych klientów. Jakość ma coraz większe znaczenie. Samouczące się systemy, wykorzystanie sztucznej inteligencji do optymalizacji jakości obrazu, dzięki czemu jest on bardziej realistyczny i zbliżony do obrazów widzianych na żywo – to technologie, które już dziś wykorzystujemy w naszych telewizorach, mówi Marcin Habzda, dyrektor generalny TP Vision w Polsce.Z drugiej strony, cena wciąż pozostaje bardzo ważnym kryterium wyboru telewizora – stąd duża popularność naszej serii Philips Performance, oferującej jakość na poziomie urządzeń premium, przy rozsądnej cenie. Widzimy też wyraźnie, że klienci coraz chętniej wybierają modele urządzeń o większych rozmiarach – telewizory o przekątnej przekraczającej 55 cali stanowią dziś 55% naszej sprzedaży. To z kolei wynika ze zmieniającej się funkcji telewizji, co na pewno przyspieszyła też pandemia. Dziś to już nie tylko źródło wiedzy o świecie, ale całe centrum rozrywki domowej – filmy, seriale, sport, dostęp do internetu i platform streamingowych, zaawansowane graficznie gry – do tego wszystkiego potrzebny jest sprzęt o odpowiedniej jakości, dodaje Marcin Habzda

    Rodzinne lub samotne popołudnia i wieczory – czyli co, z kim i kiedy oglądamy

    Przeciętne polskie gospodarstwo domowe posiada średnio 1,8 telewizora. Co najchętniej oglądamy, z kim i ile czasu nam to zajmuje? Okazuje się, że mimo zaawansowanych funkcji współczesnych telewizorów, oferujących m.in. dostęp do internetu czy gier, jesteśmy tradycjonalistami. Wśród Polaków wciąż najpopularniejsza jest tradycyjna telewizja (niemal 50% wskazań). Na kolejnym miejscu plasują się platformy streamingowe – takie jak Netflix, czy inne platformy VoD. Filmy, seriale czy programy dokumentalne ogląda za ich pośrednictwem 15% ankietowanych. Z serwisów video, takich jak YouTube, korzysta na telewizorze 12%. Co ciekawe – blisko 8% respondentów wykorzystuje telewizor do słuchania muzyki – co tradycyjnie było do niedawna wyłącznie domeną sprzętu audio.

    –  Kiedyś pomijana – dziś jakość dźwięku płynącego z telewizora jest coraz ważniejsza. W naszych telewizorach, dzięki współpracy z Bowers & Wilkins, gwarantujemy wysoką jakość dźwięku. Dzięki temu widz ma zapewniony nie tylko efekt wizualny, ale i dźwiękowy na wysokim poziomie – w jednym urządzeniu, dzięki czemu może używać telewizora do słuchania muzyki, mówi Marcin Habzda..

    Większość z nas ogląda TV samotnie (nieco ponad 50% wskazań), a ci, którzy preferują wspólne oglądanie – najchętniej spędzają w ten sposób czas w towarzystwie partnera lub partnerki (84%), a ponad 75% czerpie dużą frajdę ze spędzania czasu przed telewizorem z dziećmi. Na pytanie o to, z kim chętnie oglądają telewizję, więcej niż 73% badanych wskazało ogólnie – rodzinę.

    By umilić sobie czas podczas oglądania filmu czy seriali, niemal 36% ankietowanych przygotowuje przekąski i napoje, a około 30% dostosowuje światło w pomieszczeniu do ekranu. Prawie 18% Polaków podczas oglądania nie korzysta ze swojego telefonu – nie odbiera połączeń i nie sprawdza wiadomości. Zaś blisko 43% respondentów deklaruje, że nie potrzebuje żadnych dodatków, aby cieszyć się seansem.

    Telewizje oglądamy najchętniej na koniec dnia – przed snem (ponad 50% wskazań) oraz po południu – po powrocie z pracy (prawie 25%). Przed telewizorem spędzamy przeciętnie około 3 godziny i 40 minut dziennie. W grupie w wieku 18 – 29 lat zajmuje to średnio 3 godziny, a osoby starsze – w wieku 60 i 75 lat oglądają telewizję średnio przez ponad 4 godziny dziennie.

    Polacy lubią też dyskutować o tym, co obejrzeli. Najczęściej rozmowy toczą sie wokół programów informacyjnych – 48%. Na kolejnym miejscu znalazły się transmitowane w telewizji zawody sportowe – wskazało je ponad 28% respondentów. Natomiast o serialach oglądanych na platformach streamingowych debatuje 24% ankietowanych.

  • Philips wprowadza swoje pierwsze słuchawki gamingowe

    Philips wprowadza swoje pierwsze słuchawki gamingowe

    MMD wprowadza do oferty swoje pierwsze słuchawki gamingowe, prezentując dwa modele: Philips TAGH301BL oraz TAGH401BL. Ich lekka, zamknięta konstrukcja, regulowany pałąk oraz wykonanie z wygodnych materiałów mają służyć poprawie jakości pracy i rozrywki − zwłaszcza podczas spotkań zdalnych i długich sesji gamingowych.

    Philips TAGH301BL

    Philips TAGH301BL to przewodowy zestaw słuchawkowy z 40-to milimetrowym, neodymowym magnesem przetwornika. Producent zaznacza, że dostarcza on dźwięk bez zniekształceń i głębokie basy, a zamknięta konstrukcja słuchawek zapewnia dodatkową izolację. Pozwala to na zachowanie skupienia nawet gdy otoczenie jest pełne rozpraszających dźwięków, jednocześnie nie przeszkadzając innym osobom w pobliżu.

    Model TAGH301BL wyposażono w pałąk o budowie, który daje możliwość dopasowania do kształtu głowy. Oprócz możliwości regulacji wysokości, ważący 211 gramów zestaw, zapewnia wysoki komfort noszenia dzięki miękkim poduszkom wewnętrznym i przyjemnym w dotyku nausznikom ze skóry syntetycznej PU. To rozwiązanie sprawdzi się zarówno podczas dłuższego grania jak i pracy.

    Urządzenie wyposażone jest w czuły mikrofon, kabel o długości 1,8 m ze złączem 3,5 mm oraz łatwo dostępny kontroler, pozwalający na wygodną obsługę słuchawek bez konieczności robienia tego z poziomu komputera.

    Dźwięk 3D

    Drugi z prezentowanych zestawów słuchawkowych − Philips TAGH401BL − został wyposażony w technologię dźwięku Dirac HD/3D, która dzięki dokładnemu pozycjonowaniu przestrzennemu zapewnia wysokiej jakości dźwięk 3D. Funkcja ta jest dostępna dla użytkowników komputerów z systemem Windows, którzy po zainstalowaniu odpowiednich sterowników mogą zarządzać technologią 3D i HD bezpośrednio z poziomu słuchawek.

    słuchawki gamingowe

    W tym modelu − podobnie, jak w TAGH301BL − dla większej wygody użytkowników zastosowano regulowany pałąk, miękkie poduszki wewnętrzne oraz nauszniki z PU. W konstrukcji zaimplementowano system Light FX, który umożliwia wielokierunkowe, kompaktowe składanie słuchawek. Całość waży 250 gramów.

    Kabel o długości 2,5 metra, zakończony złączem USB 2.0, został wyposażony we wbudowany kontroler zdalnego sterowania. Umożliwia on regulację głośności i wyciszanie mikrofonu za pomocą jednego przycisku. Można również dzięki niemu łatwo przełączać tryby dźwięku pomiędzy stereo, 3D i HD.

    – Rozwiązania Dirac dodają nową warstwę doznań dźwiękowych oraz zapewniają wyższy poziom detali, które w tradycyjnych rozwiązaniach mogą być utracone. Dźwięki są rozmieszczone wokół gracza dokładnie tak, jakby rozgrywka działa się w świecie rzeczywistymmówi Lars Isakson, wiceprezes działu słuchawek i streamingu audio w Dirac.

    Dostępność i cena

    Słuchawki Philips TAGH301BL i TAGH401BL będą dostępne w tym miesiącu w sugerowanej cenie detalicznej odpowiednio 172,80 zł i 273,10 zł.

  • Philips PicoPix Max One – nowa odsłona multimedialnej rozrywki

    Philips PicoPix Max One – nowa odsłona multimedialnej rozrywki

    W świecie technologii często bywa tak, że flagowy model z gamy danego producenta doczeka się kontynuacji w formie nowej, nieco innej wersji lub jakiejś kreatywnej modyfikacji czy liftingu. Tak też stało się w przypadku projektora Philips PicoPix Max, który ma teraz  młodszego brata – model Max One. Co oferuje ten zmyślny ‘maluch’?

    Pierwsza różnica względem wersji Max, jaką dostrzegamy w modelu One, to matowa faktura materiału, z jakiego wykonano obudowę projektora. Dzięki temu zabiegowi urządzenie pewniej leży w dłoni w trakcie przenoszenia z pomieszczenia do pomieszczenia. Projektor Max One jest też nieco lżejszy.

    Optymalne parametry

    Użytkownik projektora Philips Max One otrzymuje podobny zakres funkcjonalności co użytkownik modelu Max, a wiec technologię wyświetlania LED DLP, rozdzielczość Full HD, przekątną wyświetlanego obrazu do 120 cali, akumulator pozwalający na około 3-3.5 godziny odtwarzania oraz dwa wbudowane czterowatowe głośniki. W obu modelach korekta ostrości obrazu następuje automatycznie, a jego proporcje to 16:9.

    Jakie są zatem różnice? Wersję Max One pozbawiono bezprzewodowych modułów łączności, takich jak Wi-Fi i Bluetooth. Producent wyszedł z założenia, że model ten dzięki wbudowanemu złączu USB-C i trybowi Mac / Windows Ready, będzie chętnie wybierany przez użytkowników laptopów i smartfonów obsługujących ten standard przewodowej komunikacji. Różnice widać też w cenie, gdyż za wersję One zapłacimy aż o 1800 zł brutto mniej*.

    O tym którą wersję projektora wybrać decyduje użytkownik biorąc pod uwagę swój styl pracy i spędzania wolnego czasu. Oba modele pochodzą z autoryzowanej, oficjalnej dystrybucji firmy KONTEL i są dostępne w ofertach wybranych sieci sprzedaży detalicznej oraz w profesjonalnych salonach stacjonarnych i sklepach internetowych.

    *Sugerowana przez producenta cena modelu Max One to około 2499 zł brutto
  • Dwa projektory multimedialne Philips w ofercie Black Friday

    Dwa projektory multimedialne Philips w ofercie Black Friday

    W ofertach wybranych partnerów handlowych KONTEL pojawiły się dwa ciekawe multimedialne rzutniki marki Philips, które zostały przecenione z okazji trwającego czarnego tygodnia.

    Jednym z nich jest znany już na rynku model PicoPix Max. Urządzenie jest lekkie, kompaktowych wymiarów i w pełni mobilne, dzięki wbudowanemu akumulatorowi, dzięki któremu można oglądać filmy nawet przez 3 godziny. Obraz jakości Full HD wyświetlimy na 120 calach, a o oprawę dźwiękową zadbają wbudowane stereofoniczne głośniki. Projektor obsługuje wszystkie standardy łączności – Bluetooth, WiFi, USB-C, MicroSD, HDMI, Airplay, Miracast – łatwo połączymy się z każdym urządzeniem przewodowo lub bezprzewodowo klonując obraz ze smartfona. Rzutnik pracuje w technologii DLP, a jego żywotność to 30 000 godzin, co przy użytkowaniu średnio przez 4 godziny dzienne wystarczy na 20 lat! Do dyspozycji użytkownika jest też 16 GB wbudowanej pamięci. W zestawie znajdziemy mini statyw umożliwiający przymocowanie projektora oraz pilot zdalnego sterowania.

    philips

    Drugi model – Philips NeoPix Ultra 2, to nowość producenta w globalnej ofercie. Projektor wyświetla obraz na 65 calach w rozdzielczości 1920×1080 pikseli. Na pokładzie urządzenia znajdziemy moduły WiFi i Bluetooth, HDMI, VGA, USB oraz slot na karty MicroSD. Zintegrowane aplikacje, takie jak Netflix, YouTube, Firefox, Express, VPN, VLC pozwolą cieszyć się swobodą obcowania z multimediami. Urządzenie posiada wbudowane głośniki, zaś korekcję obrazu ustawia się ręcznie.

    Promocja z okazji Black Friday na te modele trwa do 30 listopada lub do wyczerpania zapasów. Warto podkreślić, że na kupujących czeka też miła niespodzianka w postaci dostępu do platformy CDA Premium na okres 2 lub 3 miesięcy. Szczegóły na stronie.

  • Sztuczna inteligencja może zrewolucjonizować diagnostykę i leczenie raka

    Sztuczna inteligencja może zrewolucjonizować diagnostykę i leczenie raka

    Każdego roku nowotwór jest diagnozowany u ponad 160 tys. Polaków, z których około 100 tys. umiera. Prognozy wskazują, że w ciągu 10 lat liczba pacjentów onkologicznych wzrośnie o 1/3. Światowa onkologia poczyniła w ostatnich latach ogromne postępy – zarówno w obszarze innowacyjnych terapii, jak i nowych technologii, które wspierają diagnostykę i leczenie. Dzięki temu zwiększył się wskaźnik przeżywalności pacjentów chorych na raka. Postęp miał miejsce także w polskiej onkologii, choć – jak wskazują autorzy raportu „Innowacyjna onkologia. Potrzeby. Możliwości. System” – wciąż pozostało wiele do zrobienia, a największe nadzieje są związane m.in. z wykorzystaniem danych i sztucznej inteligencji. Mają one potencjał, by zrewolucjonizować diagnostykę i leczenie.

    – Zachorowalność na nowotwory złośliwe na świecie stale rośnie. Liczby podawane przez Światową Organizację Zdrowia nie napawają optymizmem. W tej chwili jest około 14 mln zachorowań rocznie, a za 10 lat ta liczba przekroczy 20 mln. Podobnie rośnie też zachorowalność na nowotwory w Polsce. Obecnie to ok. 170 tys. przypadków rocznie, a za dekadę ta liczba zdecydowanie przekroczy 200 tys. To bardzo duża liczba chorych, olbrzymie wyzwanie organizacyjne i systemowe – mówi dr hab. n. med. Adam Maciejczyk, prezes zarządu głównego Polskiego Towarzystwa Onkologicznego.

    Nowotwory złośliwe są w Polsce drugą najczęstszą przyczyną zgonów. Liczba pacjentów ze zdiagnozowanym rakiem stale wzrasta (od 1999 roku o 46 proc., dane NIK), co jest zarówno efektem starzenia się społeczeństwa, jak i czynników związanych z niezdrowym stylem życia. Według danych przytaczanych przez Ministerstwo Zdrowia każdego roku nowotwór jest diagnozowany u ponad 160 tys. Polaków, z których około 100 tys. umiera. Prognozy wskazują, że w ciągu najbliższych pięciu lat liczba pacjentów onkologicznych może wzrosnąć o 15 proc., a w perspektywie 10 lat – już o 28 proc.

    W ciągu ostatnich dekad medycyna onkologiczna poczyniła ogromne postępy – zarówno w obszarze nowych technologii, które wspierają diagnostykę i leczenie, jak i innowacyjnych terapii. Przykładem jest choćby szpiczak mnogi – rzadki, złośliwy nowotwór krwi, w którego leczeniu zarejestrowano w ostatnich latach sześć nowych cząsteczek, dzięki czemu powoli staje się on chorobą przewlekłą.

    – Polska onkologia jest w pewnym sensie innowacyjna. Taka jest realizowana w dużych centrach i instytutach onkologii, jednostkach wyspecjalizowanych w zakresie opieki onkologicznej. Innowacyjna onkologia to nie tylko dostęp do nowoczesnych terapii, ale również dostęp do nowoczesnej, szybkiej diagnostyki, do koordynacji opieki onkologicznej. Taki dostęp jest, ale niestety nierówny. Bardziej zależy on od kodu zamieszkania niż od kodu genetycznego pacjenta – mówi dr hab. Adam Maciejczyk.

    Dzięki innowacjom zwiększył się wskaźnik przeżywalności pacjentów chorych na raka. Postęp miał miejsce także w Polsce, choć – jak wskazała NIK („Dostępność i efekty leczenia nowotworów”) – skuteczność leczenia onkologicznego wciąż pozostaje gorsza niż w większości pozostałych krajów UE.

    – W leczeniu pacjentów onkologicznych Polska wprowadziła w ostatnich latach szereg rozwiązań, a pierwszym z nich był pakiet onkologiczny, w którym zdefiniowano maksymalne czasy oczekiwania na diagnostykę onkologiczną i rozpoczęcie leczenia. Dzięki temu pacjenci mogli być diagnozowani i leczeni szybciej, co istotnie przekłada się na prawdopodobieństwo przeżycia. Kolejnym krokiem było wprowadzenie pilotażu sieci onkologicznej, w ramach którego wybrane placówki na terenie kraju ćwiczyły koordynację pomiędzy szpitalami regionalnymi, powiatowymi a szpitalem koordynującym, by wymieniać doświadczenia i informacje na temat pacjenta – dodaje dr hab. n. ekon. Barbara Więckowska, profesor Szkoły Głównej Handlowej w Warszawie.

    Jak podkreśla, jednym z kamieni milowych było przyjęcie w ubiegłym roku Narodowej Strategii Onkologicznej. To program na lata 2020–2030 wprowadzający kompleksowe zmiany w polskiej onkologii, m.in. zmianę modelu opieki nad pacjentami oraz wielomilionowe inwestycje w sprzęt medyczny, kształcenie lekarzy oraz innowacje i badania kliniczne. Dokument zakłada m.in., że w ciągu 10 lat Polska niemal zrówna się z rozwiniętymi krajami UE w refundacji innowacyjnych terapii. Główne cele NSO to wzrost liczby pięcioletnich przeżyć wśród pacjentów z rakiem, poprawa jakości ich życia i zmniejszenie zapadalności na choroby nowotworowe.

    – Nadal jednak brakuje kilku istotnych rozwiązań, aby system był innowacyjny. Jednym z nich jest dostarczanie pacjentowi informacji w celu umożliwienia mu wyboru najlepszej placówki pod kątem diagnostyki i leczenia. Chociaż zbieramy cały szereg danych i wskaźników, to pacjenci mają do nich utrudniony dostęp albo są one dla nich niezrozumiałe. Stąd bardzo ważne jest, aby wypracować jakiś wskaźnik, który w obiektywny sposób zaświadczy o jakości danej placówki – mówi dr hab. Barbara Więckowska. – Drugim rozwiązaniem jest wzmocnienie systemów IT, które są niezbędne do dobrej diagnostyki onkologicznej i przekazywania informacji pomiędzy placówkami onkologicznymi. 

    Jednym z głównych wyzwań polskiej onkologii wciąż pozostaje też finansowanie. W refundacji nowych terapii Polska musi nadganiać kraje bardziej rozwinięte, a z drugiej strony potrzebne są nakłady na innowacje, projekty grantowe czy inwestycje w sprzęt. W Polsce na leczenie onkologiczne przeznacza się ze środków publicznych ok. 8,88 mld zł (dane za 2018 rok), z czego prawie 5 mld zł na pakiet onkologiczny. Te liczby nie uwzględniają jednak pośrednich kosztów leczenia chorób nowotworowych (np. koszty mniejszego zatrudnienia, utraconych dochodów pracowników i niższe PKB), które sięgają nawet 20–50 mld zł – podkreślają autorzy raportu „Innowacyjna onkologia. Potrzeby. Możliwości. System”, który ukaże się jesienią. Raport kompleksowo pokazuje sytuację polskiej onkologii i omawia największe zmiany, jakie zaszły w niej w ostatnich latach, w tym innowacyjne terapie i nowe technologie.

     Cyfrowe innowacje są przełomem. Pokazują, w jaki sposób otoczyć pacjenta możliwie najlepszą opieką i jak wśród miliardów danych znaleźć te najwłaściwsze i logicznie je powiązać. Temu służą m.in. sztuczna inteligencja i algorytmy zaszyte w cyfrowych systemach  mówi Michał Kępowicz, dyrektor ds. relacji strategicznych w Philips Healthcare.

    W Polsce 77 proc. pracowników służby zdrowia już w tej chwili korzysta z co najmniej jednego cyfrowego rozwiązania – wynika z raportu „Future Health Index 2019” przygotowanego na zlecenie Philips. Podobny odsetek (70 proc.) wśród personelu medycznego ma zaufanie do wykorzystywania sztucznej inteligencji (artificial intelligence – AI) w procesie monitorowania pacjentów. To dobra baza dla wdrażania kolejnych innowacji.

    Wykorzystanie AI stwarza szansę na poprawę diagnostyki i leczenia, usprawnienie pracy lekarzy, skracając czas potrzebny na konsultacje i usprawniając zarządzanie dokumentacją. Może też obniżyć koszty funkcjonowania całego systemu. Potencjał AI w onkologii pokazuje choćby przykład programu Google DeepMind, który partneruje lekarzom z kliniki radioterapii University College London Hospital w doborze optymalnego leczenia pacjentów z ciężką postacią raka szyi.

    – Mamy coraz więcej przykładów, że zaawansowane algorytmy i sztuczna inteligencja mają bardzo konkretne przełożenie na leczenie pacjentów onkologicznych. Ponad 60 proc. medyków mówi, że AI świetnie się przydaje do zarządzania ruchem pacjentów i chorobą nowotworową. Również ok. 60 proc. twierdzi, że ma ona bardzo duże znaczenie w kwestiach klinicznych, do oceny i identyfikacji specyfiki nowotworu, a ok. 50 proc. uznaje ją za pomocną przy planowaniu terapii. AI ma także ogromne znaczenie w medycynie personalizowanej, która precyzyjnie trafia do konkretnego pacjenta – wymienia Michał Kępowicz.

    Motorami napędowymi algorytmów sztucznej inteligencji są dostęp, wymiana i analiza zasobów danych. Jak wynika z danych zebranych na zlecenie Philipsa, w Polsce ponad połowa lekarzy, którzy mają dostęp do historii pacjenta dzięki cyfrowym danym medycznym, wskazuje na ich pozytywny wpływ na jakość opieki nad pacjentem (62 proc.) i wyniki leczenia (56 proc.). Jednak tylko 1 na 10 udostępnia dane dotyczące pacjentów innym lekarzom w formie elektronicznej.

    Z kolei według „DESI Report 2019” wymianę danych medycznych prowadzi tylko 16 proc. lekarzy ogólnych. Z drugiej strony aż 82 proc. społeczeństwa w Polsce chce mieć stały dostęp do swoich wyników i historii medycznej (FHI 2019).

    – Musimy zbierać i analizować te dane. Tylko w ten sposób będziemy w stanie poprawić efektywność leczenia i monitorować to, co robimy. Ważny jest benchmarking, czyli porównanie jednostek, dostępu do świadczeń i monitorowanie koordynacji opieki tak, aby diagnostyka onkologiczna nie trwała za długo. Trzeba to zrobić tak, żeby leczenie było kompleksowe, a pacjent miał dostęp do wszystkich metod i mógł wybrać tę optymalną. Dużą nadzieję w tym zakresie daje nam koncepcja finansowania opieki onkologicznej oparta na wartości, czyli efekcie uzyskanym w zakresie leczenia onkologicznego mówi dr hab. Adam Maciejczyk.

    Ubiegłoroczna analiza Polskiego Instytutu Ekonomicznego pokazuje, że wykorzystanie danych – nie tylko w onkologii, ale ochronie zdrowia ogółem – pozwoli zmniejszyć jej koszty i zracjonalizować wydatki. Analiza danych wskaże także obszary, w których można wprowadzić oszczędności, i będzie pomocna m.in. przy ustalaniu cen świadczeń medycznych i rehabilitacyjnych. Umożliwi również ocenę skuteczności i jakości leczenia.

  • Czy analiza danych zrewolucjonizuje służbę zdrowia?

    Czy analiza danych zrewolucjonizuje służbę zdrowia?

    Dzięki zintegrowaniu i analizie danych z różnych źródeł ochrona zdrowia w 2040 roku w niczym nie będzie już przypominać tej znanej obecnie – prognozuje Deloitte w raporcie „Future of Health”. Już dzisiaj 77 proc. lekarzy w Polsce korzysta przynajmniej z jednego rozwiązania w obszarze cyfrowych technologii medycznych lub aplikacji monitorujących stan zdrowia, a aż 82 proc. ogółu społeczeństwa chce mieć stały dostęp do swoich wyników i historii medycznych – takie wnioski płyną z raportu „Future Health Index” przygotowanego na zlecenie firmy Philips.  Wykorzystanie danych i wdrożenie rozwiązań sztucznej inteligencji umożliwi m.in. ocenę jakości i skuteczności leczenia, racjonalizację wydatków na służbę zdrowia czy prognozowanie z wyprzedzeniem stanu zdrowia pacjenta.

    Rozwój technologii cyfrowych i dużych zbiorów danych jest światowym trendem, który widzimy m.in. w Stanach Zjednoczonych i Europie Zachodniej. Obserwujemy go również na rynku kapitałowym, gdzie mówi się, że dane są nową walutą. Wielkie firmy, jak Google czy IBM, inwestują w obróbkę danych, algorytmy i technologie zajmujące się sztuczną inteligencją. Polska musi się w ten trend włączyć. Dlatego też kompetencje analityczne, które buduje zarówno NFZ, jak i Agencja Badań Medycznych czy Cyfrowe Zdrowie, to priorytet nie tylko rządu, lecz również wszystkich instytucji zajmujących się ochroną zdrowia – podkreśla dr Radosław Sierpiński, p.o. prezesa Agencji Badań Medycznych.

    Dane są nową ropą w gospodarce przyszłości – wskazuje Polski Instytut Ekonomiczny (PIE) we wrześniowym raporcie. Wartość gospodarki opartej na danych jest w Polsce szacowana na 6,2 mld euro (1,2 proc. udziału w PKB), a w 2025 roku może już wynieść między 7,9 a 12 mld euro. Jej liderami w Europie są Estonia i Wielka Brytania. Na wykorzystaniu danych swoją potęgę zbudowało wiele bigtechów, ale i państwa są właścicielem znaczących zasobów informacyjnych, które stanowią bezcenne źródło np. dla badań naukowych. W Polsce znajduje się ponad 700 różnych rejestrów, w których przechowywane są dane administracyjne. Ich integracja i odpowiednie wykorzystanie może wesprzeć rozwój gospodarczy, a wśród sektorów, które skorzystają na tym najbardziej, jest właśnie służba zdrowia.

    Najbliższy konkurs, który ogłosimy w przyszłym tygodniu, z budżetem sięgającym 200 mln zł, będzie dotyczył medycyny cyfrowej i rozwiązań telemedycznych. Te technologie optymalizują koszty w systemie ochrony zdrowia, m.in. podnosząc efektywność pracy lekarza. Z drugiej strony umożliwiają dużej grupie pacjentów dostęp do nowych rozwiązań. Liczymy, że liczba projektów w tym zakresie będzie naprawdę duża – mówi dr Radosław Sierpiński. – Równolegle budujemy w ABM specjalny pion analityczny, który bazując na dużych zbiorach danych, na ścieżkach pacjentów z systemu, ułatwi decydentom, np. na poziomie ministra zdrowia, wydawanie bardziej racjonalnych decyzji.

    PIE wskazuje, że szersze wykorzystanie danych w ochronie zdrowia pozwoli zmniejszyć jej koszty i zracjonalizować wydatki. Wskaże obszary, w których można wprowadzić oszczędności i będzie pomocne m.in. przy ustalaniu cen świadczeń medycznych i rehabilitacyjnych. Pozwoli również na ocenę skuteczności i jakości leczenia – na podstawie danych możliwe będzie np. wskazanie technologii medycznych efektywnych nie tylko klinicznie, ale też społecznie, tj. takich, które umożliwiają pacjentom powrót na rynek pracy, przynosząc potencjalny przyrost PKB.

    Pierwsze rozwiązania bazujące na wykorzystaniu danych powoli pojawiają się już zresztą w sektorze prywatnym.

    Pracujemy z wieloma start-upami, których zadaniem jest dostarczenie nowej jakości, zarówno dla lekarzy, jak i personelu medycznego. Przykładem jest system wspomagający podejmowanie decyzji medycznych, który na podstawie zebranych danych pomoże lekarzowi sprawdzić, czy diagnoza i podjęte przez niego decyzje były prawidłowe. W placówkach PZU Zdrowie mamy również wdrożone narzędzia, które pozwalają pracownikom infolinii czy serwisów internetowych online lepiej diagnozować pacjentów. Rozwiązanie „symptom checker” na podstawie objawów i algorytmów wskazuje prawdopodobne rozpoznanie chorobowe i odpowiednią ścieżkę dla pacjenta – mówi Paweł Żochowski, menedżer rozwoju usług medycznych w PZU Zdrowie.

    Potencjał danych w ochronie zdrowia dostrzegła już też m.in. Wielka Brytania, gdzie przez ostatnie dwa lata wdrażano program Digital Innovation Hub. Zbudowano go na podstawie danych medycznych udostępnionych w ramach UK Health Data Research Alliance. Za kwotę 37,5 mln funtów ma on stymulować nową falę innowacji w ochronie zdrowia, m.in. we wczesnej diagnostyce chorób.

    W Polsce nad wykorzystaniem ich potencjału pracuje Rada ds. Interoperacyjności, działająca w ramach Centrum Systemów Informacyjnych Ochrony Zdrowia. Interoperacyjność w informatyzacji zdrowia oznacza zdolność różnych podmiotów oraz używanych przez nich systemów teleinformatycznych i rejestrów m.in. do współdzielenia informacji. Rada opracowywała rekomendacje dla wdrożenia e-skierowania i elektronicznej dokumentacji medycznej, a teraz koncentruje się na rozwiązaniach z zakresu telemedycyny czy sztucznej inteligencji, które będą wspierały pracowników ochrony zdrowia.

    W obszarze cyfryzacji jest wiele zadań i one nie mogą być traktowane jako rozdzielne, ale uzupełniające się. W tej chwili mówi się o e-recepcie, e-skierowaniu, Internetowym Koncie Pacjenta, finalizowaniu platformy P1, ale e-rozwiązań jest znacznie więcej. Przykładem są systemy predykcji pogorszenia stanu zdrowia pacjenta, dzięki którym jesteśmy w stanie z kilkugodzinnym wyprzedzeniem przewidzieć, co zdarzy się z pacjentem, który leży na oddziale, i odpowiednio zareagować – mówi Michał Kępowicz, dyrektor ds. relacji strategicznych w Philips Healthcare. – Kolejne to np. Big Data, czyli wykorzystanie dużych zbiorów danych, które mogą wnieść znaczącą wartość do  zarządzania ochroną zdrowia na poziomie populacyjnym, jak i indywidualnym, czy w końcu wykorzystanie zaawansowanych systemów elektronicznego rejestru pacjenta, zawierających funkcjonalności, które pozwolą m.in. na redukowanie zdarzeń niepożądanych albo wesprą opiekę koordynowaną nad pacjentem.

    Jak podkreśla, w Polsce proces cyfryzacji służby zdrowia znacznie przyspieszył w ostatnich latach. Według CSIOZ plany dotyczące rozwoju e-zdrowia w 2020 roku obejmują m.in. wdrożenie e-skierowania w całym kraju, wymianę elektronicznej dokumentacji medycznej między podmiotami wykonującymi działalność leczniczą oraz rozwój Internetowego Konta Pacjenta o kolejne funkcjonalności.

    Barierą wciąż pozostaje jednak finansowanie. Jak wskazuje ekspert Philips Healthcare, w ujęciu globalnym nakłady na digitalizację ochrony zdrowia stanowią 25 proc. tego, co przeznacza sektor bankowy czy handlowy na cyfryzację swoich usług. Digitalizacja ochrony zdrowia potrzebuje zatem odpowiedniej motywacji do rozwoju, a jednym z nich są inwestycje oraz zachęty finansowe.

    Biznes ma już odpowiedzi na różnego typu zapotrzebowanie podmiotów, które są zainteresowane budowaniem nowej, cyfrowej rzeczywistości w ochronie zdrowia. Skupiamy się na inicjatywach i rozwiązaniach, które mogą taką realną wartość systemowi przynieść. To m.in. zaawansowany elektroniczny rejestr pacjenta, , współdzielone systemy wspomagające zdalną diagnostykę obrazową, Big Data, czyli duże zbiory danych zintegrowane z zaawansowaną analityką,  – wymienia Michał Kępowicz. – Biznes jest więc przygotowany na szeroki zakres oczekiwań różnych interesariuszy ochrony zdrowia. Ważne jest jednak, aby digitalizować i wdrażać nowe rozwiązania w sposób przemyślany i dobrze rozumiany przez wszystkie strony biorące udział w tym przełomowym dla naszego zdrowia procesie.

  • Nowy standard HDMI to krok w stronę telewizji wysokich rozdzielczości

    Nowy standard HDMI to krok w stronę telewizji wysokich rozdzielczości

    Pojawienie się na rynku konsumenckich wersji telewizorów pracujących w rozdzielczości 8K wymusiło na producentach sprzętu wdrożenie standardu HDMI 2.1. Dzięki niemu telewizory mogą przesyłać treści 8K za pośrednictwem pojedynczego kabla. Możliwość transmitowania materiałów 4K przy częstotliwości 120 Hz przyczyni się z kolei do szybszego rozwoju branży gamingowej. Już w tym roku na rynek trafią konsole nowej generacji.

    Specyfikacja HDMI 2.1 została wprowadzona kilka lat temu, standard ten łączy różne urządzenia w obrębie domu i dostarcza treści w jakości 8K 60 Hz oraz 4K 120 Hz. Dysponujemy także nowym rozwiązaniem audio dla telewizorów, które nazwaliśmy enhanced audio return channel (rozszerzony zwrotny kanał audio), pojawiają się też nowe rozwiązania dla graczy, które są kompatybilne z HDMI 2.1 – mówi Chandlee Harrell z firmy Invecas oraz przedstawiciel HDMI Licensing Administrator.

    Pojawienie się pierwszych konsumenckich modeli telewizorów 8K wymusiło wdrożenie standardu HDMI 2.1. Powszechnie wykorzystywane do niedawna złącza HDMI 2.0 opracowano z myślą o współpracy z materiałem 4K, przez co mają zbyt niską przepustowość, aby pracować z wyższą rozdzielczością. Nowy standard rozwiązał ten problem, zwiększając przepustowość łącza z 18 do 48 Gb/s.

    Wraz z debiutem nowego standardu przedstawiciele HDMI Forum postanowili wdrożyć także nowy proces weryfikacji okablowania. Producenci kabli HDMI Ultra High Speed będą musieli spełnić szereg warunków, aby móc używać certyfikatu HDMI 2.1. Kable pracujące w nowym standardzie muszą być zdolne do przesyłania obrazu 4K przy 120 klatkach oraz 8K przy 60 klatkach na sekundę.

    Jednym z prekursorów telewizorów wysokiej rozdzielczości, a co za tym idzie standardu HDMI 2.1, jest firma Samsung, która w 2019 roku rozpoczęła masową produkcję QLED-ów 8K wyposażonych w układy od Invecas. W ślad za koreańską korporacją poszły konkurencyjne firmy i w 2020 roku na rynku zadebiutują telewizory 8K obsługujące standard HDMI 2.1 od takich producentów jak LG, Philips czy Sony.

    Potencjał nowego standardu przesyłania obrazu dostrzegli również producenci sprzętu gamingowego, którzy liczą na to, że HDMI 2.1 pomoże poprawić płynność gier.

    Standard 4K 120 Hz charakteryzuje się bardzo wysoką jakością obrazu, o bardzo wysokiej szybkości klatek i zmiennej częstotliwości odświeżania, co daje niezwykłą płynność ruchów. W zasadzie to jest platforma dla graczy. W tym roku zadebiutują na rynku konsole nowej generacji, więc w najbliższym czasie pojawi się całkiem sporo urządzeń, które wspierają standard HDMI 2.1 – twierdzi ekspert.

    Jednym z pierwszych monitorów gamingowych wyposażonych w złącze HDMI 2.1 jest Acer Predator z linii CG552K przystosowany do pracy w rozdzielczości 4K i odświeżaniu 120 Hz. Monitor wykorzysta także możliwości nowego standardu w zakresie reprodukcji szerokiej palety barw za pośrednictwem technologii DisplayHDR 400 True Black. Ponadto w ramach kompatybilności z technologią Variable Refresh Rate zredukuje efekt rwania obrazu za pomocą Nvidia G-Sync.

    Nowy standard przesyłu danych wdrażany jest także przez producentów sprzętu audio. Jedną z pierwszych firm, która zastosuje HDMI 2.1 w urządzeniach tego typu, będzie Yamaha. Korporacja planuje zaimplementować złącze nowej generacji w amplitunerach z linii Aventage.

    Ponad miliard urządzeń z łączem HDMI jest sprzedawanych każdego roku. W tym roku na rynek zaczną trafiać produkty wspierające standard HDMI 2.1 i będzie on szeroko wykorzystany w wielu urządzeniach – mówi Chandlee Harrell. – HDMI Forum nie podaje na razie żadnych informacji odnośnie do standardu kolejnej generacji. Możemy sobie jednak wyobrazić, że nadchodzący standard będzie oferował zwiększone szybkości w różnych aspektach, np. w celu dostosowania do treści w jakości 8k 120 Hz, możliwe też są nowe rozwiązania dla gamingu lub innych rynków.

    Według analityków z firmy Verified Market Research wartość globalnego rynku technologii 8K w 2018 roku wyniosła 1,78 mld dol. Przewiduje się, że do 2026 roku wzrośnie do 57,87 mld dol. przy średniorocznym tempie wzrostu na poziomie 54,5 proc.

  • XTPL rozpoczyna współpracę z koncernem OSRAM

    XTPL rozpoczyna współpracę z koncernem OSRAM

    Realizacja podpisanego przez partnerów porozumienia ma na celu potwierdzenie parametrów technologii rozwijanej i komercjalizowanej przez XTPL oraz ocenę możliwości zaimplementowania jej do procesów produkcyjnych OSRAM.

    Niemiecki OSRAM nawiązał z nami kontakt, ponieważ poszukuje on efektywnych rozwiązań technologicznych dla wyzwań związanych z produkcją przyszłych generacji elementów oświetleniowych. Odpowiedzią może być właśnie technologia druku XTPL. Nasi partnerzy zdecydowali się na współpracę w zakresie ewaluacji technologii do tworzenia specyficznych połączeń przewodzących. Potencjalne przemysłowe zastosowanie metody XTPL w branży oświetleniowej to kolejny dowód na jej platformowość, pozwalającą na wykorzystanie w szeregu dynamicznie rosnących branżach wysokich technologii – mówi dr Filip Granek, Prezes Zarządu XTPL S.A.

    OSRAM to globalny gracz branży oświetleniowej. Obok GE Lighting i Philips jest jednym z trzech największych producentów sprzętu oświetleniowego na świecie. Koncern rozwija i produkuje także materiały optoelektroniczne. OSRAM działa w ramach grupy kapitałowej, która w roku obrotowym 2018/2019 (zakończonym 30 września 2019 roku) wypracowała blisko 3,5 mld EUR przychodów. OSRAM (poprzez OSRAM Licht AG) jest notowany na giełdzie we Frankfurcie od 2013 roku, a jego obecna wycena przekracza 4 mld EUR. Grupa ma silnie rozwinięty komponent badawczo-rozwojowy – niemal 18 tys. patentów oraz wniosków patentowych w portfolio. W 2019 roku na działalność R&D OSRAM przeznaczyło ponad 11 proc. rocznych przychodów.

    Rozwiązanie zbliżone do tego, którego poszukuje partner, częściowo rozwinęliśmy w ramach prac nad technologią dedykowaną dla rynku naprawy defektów w wyświetlaczach oraz dla branży inteligentnego szkła. Dzięki temu możemy rozpocząć współpracę z OSRAM na etapie proof of concept, bez poprzedzania go kilkunastomiesięcznym projektem badawczym, związanym z otwarciem nowego pola aplikacyjnego – uzupełnia Filip Granek.

    Branża oświetleniowa od wielu lat zmierza w stronę coraz większego wykorzystania emitujących światło materiałów półprzewodnikowych, które przetwarzają energię elektryczną na światło. Wykorzystuje się je w oświetleniu LED i OLED. XTPL może mieć w tym zakresie znaczącą rolę do odegrania. Szacowana wielkość globalnego rynku oświetlenia LED w 2019 roku to prawie 70 mld$, natomiast w 2023 ma to już być niemal 100 mld$, co oznacza szybki wzrost o 9% (CAGR 2019-2023)*. Jest to zatem bardzo ciekawy i perspektywiczny sektor dla polskiej spółki.

    * Źródło: Frost & Sullivan, czerwiec 2019
  • Prawdziwa chmura to szereg usług dodatkowych – wywiad z Tomaszem Stachlewskim

    Prawdziwa chmura to szereg usług dodatkowych – wywiad z Tomaszem Stachlewskim

    Amazon Web Services to największa na świecie firma świadcząca usługi chmurowe. Jak to się stało? Czym różni się chmura AWS od innych oraz czym jest multicloud i konteneryzacja? Na te pytania odpowiada Tomasz Stachlewski, CEE Solutions Architecture Manager, Amazon Web Services.

    Przemysław Kucharzewski, BrandsIT: Na początek może powiesz mi, skąd w ogóle wziął się AWS, ponieważ pewnie większość ludzi kojarzy Amazona jako potentata e-commerce…

    Tomasz Stachlewski AWSTomasz Stachlewski, CEE Solutions Architecture Manager, Amazon Web Services: AWS, jeśli chodzi o tę część chmurową Amazona, powstał 13 lat temu. Geneza była prosta – Amazon poprzez sklep internetowy amazon.com zbudował swoje know-how, czyli kompetencje i technologię, która była wykorzystywana do tego, żeby rzeczywiście zarządzać, obsługiwać swój sklep internetowy w sposób bezpieczny i skalowalny oraz  globalny. W pewnym momencie firma wyszła z założenia, że technologię, którą sama wypracowała, można zacząć udostępniać innym podmiotom jako usługa „Pay as you go”. Można powiedzieć, że te 13 lat temu pojęcie chmury publicznej praktycznie nie istniało, więc produkt i usługi, które zaproponował AWS były czymś wyjątkowo nowym. Początkowo były to usługi storage’owe do przechowywania danych czy też usługi compute czy „serwery na godziny”.  Z początku wszyscy byli zaskoczeni, że firma, która zajmuje się paczkami i sklepem internetowym, wchodzi w świat typowo data center. Okazało się, że rzeczywiście ten pomysł wypalił. Na początku klientami były głównie start-upy, dla których było to genialne rozwiązanie, ponieważ nie musiały na początku działalności inwestować we własny sprzęt serwerowy. Nowe firmy mogły skorzystać z usług AWS, uruchomić kilka czy nawet kilka tysięcy serwerów na godziny. Istotnym elementem było również małe ryzyko konsekwencji niepowodzenia – jak to w świecie start-upów, nie każdy osiąga sukces. W przypadku niepowodzenia firma taka mogła po prostu zamknąć wszystkie swoje serwery i skupić się być może na nowych pomysłach. Przykładem takiego podejścia jest np. Rovio – firma, która stworzyła kilkadziesiąt różnego rodzaju gier mobilnych – które jednak nie osiągnęły zamierzonego celu, aż wreszcie – któregoś dnia, Rovio stworzyło Angry Birds – grę która opanowała dziesiątki milionów użytkowników komórek na świecie i stała się hitem.  To pokazuje również inny powód, dla którego chmura stała się tak popularnym mechanizmem i sposobem działania start-up – czyli skalowalność: jeśli okazywało się, że pomysł wypalił, to z kilku pojedynczych serwerów można było przejść na 100, 200 czy niemal dowolną ilość, która była potrzebna – i to wszystko w ciągu minut. Dlatego start-upy pokochały chmurę publiczną i AWS. Po pewnym czasie klientami AWS stały się też inne małe, średnie firmy i korporacje, takie jak General Electric, Siemens czy Philips, które zaczęły korzystać z chmury. Czasami były to pełne migracje do chmury, czasami była to tylko pewna część, jakaś aplikacja, procesy np. środowiska SAPowe, disaster recovery. Tak jak wspominałem, na początku, 13 lat temu AWS udostępniał zaledwie kilka rodzajów usług, jak serwery wirtualne i przechowywanie danych, obecnie zaś AWS to platforma z ponad 175 usługami: sztuczna inteligencja, robotyka, IoT, narzędzia do budowania oprogramowania, moc obliczeniowa, konteneryzacja, analityka, bezpieczeństwo i wiele innych. Koncepcję korzystania z chmury można porównać do klocków Lego – gdzie wykorzystujemy i budujemy coś (w tym przypadku aplikacje i systemy) – z tych klocków (czyli usług) – które najlepiej spełniają nasza potrzebę i zbliżają nas do upragnionego celu.

    BrandsIT: Mówisz chmura, data center, ale przecież w naszym kraju można znaleźć lokalnych graczy, którzy oferują podobne usługi. Jaka jest Wasza przewaga nad usługami takich firm?

    Tomasz Stachlewski: Pojęcie chmura jest dość popularne w dzisiejszym świecie, ale chmura chmurze nierówna. Gdybym miał porównać podejście między lokalnymi dostawcami chmury a dostawcami globalnymi, to wymieniłbym trzy. Po pierwsze to globalny zasięg, niezależnie od tego czy jesteśmy start-upem czy korporacją, AWS daje możliwość uruchamiania aplikacji na całym świecie przez każdego z klientów czy użytkowników niezależnie od lokalizacji zapewniając odpowiednią dostępność i wydajność. Mogę podać tu taki przykład jak Netflix, który zawsze chciał być jak najbliżej użytkownika. Netfilix ze start-upu stał się gigantyczną firmą. Chmura publiczna pozwoliła takiej firmie na funkcjonowanie w obrębie całego świata. Jednak podobne historie mamy również w Polsce – wystarczy wspomnieć o CodeWise – start-up który wykorzystał globalną infrastrukturę AWS do zawojowania świata swoimi produktami i usługami.

    Drugą sprawą jest skalowalność. Kupując usługi u lokalnego gracza często kupujemy po prostu serwery i storage – oczywiście możemy zwiększyć skalę, ale zazwyczaj sam proces zwiększania jest wydłużony i często obarczony zobowiązaniem na dłuższy okres czasu. W przypadku globalnego gracza, jakim jest AWS, skalę możemy zwiększyć w ciągu chwili. W Polsce mamy przykład takiego start-upu jakim jest Brainly, portal edukacyjny skupiający osoby potrzebujące pomocy w nauce i wiąże osoby udzielające pomocy. W tej chwili jest to gigantyczna firma, obsługuje 35 krajów na całym świecie. Początkowo operowali w lokalnym data center, 100 serwerów i 2-3 lata temu zmigrowali właśnie do AWS. To, co zaważyło nad migracją to skalowalność, wiadomo, że weekendy, ferie, święta czy wakacje, to dużo mniejsza potrzeba na usługi edukacyjne. W takich okresach firma skalowała się w dół, więc nie płaciła za niepotrzebną moc. Odwrotnie na koniec semestru czy roku szkolnego firma musi się skalować w górę, ponieważ jest dużo większe zainteresowanie usługami. Firma aktualnie używa około 1300 serwerów. Dzięki skalowalności mogli zoptymalizować koszty nawet o 50% w dół.

    Ostatni element, o którym chciałbym wspomnieć to to, że chmura to nie jest tylko data center. To nie jest tylko zewnętrzna serwerownia. Prawdziwa chmura to szereg usług dodatkowych, których w AWS jest już ponad 200. Serwer wirtualny to tylko jedna z nich. Jeśli chcemy budować coś nowego, to w chmurze AWS mamy dostępne usługi np. takie jak analiza zdjęć, analiza tekstu, rozpoznawanie mowy, usługi blockchainowe, robotyka, Internet Rzeczy.

    Przykładowo mogę powiedzieć, że jeszcze cztery lata temu było dostępnych około 60 usług w porfolio AWS. Na podstawie analizy potrzeb i informacji od naszych klientów, każdego kwartału dodajemy nowe usługi dostępne dla wszystkich klientów AWS.

    Chmura taka jak AWS jest takim wehikułem, który pozwala na szybki i tani dostęp do technologii.

    BrandsIT: AWS nie jest jedynym globalnym graczem w zakresie chmury publicznej. Czym więc wyróżnia się AWS względem np. Google Cloud czy Microsoft Azure?

    Tomasz Stachlewski: Na świecie jest kilku znaczących graczy chmurowych. Widać też, że z roku na rok rynek chmury coraz bardziej się koncentruje. Rynek chmury publicznej jest gigantyczny. AWS nigdy nie zakładał, że będzie na nim jedyny, ale był pierwszy i jest największy. Raporty firm trzecich zakładają, że AWS jest kilkukrotnie większy od wszystkich pozostałych globalnych graczy, jeśli chodzi o infrastrukturę. AWS wyróżnia się przede wszystkim liczba klientów korzystającą z usług – są ich miliony, co oznacza, że klienci są zadowoleni z usług przez nas oferowanych. To są miliony firm, zaczynając od 1-2 osobowych, skończywszy na największych korporacjach na świecie. Drugą różnicą jest portfolio oferowanych usług. Tak jak wspominałem, wcześniej jedną z nich jest serwer wirtualny – ale AWS ma około 200 różnych typów serwerów wirtualnych – dużo więcej niż inni gracze. Dochodzi do tego elastyczność przy wyborze narzędzi, chociażby sztuczna inteligencja, gdzie mamy kilkanaście różnych usług. Wspieramy 15 typów różnych baz danych, od relacyjnych po nierelacyjne. Konkurencja ma dwa razy mniej. Pracuję w AWS już pięć lat i to co mogę powiedzieć, to że AWS stawia na długoterminową współpracę.  Zależy nam na tym, żeby nasi klienci byli zadowoleni nie tylko teraz, ale za rok i za dwa.

    BrandsIT: A dlaczego partnerzy współpracują z AWS?

    Tomasz Stachlewski: Musimy na początek rozgraniczyć partnerów na dwa rodzaje. Z jednej strony mamy partnerów, którzy są typowymi integratorami czy też firmami deweloperskimi – dla nich chmura publiczna jest wehikułem nowych technologii, dzięki któremu jest to nowe portfolio usług i możliwości, które mogą zaprezentować swoim klientom. Mogą powiedzieć, że zbudują nie tylko sklep internetowy, ale sklep ze wsparciem sztucznej inteligencji, czytającej tekst, rozpoznającej zdjęcia, będzie analizował transakcje w sklepie, korelacje produktów. Jest to dla partnerów budowanie przewagi konkurencyjnej. Nasi partnerzy współpracują z AWS z powodu szybkości budowania aplikacji na bazie usług AWS. Przykładowo, klient chce budować środowisko SAPowe. Zamówienie i realizacja dostawy odpowiedniego sprzętu oznacza kilka tygodni czy nawet trzy miesiące czekania. W przypadku AWS można było zrealizować uruchomienie środowiska w ciągu kilku minut. Dodatkowo, okazało się, że zamówiony sprzęt byłby przeskalowany, więc zbyt duży względem potrzeb.

    Drugim rodzajem partnerów są firmy budujące aplikacje i chcące je sprzedawać globalnie. W AWS mamy tzw. AWS Marketplace, czyli miejsce, gdzie oferowane jest oprogramowanie firm trzecich, które może być nabywane przez innych klientów AWS – aktualnie jest to 7000 rozwiązań pochodzących od 1500 niezależnych producentów oprogramowania. Dzięki temu, ISV otrzymują łatwość dotarcia do milionów klientów na całym świecie bez konieczności podpisywania osobnych umów z każdym z klientów, ponieważ dany klient ma po prostu umowę z AWS, zaś rozliczenie między ISV a użytkownikiem aplikacji odbywa się za pośrednictwem AWS.

    BrandsIT: Jak jeszcze AWS wspiera start-upy?

    Tomasz Stachlewski: AWS oferuje kilka elementów wsparcia młodych firm. Po pierwsze, program AWS Educate, czyli wsparcie finansowe polegające na finansowaniu usług AWS. Wsparcie uzależnione jest od potencjału projektu i oznacza możliwość sfinansowania na poziomie do 100.000$. Żeby uzmysłowić jaki to jest poziom wsparcia, to w ubiegłym roku był to poziom 500M$ w skali globalnej, gdzie wsparliśmy dziesiątki tysięcy firm. Oprócz tego, startupy mają dostęp do wsparcia 24/7, gdzie firmy mają dostęp do szybkiej pomocy w przypadku jakichś trudności czy problemów, których nie potrafią samodzielnie rozwiązać. Dodatkowo, jest to dostęp do naszych oficjalnych szkoleń i obecność na naszych blogach czy uczestnictwo w wydarzeniach, które organizuje AWS, zarówno jako prelegentów jak i uczestników. Mamy dedykowane osoby, Business Development Managerów, które lokalnie wspierają młode firmy we współpracy z AWS. W Polsce z bardzo udanych pomysłów to oprócz Brainly był to CodeWise, Applica.ai

    BrandsIT: Ostatnimi czasy dużo mówi się o takich pojęciach jak multicloud i konteneryzacja. Czy mógłbyś przybliżyć naszym Czytelnikom, o co w tym chodzi?

    Tomasz Stachlewski: Pojęcie multicloud wiąże się z tym, że część firm chce budować swoje aplikacje w oparciu o wiele różnych środowisk chmurowych. Z naszych obserwacji wynika, że wiele firm o tym mówi, jednak niewiele się na takie rozwiązanie ostatecznie decyduje, ponieważ nie jest to proste. Przede wszystkim dlatego, że każda chmura jest inna – chociażby w AWS jest dwieście różnych usług, mamy różne bazy danych, czy usługi sztucznej inteligencji. Jak popatrzymy na poszczególnych dostawców usług chmurowych, to każdy z nich ma odmienne portfolio usług realizowanych zazwyczaj w różny sposób. Jeśli ktoś chce budować aplikacje w modelu multicloud, to trzeba znaleźć taki wspólny mianownik u wszystkich dostawców chmury, gdzie wybrane usługi będą funkcjonować. Zazwyczaj okazuje się, że tym wspólnym mianownikiem jest jedynie serwer wirtualny. Czyli twórca aplikacji nie może w takim przypadku korzystać z usług dodatkowych oferowanych przez AWS, uzyskując innowacyjność.

    Idea kontenerów to technologia, która może wspomóc budowanie środowisk multicloud, ale to nie tylko to. Idea kontenerów dockerowych to możliwość szybszego budowania aplikacji, ponieważ możemy w łatwy sposób przenosić aplikację z własnego laptopa do chmury, albo między jedną chmurą a drugą czy też między własną serwerownią a chmurą. Kontenery mają jeszcze więcej zalet: łatwość budowania aplikacji. Wiele nowych firm budujących aplikacje idzie albo drogą konteneryzacji albo drogą do serverless, która jest taką nirwaną, gdzie skupiamy się jedynie na tej biznesowej części, a zapominamy o serwerach czy kontenerach. Kontenery sa bardzo istotnym elementem w portfolio AWS, dlatego też udostępnia wiele usług, które są dedykowane dla takiego sposobu budowy aplikacji, warto tutaj wspomnieć o tzw. EKS Fargate – czyli możliwości uruchamiania klastrów Kuberneterosywch w modelu serverless – czyli bez potrzeby zarzadzania serwerami.

    BrandsIT: Niedawno wróciłeś z Las Vegas z dorocznej konferencji Re:Ivent, na której AWS ogłosił kilka interesujących nowości.

    Tomasz Stachlewski: Tak, dokładnie. W tym roku w konferencji wzięło udział 65.000 uczestników, trwała 4 dni, odbyło się 3000 sesji. Warto dodać, że połowa z tych sesji prowadzona jest przez specjalistów z AWS, a połowa prowadzona przez klientów AWS, która przychodzi i chce się pochwalić czy to nowym rozwiązaniem zbudowanym na bazie AWS, czy wykorzystaniem technologii oferowanych przez AWS. W części jest to wydarzenie czysto edukacyjne i networkingowe. W tym roku ogłoszono kilkadziesiąt nowości związanych głównie z zagadnieniem sztucznej inteligencji. Z nowych usług, które zaprezentowano to wykrywacz oszustw w sklepach internetowych (tzw. Amazon Fraud Detector), silnik sztucznej inteligencji potrafiący robić predykcję danych na podstawie informacji, którymi ten silnik został zasilony, czy też nowe środowiska programistyczne dla projektów sztucznej inteligencji.

    AWS posiada na świecie w tej chwili 22 regiony. Ale zaczyna wychodzić ze swoich serwerowni w różny sposób. Pierwszym z nich jest możliwość zamówienia sprzętu AWS, który będzie można montować we własnych serwerowniach – czyli tzw. AWS Outposts. Pozwoli to na budowanie systemów hybrydowych. Impulsem do tego stała się również technologia 5G i pierwszymi firmami korzystającymi z takiej możliwości są teleoperatorzy jak Vodafone czy Horizon – w serwerowniach których AWS będzie lokował swój sprzęt za sprawą usługi AWS Wavelength. Takie podejście zostało wymuszone przez konieczność zapewnienia bardzo małych opóźnień między brzegiem sieci a infrastrukturą klienta.

    Jako ciekawostkę podam, że AWS każdego roku wypuszcza jakąś zabawkę – gadżet edukacyjny. Dwa lata temu była to kamera z AI – AWS DeepLens, rok temu samochód AWS DeepRacer, który uczył się samemu jeździć, w tym roku natomiast była to klawiatura muzyczna AWS DeepComposer, które na podstawie zagranej melodii na klawiaturze potrafi odpowiednio zagrać całe tło innych instrumentów.

  • Mobilne projektory Philips w dystrybucji KONTEL

    Mobilne projektory Philips w dystrybucji KONTEL

    Firma KONTEL, wiodący rodzimy dystrybutor rozwiązań audio-wideo dla biznesu i zastosowań domowych, została autoryzowanym importerem i dystrybutorem projektorów Philips w Polsce i na rynkach CEE, na mocy umowy z firmą Screeneo Innovation SA, posiadającą licencję na produkcję i sprzedaż asortymentu Philips Projection.

    Marka Philips jest już znana na polskim rynku z przenośnymi projektorami, a teraz w sezonie świątecznym roku 2019 wraca z nowym dystrybutorem KONTEL i z nowymi, innowacyjnymi modelami dla domu, biura i mobilnego menedżera.

    W ostatnich latach obserwujemy trend, jakim jest dynamicznie rosnąca mobilna konsumpcja treści wideo, związana ściśle z poprawą jakości i przepustowości sieci komórkowych oraz modelem użytkowania smartfonów i tabletów. Urządzenia te wg badań rynku nie służą nam już do dzwonienia, ale oglądania i przesyłania multimediów – zdjęć, filmów. Funkcje te znalazły się w pierwszej trójce zastosowań – zauważa Andrzej Wiśniewski, Dyrektor ds. Rozwoju w KONTEL. – Łatwe dzielenie się multimediami w każdej przestrzeni z urządzeń przenośnych, które umożliwia Philips Projection, to naturalna konsekwencja tego trendu.

    W portfolio dystrybutora KONTEL znajdziemy nową gamę ekonomicznych projektorów LED NeoPix, których ceny rozpoczynają się od około 330 zł brutto, znaną już i docenianą przez mobilnych menedżerów serię PicoPix oraz linię Screeneo, której produkty zamienią nasz salon w profesjonalną salę kinową.

    Najmniejsze projektory to urządzenia mieszczące się w dłoni. Możemy je zabrać na spotkanie biznesowe zamiast ciężkiego laptopa i w atrakcyjny sposób wyświetlić kontrahentowi np. prezentację. Model PicoPix Nano to najmniejszy projektor na rynku, mniejszy niż przenośny głośnik Bluetooth, oferujący połączenie WiFi, a także odczyt treści bezpośrednio z karty microSD.

    Z kolei Screeneo S6 to prawdziwy multimedialny kombajn oferujący rozdzielczość 4k i jasność na poziomie 2 000 lumenów. Urządzenie, będące następcą chwalonego w Polsce modelu Screeneo S2, posiada wbudowany media player, moduł Bluetooth i WiFi. Obsługuje transmisję w standardzie Miracast oraz AirPlay, pozwalając wyświetlać obrazy o przekątnej aż 120”, czyli większej niż dostępne na rynku telewizory, zaś wbudowane głośniki stereo potrafią wydobyć niemal kinowy, przestrzenny dźwięk. Screeneo S4 to jego młodszy brat, oferujący rozdzielczość FullHD.

    Projektory zależnie od serii pracują w oparciu o system Android lub Linux. Są też kompatybilne z Android TV. Obsługę wielu urządzeń zapewnia aplikacja na smartfona, wbudowany touchpad lub pilot zdalnego sterowania.

    KONTEL odpowiada za budowanie kanału sprzedaży w Polsce.

  • Postęp technologii wymusza miniaturyzację baterii

    Postęp technologii wymusza miniaturyzację baterii

    Postępująca miniaturyzacja wymusza na producentach baterii opracowywanie coraz to mniejszych ogniw. Coraz popularniejsze na rynku stają się baterie pastylkowe, charakteryzujące się znacznie mniejszymi rozmiarami niż popularne paluszki. Znajdują zastosowanie przede wszystkim w urządzeniach inteligentnego domu czy internetu rzeczy, ale mogą także zrewolucjonizować medycynę. Miniaturowe ogniwa można zastosować m.in. w implantach czy diagnostycznych soczewkach kontaktowych, a także w inteligentnych domowych systemach bezpieczeństwa.

    Baterie pastylkowe są ważne dla rynku smart home, nie tylko dlatego, że ich rozmiar jest mniejszy, lecz także dlatego, że są litowe. Stawiamy na inny skład chemiczny. Jeśli baterię pastylkową zastosujemy w dzwonku do drzwi, wytrzyma ona w temperaturach od -20 do +50 stopni. Warunki pogodowe mają mniejszy wpływ na ten rodzaj baterii niż na baterie tradycyjne – mówi Jan Vis z GP Batteries.

    Baterie pastylkowe znajdują zastosowanie już m.in. w najnowszych, inteligentnych domowych systemach bezpieczeństwa. Przykładem może być zestaw Kami Home, na który składa się stacja bazowa, czujniki montowane na drzwiach, czujniki ruchu i bezprzewodowe kamery. Wszystkie urządzenia mogą być zasilane z sieci lub dzięki małym bateriom. Sprawia to, że system jest niezależny od zdarzeń takich jak odcięcie zasilania przy próbie włamania.

    Zasilany tego typu bateriami jest też inteligentny przycisk do oświetlenia Philips Hue. Urządzenie montowane jest w miejscu, w którym użytkownikowi najwygodniej będzie go obsługiwać. Mogą to być np. drzwi lodówki, a urządzenie na jednej baterii może przepracować nawet trzy lata.

    Dotychczas sprzedawaliśmy duże baterie, były to baterie AA oraz AAA, ale teraz urządzenia stają się coraz mniejsze, przez co większe baterie już do nich nie pasują. Można to obserwować zwłaszcza w przypadku rynku smart home, który prężnie się rozwija. Baterie pastylkowe możemy zastosować także w kluczykach samochodowych oraz zegarkach. Ale również w pilotach do urządzeń, które również stają się coraz mniejsze. Jest to zaledwie kilka przykładów – wymienia ekspert.

    Rozwój rynku baterii pastylkowych postępuje coraz szybciej przede wszystkim z uwagi na miniaturyzację urządzeń elektronicznych. Trend ten sprawia, że poszukiwane są alternatywy również dla tych najmniejszych baterii. Przykładem mogą być tak zwane baterie papierowe. Są to giętkie ogniwa cechujące się napięciem 1,5 V i pojemnością od 0,5 do 40 mAh oraz grubością od 0,6 do 1,3 mm. Cechy te pozwalają na ich zastosowanie np. kartach RFID czy plastrach do fizykoterapii.

    Miniaturyzacja jest szczególnie pożądana w przypadku urządzeń medycznych. To zarazem jedno z najtrudniejszych środowisk dla akumulatorów.

    Ilika plc ogłosiła w tym roku wprowadzenie na rynek baterii Stereax M50 mm, które przeznaczone są do implantów medycznych. Bateria zapewnia o 50 proc. większą gęstość energii, niż ma to miejsce w przypadku innych baterii. Do tego produkt jest o 70 proc. mniejszy niż konkurencyjne. Z uwagi na grubość wynoszącą 0,6 mm i biokompatybilność jest to idealne rozwiązanie do zastosowania w implantach. Żywotność ogniwa jest szacowana na 10 lat, a jego funkcjonalność zwiększa się z uwagi na możliwość pozyskiwania energii z czynności organizmu takich, jak bicie serca czy oddychanie.

    Mikrobaterie mogą też posłużyć do zasilania soczewek kontaktowych. Naukowcy z francuskiego uniwersytetu IMT Atlantique, we współpracy z LCS, producentem soczewek kontaktowych, opracowali sposób na zintegrowanie elastycznej baterii z soczewką. Mikrobateria jest w stanie zapewnić wystarczającą moc, aby zasilić diodę LED przez kilka godzin. To pozwala natomiast na zastosowanie soczewki do pomiaru ciśnienia wewnątrzgałkowego lub analizy łez pod kątem poziomu glukozy.

    Zapotrzebowanie na tego rodzaju baterie staje się coraz większe. Ich udział w rynku wzrósł z 5 proc. do nawet 10–15 proc. Widzimy, że popyt na baterie pastylkowe rośnie – przekonuje Jan Vis.

    Według analityków z MarketsandMarkets światowy rynek mikrobaterii wzrośnie ze 128 mln dol. w 2019 roku do 631 mln dol. w 2025 roku.

  • Oświetlenie w biznesie – trendy, które zyskają na sile w 2019

    Oświetlenie w biznesie – trendy, które zyskają na sile w 2019

    Oświetlenie biurowe nie służy już wyłącznie poprawie widoczności i coraz więcej pracodawców to dostrzega. Na czym powinni zatem się skupić, rozważając jego modernizację? Oto 4 trendy, które w ostatnich latach zyskują na sile. Warto się z każdym z nich zapoznać, aby mieć pewność, że nowe oświetlenie biura faktycznie będzie odpowiadać oczekiwaniom pracowników.

    Human Centric Lighting

    Terminem tym określa się światło skupione na człowieku i jego potrzebach. Te natomiast obecnie realizowane są jedynie w niewielkim procencie. Aż 40% pracowników, którzy wzięli udział w badaniu przeprowadzonym przez brytyjską firmę Staples, skarżyło się na nieodpowiednie światło w biurze. Raport „The Empoyee Experience” pokazał natomiast, że pracownicy oczekują od pracodawcy nie chillout roomów i imprez integracyjnych, ale przede wszystkim wystarczającego dostępu do światła.

    Recepta na rozwiązanie tego problemu wydaje się być prosta: biura powinny być przestronne i jasne. W tym celu warto dokładnie przemyśleć ustawienie mebli i akcesoriów biurowych. Nie powinny one przysłaniać światła, wpadającego przez okna. Optymalnym rozwiązaniem jest natomiast siedziba z dużymi, panoramicznymi oknami.

    Oprócz dostępu do światła dziennego pracownikom trzeba zapewnić też wysokiej jakości światło sztuczne. Najlepiej, aby było ono maksymalnie zbliżone do tego słonecznego. Z jego symulowaniem całkiem dobrze radzi sobie technologia LED. Tego typu oświetlenie ma parametry maksymalnie zbliżone do tego naturalnego (wysoki wskaźnik oddania barw, ciągłe widmo). Można je też łatwo dostosować do naszego rytmu okołodobowego. Wszystko, dzięki temu, że mamy pełną kontrolę nad jego natężeniem i temperaturą barwową. Ta sama oprawa może więc rano emitować pobudzające, chłodne, a po południu ciepłe, relaksujące białe światło.

    Niezwykle ważnym aspektem koncepcji Human Centric Lighting jest też możliwość indywidualnego sterowania oświetleniem. Nasze potrzeby odnośnie tego, jak silne powinno być światło w naszym najbliższym otoczeniu, nie są bowiem jednolite. Najlepiej widać to na przykładzie osób starszych – do efektywnej pracy potrzebują one kilkukrotnie silniejszego oświetlenia. Z tego powodu na popularności zyskują systemy opisane w kolejnym punkcie.

    Systemy zarządzania oświetleniem

    Oświetlenie LED oprócz tego, że jest energooszczędne i zbliżone parametrami do światła dziennego, ma jeszcze jedną zaletę – można nim sterować zdalnie np. przy pomocy urządzeń mobilnych. Oczywiście nie jest do tego zdolna każda lampa LED. Wcześniej trzeba połączyć ją z Internetem – to z kolei jest niemożliwe bez określonych komponentów elektronicznych. Na rynku nie brakuje jednak tego rodzaju inteligentnych źródeł światła – wystarczy wspomnieć Philips Hue. Żarówki LED, będące komponentami systemu, wyglądem niczym nie różnią się od tych tradycyjnych. Aby móc nimi sterować przy pomocy smartfona, wystarczy je zsynchronizować z mostkiem sieciowym, który znajduje się w każdym zestawie startowym.

    Na podobnej zasadzie działa system Philips Interact Pro. Jego komponenty to jednak nie zwykłe żarówki, a oprawy przeznaczone do oświetlania biur i innych pomieszczeń. Instalacja sprowadza się zatem do wymiany dotychczasowych źródeł światła na inteligentne komponenty systemu Interact i podłączenia do routera mostka sieciowego. Potem zostaje już tylko synchronizacja wszystkich źródeł światła w aplikacji i każdy pracownik, któremu damy do niej dostęp, będzie mógł oświetlić swoje stanowisko pracy, tak jak mu pasuje.

    Co firma zyskuje, dzięki wymianie tradycyjnego oświetlenia na LED-owe i do tego inteligentne? Przede wszystkim światło w biurze lepiej odpowiada indywidualnym potrzebom pracowników. Jeśli muszą skoncentrować się na jakimś zadaniu, mogą oświetlić swoje biurko silniejszym, pobudzającym światłem. Spotkaniom może zaś towarzyszyć ciepłe oświetlenie, wprowadzające do wnętrza przyjemną, domową atmosferę. Tym sposobem wzrasta też efektywność zespołu. Widać to zwłaszcza w sezonie jesienno-zimowym, kiedy do wnętrz większości biur w Polsce nie dociera wystarczająco dużo światła. Inteligentne LED-y skutecznie suplementują jego braki. Nie bez znaczenia są też oszczędności energii. Temu zagadnieniu przyglądamy się jednak bliżej w  kolejnym akapicie.

    Energooszczędność

    Koszty energii stale rosną, firmy siłą rzeczy muszą więc zainteresować się technologiami, które umożliwią im oszczędniejsze gospodarowanie swoimi zasobami. W przypadku oświetlenia jest to technologia LED. Oprawy LED-owe pochłaniają kilkukrotnie mniej energii niż żarówki wolframowe i będące dla nich alternatywą świetlówki. Wyższa jest też ich trwałość. Oprawa LED może świecić nieprzerwanie nawet przez kilkanaście lat.

    Gdy LED-y zsynchronizuje się z inteligentnym systemem oświetleniowym, oszczędności stają się jeszcze wyższe. Jest to efekt tego, że oświetlenie jest wykorzystywane tylko tam, gdzie jest potrzebne: nie jest włączone niepotrzebnie w łazience ani pokoju, gdzie aktualnie nikt nie przebywa – nad wszystkim czuwają specjalne harmonogramy lub czujniki ruchu. Taki system jest w stanie zmniejszyć zużycie energii pochłanianej przez oświetlenie nawet o 70%. Nikogo nie powinno więc, chyba dziwić, że coraz więcej firm interesuje się tą technologią.

    Li-Fi

    Wszystkim tym, którzy jeszcze nie słyszeli o tym wynalazku, należy się kilka słów wyjaśnienia. Li-Fi to technologia przesyłu danych, która podobnie jak Wi-Fi wykorzystuje fale elektromagnetyczne. Nie są to jednak fale radiowe, lecz świetlne.  Ich częstotliwość jest znacznie wyższa, w związku z tym transfer danych bardzo szybki i przy okazji bezpieczniejszy. Fale świetlne, a tym samym przesyłane przez nie informacje nie przechodzą bowiem przez ściany. Aby mieć dostęp do Li-Fi trzeba przebywać w zasięgu określonych źródeł światła.

    Biura to jeden z głównych obszarów zastosowań tej technologii, głównie ze względu na to, że przez większość dnia i tak są doświetlone światłem sztucznym. Można je więc dodatkowo wykorzystać do przesyłu danych. Pierwszą firmą, która zdecydowała się na wdrożenie Li-Fi był francuski oddział Icade. Emmanuelle Baboulin, Szefowa Działu Inwestycji w Nieruchomości Komercyjne wiązała z tą inwestycją duże nadzieje:

    „Technologia Li-Fi może mieć przełomowe znaczenie dla biur. Jako lider rynku chcieliśmy poznać możliwości, jakie daje ona naszym obecnym i przyszłym klientom. Planujemy zaprezentować tą technologię w naszym inteligentnym biurze w La Defense. Oprócz stabilnej łączności, kluczowa jest dla nas jakość światła” – mówiła chwilę po tym, jak w firmie pojawiły się oprawy oświetleniowe transferujące dane.

    Teraz nadszedł czas na to, aby inni także poznali jej możliwości. Technologia Li-Fi jest już stałą częścią oferty Philips. Każdy może więc z niej skorzystać.

  • Agnieszka Rynkowska członkiem zarządu T‑Mobile Polska ds. B2B

    Agnieszka Rynkowska członkiem zarządu T‑Mobile Polska ds. B2B

    1 stycznia Agnieszka Rynkowska dołączy do Zarządu T‑Mobile Polska jako Dyrektor Pionu B2B. Piotr Markowski natomiast będzie piastował stanowisko szefa Transformacji T‑Mobile Polska.

    Agnieszka RynkowskaAgnieszka Rynkowska ma ponad 20-letnie doświadczenie w międzynarodowym biznesie. Przez ostatnie 5 lat związana była z Microsoft Sp. z o.o., gdzie pełniła funkcję Dyrektora Marketingu & Operacji i Członka Zarządu spółki, a wcześniej – Dyrektora ds. Strategii Biznesowej. Była również zatrudniona w Philips Lighting S.A. jako Dyrektor Marketingu w rejonie Europie Środkowo-Wschodniej, gdzie odpowiadała za działalność na 17 rynkach. Wcześniej pracowała na różnych stanowiskach kierowniczych w Microsoft Sp. z o.o., Orange / PTK Centertel Sp. z o.o. i Ericsson Sp. z o.o.. Agnieszka Rynkowska posiada wykształcenie i doświadczenie zarówno w obszarze technologii, jak i zarządzania i marketingu. Ukończyła Politechnikę Warszawską, a także studia podyplomowe w WSZiM oraz The Chartered Institute of Marketing.

    Jestem bardzo zadowolony, widząc, że dołącza do nas tak doświadczony lider. Wieloletnie doświadczenie Agnieszki Rynkowskiej w zakresie technologii i marketingu sprawia, że idealnie pasuje ona do naszego zespołu. Jestem pewien, że z Agnieszką na czele Pion B2B może wnieść się na jeszcze wyższy poziom – powiedział Andreas Maierhofer, prezes zarządu T‑Mobile Polska.

    Piotr MarkowskiOd 9 miesięcy działalnością segmentu biznesowego T‑Mobile kieruje Dyrektor Pionu B2B Piotr Markowski, który będzie pełnił tę rolę do 31 marca, jednocześnie wspierając Agnieszkę Rynkowską w ciągu pierwszych trzech miesięcy jej obecności w spółce. Po 1 kwietnia Piotr Markowski obejmie nowoutworzone stanowisko Transformation Officera, odpowiedzialnego za budowę doskonałości operacyjnej firmy oraz uproszczenie jej procesów, co w konsekwencji umożliwi stały wzrost satysfakcji klientów z usług i jakości obsługi. Transformation Officer będzie raportował bezpośrednio do Prezesa Zarządu T‑Mobile Polska.

  • Główne zasady przenoszenia danych do chmury, które pozwolą zaoszczędzić

    Główne zasady przenoszenia danych do chmury, które pozwolą zaoszczędzić

    Analitycy IDC przewidują, że w ciągu najbliższych dwóch lat liczba firm, w których toczyć się będą procesy transformacyjne, wyniesie przynajmniej 60 proc[1]. Potwierdzają to eksperci Gartnera, którzy uważają, że tylko przejście procesu transformacji cyfrowej jest gwarantem dalszego wzrostu przedsiębiorstwa w erze digitalizacji. Migracja danych do chmury jest jednym z ważnych aspektów transformacji. Z danych Cisco Global Cloud Index wynika, że do 2021 roku 94 proc. firm zrezygnuje z własnych centrów danych[2]. Ale jak przenieść dane do chmury, by ich migracja w istocie przyniosła przedsiębiorstwu korzyści finansowe?

    Wbrew pozorom, z chmury korzystać mogą nie tylko duże korporacje, które dysponują olbrzymimi zbiorami danych. To rozwiązanie, które przyda się zarówno największym na świecie koncernom spożywczym, czy przemysłowym, jak i niewielkim, rodzinnym przedsiębiorstwom – bo one także mogą zaoszczędzić, przechowując dane w chmurze. Przykładem mogą być firmy zajmujące się przygotowywaniem na zlecenie materiałów wideo, które obecnie nie muszą posiadać komputerów za kilkanaście tysięcy złotych, by móc wyrenderować przygotowywane filmy. Mogą bowiem wysłać materiał do chmury i tam przeprowadzić cały proces z wykorzystaniem Amazon Elastic Transcoder. Koszt takiego rozwiązania to zaledwie kilka dolarów. Potem film może w cloudzie zostać – jest tam bezpieczny, a niektórzy dostawcy, jak Amazon, gwarantują dostępność plików nawet na poziomie 99,999999999 proc. Oznacza to, że jeśli w chmurze Amazon S3 przechowywane jest 10 tys. obiektów, to utracony zostanie średnio jeden z nich raz na 10 mln lat.

    Cloud docenią też z pewnością firmy prowadzące szkolenia z obsługi zaawansowanego oprogramowania. Teraz nie muszą już wydawać olbrzymich pieniędzy na zakup infrastruktury. Wystarczy stworzyć ją w chmurze, a kursantom wystarczy zwykły laptop i dostęp do internetu. Po szkoleniu całą infrastrukturę można spokojnie wyłączyć. Oszczędności pojawią się bardzo szybko.

    Niezależnie jednak od tego, jak dużo danych firma planuje przechowywać w usłudze cloudowej, istnieje kilka zasad, o których należy pamiętać, jeśli ich migracja naprawdę ma przynieść korzyści.

    Po pierwsze, nie kopiuj infrastruktury 1:1

    Klienci, którzy posiadają infrastrukturę w klasycznych data centers, liczą zwykle na to, że ich migracja do chmury pozwoli zaoszczędzić dużo pieniędzy w krótkim czasie. To właściwe podejście, ale pod warunkiem, że infrastruktura nie zostanie przeniesiona do chmury 1:1.

    Przy migracji danych należy spojrzeć na infrastrukturę z zupełnie nowej perspektywy i wykonać tzw. “redesign” – czyli zaprojektować ją od nowa w taki sposób, by była dopasowana do wybranej usługi cloudowej. Właściwe podejście zakłada rozbicie jej na mniejsze elementy – mówi Rafał Soszka, Senior Consultant z Capgemini.

    Soszka rozumie przez to między innymi elementy fizycznej infrastruktury, takie jak serwery, data center (które mogą należeć do firmy będącej właścicielem bazy danych lub mogą być przez nią wynajmowane u zewnętrznego usługodawcy), ale także oprogramowanie, potrzebne licencje (np. na oprogramowanie do backupu, program antywirusowy czy oprogramowanie do monitoringu, które pozwala zadbać o utrzymanie serwera). Wszystkie te elementy wiążą się z dodatkowymi kosztami. A to tylko część kosztów związanych z utrzymaniem tradycyjnego serwera. Pochłania on bowiem jeszcze prąd, miejsce oraz wymaga zespołu specjalistów do właściwej obsługi.

    Kiedy architekt rozpozna wszystkie elementy infrastruktury, musi dokonać ich reorganizacji. Dzięki niej możliwe będzie lepsze wykorzystanie możliwości usług chmurowych danego dostawcy. Niesie to za sobą wiele korzyści. Po pierwsze, jest o wiele tańsze, bo płaci się tylko za to, co aktualnie się wykorzystuje. Nie interesuje nas koszt utrzymania, naprawy, czy unowocześniania infrastruktury w rozumieniu tradycyjnego data center. Wszystko jest wliczone w te kilka centów za godzinę pracy – podkreśla Rafał Soszka.

    Soszka dodaje, że skala oszczędności zależy od rozmiaru firmy i ilości danych, które chciałaby przechowywać w chmurze. Sam zajmował się m.in. projektem realizowanym w Capgemini na zlecenie dużego brytyjskiego producenta żywności, który posiadał olbrzymią bazę serwerów fizycznych, ale korzystał z nich tylko przez kilka dni w miesiącu, po to, by dokonać analizy danych. Koszt zakupu infrastruktury, a potem jej utrzymania był niebagatelny. Mimo że maszyny działały tylko przez kilka dni w miesiącu, za działanie serwerów w data center trzeba było płacić ciągle. Chmura pozwoliła zredukować te koszty: nie tylko za przechowywanie danych, lecz także za ich przetwarzanie.

    Z podobnego rozwiązania korzysta obecnie Phillips. Firma realizuje projekt platformy cyfrowej “Philips HealthSuite”, który jest oparty na rozwiązaniu cloudowym oferowanym przez Amazon. Projekt zakłada analizę olbrzymich ilości danych medycznych (liczonych w petabajtach) dotyczących prawie 400 milionów rekordów danych i opracowywanie ich w taki sposób, by były przydatne dla lekarzy obejmujących tych ludzi profesjonalną opieką. Koszt projektu jest nieporównanie niższy niż koszt podobnego projektu realizowanego poza chmurą – przy użyciu serwerów fizycznych.

    Zalety płynące z przeniesienia danych do chmury docenił też New York Times.

    Redakcja gazety postanowiła przekonwertować swoje materiały, dotychczas przechowywane w postaci plików TIFF, do plików PDF, by następnie móc je publicznie udostępnić. Koszty szacowano początkowo na kilkadziesiąt tysięcy dolarów – zakup sprzętu, uruchomienia i utrzymania. Kiedy okazało się, że można do tego celu wykorzystać chmurę, koszty te spadły do poziomu kilkuset dolarów – mówi Rafał Soszka.

    Po drugie, korzystaj z automatyzacji

    Automatyzacja jest sprzymierzeńcem inżynierów odpowiedzialnych za przenoszenie danych z serwerów fizycznych do chmury. I chociaż nie wszystko da się zautomatyzować, to i tak zalety płynące z tego rozwiązania są olbrzymie – szczególnie w przypadku średnich i dużych projektów.

    Kiedy inżynier musi np. zmienić adres serwerów DNS z którego korzystają serwery, może to zrobić ręcznie. W przypadku 10 czy 15 serwerów można to wykonać ręcznie. Kiedy jednak liczba serwerów wynosi 100 lub 1000, a takie projekty nie są rzadkością, ilość pracy, jaką trzeba włożyć w ich konfigurację, jest ogromna – mówi Rafał Soszka.

    Tymczasem wystarczy ten proces powierzyć “robotom”. Wystarczy, że inżynier napisze kod, na podstawie którego dedykowane oprogramowanie wykona pracę konfiguracyjną za człowieka. Kolejnym etapem migracji danych do chmury, po analizie elementów infrastruktury i zaprojektowaniu jej pod usługi chmurowe, jest zatem napisanie właściwego skryptu w celu automatyzacji procesu. Wówczas, niezależnie od tego, czy wymagane będzie zbudowanie 20, 200 czy 2000 serwerów w chmurze, automat wykona tę pracę w czasie dużo krótszym, niż inżynier, który tę samą pracę wykonałby manualnie. Ten bowiem, wykonując pracę „ręcznie”, od A do Z, jest w stanie zbudować od jednego do kilku serwerów dziennie.

    Dzięki automatyzacji możliwe jest zatem budowanie całych platform w ciągu godzin, a nawet minut. Ale automatyzacja może pomóc nie tylko w inicjalnej fazie projektu, kiedy chodzi o konfigurację nowych serwerów. Jest  niezwykle przydatna także w przypadku już działających platform, które muszą na przykład obsłużyć wzmożony ruch ze strony użytkowników, jak platformy VOD. Netflix, na przykład, korzysta w tym celu z rozwiązania Cloudfront EC2 od Amazona.  W chwili premiery nowego odcinka znanych seriali platforma działa płynnie, wzmożony ruch jest automatycznie wykrywany, co powoduje automatyczne uruchomienie kolejnych maszyn. Bez skorzystania z rozwiązania cloudowego w podobnej sytuacji należałoby z góry przewidzieć, ile serwerów trzeba przygotować. To trudne, bo nie wiadomo, jakim zainteresowaniem cieszyć się będzie premiera. Z kolei przygotowanie zbyt dużej liczby serwerów generowałoby duże koszty dla firmy. Chmura sprawdza się tutaj idealnie.

    Zdaniem Rafała Soszki, automatyzacja procesów toczących się w chmurze lub konfiguracja nowych maszyn jest prosta, o ile inżynier skorzysta z pomocy odpowiednich narzędzi.

    Na przykład, w przypadku rozwiązań dostarczanych przez Microsoft, przydatna jest znajomość języka skryptowego Powershell, który pozwala zarządzać posiadaną platformą. Przydatna jest również znajomość takich rozwiązań jak Ansible, Puppet, czy Chef, które ułatwiają budowanie, konfigurowanie i zarządzanie wielkimi środowiskami – mówi Rafał Soszka.

    Po trzecie, zadbaj o bezpieczeństwo danych

    Coraz więcej firm decyduje się na korzystanie z chmury w formie backupu. Gdyby serwery fizyczne zawiodły, dane będzie można pobrać z chmury. Niestety, w czasach, kiedy coraz częściej mówi się o ochronie danych, nie wszystkie dane możemy do niej wysłać. Dane muszą być bowiem odpowiednio zabezpieczone, lub też znajdować się w konkretnym miejscu. Zdarza się zatem, że firmy poddają migracji tylko część posiadanych danych, na przykład 30 proc. czy połowę.

    Niekiedy to prawo nakazuje przechowywanie danych w data center, które znajduje się na przykład w określonym kraju, zabraniając ich przetwarzania w chmurze. Niektóre kraje nie zezwalają na wysyłanie swoich danych poza granice państwa. Czasem to klient, który chce dokonać migracji, ma życzenie, by jego dane po migracji przechowywane były w data center położonym w określonym państwie – mówi Rafał Soszka.

    Na szczęście dostawcy usług cloudowych wychodzą naprzeciw takim potrzebom. Istnieje możliwość szyfrowania plików przechowywanych w chmurze. Dane można nie tylko zaszyfrować po swojej stronie, ale dodatkowo także w chmurze. Klucz do nich otrzymuje tylko klient. Jeśli go zgubi, usługodawca nie będzie w stanie mu pomóc i umożliwić dostępu do danych przechowywanych w centrum.

    [1] http://www.digitalistmag.com/digital-economy/2017/11/17/idc-2018-predictions-if-youre-not-in-cloud-youre-isolated-from-innovation-05487509
    [2] https://www.computerworld.pl/whitepaper/3003-Migracja-do-chmury-strategia-5-1-podstawowych-zadan-do-wykonania.html?utm_source=mailing180327&utm_campaign=ATMMailing&utm_medium=u:1223207&hideuser=7e7e46d46a50257af5fe8c118dfec4cf1512465039
  • ABC Data Technology Trends – druga odsłona konferencji poświęconej IT

    ABC Data Technology Trends – druga odsłona konferencji poświęconej IT

    14 marca 2018 roku w warszawskim centrum EXPO XXI odbyła się druga odsłona konferencji ABC Data Technology Trends. Wydarzenie wsparło kilkudziesięciu wiodących vendorów technologicznych, a jego gośćmi byli współpracujący z ABC Data resellerzy i integratorzy. Z myślą o nich przygotowano łącznie dwadzieścia dziewięć wystąpień i prezentacji technologicznych. „Technologie przyszłości”, „Infrastruktura sieciowa jutra”, „Zarządzanie i bezpieczeństwo”, „Chmura” czy „Inteligentne sprzęty domowe” to tylko niektóre z licznych bloków tematycznych, w ramach których odbywały się wykłady. Poszczególne tematy omawiali przedstawiciele ABC Data oraz wiodących producentów sprzętu, jak Dell EMC, Intel, Microsoft, Xiaomi, Cisco, Acer, Canon, Candy czy Philips.

    ABC Data Technology Trends

    ABC Data Technology otworzył Andrzej Kuźniak, Wiceprezes Zarządu ABC Data. Po krótkim wprowadzeniu w tematykę konferencji, głos zabrali goście specjalni wydarzenia. Swoje prelekcje przedstawili Anna Streżyńska, Prezes Zarządu MC2 Solutions i była minister cyfryzacji, Maciej Piekarski, Senior Product Manager ICT w GfK Polonia i Thorsten Stiller, Senior Sales Enablement Manager Emea w Dell EMC.

    Tuż po zakończeniu oficjalnej część wydarzenia, resellerzy mogli udać się na wybrane przez siebie prezentacje i wykłady. Wyjątkowo popularnością cieszyła się m.in. prelekcja Wojciecha Kotkiewicza, Systems Engineer Managera w ABC Data, dotycząca możliwości praktycznego wykorzystania rozwiązań Cisco Meraki w firmach z sektora SMB.

    Zwieńczeniem ABC Data Technology Trends była wieczorna Gala. W jej trakcie wręczono nagrody wyróżniającym się Partnerom Dystrybutora. Po części oficjalnej Gali przyszedł czas na rozrywkę. Specjalnie dla gości ABC Data Technology Trends zagrał zespół Enej.

    Na stronie internetowej http://technologytrends.pl/ można znaleźć zdjęcia z drugiej odsłony ABC Data Technology Trends.

  • Noworoczne wyprzedaże nie takie atrakcyjne?

    Noworoczne wyprzedaże nie takie atrakcyjne?

    Hasło „poświątecznych wyprzedaży” z roku na rok wykorzystywane jest w komunikacji z klientem przez coraz większą liczbę sklepów. Dotyczy to również sklepów internetowych, które starają się zachęcić klientów atrakcyjnymi ofertami. Jak wynika z kolejnej edycji „Świątecznego Barometru Cenowego”, ceny w największych sklepach online z połowy stycznia 2018 roku w porównaniu z cenami z połowy listopada 2017 roku, spadły średnio o 7-8 proc.

    Analiza ofert 800 podmiotów branży e-commerce przeprowadzona przez Deloitte we współpracy z firmą Dealavo pokazała, że wbrew intensywnej komunikacji marketingowej klientom mogło być ciężko znaleźć produkty, które faktycznie były wysoko przecenione. Jedynie w kategorii gry komputerowe ceny niektórych pozycji były obniżone o ponad 50 proc.

    Eksperci analizowali w okresie pomiędzy 17 listopada 2017 (tydzień przed Black Friday) a 18 stycznia 2018 roku ceny kategorii produktów, które w międzynarodowym badaniu Deloitte „Zakupy świąteczne 2017” Polacy wskazywali jako najczęściej wybierane przez nich prezenty dla najbliższych. Po świętach Bożego Narodzenia analiza skupiła się na ogłaszanych przez sprzedawców e-commerce noworocznych wyprzedażach.

    Do badania zostały wybrane najpopularniejsze produkty świąteczne z poniższych kategorii: gry komputerowe, konsole, AGD drobne, kosmetyki, książki, muzyka, okulary VR, perfumy, gry planszowe, smartfony, telewizory, zabawki oraz zegarki. Za pomocą oprogramowania Dealavo Smart Prices oferty konkretnych produktów z tych kategorii zostały wyszukane oraz podłączone do codziennego monitoringu. Łącznie przebadano ponad 150 produktów, które znajdują się w ofercie ponad 800 sklepów online. Ocenie podlegała tylko cena bez jakości serwisu, warunków zwrotu towaru, siły marki sklepu czy kosztów transportu.

    Noworoczne obniżki o jeden grosz

    Jak wynika z analizy ośmiu sklepów internetowych, które reklamowały się naprawdę dużymi obniżkami (komunikacja obniżek cenowych w okolicach 70 proc.), w ich ofercie w okresie noworocznych wyprzedaży można było znaleźć jedynie pojedyncze produkty, których ceny spadły o więcej niż 50 proc. Najczęściej były to gry komputerowe.

    Z analizy Deloitte i Dealavo wynika, że w porównaniu do 17 listopada ub. r. w połowie stycznia br. ceny w największych sklepach online spadły o około 7-8 proc. Dla porównania w czasie Black Friday obniżki były jeszcze bardziej symboliczne i wynosiły 1-3 proc. Po zestawieniu cen z noworocznych wyprzedaży z tymi z okresu przed Black Friday, 39 proc. cen produktów zostało obniżonych (co najmniej o 1 grosz). Sklepy o najszerszym asortymencie obniżały ceny na około 50-60 proc. dostępnych produktów.

    Minimalne ceny na wybrane produkty w okresie 17 XI 2017 – 18 I 2018 w wybranych dniach (na zielono zaznaczono najniższą cenę minimalną w wybranych dniach z okresu 17 listopada 2017 do 18 stycznia 2018, a na czerwono najwyższą cenę minimalną w wybranych dniach analizowanego okresu).

    Kategoria Produkt 17 XI 2017 24 XI 2017 (BF) 8 XII 2017 22 XII 2017 5 I 2018 18 I 2018
    AGD drobne Lokówka automatyczna Babyliss C 1200E 298,99 298,99 259,00 259,00 299,00 299,00
    AGD drobne Prostownica Remington Keratin Therapy S8590 159,00 159,00 159,00 159,00 159,00 159,00
    AGD drobne Szczoteczka soniczna Philips Sonicare Easy Clean HX6511/50 178,89 178,99 185,00 195,00 119,99 195,00
    Gry FIFA 18 – EDYCJA STANDARDOWA (GRA XBOX ONE) 215,00 195,00 215,00 195,00 179,90 138,60
    Gry STAR WARS: BATTLEFRONT II (GRA PC) 181,90 181,90 181,90 98,00 98,90 93,99
    Gry Titanfall 2 (PC) 69,00 59,00 49,00 58,90 53,95 69,00
    Konsole Sony Playstation 4 SLIM 1TB czarny 1 298,00 1 298,00 1 349,00 1 198,00 1 198,00 1 248,00
    Konsole XBOX ONE 500GB 1 099,99 1 099,99 1 099,99 1 099,99 1 099,99 1 099,99
    Perfumy Giorgio Armani Acqua Di Gio Pour Homme woda toaletowa 100 ml 207,85 215,89 215,00 224,80 224,80 224,80
    Perfumy Paco Rabanne Invictus woda toaletowa 100ml 207,00 207,00 207,00 225,00 195,00 195,00
    Smartfony Smartfon Apple iPhone 5S 16GB Szary 1 345,00 1 279,00 1 345,00 1 199,00 1 199,00 1 199,00
    Smartfony APPLE IPHONE X 64GB SREBRNY 4 975,00 4 975,00 4 975,00 4 975,00 4 729,00 4 620,00
    Smartfony Smartfon Samsung Galaxy S6 32GB czarny 1 777,00 1 554,00 1 534,00 1 504,00 1 395,00 1 395,00
    Smartfony Smartfon Samsung Galaxy S7 32GB Złoty 1 837,00 1 836,80 1 819,00 1 749,00 1 736,80 1 648,00
    Smartfony SAMSUNG GALAXY S8 64GB SM-G950 MIDNIGHT BLACK 2 477,00 2 447,00 2 447,00 2 467,00 2 407,00 2 357,00
    TV LG 43UJ6307 1 757,00 1 499,00 1 737,00 1 728,98 1 745,00 1 763,00
    TV SAMSUNG UE50MU6102 2 269,35 2 199,00 2 177,10 2 129,00 2 126,98 2 095,00
    Zegarki Michael Kors RUNAWAY MK5055 491,00 640,00 469,00 530,00 489,00 474,00
    Zegarki Timex Retrograde T2N720 425,00 425,00 593,00 480,00 480,00 480,00

    Taniejące smartfony

    Eksperci Deloitte na podstawie danych Dealavo dokonali porównania cen minimalnych na każdy z 154 produktów. Jedną z kategorii, w której ceny minimalne były sukcesywnie obniżane w okresie na tydzień przed Black Friday do 18 stycznia 2018 r., były smartfony. Co ciekawe, około 30 proc. produktów było najtańszych w analizowanym okresie (do połowy stycznia) w połowie listopada, czyli na tydzień przed Black Friday. Natomiast 42,9 proc. produktów miało najniższe ceny właśnie w okresie wyprzedaży noworocznych. W ubiegłym roku było to 31,4 proc.

  • IFA 2017: Nowy głośnik od Sony z asystentem Google

    IFA 2017: Nowy głośnik od Sony z asystentem Google

    LF-S50G to nowy głośnik firmy Sony, który można obsługiwać poleceniami głosowymi. To nieduże, stylowo wyglądające urządzenie jest nie tylko źródłem dźwięku o wysokiej jakości, lecz także informacji z Internetu.

    Głośnik emituje dźwięk we wszystkich kierunkach. Wbudowany asystent Google przypomina osobistego asystenta: można go poprosić o odtworzenie ulubionego utworu, a nawet zadawać mu pytania.

    sony ifa

    Obsługa poleceniami głosowymi

    Po wypowiedzeniu frazy „Ok Google” głośnik uaktywni się i umożliwi nastawienie budzika albo sprawdzenie, jaki jest ruch na drodze do pracy, o której godzinie odlatuje samolot itp. W taki sam sposób można zarządzać kalendarzem spotkań i listą spraw do załatwienia, dowiedzieć się, jaka ma być jutro pogoda, czy zapoznać się ze skrótem wiadomości.

    Możliwości głośnika S50G nie ograniczają się do bezproblemowej współpracy z podobnymi urządzeniami w celu słuchania tej samej muzyki w różnych pomieszczeniach — asystent Google pomoże też w obsłudze poleceniami głosowymi wielu innych urządzeń smart, które wykorzystują do pracy kompatybilne platformy: wbudowany Chromecast, Nest, Philips Hue czy IFTTT. Dzięki temu można więc będzie na przykład nastawić w pokoju idealną temperaturę lub stonować oświetlenie.

    Wypowiadając proste polecenia głosowe, można także poprosić asystenta Google o odtwarzanie muzyki, podcastów bądź radia z serwisu Spotify, Google Play Music, Pandora, TuneIn czy iHeartRadio.

    sony ifa

    Emisja dźwięku we wszystkie strony

    Zastosowany w głośniku bezprzewodowym S50G dwudrożny, pionowy system emitujący dźwięk we wszystkich kierunkach pozwala wypełnić dźwiękami pokój. Naturalny bas i jednakowa jakość dźwięku w całym pomieszczeniu są efektem połączenia szeregu elementów: pełnozakresowego głośnika wyraźnie reprodukującego głos i tony wysokie, dedykowanego subwoofera służącego do reprodukcji basu, wytłumionego kanału bass reflex, którego zadaniem jest zapewnienie neutralnych tonów niskich mimo małych wymiarów głośnika, oraz dwustopniowego dyfuzora, powodującego rozchodzenie się dźwięku we wszystkie strony. O uzyskaniu wysokiej jakości brzmienia decyduje montaż tych kluczowych podzespołów, przy którym firma Sony wykorzystuje własne doświadczenie w technologii audio.

    sony ifa

    Niepowtarzalna funkcjonalność

    Sterowany głosem model S50G zaprojektowano tak, by pozostawał on w harmonii z wyglądem każdego pomieszczenia. Dotyczy to również kuchni: głośnik jest odporny na zachlapanie wodą zgodnie z wymogami dla klasy ochrony IPX3, a hydrofobowa powłoka pozwala utrzymać go w czystości nawet na blacie roboczym. Równie dobrze prezentuje się w sypialni, gdzie wskazanie zegara pozwala jednym rzutem oka sprawdzić aktualną godzinę.

    Lautsprecher LF S50G von Sony mit Google Assistant 5

    Dzięki technologiom Bluetooth i NFC głośnik S50G pozwala podłączać urządzeni i odtwarzać muzykę z telefonów komórkowych z systemem Android lub iOS.

    Daty rozpoczęcia działania serwisów i warunki świadczenia usług mogą zależeć od kraju.

    Głośnik LF-S50G będzie dostępny w Wielkiej Brytanii, Niemczech i Francji od grudnia 2017 r. w cenie około 230 EUR / 200 GBP. Ostateczne ceny będą zależały od sprzedawcy.

  • Czym różni się rezonans magnetyczny od tomografu komputerowego?

    Czym różni się rezonans magnetyczny od tomografu komputerowego?

    Badania rezonansem magnetycznym oraz tomografem komputerowym stają się coraz popularniejsze w Polsce. Wg raportu Agencji Oceny Technologii Medycznych i Taryfikacji w roku 2015 w Polsce wykonano 260 365 badań rezonansem magnetycznym ze środków NFZ. Badanie rezonansem magnetycznym powoli wypierają badania tomografem komputerowym ze względu na mniejszą szkodliwość (brak promieni RTG). Przyjrzymy się różnicom między tymi rodzajami badań i technologii jaka za nimi stoi.

    rezonansCzym różni się rezonans magnetyczny od tomografu komputerowego?

    Dzięki dokładnej diagnostyce obrazowej możliwe jest wykonanie niezwykle szczegółowego badania całego ciała. Najskuteczniejszymi metodami badań obrazowych są: rezonans magnetyczny oraz tomografia komputerowa. Każde z nich wykorzystuje inne techniki badawcze.

    Niezawodny i bezbolesny

    Rezonanse magnetyczne, nazywane też skrótem angielskiej nazwy MRI (magnetic resonance imaging) pozwalają na wykonanie przekrojowego i bardzo szczegółowego przeglądu wszystkich narządów. Jest to możliwe dzięki magnetycznym właściwościom atomów, z których złożona jest każda komórka ludzkiego ciała.  Do przeprowadzania tego badania niezbędne jest silne pole magnetyczne, fale radiowe, a także komputer przekształcający uzyskane dane w obrazy.  Sprzęt do rezonansu magnetycznego może mieć jedną z dwóch konstrukcji. Pierwsza z nich pozwala na dostęp do badanej osoby z trzech strony. Aparat do rezonansu magnetycznego o zamkniętej budowie wymaga umieszczenia pacjenta w specjalnym tunelu.

    Stosowana od wielu lat

    Tomografia komputerowa to metoda badania obrazowego, która jest stosowana w medycynie od wielu lat. Pierwszy tomograf powstał pod koniec lat 60. XXw. Urządzenie to wykorzystuje promieniowanie rentgenowskie. Pacjent umieszczany jest na specjalnym stole i wsuwany do wnętrza urządzenia, nad którym porusza się głowica wytwarzające promienie, pozwalające na zrobienie zdjęć organów w różnych płaszczyznach. W celu uzyskania bardziej dokładnych obrazów podaje się pacjentowi kontrast, zmieniający skalę pochłaniania promieni przez niektóre organy i w ten sposób polepsza ich widoczność.

    Plusy i minusy

    Obie przedstawione wyżej badania są skutecznymi metodami diagnostyki obrazowej. Tomografia komputerowa jest tańsza w wykonaniu, przez co także łatwiej dostępna. Niestety, promienie Rentgena są szkodliwe dla człowieka. Rezonans magnetyczny jest natomiast dużo bardziej dokładny, przez co może być uzupełnieniem tomografii w przypadku, gdy jej wyniki będą wymagały doprecyzowania.  Badanie rezonansem jest w pełni bezpieczne, ale za to koszt jego wykonania jest bardzo wysoki.

    Dostępne rozwiązania

    Dobry przekrój dostępnych na rynku rezonansów magnetycznych i tomografów komputerowych można znaleźć na stronie Philips Health – poświęconej profesjonalnemu sprzętowi medycznemu.

  • Co łączy Philips Lighting Poland, Asseco Data Systems i Microsoft?

    Co łączy Philips Lighting Poland, Asseco Data Systems i Microsoft?

    Philips Lighting pracuje z Asseco Data Systems i Microsoft nad rozwojem koncepcji smart cities i technologii wspierających budowanie inteligentnych miast.  Nawiązanie ścisłej współpracy z niekwestionowanymi liderami w dziedzinie technologii i informatyki jest odpowiedzią na realne potrzeby polskich samorządów, które wyrażają  chęć pogłębienia swojej wiedzy na temat technologii wspierających budowanie inteligentnych miast.

    Philips Lighting  jest pomysłodawcą cyklu „Smart City Roadshow” – warsztatów w polskich miastach poświęconych idei smart cities. Wspólnie z partnerami – Asseco Data Systems oraz Microsoft, Philips Lighting będzie dzielił się wiedzą na temat rozwiązań w obszarze smart cities zarówno z włodarzami, jak i mieszkańcami kilku polskich miast.

    Ambicją partnerów jest zapoznanie uczestników z obecnym stanem rozwoju nowoczesnych, inteligentnych technologii wspomagających funkcjonowanie jednostek samorządu terytorialnego oraz z kierunkami rozwoju i przyszłymi technologiami dla miast.

    Warsztaty w ramach Smart City Roadshow każdorazowo przeprowadzane są w dwóch etapach. Pierwszy etap to warsztaty z mieszkańcami, głównie aktywistami miejskimi, które mają na celu zebranie opinii o potrzebach i pożądanych kierunkach rozwoju technologicznego miasta z perspektywy mieszkańców. Drugi etap natomiast skierowany jest do urzędników miejskich (przedstawicieli spółek miejskich, zarządu miasta, decydentów) i skupia się na głębszym zapoznaniu się uczestników z dostępnymi rozwiązaniami i próbie wypracowania spójnej wizji rozwoju miasta na podstawie dostępnych i przyszłych technologii.

    Podczas spotkań przedstawiciele miast  dowiedzą się, jak przeprowadzać analizy wdrożonych już rozwiązań z zakresu smart cities  Zarówno mieszkańcy miast jak i włodarze będą mogli wziąć udział w specjalnie przygotowanej  grze symulacyjnej, w której wcielą się w rolę decydentów i zaplanują rozwój miasta wykorzystując inteligentne technologie.

    Pierwsze warsztaty odbyły się w Białymstoku.

    Smart City Road Show to bardzo ciekawe wydarzenie, które pozwala w szerszy sposób  spojrzeć na zagadnienie smart city w mieście. Dzięki uczestnictwu w warsztatach urzędnicy mogli docenić wartość działania zespołów międzywydziałowych, których na co dzień brakuje w większości urzędów. Bardzo cenna okazała się również wiedza dotycząca praktycznych rozwiązań, którą przekazywali przedstawiciele firm Philips Lighting, Asseco i Microsoft. Doświadczenia zdobyte podczas warsztatów posłużą do sprawniejszego wdrażania idei smart city w Białymstoku – powiedział Krzysztof Marek Karpieszuk, Sekretarz Miasta Białystok

    Do końca roku firmy przewidują jeszcze 5 spotkań. Wszystkie spotkania organizowane są we współpracy z Pracownią Miejską, która na potrzeby projektu stworzyła dedykowaną „Grę o miasto”.

    Warsztaty są dla miast nieodpłatne.  Twórcy Smart City Roadshow zapraszają kolejne miasta do współpracy.

  • AB na rynku dystrybucji IT (Q1 2017)

    AB na rynku dystrybucji IT (Q1 2017)

    Ostatnio Grupa AB S.A. opublikowała skonsolidowany raport okresowy za I kwartał 2017 roku. Wyniki świadczą o tym, że Spółka dobrze sobie radzi na trudnym rynku dystrybucji IT i stabilnie utrzymuje swoją czołową pozycję.

    Grupa AB po pierwszym kwartale 2017 r. (III kw. roku finansowego 2016/2017) powiększyła przewagę nad konkurentami. Zwiększyła przychody o blisko 9% w ujęciu rok do roku, do 1,85 mld PLN, wypracowując 24,3 mln zł wyniku EBITDA (stabilnie rdr) i 13,2 mln zł zysku netto (+6,2% rdr).

    Potrafimy rosnąć nawet w porównaniu do rekordowego roku 2016, w którym przekroczyliśmy próg 8 mld zł przychodów. To efekt skutecznie realizowanej długoterminowej strategii rozwoju z bezpieczeństwem i ostrożnością wpisanymi w nasze DNA. Motorem wzrostu w minionym kwartale był dla nas rynek polski. Na rynku czeskim i słowackim nastąpiła  stabilizacja po ogromnym sukcesie rynkowym naszej spółki AT Computers i serii kwartałów z dwucyfrowymi wzrostami. Czynniki makroekonomiczne, w tym wzrost gospodarczy w naszym regionie i bogacenie się społeczeństw, napływ środków UE z nowej perspektywy finansowej do przygotowywanych projektów informatycznych w Polsce i Czechach czy oczekiwany w końcu przez branżę wpływ programu 500+ w Polsce sprawiają, że z optymizmem patrzymy w przyszłość – mówi Andrzej Przybyło, Prezes Zarządu AB S.A.

    Finanse

    Grupa AB nie tylko wielokrotnie przewyższa konkurentów pod względem skali biznesu i osiąganych wyników finansowych, ale również cieszy się zaufaniem instytucji finansowych.

    Grupa AB utrzymuje wysoką rentowność na tle branży, ma też najniższe koszty SG&A i to już po pierwszych 9 miesiącach kalibrowania procesów logistycznych w nowym, w pełni zautomatyzowanym magazynie w Magnicach. Silna baza kapitałowa i odpowiedzialnie prowadzony biznes sprawiają, że jesteśmy wiarygodnym i rzetelnym partnerem dla dostawców, klientów i instytucji finansowych. Zarówno banki, jak i instytucje ubezpieczeniowe doceniają siłę finansową Grupy AB. Mamy dużo przestrzeni do sfinansowania dalszego wzrostu, zarówno od strony dostawców, jak również klientów – Rafał Michalczuk, CFO Grupy AB SA.

    Grupa AB od lat może się też pochwalić najwyższymi kapitałami własnymi w branży – ich wartość na koniec I kw. 2017 r. to już 640 mln zł, czyli 33,5% sumy bilansowej. Firma ma wzorcową strukturę finansowania w 1/3 kapitałami własnymi i 2/3 kapitałami obcymi (w tej kategorii prawie połowa to długoterminowe obligacje i kredyty), co jest zgodne z zasadą bezpieczeństwa wpisanego w strategię rozwoju.

    Warto również odnotować, że Grupa AB sukcesywnie zmniejsza zadłużenie odsetkowe. Dług netto na koniec grudnia 2016 r. w ujęciu rok do roku spadł o aż 20%, czyli nominalnie o ponad 87 mln zł. W I kw. 2017 r. w porównaniu do I kw.  2016 r., pomimo wzrostu skali obrotów, dług odsetkowy netto został zmniejszony o 13,5 mln zł, a jego relacja do wyniku EBITDA to bezpieczne w branży dystrybucji 2,9 (spadek z 3,2 przed rokiem). W trakcie czterech ostatnich kwartałów Grupa AB poprawiła przy tym przepływy gotówkowe z działalności operacyjnej o ponad 58 mln zł w ujęciu rok do roku.

    Cloud i gaming z dużym potencjałem

    Jak wynika z prognoz IDC Poland, cały rynek cloud computingu w Polsce w 2016 roku miał wartość 630 mln zł, a w tym roku powinien przekroczyć próg 800 mln zł, rosnąc do 2019 r. pięć razy szybciej niż rynek tradycyjnych usług IT.

    Istotny potencjał biznesowy Grupa AB widzi również w segmencie produktów dla graczy. Rynek gaming w regionie Europy Środkowej i Wschodniej w 2016 r. miał wartość 3 mld USD, z czego blisko 570 mln USD przypadało na Polskę i Czechy.

    X-play to sieć punktów sprzedaży w formule shop-in-shop, która wystartowała w III kw. 2016 r. i obejmuje już 89 punktów sprzedaży. Grupa AB posiada w swojej ofercie blisko 7 tys. produktów dla graczy: konsole, specjalistyczne komputery klasy PC – w tym produkowane we własnej fabryce, monitory, a także akcesoria, komponenty i gry. W ramach marki Optimus została stworzona e-sportowa linia produktów, a sieć franczyzowa Alsen jest patronem technologicznym A-Team, profesjonalnej organizacji e-sportowej, która zdobyła m.in. 1. miejsce w QPAD Arctic Cup FIFA16.

    AB dystrybutorem pierwszego wyboru

    W I kw. 2017 r. Grupa AB podpisała nowe lub rozszerzyła dotychczasowe umowy dystrybucyjne z m.in. firmami  Canon (zaawansowane drukarki i kopiarki), Epson (zaawansowane projektory do kina domowego), LG (smartfony), Socomec (bezpieczeństwo IT), TCL (RTV), Zyxel (rozwiązania sieciowe). Do najważniejszych kontraktów dystrybucyjnych z 2016 roku, których efekty sprzedażowe widać już w wynikach Grupy AB, można zaliczyć umowy z firmami: Microsoft (konsole Xbox, urządzenia Surface), Fractal Design (obudowy PC),  Legrand (UPS i listwy zasilające), Samsung (AGD), Philips (RTV), Lenovo (smartfony), OKI (drukarki i materiały eksploatacyjne). Warto zauważyć, że Grupa AB jest głównym partnerem w regionie dla globalnych gigantów IT jak m.in. Apple, Microsoft, HP, Lenovo, Asus czy Dell. Łącznie Grupa AB posiada w ofercie dostępnej na magazynie blisko 100 tys. indeksów produktowych.

    Grupa AB korzysta z silnej pozycji w segmencie Enterprise, gdzie prowadzi dystrybucję z wartością dodaną (VAD) oraz rozwija ogólnopolską sieć integratorów, zrzeszoną pod marką Optimus.

    W I kw. 2017 r. zwiększyliśmy sprzedaż do partnerów z sektora Enterprise o blisko 60% rok do roku. To sukces naszego zespołu specjalistów, inżynierów i product managerów, którzy dostosowują ofertę zarówno dla resellerów, jak i integratorów. Prowadzimy szereg inicjatyw w zakresie VAD, jak chociażby Centrum Kompetencyjne, Akademię Integracji, DemoLab czy Noc IT – Patrycja Gawarecka, Dyrektor Sprzedaży w AB SA.

    Dynamicznie rozwija się również dystrybucja asortymentu spoza IT. W I kw. 2017 r. obrót w segmencie RTV/AGD wzrósł o 55% rok do roku po skoku o 83% w całym 2016 roku. Sieć franczyzowa Kakto ma już 231 punktów sprzedaży w całej Polsce.

    Grupa AB sukcesywnie osiąga nowe szczyty biznesowego świata. W najnowszej edycji Listy 500 dziennika „Rzeczpospolita” (kwiecień 2017 r.) awansowała na pozycję nr 1 w branży IT, wyprzedzając Asseco Poland, innych dostawców oprogramowania, producentów gier czy innych dystrybutorów IT. W ogólnym zestawieniu Grupa AB została sklasyfikowana jako 36. największe przedsiębiorstwo w Polsce (+ 2 pozycje rdr).