Tag: Konferencja

  • Już dziś konferencja Apple. Gigant z Cupertino ma sporo do nadrobienia

    Już dziś konferencja Apple. Gigant z Cupertino ma sporo do nadrobienia

    W poniedziałek Apple przeprowadzi swoją doroczną konferencję World Wide Developers Conference (WWDC), która obiecuje być punktem zwrotnym dla giganta technologicznego. Firma, która zrewolucjonizowała świat wprowadzeniem iPhone’a, teraz zamierza wkroczyć na arenę generatywnej sztucznej inteligencji (AI), starając się dołączyć do wyścigu, który zdominował branżę technologiczną przez ostatnie 18 miesięcy.

    Przełomowy moment dla Apple

    Konferencja WWDC, tradycyjnie poświęcona zapowiedziom nowych wersji oprogramowania, tym razem ma przynieść coś więcej. Oczekuje się, że Apple przedstawi nową generację oprogramowania, wzbogaconą o zaawansowane funkcje AI, które mają na nowo zdefiniować doświadczenia użytkowników.

    Siri na nowo

    Jednym z najważniejszych aspektów nadchodzących zmian ma być transformacja Siri – asystenta głosowego, który, mimo swoich trzynastu lat na rynku, często jest uważany za mniej inteligentnego w porównaniu do konkurencyjnych rozwiązań. Dzięki nowym funkcjom AI, Siri ma stać się bardziej responsywna i użyteczna, podnosząc jakość interakcji w codziennych zadaniach, takich jak wyszukiwanie informacji, zarządzanie multimediami czy tworzenie emotikonów w locie.

    Nowe możliwości AI

    Apple planuje także zastosować AI w szerszym zakresie swoich produktów. Oczekuje się, że generatywna AI będzie wpleciona w oprogramowanie iPhone’ów, iPadów oraz komputerów Mac, co ma poprawić jakość zdjęć, muzyki i wiadomości. Tym samym Apple stara się wyjść naprzeciw konkurencji, która już zdążyła zintegrować funkcje AI w swoich urządzeniach.

    Wielkie nadzieje i obawy analityków

    Przyszłość Apple w przestrzeni AI wywołuje mieszane uczucia wśród analityków. Z jednej strony, wprowadzenie sztucznej inteligencji może przyczynić się do wzrostu wartości rynkowej Apple nawet o 600 miliardów dolarów – jak wskazują eksperci.

    Z drugiej strony, niektórzy analitycy obawiają się, że Apple może być zbyt późno na rynku AI. Google i Samsung już wprowadziły na rynek smartfony z zaawansowanymi funkcjami AI, a rywalizacja staje się coraz bardziej zacięta. W międzyczasie OpenAI z ChatGPT i Google ze swoim „agentem AI” Astra również zdobywają coraz większą popularność wśród użytkowników.

    Sekrety i nadzieje

    Apple, zgodnie ze swoją tradycją, nie ujawnia szczegółowych informacji przed poniedziałkowym wydarzeniem. Jednakże CEO firmy, Tim Cook, już w pierwszych miesiącach tego roku sugerował, że Apple przygotowuje się do dużego wejścia na rynek AI.

    Na przestrzeni ostatniego roku firma zaskoczyła świat swoją zapowiedzią zestawu słuchawkowego o mieszanej rzeczywistości, Vision Pro, który mimo wysokiej ceny 3500 USD, wzbudził duże zainteresowanie i nadzieje na rozwój tej technologii. Teraz Apple liczy na to, że podobnie jak w przypadku wcześniejszych innowacji, takich jak iPhone czy iPad, uda się im zdominować rynek, mimo że wchodzą na niego później niż konkurencja.

    Prywatność na pierwszym planie

    Wprowadzenie AI przez Apple może również wzbudzić pytania o prywatność użytkowników. Apple od lat stawia na ochronę danych osobowych i najprawdopodobniej zastosuje tę samą filozofię w przypadku nowych funkcji AI. Firma może skupić się na przetwarzaniu danych na samym urządzeniu, zamiast w chmurze, co pomoże zarówno w ochronie prywatności użytkowników, jak i obniżeniu kosztów.

    Co dalej?

    Wszyscy czekają z niecierpliwością na to, co przyniesie poniedziałkowa konferencja. Niezależnie od tego, jakie szczegóły zostaną ujawnione, jedno jest pewne: Apple wkracza na scenę AI z ambicjami i oczekiwaniami, które mogą na nowo zdefiniować przyszłość technologii. Czy firma z Cupertino po raz kolejny zdoła zaskoczyć świat i wyznaczyć nowe standardy? Odpowiedź na to pytanie poznamy już dziś.

  • Innowacje na Microsoft Build, czyli AI gdzie się da

    Innowacje na Microsoft Build, czyli AI gdzie się da

    Microsoft przesuwa horyzonty możliwości komputerów osobistych. Podczas swojej corocznej konferencji deweloperskiej Build, gigant z Redmond ujawnił swoje najnowsze plany, które zrewolucjonizują system Windows przez integrację zaawansowanych funkcji generatywnej sztucznej inteligencji. Nowa seria maszyn Windows, nazwana Copilot+ PC, wkrótce wprowadzi użytkowników w nową erę gdzie AI staje się centralnym elementem codziennej interakcji z technologią.

    Rozwój Windows

    Copilot+ PC

    Microsoft zaprezentował linię komputerów Copilot+ PC, dedykowaną do głębokiej integracji z technologiami AI. Te maszyny są wyposażone w dedykowane chipy NPU, które są kluczem do zasilania zaawansowanych funkcji AI, takich jak funkcja Recall. Copilot+ PC, z ceną startową od 999 dolarów (producent nie podał ceny w PLN), przyzwoitą specyfikacje: co najmniej 16 GB pamięci RAM, dyski SSD, a także procesory Snapdragon X Elite i Plus firmy Qualcomm, które zapewniają do 20 godzin pracy na baterii podczas oglądania wideo. Partnerstwo z liderami branży takimi jak Intel, AMD, Acer, Asus, Dell, HP, Lenovo, i Samsung podkreśla zobowiązanie Microsoftu do dostarczania przyszłościowych rozwiązań.

    Surface Pro i Surface Laptop

    Nowe urządzenia z linii Surface, w tym Surface Laptop i Surface Pro, zyskują na znaczeniu dzięki zwiększonej wydajności i długotrwałości baterii. Najnowszy model Surface Laptop, dostępny z ekranem o przekątnej 13,8 lub 15 cali, zachęca nowoczesnym designem z cieńszymi ramkami i dłuższym czasem działania baterii, dochodzącym do 22 godzin. Ulepszony Surface Pro pochwalić się może szybkością o 90% większą niż poprzednie modele, a także nowym ekranem OLED z HDR i ulepszonymi opcjami łączności, w tym Wi-Fi 7 i opcjonalnym 5G.

    Microsoft, Surface
    Źródło: Microsoft

    Windows 11 i Recall

    W nowej odsłonie Windows 11, Microsoft wprowadza Recall – funkcję, która umożliwia użytkownikom łatwe odnajdywanie starych aplikacji, plików i treści, z którymi wcześniej mieli do czynienia. Ta funkcja wykorzystuje AI do tworzenia skojarzeń między różnymi elementami, co ułatwia przeszukiwanie danych w sposób bardziej intuicyjny i naturalny. Microsoft podkreśla, że kładzie znaczący nacisk na prywatność danych użytkowników, z zapewnieniami, że informacje są przechowywane lokalnie i nie są wykorzystywane do szkolenia modeli AI.

    Rozszerzenia Copilot

    Team Copilot i Copilot Extensions

    Microsoft wprowadza Team Copilot, nową funkcję integrującą się z Teams, popularną aplikacją do wideokonferencji. Team Copilot ułatwia zarządzanie agendami spotkań i wspólne tworzenie notatek, co umożliwia wszystkim uczestnikom bardziej owocną współpracę. Rozszerzenie to także współpracuje z innymi platformami Microsoft, takimi jak Loop i Planner, oferując narzędzia do tworzenia zadań, śledzenia terminów i powiadamiania członków zespołu o potrzebnych wkładach.

    Copilot Extension
    Źródło: Microsoft

    Dodatkowo, Microsoft uruchamia Copilot Extensions, innowacyjne rozwiązanie umożliwiające programistom rozbudowywanie funkcji GitHub Copilot o aplikacje i umiejętności innych firm. Dzięki partnerstwom z firmami takimi jak DataStax, Docker i LambdaTest, programiści mają możliwość tworzenia spersonalizowanych rozszerzeń, które mogą integrować się z wewnętrznymi systemami i interfejsami API, co otwiera nowe możliwości dla personalizacji i funkcjonalności w przestrzeni programistycznej. Te rozszerzenia znajdą się na GitHub Marketplace, ale będą również dostępne jako prywatne rozszerzenia, co pozwala na większą elastyczność w tworzeniu indywidualnych rozwiązań.

    Nowe możliwości dla deweloperów

    Microsoft kontynuuje swoją wspieranie deweloperów, wprowadzając Snapdragon Dev Kit, nowy zestaw deweloperski przeznaczony dla twórców aplikacji na komputery Copilot+ z układem Arm-chip. Cena zestawu, wynosząca 899,99 USD (producent nie podał ceny w PLN), obejmuje procesor Qualcomm Snapdragon X Elite, 32 GB pamięci RAM i 512 GB pamięci, co umożliwia budowanie złożonych aplikacji. Obsługa Wi-Fi 7 i Bluetooth 5.4 oraz porty USB-C i HDMI, które wspierają do trzech monitorów 4K jednocześnie, zwiększają jego atrakcyjność dla deweloperów pragnących testować i optymalizować swoje aplikacje w rzeczywistych warunkach.

    Azure AI Studio i Copilot Studio

    Azure AI Studio, zestaw narzędzi od Microsoft umożliwiający klientom integrację modeli AI do tworzenia aplikacji, wkrótce zostanie wzbogacone o interfejsy API wnioskowania z modelu „pay-as-you-go”. Te nowe interfejsy API pozwolą programistom na dostęp i dostosowywanie generatywnych modeli AI hostowanych w infrastrukturze Azure. Copilot Studio, nowa inicjatywa, oferuje narzędzia, które umożliwiają łączenie Copilot dla Microsoft 365 z danymi innych firm, wspierając zarządzanie zadaniami dostosowanymi do specyficznych ról i funkcji w firmie.

    Zarówno rozwój technologiczny, jak i innowacyjne rozwiązania prezentowane przez Microsoft na konferencji Build świadczą o wyraźnym kierunku, w jakim zmierza przyszłość komputerów osobistych i technologii.

  • Co pokaże Apple na halloweenowej konferencji „Scary fast” dziś w nocy?

    Co pokaże Apple na halloweenowej konferencji „Scary fast” dziś w nocy?

    W dzisiejszych czasach, kiedy rynek technologiczny rozwija się w zawrotnym tempie, oczekiwania konsumentów względem gigantów takich jak Apple są ogromne. Właśnie z tego powodu nadchodzące wydarzenie „Scary fast” budzi tak wiele emocji i spekulacji. Jednak czy naprawdę powinniśmy się spodziewać rewolucji, czy raczej ewolucji już istniejących produktów?

    Skupienie na Macach: Słuszna decyzja?

    Apple zdaje się kierować swoją uwagę głównie na linie produktów Mac, co może zaskoczyć tych, którzy oczekiwali nowości w segmencie iPadów. Z jednej strony, decyzja ta wydaje się uzasadniona – obecne wersje iMac i MacBook Pro są już na rynku od pewnego czasu i wymagają odświeżenia. Z drugiej strony, czy skupienie się tylko na jednym segmencie nie jest ryzykownym posunięciem?

    Nowy chip M3: Czy warto było czekać?

    Według zapowiedzi, nowy chip Apple M3 ma być wykonany w procesie technologicznym 3 nanometrów, co plasuje go w czołówce rynkowych innowacji. Jednak czy naprawdę zaoferuje on znaczącą poprawę wydajności w porównaniu do poprzedników? Oczywiście, nowe konfiguracje pamięci i ulepszona architektura rdzeni obiecują. Czy to wystarczy, aby przekonać użytkowników do wymiany swoich starych urządzeń na nowe?

    MacBooki Pro i iMac: Czy nowości spełnią oczekiwania?

    Zapowiedziane odświeżenie linii MacBooków Pro i iMaca to z pewnością krok w dobrym kierunku. Nowe procesory M3 Pro i M3 Max mają szansę znacząco poprawić wydajność tych urządzeń, ale czy będą na tyle rewolucyjne, aby przyciągnąć nowych użytkowników? Możliwość pojawienia się nowego koloru gwiezdnej czerni może być interesująca, jednak nie można zapominać, że dla wielu osób kluczowe będą kwestie techniczne, a nie estetyczne.

    Apple: czas na USB-C

    Decyzja o zastąpieniu portu Lightning przez USB-C w nowych akcesoriach Apple, takich jak Magic Mouse, Magic Keyboard i Magic Trackpad, jest zdecydowanie krokiem w dobrą stronę. To podejście nie tylko ułatwi życie użytkownikom, ale także jest zgodne z obowiązującymi trendami na rynku.

    Nadchodzące wydarzenie „Scary fast” z pewnością dostarczy nam wielu nowości i ulepszeń w produktach Apple.

    Konferencja „Scary fast” obędzie się dzisiejszej nocy z 30 na 31 października, o godzinie 1.00. Możesz śledzić transmisję na żywo tutaj.

  • OVHcloud ogłasza wizję rozwoju i nowości na Very Tech Trip. Paryska konferencja zgromadziła tysiące uczestników

    OVHcloud ogłasza wizję rozwoju i nowości na Very Tech Trip. Paryska konferencja zgromadziła tysiące uczestników

    OVHcloud zorganizował pierwszą konferencję technologiczną Very Tech Trip. Wydarzenie odbyło się w centrum kongresowym La Cité des Sciences et de l’Industrie w Paryżu i zostało poświęcone społeczności firmy: entuzjastom technologii, programistom oraz wszystkim, którzy pomogli stworzyć aplikacje w chmurze i opracowują nowe usługi napędzane przez AI.

    Ponad 2000 uczestników na miejscu, tysiące online i program oferujący ponad 80 sesji tematycznych, moderowanych przez niezależne branżowe autorytety oraz ekspertów OVHcloud, uczyniło z  wydarzenia świetną okazją do wymiany doświadczeń, poznania innych perspektyw i skorzystania z wiedzy najlepszych w swoich kategoriach.

    Panele tematyczne dotyczyły m.in.: automatyzacji wdrażania za pomocą Discord, roli sztucznej inteligencji w rozumieniu języka migowego, ZFS, silnika renderowania stron internetowych oraz miejsca człowieka w technologii.

    Podczas przemówienia inauguracyjnego wystąpił Octave Klaba, założyciel i prezes zarządu OVHcloud oraz liderzy OVHcloud – Thierry Souche, CTO OVHcloud, Yaniv Fdida, CPO OVHcloud i eksperci zespołów technicznych OVHcloud. W trakcie wystąpienia Octave przedstawił wizję rozwoju firmy w takich obszarach jak opieka zdrowotna oraz technologia kosmiczna. Wraz z zespołem OVHcloud, Octave przedstawił ponadto portfolio Grupy i jego zalety, jak bezpieczeństwo, moc obliczeniowa, sieć, pamięć masowa, duże zbiory danych i sztuczna inteligencja.

    Pełna kontrola i bezpieczeństwo zapewniają płynne wdrożenie

    Aby zapewnić pełną kontrolę i szyfrowanie, IAM i KMS dołączają do portfolio OVHcloud. Dzięki IAM OVHcloud będzie oferować scentralizowane zarządzanie dostępem. Obecnie można korzystać już z federacyjnego logowania jednokrotnego (SSO), do końca lutego umożliwiony zostanie też dostęp do Polityk Zarządzania (Policy Management) za pośrednictwem interfejsu API, a do końca maja za pośrednictwem menedżera. Wdrożenie IAM dla Public Cloud jest przewidywane na koniec maja, a dla VMware w OVHcloud na koniec sierpnia. KMS zautomatyzuje natomiast bezpieczne przechowywanie poufnych danych przez programistów (wersja Beta będzie dostępna pod koniec lata). Zgodnie z zasadami zaufanej i odwracalnej chmury, oba rozwiązania będą otwarte i oferowane jako usługa.

    Wyrównywanie możliwości obliczeniowych

    W ślad za niedawno uruchomionymi Metal Instances, nowe instancje obliczeniowe wzbogacą portfolio pod koniec lata, dostępne w odnowionej sieci fizycznej w centrum danych o 5-krotnie większej pojemności. Natychmiastowa dostępność Metal Instances jest możliwa dzięki know-how OVHcloud w zakresie infrastruktury, w przyjaznych dla środowiska centrach danych.

    Możliwości Storage & Big Data

    Przy stale rosnącym zapotrzebowaniu na pamięć masową użytkownicy Block Storage skorzystają wkrótce z rozwiązania opartego na NVMe-oF (NVMe over Fabrics), oferującego znaczną wydajność. Przechowywanie danych w tym rozproszonym systemie pamięci masowej umożliwia fizyczne oddzielenie zasobów obliczeniowych serwerów od przestrzeni dyskowej. Wersja beta będzie dostępna w okolicy jesieni.

    Wykorzystanie bazy danych stanie się jeszcze łatwiejsze dzięki możliwości dynamicznego wybierania rozmiarów dysków. Bazy danych SQL będą również integrować się ze Storage Obiektowym S3.

    Pełen potencjał sztucznej inteligencji

    Sztuczna inteligencja wykorzysta potencjał nowych generacji sprzętu, który wkrótce zaoferuje nasza infrastruktura. Istotny etap procesu, czyli szkolenie (AI Training) jest już dostępny w ofercie OVHcloud jako prosta usługa, ukrywająca złożoność wymaganej infrastruktury. Wprowadzony niedawno w wersji Beta, AI Deploy ma wspierać przenoszenie działań do produkcji, gdy tylko modele AI będą gotowe do pracy. Ostateczna wersja AI Deploy spodziewana jest 3 kwietnia wraz z wstępnie wytrenowanymi Beta modelami NLP od Gladia i Voxist.

    Dzięki przejęciu ForePaaS portfolio usług danych OVHcloud nieustannie ewoluuje, korzystając z nowych funkcji oraz infrastruktury i zachowując jednocześnie podejście użytkowania ich bez potrzeby znajomości języków programowania. Kluczowe elementy zostaną udostępnione jako usługa do zbierania danych (ELT) w wersji Alpha w sierpniu, aby umożliwić klientom wizualizację danych i ułatwić pracę analitykom OVHcloud zaoferuje także kompletny zestaw narzędzi – nową architekturę zarządzania danymi Lakehouse. Wprowadzenie Lakehouse z obsługą SQL zaplanowane jest na zimę bieżącego roku. By zapewnić pełną odwracalność, brak uzależnienia od dostawcy oraz możliwość dostosowywania rozwiązania do własnych wymagań, rozwiązanie będzie otwarte. 

    Podejmuj wyzwania typu Lift & Shift w suwerennych środowiskach

    W tym roku VMware będzie korzystać z zarządzania aplikacjami w usługach Tanzu. NSX-T zostanie wdrożony w kwietniu w celu poprawy bezpieczeństwa, wzmacniając zaangażowanie Grupy w koncepcję zaufanej chmury.

    Ponadto klienci SAP mogą już wybrać serwery Bare Metal kwalifikowane do SAP HANA oraz środowisko SecNumCloud do uruchamiania rozwiązań SAP na Hosted Private Cloud. Dzięki zwiększonej pamięci RAM w nowych konfiguracjach, OVHcloud będzie obsługiwać zarządzanie infrastrukturą za pośrednictwem certyfikowanych pakietów vSAN HANA, aby pomóc klientom skupiać się na ich podstawowej działalności.

    Model działania 360 dla agencji internetowych

    Na początku maja webhosting skorzysta z nowej kompleksowej oferty, która pozwoli na szybkie uruchomienie projektu. Serwery nowej generacji zapewnią lepszą wydajność i krótszy czas ładowania. Dzięki większej liczbie funkcji, dostępnych w tym samym przedziale cenowym, Grupa niezmiennie oferuje najlepszy stosunek ceny do wydajności.

    OVHcloud uruchomi alternatywne rozwiązanie poczty e-mail oparte na Zimbra, które będzie mogło obsługiwać ActiveSync i standardowe narzędzia do współpracy oraz będzie działać zgodnie z najwyższymi standardami bezpieczeństwa.

    Infrastruktura i sieć 

    Nowa generacja Bare Metal będzie wykorzystywać chipy AMD Genoa i Intel Sapphire Rapids w konfiguracjach oferujących do 256 rdzeni x86 na jednostkę i do 8 TB pamięci RAM na dwugniazdowym serwerze, z pełnym wsparciem NVMe oraz aż do 2,2 PB pojemności dyskowej na serwer. Produkty Next Gen Scale i High-Grade zostaną wprowadzone na rynek latem tego roku.

    Nowa karta graficzna zapewni szybszą wydajność elementów AI, a w celu obsługi najbardziej intensywnych obciążeń zostanie zaoferowana platforma Grid Computing, która umożliwi programistom skorzystanie z szaf o mocy do 16 KW. Wersja Beta zostanie uruchomiona w październiku 2023 r.

    Sieć pozostaje kluczowa dla mocy obliczeniowej, dlatego OVHcloud planuje wdrożyć 25, 50, 100, a wkrótce 400G struktury sieciowej. W połączeniu z 4 interfejsami na serwer i technologią OLA przepustowość w centrum danych osiągnie zupełnie nowy poziom, zapewniając tym samym maksymalną elastyczność. Ruch w/oraz między centrami danych jest zawarty w usłudze, zwiększając przejrzystość cenową.

    Nowe możliwości dzięki Quantum

    OVHcloud uzupełnia swoją ofertę AI notebooków w dziedzinie technologii kwantowych o natychmiastową dostępność ATOS myQLM. Do istniejącego obecnie Quandela Perceval notebook, zostanie dodany ATOS myQLM – dedykowany notebook kwantowy umożliwiający rozwój i naukę.

    Podczas pierwszej konferencji Very Tech Trip, OVHcloud otwiera przestrzeń dla tysięcy miłośników technologii, jednocząc wszystkich w duchu wspólnej wizji chmury, której podstawowa wartość – wolność – pozostaje silniejsza niż nigdy wcześniej. Serdecznie zapraszamy wszystkich – programistów, administratorów systemów komputerowych, inżynierów SR, specjalistów Data Scientist, Scrum Masterów oraz architektów do testowania najnowszych rozwiązań w OVHcloud Labs i podzielenia się opiniami na Discord lub GitHub, gdzie można znaleźć także roadmap OVHcloud.

    Dowiedź się więcej na Very Tech Trip

  • Oracle z nowościami podczas konferencji Oracle CloudWorld w Las Vegas

    Oracle z nowościami podczas konferencji Oracle CloudWorld w Las Vegas

    Podczas konferencji Oracle CloudWorld w Las Vegas Oracle ogłosił dostępność wielu nowych funkcji platformy Oracle Cloud Infrastructure (OCI) oraz bazy Oracle Database.

    Oracle Alloy umożliwia partnerom wzbogacenie działalności o usługi chmurowe

    Oracle Alloy to nowa platforma w ramach infrastruktury chmurowej Oracle, która umożliwia dostawcom usług, integratorom, niezależnym sprzedawcom oprogramowania (ISV) i innym organizacjom, takim jak instytucje finansowe czy dostawcy telekomunikacyjni, wzbogacenie działalności o dostarczanie usług w chmurze i wprowadzanie takich usług dla własnych klientów. Dzięki Alloy organizacje te mogą oferować pełny zestaw usług w chmurze oraz oferować dodatkowe usługi i aplikacje o wartości dodanej, aby zaspokoić specyficzne potrzeby swoich rynków i branż. Organizacje te mogą również korzystać z Alloy niezależnie w swoich własnych centrach danych i w pełni kontrolować jego działanie, aby pomóc w spełnieniu specyficznych wymogów regulacyjnych.

    Platforma Alloy oferuje ponad 100 tych samych usług infrastrukturalnych i platformowych, które są dostępne w chmurze publicznej OCI. Partnerzy będą mogli obsługiwać instytucje sektora publicznego i firmy komercyjne, które chcą zachować swoje obciążenia robocze w kraju. Ponadto Alloy umożliwi partnerom wykorzystującym własne centra przetwarzania danych w celach hostingowych, odblokowanie nowych możliwości rozwoju poza chmurą publiczną.

    Nowe regiony chmury Oracle

    Oracle prowadzi obecnie 40 regionów komercyjnych i rządowych OCI w 22 krajach na pięciu kontynentach, uruchomił 10 regionów chmury publicznej w ciągu ostatniego roku i planuje dodać sześć nowych regionów:

    ·       Chicago – czwarty region komercyjny OCI w Stanach Zjednoczonych

    ·       Republika Serbii – pierwszy region OCI w tym kraju i pierwszy ogłoszony przez jakiegokolwiek dostawcę chmury

    ·       Kolumbia – pierwszy region OCI w tym kraju

    ·       Chile, Arabia Saudyjska i Meksyk – będą to drugie regiony Oracle Cloud w tych krajach

    Oracle ogłosił również, że planuje dodać dwa suwerenne regiony publiczne OCI dla Unii Europejskiej, zlokalizowane w Niemczech i Hiszpanii, przeznaczone do obsługi regulowanych i wrażliwych obciążeń firm prywatnych i organizacji sektora publicznego.

    Ponadto firma Oracle zobowiązała się do zasilania wszystkich światowych regionów chmury Oracle w 100 procentach energią odnawialną do roku 2025 – a kilka regionów chmury Oracle, w tym regiony w Ameryce Północnej, Ameryce Południowej i 10 regionów w Europie, jest już zasilanych w 100 procentach energią odnawialną.

    Oracle konferencja

    Platforma MySQL HeatWave Lakehouse

    MySQL HeatWave Lakehouse umożliwia klientom przetwarzanie i badanie setek terabajtów danych w magazynie obiektów w różnych formatach plików, takich jak CSV i Parquet, a także kopii zapasowych Aurora i Redshift. MySQL HeatWave Lakehouse to najnowszy dodatek do portfolio MySQL HeatWave, jedynej usługi w chmurze, która łączy przetwarzanie transakcji, analitykę, uczenie maszynowe i automatyzację opartą na uczeniu maszynowym w ramach bazy danych MySQL.

    MySQL HeatWave Lakehouse jest obecnie dostępny w wersji Beta, a jego ogólna dostępność planowana jest na pierwsze półrocze roku 2023. Klienci migrujący z AWS, Google i systemów on-premises używają MySQL HeatWave do szerokiego zestawu zastosowań, w tym do analizy wydajności kampanii reklamowych i analizy danych klientów w celu budowania skutecznych kampanii. Wśród klientów migrujących z AWS są liderzy z branży motoryzacyjnej, telekomunikacyjnej, handlu detalicznego, zaawansowanych technologii i opieki zdrowotnej.

    Jak wykazał w publicznie dostępny test TPC-H* o pojemności 400 TB, wydajność zapytań MySQL HeatWave Lakehouse jest:

    ·       17x szybsza niż Snowflake

    ·       6x szybsza niż Amazon Redshift

    Ładowanie danych z object store do MySQL HeatWave Lakehouse jest również znacznie szybsze. Dla obciążenia 400 TB TPC-H* wydajność ładowania MySQL HeatWave Lakehouse jest:

    ·       8x szybsza niż Amazon Redshift

    ·       2,7x szybsza niż Snowflake

    Oracle Database 23c w wersji Beta

    Oracle Database 23c, o nazwie kodowej „App Simple” przynosi wiele nowych możliwości, które zwiększają produktywność deweloperów projektujących aplikacje przy użyciu JSON, Graph lub mikroserwisów, jednocześnie udoskonalając SQL, aby był jeszcze łatwiejszy w użyciu, oraz dodając JavaScript jako język procedur przechowywanych. Oracle Database 23c wprowadza także JSON Relational Duality do rozwiązywania problemu niedopasowania między sposobem reprezentowania danych przez aplikacje, a sposobem przechowywania danych przez relacyjne bazy danych. JSON Relational Duality upraszcza rozwój aplikacji poprzez umożliwienie jednoczesnego wykorzystania danych jako przyjaznych dla aplikacji dokumentów JSON oraz jako przyjaznych dla bazy danych tabel relacyjnych.

    Oracle Database Zero Data Loss Autonomous Recovery Service

    Aby zwiększyć ochronę danych o znaczeniu newralgicznym na platformie Oracle Cloud Infrastructure (OCI), firma Oracle zapowiedziała również usługę Oracle Database Zero Data Loss Autonomous Recovery Service, dzięki której organizacje mogą skuteczniej radzić sobie z wyzwaniami związanymi z oprogramowaniem ransomware, awariami i błędami ludzkimi. Ponadto Oracle wprowadził usługę Oracle Full Stack Disaster Recovery Service, która pozwala klientom konfigurować, monitorować i zarządzać procesem odzyskiwania danych po awarii dla pełnego stosu technologii wykorzystywanych do tworzenia aplikacji – w tym oprogramowania pośredniczącego, baz danych, sieci, pamięci masowej i obliczeń – z poziomu konsoli OCI.

  • Edumixer już za kilka dni. Tematem bezpieczeństwo w teleinformatyce

    Edumixer już za kilka dni. Tematem bezpieczeństwo w teleinformatyce

    To już szósta edycja konferencji Edumixer, podczas ktorej reprezentanci firm oraz uczelni i placówek edukacyjnych będą rozmawiać o bezpieczeństwie w teleinformatyce jako wyzwaniu dla edukacji, rynku pracy i przedsiębiorców.

  • VI Forum Współpracy Edukacji i Biznesu – EDUMIXER już w październiku na Uniwersytecie Warszawskim!

    VI Forum Współpracy Edukacji i Biznesu – EDUMIXER już w październiku na Uniwersytecie Warszawskim!

    Już po raz szósty o współpracy nauki z biznesem rozmawiać będą podczas EDUMIXERA eksperci: reprezentanci firm oraz uczelni i placówek edukacyjnych. Tematem przewodnim konferencji będzie „Bezpieczeństwo w teleinformatyce. Wyzwanie dla edukacji, rynku pracy i przedsiębiorców”.

    Tegoroczna edycja to trzy dni dyskusji o wyzwaniach kompetencyjnych, których efektem będzie stworzenie modelu współpracy środowiska naukowego z firmami technologicznymi.

    Głównym celem konferencji jest wypracowanie propozycji zmian w programach kształcenia, uwzględniających rozwój technologiczny oraz potrzeby dynamicznego rynku pracy, wymiana doświadczeń i transfer najlepszych praktyk pomiędzy sektorem edukacji formalnej i pozafomalnej czy  przedsiębiorcami i instytucjami. Istotna jest także poprawa współpracy i zbudowanie partnerstwa pomiędzy podmiotami kształtującymi rynek pracy, możliwa dzięki identyfikacji potrzeb kompetencyjnych poszczególnych grup specjalistów z obszarów informatyki, telekomunikacji i cyberbezpieczeństwa. Finalnym efektem będą rekomendacje konkretnych rozwiązań, które zapewnią potrzebne kompetencje dla zainteresowanych podmiotów.

    Konferencja odbędzie się w dniach 18-20 października 2022 r. w budynku B, w Auli Rady Wydziału, w Sali B205 Uniwersytetu Warszawskiego, na Wydziale Zarządzania, ul. Szturmowa 1/3 w Warszawie.

    Harmonogram:

    We wtorek, 18 października uczestnicy dowiedzą się:

    • O budowaniu bezpieczeństwa w informatyce – kluczowe obszary dla edukacji, rynku pracy i biznesu;
    • o finansowaniu rozwoju kompetencji w obliczu nowej unijnej perspektywy finanasowej i funduszu odbudowy;
    • o aktualnych inicjatywach w Polsce i Unii Europejskiej oraz stanie prawnym zagadnień bezpieczeństwa.

    W środę, 19 października rozmowy będą dotyczyć bezpieczeństwa w komunikacji elektronicznej, m. in.:

    • wyzwań, jakie stawiają nowe technologie przed biznesem w obszarze telekomunikacji;
    • usług telekomunikacyjnych w obliczu sytuacji kryzysowych;
    • bezpieczeństwa informacji i dezinformacji;
    • sposobów zarządzania ryzykiem w sektorze telekomunikacji i cyberbezpieczeństwa.

    W czwartek, 20 października odbędą się warsztaty, w trakcie których: 

    • omówione zostaną kwestie obowiązków związanych z Krajowym Systemem Bezpieczeństwa;
    • przedstawione zostaną nowe obowiązki przedsiębiorców związane z Digital Services Act (DSA) i Digital Markets Act (DMA) oraz ich wpływ na nowe potrzebne kompetencje.

    Zapraszamy do rejestracji

    Więcej informacji dostępnych na www.edumixer.pl

  • Dołącz do najważniejszego wydarzenia branży ITSM

    Dołącz do najważniejszego wydarzenia branży ITSM

    Już 27 rozpoczyna się konferencja Digitalize and Automate – najważniejsze wydarzenie w branży Service Management w 2022 roku. Na konferencję, która odbędzie się w dniach 27-28 września, zaprasza Advatech wraz z firmą Efecte.

    Digitalize and Automate to spotkanie dla pasjonatów i ekspertów zarządzania usługami. Po raz kolejny zgromadzi prelegentów reprezentujących różne instytucje, między innymi:

    • Jussi Tolvanen, Dyrektor Generalny DNA, największej firmy telekomunikacyjnej w Finlandii.
    • Aleksandra Przegalinska, Profesor Akademii Leona Koźmińskiego w Warszawie.

    Prelegentem konferencji Digitalize and Automate został również Mariusz Maniak, Kierownik Działu ITSM z Advatech.

    Konferencja należy do Top 5 największych wydarzeń ITSM roku, a ubiegłoroczna edycja przyciągnęła ponad 2000 uczestników. W ciągu dwóch dni wydarzenia uczestnicy usłyszą inspirujące przemówienia, wnikliwe dyskusje panelowe oraz zapoznają się z pokazami technologii z zakresu IT Service Management i Identity Management. Tematem przewodnim konferencji jest pytanie: W jaki sposób cyfryzacja i automatyzacja wpłyną na przyszłość Europy. Uczestnicy będą także jednymi z pierwszych, którzy usłyszą o nowych funkcjach platformy Efecte, planach dotyczących produktów i innowacjach.

    Gościem specjalnym będzie wielokrotny mistrz świata Formuły 1.

    Zapraszamy do rejestracji na to bezpłatne wydarzenie online –

  • Nowe M1 Ultra i Mac Studio gwoździem wiosennej konferencji Apple

    Nowe M1 Ultra i Mac Studio gwoździem wiosennej konferencji Apple

    Nowa generacja iPhone SE i iPad Air wyposażona w szybsze procesory i moduły 5G to główne punkty wiosennej konferencji Apple. Choć propozycja giganta nie jest niespodzianką, bo pokrywa się z doniesieniami mediów z ostatnich tygodni, oferta może ucieszyć fanów nadgryzionego jabłka – komentuje ekspert iMad, autoryzowanego sprzedawcy i serwisu urządzeń firmy Apple w Polsce.

    Apple, iPhone SE

    Wiosenna konferencja technologicznego giganta tradycyjnie poświęcona jest prezentacji odświeżonych modeli produktów, w których wprowadzone zostały ulepszenia. Nowe linie produktów producent prezentuje zazwyczaj we wrześniu, czerwcowe wydarzenie dotyczy zmian w oprogramowaniu.

    Zgodnie z wcześniejszymi doniesieniami Apple przedstawił nową wersje modelu iPhone SE wzbogaconą o szybszy procesor, antenę 5G i ulepszony aparat. SE trzeciej generacji będzie też dostępny w dwóch odcieniach nowego, zielonego koloru.

    „SE to najbardziej niskobudżetowy telefon Apple, którego cena oscyluje w okolicy 2 tys. zł. Od 2020 r. w tym modelu nie były wprowadzane żadne zmiany. Szybszy procesor, ten sam, w który wyposażony jest najdroższy model iPhone’a – 13, antena 5G i nowa kolorystyka, to ważne zmiany”mówi Arkadiusz Nieszporek, dyrektor sprzedaży iMad.

    Zaskoczeniem nie była także prezentacja nowego modelu iPada Air 5, również w nowej kolorystyce, z układem M1, wykorzystywanym w MacBookach, oraz modułem 5G.

    Apple, iPad

    Zupełnie nową pozycją wiosennej prezentacji był zapowiadany przez media Mac Studio z czwartą wersją procesora M1 – Ultra.

    „Mac Studio, oparty na Mac mini, to nie po prostu odświeżona linia tego modelu. Urządzenie zostało bardzo mocno podrasowane, ma teraz dużo większą wydajność. Zdecydowanie zaspokoi potrzeby bardzo wymagających klientów m.in. osoby działające w branży muzycznej, deweloperów, programistów czy architektów”komentuje Arkadiusz Nieszporek.

    Apple

    Wbrew oczekiwaniom fanów urządzeń z nadgryzionym jabłkiem, podczas wtorkowej konferencji firma nie podała daty premiery nowego systemu operacyjnego iOS 15.4.

    „Tradycyjnie to podczas czerwcowej konferencji ogłaszane są nowe wersje oprogramowania, ale beta testy iOS 15.4 zostały już zakończone, więc były nadzieje, że taka informacja może pojawić się i dziś. Tak się nie stało, a użytkownicy już nie mogą się doczekać największych zapowiadanych zmian, czyli możliwości odblokowywania telefonu przy pomocy FaceID, nie zdejmując maski i dodawania paszportu covidowego do Apple Wallet”podsumowuje szef sprzedaży iMad.

    Apple studio
    źródło: Apple

  • Sony: Stawiamy na duże wyświetlacze

    Sony: Stawiamy na duże wyświetlacze

    W 2021 roku wprowadziliśmy na rynek 100-calowy monitor do zastosowań biznesowych, który okazał się hitem sprzedaży. Jest to efekt  konsekwentnej strategii rozwoju lineupu monitorów profesjonalnych  dywizji – Sony Professional Displays and Solutions,  udanej kampanii marketingowo-informacyjnej oraz bliskiej współpracy z parnterami. Po raz pierwszy w historii oferujemy dwie linie monitorów profesjonalnych Sony Bravia o rozdzielczości 4K z HDR o przekątnych matrycy od 32 do 100 cali dzięki czemu klienci mogą idealnie dostosować wielkość monitora Sony do swoich wymagań. Największą cześć naszej oferty stanowią wyświetlacze o przekątnej powyżej 55 cali, ponieważ klienci poszukują monitorów o coraz większych rozmiarach.

    Profesjonalne monitory Bravia łączą w sobie trzy elementy – technologie konsumenckie, funkcje profesjonalne i profesjonalny serwis. Oznacza to, że monitor jest standardowo objęty 3-letnią gwarancją EliteSupport, którą można przedłużyć nawet do 5 lat. Jest ona specjalnie dostosowana do wymagań klientów biznesowych, co oznacza, że w przypadku awarii monitora przedstawiciel serwisu naprawia lub wymienia uszkodzony wyświetlacz na miejscu, u klienta.

    Sony

    W niektórych projektach partnerzy potrzebują telewizorów. Z Sony PDS mają taką możliwość gdyż w naszej ofercie znajdują się również telewizory konsumenckie Sony Bravia z profesjonalnym serwisem Elite Support – takim samym jak w przypadku monitorów profesjonalnych.

    W przypadku monitorów mamy do dyspozycji 2 serie – BZ40H oraz BZ35J. Wszystkie mogą pracować 24h/7 dni w tygodniu. Można je wieszać w poziomie, pionie, jak i w pochyleniu. Monitory Sony Bravia sprawdzają się również do zabudowy w stołach interaktywnych, ale wówczas wzbogacamy system o aktywne chłodzenie, aby ciepło nie pozostawało pod matrycą. Instalacje i integracje zdecydowanie ułatwia przeniesienie złączy na jedną stronę, a także rozstaw śrub zgodny ze standardem VESA . W komplecie z monitorem zawsze jest podstawa stołowa. 

    Sony

    Monitory BZ40H wyróżnia bardzo wysoka – bo sięgająca 850 cd/m2 – jasność szczytowa. W trybie standardowym jest to – 560 – 620 cd/m2.

    W drugiej serii  – Sony Bravia BZ30J urządzenia wyposażone są w matryce IPS o jasnościach od 300 do 440 cd/m2.

    Co wyróżnia ofertę Sony na rynku?  Bardzo szeroki lineup, świetne warunki gwarancyjne i stosunek parametrów technicznych do ceny.  Co doceniają  Partnerzy i klienci końcowi korzystający z monitorów i telewizorów Sony Bravia? Przede wszystkim jakość obrazu, łatwość obsługi, a także możliwość dostosowania działania monitora do każdej instalacji.


    Autor: Piotr Gajewski – Dealer Manager, Sony Professional Solutions Europe

    Piotr Gajewski - Sony Professional

    Piotr Gajewski od ponad 7 lat pracuje jako Dealer Manager w Sony Professional Solution Europe. Do jego obowiązków należy współpraca z klientami i popularyzacja wiedzy na temat rozwiązań i produktów Sony Professional. Ogromna wiedza, doświadczenie i zaangażowanie czynią z  Piotra wiarygodnego partnera i współpracownika, ale również prelegenta uczestniczącego w licznych konferencjach i webinariach.

  • Debata Związku Cyfrowa Polska: cyfrowy atak na urząd to atak na całą lokalną społeczność

    Debata Związku Cyfrowa Polska: cyfrowy atak na urząd to atak na całą lokalną społeczność

    Świadomość zagrożeń i otwartość samorządów na inwestycje w cyberbezpieczeństwo rośnie wraz z nagłaśnianiem przypadków ataków cyfrowych i wycieków danych w jednostkach samorządu terytorialnego. Rozwój wiedzy i kompetencji w obszarze bezpieczeństwa cyfrowego jest istotnym, lecz nie jedynym wyzwaniem na drodze do cyberbezpiecznej przyszłości polskiej administracji – mówił prezes Związku Polska Michał Kanownik na konferencji z serii #CyfryzujemyPolskę.

    Nad stanem cyberbezpieczeństwa w jednostkach administracji publicznej i wyzwaniami stojącymi w rozpoczętym roku przed aparatem państwowym w związku z rosnącą skalą zagrożeń cyfrowych debatowali uczestnicy panelu dyskusyjnego w trakcie konferencji pt. „Cyberzagrożenia w 2021 r. i wyzwania na 2022 r.”. Spotkanie zorganizował reprezentujący polską branżę cyfrową i nowych technologii Związek Cyfrowa Polska.

    Postęp cyfryzacji, rozwój zagrożeń

    Eksperci biorący udział w dyskusji odnosząc się do trwającej transformacji cyfrowej, która przyspieszyła w czasie pandemii, a w centralnej i lokalnej administracji publicznej objawia się udostępnianiem obywatelom nowych e-usług, byli zgodni co do faktu, że zjawisko to zbiega się ze wzrostem liczby incydentów bezpieczeństwa w urzędach. Te coraz częściej stanowią cel ataków cyfrowych. Proces cyfryzacji dotyczy m.in. Urzędu Zamówień Publicznych, a jego kierownictwo dostrzega znaczenie przygotowania się cyberzagrożenia. – Rok 2021 był dla UZP wyjątkowy. Uczyniliśmy w tym czasie proces postępowań zamówieniowych w pełni elektronicznym, a na nadchodzące lata planujemy cyfryzację kolejnych procesów. Prowadząc transformację cyfrową zdajemy sobie jednak sprawę, że istotny jest nie tylko komfort podmiotów korzystających z nowych, cyfrowych narzędzi, lecz również bezpieczeństwo ich danychprzekonywał Hubert Nowak, prezes UZP.

    O bezpieczeństwie użytkowników usług e-administracji mówił również Michał Kanownik, prezes Związku Cyfrowa Polska, wskazując również na inne niż urzędy obszary, którym sektor publiczny winien się bacznie przyglądać. – Oczywiście incydent cyberbezpieczeństwa na poziomie samorządu dotyczy nie tylko urzędu, ale przede wszystkim obywateli tworzących lokalną społeczność, których dane są zagrożone, a potencjalnie również kolejnych organów państwowych, z którymi połączona jest zaatakowana jednostka. Najistotniejszy cel cyberataków stanowi prawdopodobnie infrastruktura krytyczna. Nie jesteśmy w stanie zapobiec każdemu incydentowi i dlatego kluczowy jest nasz czas reakcji na przypadki ataków, szczególnie na wrażliwe cele wskazał gospodarz konferencji.

    Potrzebne wytyczne i fundusze

    Jan Maciej Czajkowski, reprezentujący Związek Miast Polskich wskazywał, że w kontekście cyberbezpieczeństwa samorządy nie są pod względem swoich możliwości i przygotowania na zagrożenia jednorodną grupą. – Jednostki samorządowe nie są jednolite w swoich kompetencjach i możliwościach. Każda z nich widzi kwestie cyberbezpieczeństwa nieco inaczej i przed każdą stoją nieco inne wyzwania ze względu na typ i liczebność świadczonych usług i przetwarzanych danych. Na czoło biegu ku cyberbezpieczeństwu wśród krajowych JST wysuwają się moim zdaniem duże miasta na prawach powiatumówił przedstawiciel Związku Miast Polskich. Gość dodał, że dla poprawy sytuacji lokalnej administracji istotny będzie nie tylko rozwój świadomości i kompetencji i zapewnienie dedykowanych środków finansowych, ale również udzielenie klarownych wytycznych, a następnie prowadzenie audytów w celu potwierdzenia ich wdrażania. – Większość małych i średnich JST, które potrzebują wsparcia w tym obszarze polega na ich własnych kompetencjach, które często nie są dostateczne. Należy zapewnić im oczywiście środki finansowe na ten cel, ale również prowadzić audyty po wcześniejszym ustaleniu oczekiwań wobec urzędówwymieniał Jan Maciej Czajkowski.

    Prezes Urzędu Zamówień Publicznych podkreślał, że we wdrażaniu rozwiązań cyberbezpieczeństwa pomocne mogłyby okazać się dedykowane regulacje.  – Jako organy publiczne przywykliśmy do działania w ramach ścisłych i często sztywnych schematów prawnych. Cyberzagrożenia wymykają się nam w tej sferze, a podmioty administracji publicznej potrzebują jasnych ram i wskazówek dotyczących bezpieczeństwa cyfrowegomówił Hubert Nowak.Póki administracja publiczna nie dysponuje odpowiednio przejrzystymi wytycznymi prawnymi dla wdrażania cyberbezpieczeństwa, musi dzielić się między sobą doświadczeniami i kompetencjami dodał.

    Wspólna praca, bezpieczną przyszłość

    O potencjale i potrzebie współpracy podczas debaty mówił również Przemysław Kania, Dyrektor Generalny Cisco Polska. – Branża cyberbezpieczeństwa również jest w pewien sposób zdefragmentowana. Podmioty ją tworzące są silnie wyspecjalizowane, a jednym z zadań naszych organizacji jest pomoc w tworzeniu spójnych, kompletnych cyberbezpiecznych ekosystemów. Ważne jest też, by samorządy miały odwagę nawiązywać dialog z dostawcami, ponieważ nasza branża jest otwarta na współpracę z administracją publiczną i pomoc nie tylko przez oferowanie rozwiązań, ale też budowanie świadomości urzędników zapewniał Przemysław Kania.

    Choć nadchodzący rok zdaniem ekspertów przyniesie wiele wyzwań dla rozwoju cyberbezpieczeństwa administracji publicznej w Polsce, to zdaniem organizatora konferencji należy zachować optymizm. – Rozwijajmy świadomość zagrożeń i budujmy kompetencje urzędników. Zabiegajmy o zapewnienie środków dedykowanych na inwestycje w cyberbezpieczeństwo dla samorządów oraz jasnych wytycznych, które wskażą im kierunek przemian. Jestem przekonany, że jeśli podejmiemy pracę w tych obszarach Polska administracja publiczna będzie gotowa, by radzić sobie z zagrożeniami ery cyfrowejpowiedział, podsumowując debatę Prezes Związku Cyfrowa Polska Michał Kanownik.

    Konferencja z cyklu #CyfryzujemyPolskę została zorganizowana 13 stycznia pod Patronatem Honorowym Sekretarz Stanu w KPRM, Pełnomocnika Rządu do Spraw Cyberbezpieczeństwa Janusza Cieszyńskiego oraz Urzędu Zamówień Publicznych. Partnerami wydarzenia były firmy Cisco oraz Samsung. Patronat medialny sprawowali portal Cyberdefence24.pl oraz agencja ISBtech.

  • Uczelnie wyższe – Nauka w modelu hybrydowym to trend światowy!

    Uczelnie wyższe – Nauka w modelu hybrydowym to trend światowy!

    Po marcu 2020 r. w systemach edukacyjnych na świecie zaszły nieodwracalne zmiany. Uczniowie, studenci, nauczyciele i wykładowcy musieli przejść na nauczanie zdalne lub hybrydowe. Zajęcia przeniosły się z klas fizycznych do wirtualnych — bez konkretnej perspektywy zmiany tego stanu rzeczy.

    Uczelnie stanęły przed problemem zapewnienia sprzętu i rozwiązań do realizacji swoich zadań. Konieczne stało się  też zapewnienie współdziałania technologii zdalnej i lokalnej w celu stworzenia optymalnego środowiska do nauki hybrydowej.

    We wrześniu 2021r. firma Sony przeprowadziła badania wśród studentów z Wielkiej Brytanii, Francji i Niemiec. Celem było poznanie ich odczuć i potrzeb w kontekście efektywnej nauki w nowych warunkach. Badania dotyczyły również tego w jaki sposób uczelnie próbują spełnić oczekiwania związane z nową, hybrydową formułą nauczania w szkolnictwie wyższym.

    Możliwość zdalnego nauczania jest ważna, nie zmienia to jednak faktu, że perspektywa nauczania wyłącznie w świecie cyfrowym to nie jest dobry kierunek. Studenci nadal chcą uczęszczać na zajęcia stacjonarne. Taki tryb nauki preferuje ponad jedna trzecia (37%) studentów z Europy, natomiast za modelem całkowicie zdalnym opowiada się tylko 13%. Jednocześnie ponad jedna trzecia europejskich decydentów IT za priorytet uważa technologię do zdalnego nauczania, a aż 92% zamierza zainwestować w taką technologię w przyszłym roku. Nie jest to zaskakujący kierunek ze względu na to, że pandemia obnażyła deficyty w sprzęcie i rozwiązaniach nie tylko na wyższych uczelniach.

    Konieczność rozbudowania infrastruktury o narzędzia do transmisji wykładów i zajęć dydaktycznych online  – zdefiniowała m. in.  Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie. Musiała to być jednak decyzja przemyślana, perspektywiczna i dająca możliwość uniwersalnego wykorzystania urządzeń w przyszłości. Ważna stała się możliwość robienia zbliżeń i kadrowania stołów laboratoryjnych w pracowniach – fizycznych czy chemicznych itp. Tak, aby studenci mogli dokładnie śledzić przeprowadzane eksperymenty i doświadczenia podczas zdalnych zajęć.

    sony, nauka, technologia

    Do Akademii trafiło 127 kamer Sony SRG120DU. Klika sztuk zainstalowano w aulach i innych pomieszczeniach, zaś zdecydowana większość trafiła na statywy. Jednym z wytycznych przetargowych, była możliwość takiej instalacji. Daje to potrzebną Uczelni mobilność, ponieważ pozwala na ustawianie kamer w pobliżu stołów laboratoryjnych czy w innych miejscach istotnych z punktu widzenia przekazu. Dzięki temu, że wybrano kamery PTZ (z ang. Pan-Tilt-Zoom) możliwe jest zaprogramowanie  16 pozycji urządzenia  i łatwa zmiana ujęć – obroty i zbliżenia. W warunkach nauki zdalnej pozwalało to na dokładne pokazanie przeprowadzanych eksperymentów i doświadczeń co dla studentów ma ogromną wartość. Prowadzący zajęcia może zapisywać presety, czyli zdefiniowane wcześniej położenia kamery i wywoływać je z pilota. Jest to ważne ponieważ obsługa urządzenia dzięki temu jest bardzo prosta i nie obciąża prowadzącego, a co za tym idzie nie zakłóca zajęć. Kamerami można oczywiście także sterować z poziomu komputera. W zależności od potrzeb – urządzenia ustawiane są w pobliżu stołów doświadczalnych lub tak, aby jak najwygodniej kadrować wykładowców.

    Na potrzeby wszystkich pracowników Akademia otworzyła studio webinarowe. Są to dwa osobne pomieszczenia – mniejsze przystosowane do pracy dla jednej osoby oraz większe Studio Nr 2 z komfortowymi warunkami dla większej liczby osób.  W tym zastosowaniu kamery Sony SRG120DU – z wysokiej klasy obiektywem i zoomem optycznym umożliwiającym wygodne kadrowanie – również znalazły zastosowanie.

    sony, nauka, technologia

    Sektor edukacji będzie ewoluował ku modelowi hybrydowemu. Ta formuła odegra kluczową rolę nie tylko w zapewnieniu studentom odpowiedniego wsparcia przez całe studia, lecz także w pozyskiwaniu nowych studentów ze wszystkich części świata. Będą oni mogli zapisywać się na preferowane kursy bez potrzeby fizycznej obecności na zajęciach, a więc bez ponoszenia kosztów podróży i mieszkania.

    Z ankiety zleconej przez Sony wynika, że zdaniem ponad trzech czwartych (79%) europejskich studentów warunki studiowania poprawiłyby się, gdyby ich uniwersytety inwestowały w technologie do nauki online i hybrydowej. Ponad jedna trzecia (34%) ankietowanych czuje się pozbawiona kontaktu z rówieśnikami. Wskazuje to na potrzebę współpracy z użyciem technologii, zarówno zdalnie, jak i na uczelni, po to by studenci pozostawali w kontakcie i mieli możliwość spotykania się na zajęciach.

    Nie chodzi jednak o samo zapewnienie technologii do nauki zdalnej i stacjonarnej. Trzeba zagwarantować spójne połączenie obu środowisk, by studenci mogli efektywnie i produktywnie pracować w zespołach bez względu na to, gdzie się znajdują. W przypadku środowiska zdalnego taką samą jakość treści i łatwość ich udostępniania zapewnią kamery SRG, które umożliwiają rejestrację i streaming w wysokiej jakości w celu stworzenia dobrych warunków do nauki dla wszystkich studentów. Można powiedzieć, że to rozwiązanie ponadczasowe, które otwiera przed uczelniami możliwości szerszego realizowania zadań i dotarcia do większej liczby słuchaczy.

    „Kształcenie w uczelni technicznej, a taką jest AGH w Krakowie, to przede wszystkim praktyka. Przekazujemy studentom wiedzę praktyczną. W związku z tym priorytetem dla nas jest kształcenie stacjonarne. Nie ulega jednak wątpliwości, że sprzęt elektroniczny, kamery, mikrofony czy wszelkie platformy do komunikacji zdalnej z pewnością mogą być wykorzystywane w modelu hybrydowym. Kamery mogą przydać się przy wszelkiego typu seminariach, konferencjach czy wydarzeniach, których publiczność może być przecież rozsiana po całym świecie. Z pewnością sprzęt ułatwi nam prowadzenie tego typu wydarzeń na profesjonalnym poziomie.”podsumowuje Mariusz Śmiech, główny specjalista ds. inżynieryjno-technicznych w Akademii-Górniczo Hutniczej.

    Technologia stanowi klucz do zwiększenia atrakcyjności zajęć, zapewnienia wsparcia wykładowcom i osiągania przez studentów lepszych wyników. Wprowadzając proste, ale skuteczne narzędzia cyfrowe, instytucje oświatowe z całego świata stają przed ogromną szansą, by nie tylko zagwarantować ciągłość nauczania, lecz także utrzymać konkurencyjność w zmieniającym się świecie, w którym studenci potrzebują równowagi między rozwiązaniami do nauki online i stacjonarnej.


    Informacje o badaniu:
    Ankietę zleconą przez Sony Professional Displays & Solutions przeprowadziły firmy 3Gem i SAPIO Research w dniach 6–17 września 2021 r. Wzięło w niej udział 3000 studentów i 154 decydentów IT z sektora szkolnictwa wyższego w Niemczech, Francji i Wielkiej Brytanii.,

  • Edukacja kontra fake news – drugi dzień VI Międzynarodowej Konferencji PEM

    Edukacja kontra fake news – drugi dzień VI Międzynarodowej Konferencji PEM

    Zakończył się drugi i ostatni dzień Międzynarodowej Konferencji PEM „Fale radiowe są niewidoczne. Co robimy, by były transparentne – normy i regulacje”. Poświęcony był problemom tworzenia i rozpowszechniania fałszywych informacji na temat PEM i roli rzetelnej edukacji w ich zwalczaniu. Konferencję organizują Instytut Łączności i Kancelaria Prezesa Rady Ministrów.

    Drugi dzień konferencji otworzyli prof. dr hab. n. med. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego, wiceprzewodnicząca Rady Programowej wydarzenia oraz dr inż. Jacek Oko, prezes Urzędu Komunikacji Elektronicznej.

    – To jedna z najcenniejszych i najważniejszych merytorycznie w branży konferencji dotyczących PEM. Większy nacisk położony na rzetelne informacje dotyczące PEM przez operatorów może być szczepionką na wszelkie fake newsy związane z PEMpowiedział prezes UKE. 

    Pierwsza część wystąpień prelegentów dotyczyła sposobów skutecznej edukacji w zakresie PEM i 5G. Perspektywę operatorów telekomunikacyjnych przedstawił Piotr Kędzierski z T-mobile, który podczas konferencji wystąpił w imieniu Polskiej Izby Informatyki i Telekomunikacji.

    – Edukacja dotycząca PEM i nowoczesnych technologii powinna zaczynać się jak najwcześniej, już w szkole, być może w ramach istniejących już zajęć. Sami nie wiele jesteśmy w stanie zrobić, poszukujemy partnerów, z którymi możemy prowadzić działania edukacyjne w sposób wiarygodny – najsilniejsze są działania instytucji naukowych, które są neutralnepodkreślił Piotr Kędzierski. 

    Jak z kwestią edukacji mogą radzić sobie krajowi regulatorzy, na przykładzie rozwiązań cypryjskich, mówił Christos Kourtellaris z Departamentu Komunikacji Elektronicznej Wiceministra Nauki, Innowacji i Polityki Cyfrowej Cypru.

    – Nasz departament działa na rzecz edukacji o PEM, staramy się, aby procedura i kompetencje były transparentne, zrozumiałe dla wszystkich i łatwo dostępnezaznaczył. 

    Działania edukacyjne prowadzone przez australijskiego operatora Telstra omówili reprezentanci tej firmy Debbie Wills i Mike Wood.

    – Pokazujemy społeczeństwu zasady działania urządzeń wykorzystujących technologię bezprzewodową – to również element strategii informacyjnej związanej z 5G i PEM mówił Mike Wood. 

    – Zmierzone poziomy PEM na australijskiej plaży wynoszące około 0,015 W/m2 postanowiliśmy porównać do PEM pochodzącego od Słońca, które wynosiło 1000 W/m2dodał. 

    Kinga Graczyk i Łukasz Kiwicz z Kancelarii Prezesa Rady Ministrów przybliżyli założenia kampanii edukacyjnej Instytutu Łączności i KPRM dotyczącej komunikacji bezprzewodowej i 5G, która rozpoczęła się w 2021 roku i będzie trwała 3 lata.

    – W ramach działań edukacyjnych związanych z PEM będziemy korzystać z narzędzi jak najlepiej dopasowanych do naszych odbiorcówpowiedziała Kinga Graczyk. 

    – Autorytet wykształconych i utytułowanych ekspertów w danej dziedzinie przestaje mieć znaczenie w chwili, kiedy wygłaszają oni swoje stanowisko odmienne niż pasujące do przyjętej tezyzaznaczył Łukasz Kiwicz. 

    – Osoby o stosunkowo niskich kwalifikacjach w swojej dziedzinie mają często tendencje do przeceniania swojej wiedzy. Namiastka tego autorytetu powoduje, że często zjednują sobie odbiorców i szerzą informacje niemające pokrycia w rzeczywistości dodała Kinga Graczyk. 

    Jaką rolę odgrywają media społecznościowe w rozpowszechnianiu dezinformacji? Zaproszeni eksperci dyskutowali o tym w kolejnej części drugiego dnia konferencji.

    Jako pierwszy zabrał głos Tommaso Canetta z fact checkingowej organizacji Pagella Politica, który omówił mechanizm powielania i rozpowszechniania fake newsów i teorii spiskowych w sieciach społecznościowych.

    – Błąd potwierdzenia oznacza, że dużo łatwiej jest znaleźć użytkownikowi Internetu informacje potwierdzające jego fake news niż taką, która go obalizauważył. 

    O psychologicznych aspektach popularności fałszywych treści w Internecie mówiła dr Magdalena Jabłońska z Uniwersytetu SWPS.

    – Celem fake newsów jest celowe wprowadzenie użytkownika w błąd, często są to informacje zmyślone mające za zadanie wywołać określone efekty. Efekt śpiocha polega na tym, że ludzie nie pamiętają o niewiarygodnym źródle informacji, ale pamiętają samą informację, zapominając o nierzetelności źródła, szczególnie jeżeli oddziałuje również na emocje osobymówiła dr Jabłońska. 

    – W nauce musimy zaakceptować obszary niewiedzy. Gdyby wszystko było wiadome nie trzeba by było prowadzić badań naukowych. Jeżeli jesteśmy w stanie i mamy taką możliwość, to pytajmy ekspertówdodała. 

    Julian Dobrowolski z NASK przedstawił narzędzia udostępniane przez sieci społecznościowe wspierające zwalczanie dezinformacji.

    – Jest kilka okoliczności w jakich Facebook pozwala zgłosić informację, jako nieprawdziwą i uznaje ją za fake news. Francja oraz Niemcy posiadają własne regulacje prawne dotyczące usuwania treści fake newsów z Internetu zauważył. 

    W kolejnej części konferencji zaproszeni prelegenci zastanawiali się, jak komunikować wyniki badań medycznych, aby nie zostały wykorzystane do dezinformacji.

    Krótki kurs właściwego czytania wyników badań naukowych w swojej prezentacji przedstawiła prof. dr hab. n. med. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego.

    – Aby prawidłowo czytać badania należy być sceptycznym, sprawdzać, czy cytowane badanie rzeczywiście istnieje. Należy pamiętać o hierarchii dowodów naukowych a także sprawdzać renomę czasopisma, w którym badania naukowe zostały opublikowane. Warto także przyjrzeć się konfliktom interesów i źródle finansowania badań oraz zawsze należy zapoznać się z dyskusjami oraz wnioskami dotyczącymi opublikowanych badań. 

    Jak nauka ma rywalizować z „prawdą ulicy”, gdy do dyspozycji jest tylko 280 znaków postu na Twitterze? Problemem zajęła się w swojej prezentacji Maja Romanowska z WHO.

    – Współcześnie mamy do czynienia z infodemią, czyli nadmiarem informacji zarówno tych dobrych jak i, niestety, niewłaściwych. Za szerzenie fake newsów i działanie na szkodę innych powinny być nakładane kary i wyciągane konsekwencje. W 95% za dezinformację w Internecie jest odpowiedzialnych 12 kont w mediach społecznościowychstwierdziła. 

    O warsztacie naukowca i kulisach powstawania prac naukowych opowiadał dr hab. Grzegorz Tatoń z Zakładu Biofizyki Wydziału Lekarskiego Collegium Medicum Uniwersytetu Jagiellońskiego.

    – Rozmowa telefoniczna powoduje mierzalny wzrost temperatury okolicy ucha, ale nie udało się ustalić czy czynnikiem istotnym w tym przypadku jest oddziaływanie PEM. Na świecie istnieje 54 000 czasopism naukowych. Osoba, która nie dysponuje umiejętnością krytycznej oceny prac naukowych może znaleźć tekst, który będzie uzasadniał dowolny pogląd na dowolny temat. Ani naukowcy, ani lekarze nie dysponują metodami pozwalającymi na stwierdzenie związku przyczynowo-skutkowego pomiędzy objawami, a czynnikami takiego rodzaju, jak PEMmówił dr. Tatoń. 

    Thomas Barmüller, dyrektor Mobile & Wireless Forum na Europę, Bliski Wschód i Afrykę, omówił prowadzoną w mediach społecznościowych kampanię #5GFactsNotFear.

    – Nadszedł czas na fakty, nie na lęki i obawy. Dezinformacje to informacje, które mają wywołać konkretną szkodę, nie są zwykłymi fałszywymi informacjami. Zdecydowana większość Europejczyków jest niepewna, jeżeli chodzi o mity na temat 5G. Powinniśmy mówić o faktach i liczbach tak, by mieszkańcy mogli podejmować decyzje oparte na prawdziwych danych i nie uginali się pod presją fake newsówstwierdził Thomas Barmüller. 

    – Z naszego raportu wynika, że brakuje korelacji pomiędzy częstotliwościami występowania chorób nowotworowych a liczbą użytkowników telefonii komórkowej dodał. 

    Ostatnie wystąpienia prelegentów drugiego dnia konferencji dotyczyły fact checkingu – jego roli w zwalczaniu dezinformacji oraz trudnościom i wyzwaniom, przed jakimi stają specjaliści w tej dziedzinie.

    Jak, na tle innych krajów, wygląda współpraca administracji z zespołami fact checkingowymi – to temat prezentacji przedstawionej przez Maję Czarnecką, dziennikarkę AFP.

    – Powiązanie sieci 5G z pandemią COVID19 to jeden z elementów składających się na większą część, którą są teorie spiskowe związane z pandemią oraz szczepionkami w ramach Nowego Porządku Świata tzw. NWO. 

    Małgorzata Fraser z serwisu CyberDefence24 w swoim wystąpienia zastanawiała się czy fact checking może być skutecznym lekarstwem na celową, systemową dezinformację.

    – Dezinformacja zakorzeniła się w świadomości wszystkich obywateli po wyborach prezydenta USA w 2016 roku, gdy okazało się, że wykorzystanie social mediów w określony i zaplanowany sposób miało wpływ na te wydarzenia. Odbiorcy wiadomości nie mają narzędzi, ani wiedzy, w jaki sposób radzić sobie z otaczającymi nas w sieci fake newsami. 

    Czy fact checking kiedyś się kończy? Czy jest moment, kiedy możemy przestać weryfikować i uznać dany temat za ostatecznie wyjaśniony? Z tematem zmierzył się Marcel Kiełtyka ze Stowarzyszenia Demagog.

    – Jednym z często powtarzanych fake newsów, które można było znaleźć w sieci na początku pandemii był ten twierdzący, że zachorowanie na Sars-Cov-2 to efekt choroby popromiennej spowodowanej wprowadzaniem sieci 5G. Informacja ta doprowadziła do podpalenia 159 masztów telefonii komórkowej. Spowodowało to przestój w pracy tych stacji na 170 tys. godzin. Zatem, kiedy możemy przestać weryfikować informacje? Raczej nie możemy tego zrobić, należy zawsze docierać do ich źródeł i cały czas edukować społeczeństwo. 

    Konferencję podsumował Jakub Wiech, moderator drugiego dnia wydarzenia:

    – Podczas konferencji padło wiele cennych spostrzeżeń. Dowiedzieliśmy się, jak wyglądają fake newsy dotyczące różnych kwestii naszego codziennego życia. Warto pamiętać, że trzeba być zawsze krytycznym wobec informacji, które do nas napływają. Z tyłu głowy warto mieć pytanie: a co, jeśli ktoś próbuje mnie oszukać? Tegoroczna edycja konferencji i dyskusje, które tu odbyliśmy może być formą szczepionki, dawki przykładów, które uwrażliwią nas na fake news i pozwolą nam je rozpoznać.

    Z wystąpień prelegentów i dyskusji panelowych podczas drugiego dnia konferencji wynika, że fake newsy, dezinformacja i teorie spiskowe związane z PEM powstają i są rozpowszechniane niezwykle łatwo. Media społecznościowe są znakomitym i niezwykle trudnym do kontrolowania środkiem szybkiego powielania fałszywych informacji. Możemy przeciwstawiać się lawinie dezinformacji: edukując, weryfikując fakty, promując rzetelną wiedzę naukową. Nie mamy tylko pewności, że narzędzia, które mamy do dyspozycji będą skuteczne.

  • Limity PEM: wyznaczanie, kontrola, komunikowanie – pierwszy dzień VI Międzynarodowej Konferencji PEM

    Limity PEM: wyznaczanie, kontrola, komunikowanie – pierwszy dzień VI Międzynarodowej Konferencji PEM

    W jaki sposób ustalane są dopuszczalne poziomy PEM? Czy ich przestrzeganie jest odpowiednio nadzorowane? Jak właściwie komunikować wyniki takiej kontroli? O tym dyskutowali międzynarodowi eksperci podczas pierwszego dnia rozpoczętej wczoraj konferencji „Fale radiowe są niewidoczne. Co robimy, by były transparentne – normy i regulacje”. Organizatorem wydarzenia jest Instytut Łączności we współpracy z Kancelarią Prezesa Rady Ministrów. 

    Gości konferencji powitali Janusz Cieszyński, sekretarz stanu w Kancelaria Premiera, prof. dr hab. inż. Paweł Pławiak, zastępca dyrektora Instytutu Łączności ds. naukowych i prof. dr hab. inż. Sławomir Hausman z Politechniki Łódzkiej, przewodniczący Komitetu Programowego konferencji. 

    – Konferencja jasno pokazuje główne wyzwanie, czyli jak w sposób przystępny, zrozumiały i budzący zaufanie społeczne, mówić o bardzo trudnych zjawiskach. Osoby, które się do nas zwracają, by dowiedzieć się, jak działają fale elektromagnetyczne, wciąż posługują się fake newsami. Szerzy się dezinformacja na temat fal elektromagnetycznychpowiedział Janusz Cieszyński. 

    – Instytut Łączności we współpracy z KPRM od lat stara się robić wszystko, aby wiedza o PEM była oparta o naukę, a nie o szerzące się teorie nie mające poparcia w faktach naukowych dodał Paweł Pławiak. 

    Głos zabrał również Mario Maniewicz, Dyrektor Biura Radiokomunikacji Międzynarodowej Unii Telekomunikacyjnej. Organizacja jest współorganizatorem wydarzenia. 

    Pierwsi dwaj prelegenci reprezentowali Międzynarodowy Instytutu Inżynierów Elektryków i Elektroników IEEE. Prof. Jafar Keshvari mówił o sposobie opracowywania limitów ekspozycji na PEM i częstotliwości ich weryfikacji. 

    – Standardy IEEE opierają się na danych naukowych. Efekty oddziaływania PEM, które zostały udowodnione w recenzowanych artykułach naukowych muszą być spójne i wystąpić w określonych, powtarzalnych okolicznościach. To daje podstawy do wyznaczania poziomu progowego, który może potencjalnie źle wpływać na człowiekapodkreślił prof. Keshvari. 

    Dr Chou Chung-Kwang, przewodniczący Międzynarodowego Komitetu Bezpieczeństwa Elektromagnetycznego IEEE TC95, zajął się ekspozycją na PEM z urządzeń mobilnych. 

    – W sieci 5G sygnał, a w efekcie energia, jest przekazywana tylko tam, gdzie jest użytkownik. Jeżeli nie ma zapotrzebowania na usługi to sygnał nie jest emitowany, więc narażenie na PEM jest mniejsze. Jeżeli chodzi o dotychczas działające sieci 5G pomiary wykazują, że PEM osiąga wartości wynoszące około 1% dopuszczalnych wartości wyznaczonych przez ICNIRP mówił. 

    W kolejnej prezentacji, prof. dr hab. Marek Zmyślony z Instytutu Medycyny Pracy omówił historię tworzenia w Polsce norm związanych z PEM. 

    – Zasada ostrożności dotyczy nie tylko zdrowia czy PEM. Dotyczy ona wszystkich zjawisk, które wykazują dużą niepewność – nie należy podejmować decyzji, jeżeli istnieje nawet niewielkie prawdopodobieństwo negatywnych konsekwencjizaznaczył prof. Zmyślony. 

    Dr Emilie van Deventer z WHO przybliżyła słuchaczom „EMF Project” – program badań nad wpływem PEM na zdrowie ludzkie prowadzony przez WHO od 1996 roku. 

    – Opinia publiczna poświęca dużo więcej uwagi zagrożeniom od PEM niejonizującego, gdzie brak jest naukowych dowodów o szkodliwości przy ustalonych wartościach dopuszczalnych. Z drugiej strony promieniowanie UV lub rentgenowskie nie wywołuje tak dużych obaw mimo, że to właśnie w tych zakresach może mieć negatywny, ustalony wpływ na organizm ludzki zauważyła dr van Deventer. 

    W drugiej części pierwszego dnia konferencji eksperci zajęli się kwestią weryfikacji przestrzegania ustalonych norm PEM. Instytucje nadzoru nad PEM w Polsce i Europie omówił Jakub Kwiecień z Instytutu Łączności. 

    – W Polsce, wyniki pomiarów PEM realizowanych zarówno przez akredytowane laboratoria na zlecenie prowadzących instalacje, jak i w ramach PMŚ są udostępniane i wizualizowane w bezpłatnym i ogólnodostępnym systemie SI2PEMpowiedział Jakub Kwiecień. 

    Dr Peter Unger, dyrektor ds. PEM i środowiska w Deutsche Telekom mówił o sprawdzaniu poziomów PEM w toku procesu inwestycyjnego i późniejszego użytkowania stacji bazowych w Niemczech. 

    – Koncentrujemy się na sieci 5G. Po pierwsze wdrażamy sieć ogólnokrajową w 2100 MHz – ponad 20 tysięcy instalacji. 89% społeczeństwa jest objęte tą siecią. Druga gałąź to duże miasta, w których wdrażamy 5G w częstotliwości 3,6 GHz. Operatorzy są zobligowani, aby zawiadamiać odpowiednie organy o uruchomieniu oraz zakończeniu pracy obiektówpodkreślił dr Unger. 

    Kiedy w metodyce pomiarowej stosować estymacje, a kiedy pomiary? O włoskiej praktyce w tej kwestii opowiadała Marzia Minozzi reprezentująca stowarzyszenie ASSTEL. 

    – Pomiary PEM we Włoszech wykonywane są przez ARPA, są uśredniane w ujęciu 24-godzinnym z uwagi na bardzo rygorystyczne limity PEM. Przedsiębiorcy telekomunikacyjni we Włoszech wciąż mają nadzieję na harmonizację poziomów PEM z tymi z ICNIRP. Operatorzy odgrywają niewielką rolę w komunikacji zagadnień dotyczących PEM do społeczeństwa. Mógłby zaistnieć tutaj konflikt interesów. We Włoszech zderzają się dwa stanowiska – naukowców, którzy są przeciwni stosowaniu pewnych częstotliwości w telekomunikacji, powołując się na badania sprzed nawet 20 lat i nasze, które podkreśla korzyści płynące z sieci 5G. Kluczową rolę w komunikacji dotyczącej PEM odgrywają władze lokalne.powiedziała Marzia Minozzi. 

    Z kolei o tym, jak w praktyce działają normy PEM we Francji, z punktu widzenia operatorów, mówiła Patricia Martigne z Orange. 

    – Opinia publiczna, mieszkańcy muszą wiedzieć o instalacjach, które będą powstawały w ich sąsiedztwach – jest to realizowane w formie dossier dla danej instalacji, które z kolei kierowane jest do lokalnych władz podkreśliła. 

    W trzeciej części spotkania omawiano problem skutecznego komunikowania wyników kontroli przestrzegania norm PEM. 

    O relacji pomiędzy wiarygodnością systemu nadzoru a poziomem zaufania społecznego do kwestii PEM mówił Nenad Radoslavjevic, specjalista serbskiego regulatora RATEL. 

    W Serbii funkcjonuje portal emf.ratel.rs, gdzie publicznie dostępne są geolokalizowane dane dotyczące monitoringu PEM w kraju. Działalność edukacyjna RATEL pozwala na oswojenie wiedzy związanej z PEM. Prowadzimy warsztaty i różnego rodzaju akcje angażujące jak najszersze grono obywatelizaznaczył Nenad Radosavljević. 

    Jak komunikuje się kwestie PEM w Norwegii? Dotyczyła tego prezentacja Edith Helene Unander, głównej inżynier w Departamencie Technologii Norweskiego Urzędu Komunikacji. 

    – Widzimy, że zmieniają się obawy społeczne względem PEM. Duże wątpliwości obecnie budzą liczniki energii elektrycznej, które mają wbudowaną antenę. Dlatego też, jako urząd, przeprowadziliśmy szereg badań i opublikowaliśmy raport, który rozwiał większość wątpliwości – powiedziała. 

    O doświadczeniach pierwszych miesięcy działania systemu SI2PEM opowiadał jeden z jego twórców, Rafał Pawlak z Instytutu Łączności. 

    – PEM jest przedmiotem ciągłej dezinformacji, mitycznych fake newsów – te fałszywe informacje mogą być zagrożeniem dla bezpieczeństwa teleinformatycznego państwa. Ważne jest, aby każdy obywatel mógł w sposób szybki, łatwy i przyjazny mieć dostęp do jednolitych danych o instalacjach SBTK, w tym danych z pomiarów PEM zaznaczył Pawlak. 

    – W dniu startu SI2PEM stronę http://si2pem.gov.pl odwiedziło ponad 5000 unikalnych użytkowników i skorzystało z naszego systemu. Do końca listopada było to już 61 000 unikalnych użytkowników. Widzimy duże zainteresowanie systemem, jego rozbudowa mogłaby polegać na udostepnieniu informacji z monitoringu stacjonarnego. Sieci monitoringu PEM w tej chwili nie ma – jest to potencjalnie bardzo dobry kierunek rozwoju dla systemu SI2PEMdodał. 

    Podczas ostatniego panelu swoją prezentację wygłosił Martin Fenton, dyrektor ds. polityki dotyczącej widma w Spectrum Group of Ofcom z Wielkiej Brytanii, który opowiedział o pomiarach PEM. 

    – Najwyższy zarejestrowany przez nas wynik z pomiarów PEM w otoczeniu stacji bazowej sieci 5G wynosi 7% wartości dopuszczalnej wyznaczonej przez ICNIRPwyjaśnił. 

    O mitygowaniu obaw społecznych oraz o najnowszym raporcie ITU opowiedział Jarosław Ponder, szef biura Międzynarodowego Związku Telekomunikacyjnego (ITU) na Europę, który zapewniał, że ITU przekazuje jasne informacje, które pozwalają łagodzić obawy społeczeństwa. 

    – ITU opracował specjalny program szkoleniowy dotyczący zarządzania widmem, w tym moduł dotyczący wpływu PEM na zdrowie człowieka. Jedną z przyczyn obaw przed siecią 5G jest fakt, że ta technologia jest nowa, a częstotliwości wykorzystywane w przyszłość przez tę sieć jeszcze nie były w tej skali stosowane na potrzeby systemów telefonii komórkowejwyjaśnił. 

    O tym, jak wyglądają pomiary PEM na Litwie opowiedziała Irena Taraškevičienė z Narodowego Centrum Zdrowia Publicznego Ministerstwa Zdrowia Republiki Litewskiej. 

    – Na Litwie każde urządzenie pracujące z mocą powyżej 25 W musi mieć sporządzone raport z planowanego oddziaływania PEM oraz projekt techniczny. Należy zaznaczyć, że reakcja opinii publicznej w związku ze zmianą wartości dopuszczalnej PEM na Litwie była negatywna. Wyniki konsultacji społecznych wskazały, że brakuje wiedzy na temat wpływu PEM na zdrowie ludzi. W ramach tych konsultacji doszliśmy do wniosku, że monitoring sieci 5G powinien być regularnie prowadzony, aby uspokoić obawy społecznewyjaśniła. 

    Ostatni tego dnia swoją prezentację przedstawił dr Jack Rowley, dyrektor ds. badań i zrównoważonego rozwoju, GSMA, który zaprezentował przegląd podejścia do pomiarów PEM w różnych krajach na świecie. 

    – W Peru działają lokalni aktywiści, którzy proponują pewne rozwiązania dotyczące stacji bazowych, lobbują we władzach lokalnych celem braku aprobaty na nowe lokalizacje. Występują również incydenty niszczenia infrastruktury telekomunikacyjnej. Rząd Peru dostrzega potrzebę instalowania nowych stacji bazowych telefonii komórkowej. Przyjmowane są nowe rozwiązania ustawodawcze, tak aby władze lokalne nie mogły odmawiać operatorom wydawania zgody na instalacje wytwarzające PEM. Z kolei w Irlandii główne obawy związane są z tym, gdzie może być sytuowana infrastruktura telekomunikacyjna. Rząd jest bardzo pro-cyfrowy, nastawiony na rozwój infrastrukturytłumaczył. 

    Zapis wszystkich wystąpień podczas I dnia VI Międzynarodowej Konferencji PEM można znaleźć na profilu Instytutu Łączności w serwisie YouTube. 

    Dziś drugi dzień konferencji, który startuje 2.12 o godz. 9, otworzy prof. Karolina Sieroń ze Śląskiego Uniwersytetu Medycznego oraz Jacek Oko, Prezes UKE. Ten dzień poświęcony będzie edukacji i tego jak przekazywać tak trudne zagadnienia, jakim są tematy związane z PEM w łatwy sposób oraz szeroko pojętej dezinformacji. 

  • Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    Jak bardzo istotna jest synchronizacja w IT? – rozmowa z Tomaszem Widomskim, Elproma

    „Dokładny, pewny czas ma swoją wartość i ona stale rośnie.” – mówi Tomasz Widomski z Elpromy – jednego ze światowych liderów synchronizacji w IT, czyli dostarczania siecią komputerową precyzyjnej informacji o czasie w rozmowie z Waldemarem Sielskim.

    Waldemar Sielski: Kiedy pojawiło się w Elpromie zainteresowanie synchronizacją czasu?

    Tomasz Widomski: W roku 1996 opracowaliśmy pierwszy odbiornik GPS dołączany przez RS232 do komputera PC. Wówczas byliśmy przekonani, że GPS to świetne rozwiązanie. Jednak na przestrzeni lat zrozumieliśmy, że przemysł ewoluuje w stronę systemów rozproszonych i zbyt silnie uzależnia się od niedoskonałego GPS. Coraz częściej pytano o rozwiązania sieciowe Ethernet z protokołem NTP (Network Time Protocol). W roku 2000 powstał pierwszy sieciowy serwer czasu zrealizowany na zamówienie polskiego Sejmu. Tak się składa, że w roku 2020, a więc równo w 20 lat później, najnowszą wersję tego serwera z protokołem PTP IEEE1588 dostarczyliśmy do Parlamentu Europejskiego i Komisji UE. Ta wersja jest odporna na manipulacje sygnału GPS.
    Czytaj: Polska firma Elproma dostarczy serwery czasu do KE i Parlamentu UE | BrandsIT.pl – Portal Technologiczny

    WS: Synchronizacja czasu to zagadnienie specjalistyczne i mało znane. Może dlatego, że nawet zdefiniowanie czasu nie jest łatwe, prawda?

    TW: Odpowiadając na pytanie „Czym jest czas” zacytuję św. Augustyna „Jeśli nikt mnie o to nie pyta, wiem. Jeśli pytającemu usiłuję wytłumaczyć, nie wiem”. Intuicja podpowiada, że skoro umiemy czytać zegary to sprawa nie jest trudna – nic bardziej mylnego. W fizyce czas oznacza zmianę, a w elektronice pełni rolę „dyrygenta orkiestry” układów scalonych. Określanie jednoczesności zdarzeń z dużą dokładnością jest dzisiaj w cenie. Szczególnie widać to w sektorze finansowym na zrobotyzowanych giełdach Wall Street i w Londynie, gdzie algorytmy wychwytują najdrobniejsze różnice notowań akcji tych samych spółek, w idealnie tym samym momencie, ale na oddalonych od siebie parkietach. Sprzedają, gdzie drożej i kupują te same papiery taniej – to czysty zysk i to bez ryzyka. Rygory synchronizacji określa unijna dyrektywa MiFID II. Obowiązuje ona też w Polsce.
    Czytaj: Czas i pieniądze | BrandsIT.pl – Portal Technologiczny
    Od prawie ćwierć wieku zajmujemy się profesjonalną telemetrią M2M (Machine-to-Machine), a przesyłanie czasu siecią TCP/IP jest jej poddziedziną z pogranicza metrologii czasu. Niewiele osób wie, że synchronizacja zegarów opiera się na zwykłej teorii sygnałów. Sam mechanizm przesyłania danych z czasem nie różni się od zdalnego odczytu liczników prądu, gazu czy wody, czyli popularnego dziś smart-metering. Zadziwić może fakt, że przesyłanie czasu siecią nie wymaga nawet rygoru zachowania czasu rzeczywistego. Nie ma znaczenia dla dokładności czy dane te podróżują siecią długo, czy krótko. Ważna jest za to ich cykliczność, stabilna regularność i dwukierunkowa wymiana informacji między synchronizowanymi komputerami. Synchronizacja to porównanie zegarów na poziomie systemu operacyjnego Windows, Linux, OSX, wymuszająca korektę ich nastawień, tak aby pozostawały możliwie zgodne. Synchronizacja różni się więc od telemetrii właśnie o dodatkową inteligencję korygowania zegara.

    WS: Dlaczego synchronizacja przenosi się do sieci komputerowej?  Przecież synchronizacja działała do tej pory dobrze poza siecią.

    TW: Wcześniej do sieci uciekł przemysł, telekomunikacja, energetyka, multimedia, a ostatnio również telewizja. W sieci jest wszystko, bo tak jest taniej, mniej kabli do układania i łatwiejsze zarządzanie. Teraz przyszła kolej na „czas z gniazdka”, tzn. taki, który zapewni stabilność całego IT. Czas dystrybuowany Ethernetem stanowi skuteczną alternatywę dla lokalnego GPS, z którym mamy coraz większy kłopot. Czas wywołuje w przemyśle skutki prawne i wzrasta odpowiedzialność karna za powstałe awarie infrastruktury. Chcemy to minimalizować. Chodzi o to, aby być przygotowanym, gdy współzależność systemów w Przemyśle 4.0 osiągnie tak wysoki poziom, w którym zaburzenie jednego elementu zagrozi efektem domina w skali odczuwalnej dla regionu lub całej gospodarki. Zachód to już zrozumiał. Nam niestety nie starcza tu wyobraźni, że to ostatni już moment na poprawę krytycznych infrastruktur szkieletowych. Trochę przypomina to dyskusje nad zmianami klimatycznymi. Ponoć zawsze jest pora, ale pewnego dnia okaże się, że już jest za późno, a skutki będą fatalne.
    Jest też inny powód, dlaczego synchronizacja przenosi się do sieci komputerowej. To konieczność synchronizacji systemów rozproszonych. A dzisiaj w erze chmury wszystko jest rozproszone, zaczynając od Microsoft Azure, po miniaturową sieć łączącą lidary-IP pracujące pod maską autonomicznego samochodu marki Tesla. Wyzwaniem jest zawsze precyzyjne wyznaczanie wspólnego momentu – chwili „teraz” i znakowanie danych jakie sensory wysyłają do serwera centralnego nadzorującego proces. Dokładność osiągnęła już poziom nanosekund i podąża w stronę pikosekund. Te największe dokładności widać w systemach jednofotonowej kryptografii kwantowej QKD, jakie mają od dekady banki w Szwajcarii i British Telecom. Nas interesuje jednak zwykły przemysł i dużo mniejsze dokładności, gdzie potrzebne jest wspólne źródło stabilnego czasu. A stabilność i dokładność idą w jednej parze.

    WS: To może źródłem czasu mógłby być GPS i jego sygnał 1PPS (Pulse-per-second signal – Wikipedia)?

    TW: Zasadniczym problemem amerykańskiego GPS i innych systemów satelitarnych GNSS jest ich wojskowa natura. Z wyjątkiem europejskiego GALILEO, wszystkie pozostałe nie mogą zapewnić dostępności UTC (Uniwersalny czas koordynowany – Wikipedia, wolna encyklopedia) w sytuacjach kryzysowych. Istnieją stosowne dyrektywy zezwalające na ograniczanie dostępności GPS bez uprzedzenia opinii publicznej. Zdarzają się też awarie, błędy satelitów, pomyłki w telemetrii ziemia-kosmos. Jako firma śledzimy i analizujemy wszystkie te przypadki. W Elpromie posiadamy wiedzę jak temu zapobiegać. Największy problem stanowią jednak same urządzenia do odbioru sygnału satelitarnego. W synchronizacji opartej o odbiorniki komercyjne GNSS błąd jednego roku jest tak samo prawdopodobny jak błąd o jedną milisekundę. Dzieje się tak, ponieważ wewnątrz sprzętu GNSS czas reprezentowany jest numerycznie i podlega procesowi przetwarzania wykazując podatność na błędy przepełnień. Ma to miejsce, zwłaszcza, gdy producent upchnie w jednym bajcie obok siebie czas i datę. Łatwo wtenczas przenieść bit przepełnienia określający milisekundę na pole kodującą informacje o dacie i problem dużego skoku w czasie jest gotowy. Sam odbiornik GNSS ma tu sporo do policzenia i wiele okazji do pomyłek. Danymi z GNSS można też łatwo manipulować tworząc fałszywą emisję sygnałów satelitarnych na ziemi. Nazywa się to spoofingiem. Można też zagłuszać oryginalny sygnał, co nazywamy jammingiem. Obecnie sygnał GPS jest bardzo narażony na takie manipulacje i celowe cyberataki. Coraz częściej zdarzają się ataki na całe infrastruktury krytyczne państw. W 2019r. Izrael odnotował zagłuszanie GPS nad tym państwem, więc to może się przydarzyć również Polsce. Znane są też przypadki podobnych awarii telekomunikacyjnych w Wielkiej Brytanii. Niewiele firm przyznaje się jednak do takich problemów w obawie o skutki komercyjne, ryzyko utraty klientów, niechęć inwestorów. Dlatego są one możliwie ukrywane przed opinią publiczną. Firmy starają się im same zapobiegać.

    WS: Czyżby synchronizacja jest obok telemetrii również dziedziną cyberbezpieczeństwa?

    TW: Zdecydowanie – TAK! Dziś synchronizacja ściśle wiąże się z cyberbezpieczeństwem. Zamiast włamywać się do sieci wewnętrznej, prościej jest destabilizować jej pracę poprzez zdalne zaburzenie synchronizacji, np. manipulując sygnałami GPS. Reszta destrukcji wykona się praktycznie sama, jeżeli system nie jest na to przygotowany. Elproma pokazała konkretne scenariusze ataków na system synchronizacji podczas paneli eksperckich w Brukseli w roku 2017, w sesji poświęconej bezpieczeństwu energetyki DG-Energy i bezpieczeństwu sieci DG-CNET. Mieliśmy też przydzielony czas w 2018r. podczas pokazów salonu lotniczego w Paryżu. Niestety gdziekolwiek jesteśmy zapraszani jako eksperci nie spotykamy nikogo z Polski – jesteśmy tam jedyni – to nas bardzo martwi.
    Ponadto, manipulując czasem można zaburzyć chronologię zapisanych zdarzeń w dziennikach LOG. Traci się wtenczas bezpowrotnie szansę analizy błędów i ustalenia źródła awarii. To idealne warunki dla hakerów, którzy odwracają w ten sposób uwagę od rzeczywistej przyczyny ataku. Nietrudno tak zmanipulować zapis LOG, że zarejestrowany skutek wyprzedzi w czasie własną przyczynę. Dlatego rekomendujemy, aby w infrastrukturach krytycznych używać autentykacji serwerów czasu oraz znakować kryptograficznie czasem zapisy w LOG. Dziś zmianie uległ cały paradygmat cyberbezpieczeństwa, a ataki hackerskie klasy „Time synchronization attack” i „Time delay attack” są jednymi z prawdopodobnych i najniebezpieczniejszych dla silnie zautomatyzowanej i uzależnionej od GPS gospodarki.
    Dlatego mówi się dziś o rosnącym znaczeniu czasu urzędowego. Potrzebna jest unifikacja wzorca czasu UTC i normalizacja standardów dla Przemysłu 4.0. Alternatywne dla GPS przesyłanie wzorca siecią Ethernet robi się ważne. Standaryzacja jest tu przedmiotem prac wschodzącej technologii TSN (ang.  Time Sensitive Networking – Time-Sensitive Networking – Wikipedia). Synchronizacja i precyzyjne znakowanie czasem będzie też wywoływać następstwa prawne, nie tylko jako konsekwencja awarii, ale również wprowadzi skutki w postaci np. nowych rodzajów podatków. Tak jest już dziś we Włoszech dla transakcji giełdowych w tzw. HFT.
    Podobnie wygląda sytuacja w energetyce rozproszonej smart-grids. W Polsce mamy obecnie okres poprzedzający tę erę. Jako kraj pozostajemy nadal skoncentrowani na telemetrii zdalnych odczytów smart-metering, gdzie dokładność nie jest aż tak ważna, chociaż sama synchronizacja jest bardzo tam bardzo potrzebna. Wyzwaniem będzie transformacja do energetyki rozproszonej. Polskę czeka tu milowy krok i konieczność stworzenia skalowalnej infrastruktury szkieletowej oferującej dwukierunkowy przepływ prądu. Rejony z nadmiarem energii muszą w przyszłości wspierać rejony z jej niedomiarem. Sytuacja energetyczna i kierunek płynięcia prądu będą się zmieniać dynamicznie i to wymaga synchronizacji nanosekundowej.
    Czytaj: Czas i synchronizacja – czy przyszła energetyka będzie bezpieczna? | BrandsIT.pl – Portal Technologiczny
    Bez zgodności czasu, niemożliwym jest też precyzyjne strojenie pasm radiowych ani zarządzanie kanałami transmisyjnymi telefonii 5G, ani telewizji cyfrowej DVB-T2. Można by było ratować się wprowadzaniem tu dodatkowych zabezpieczeń, ale odbywałoby się to kosztem obniżenia wydajności posiadanego pasma, zakupionego przecież za bardzo duże pieniądze. W konsekwencji zmniejszałaby szybkość transmisji oraz liczba jednocześnie obsługiwanych abonentów, w tym urządzeń telemetrii bezprzewodowej M2M, a to ponownie stwarza zagrożenie dla stabilności Przemysłu 4.0.
    Czytaj: Czas i synchronizacja w telekomunikacji 5G i Przemyśle 4.0 | BrandsIT.pl – Portal Technologiczny

    WS: Jak uzyskuje się dokładną informację o czasie?

    TW: Za wyznaczanie czasu UTC odpowiada w każdym państwie narodowy instytut metrologii.
    W Polsce rolę tę pełni Główny Urząd Miar RP, z którym Elproma współpracuje od lat. Urząd może kalibrować, tzn. dostrajać dostarczone mu zegary do narodowych, cezowych wzorców czasu. Urząd udostępnia też swoje wzorce publicznie przy pomocy protokołów NTP, a ostatnio również PTP IEEE1588. Sposoby rozpowszechniania wzorców czasu urzędowego określa rozporządzenie (Dz.U 56/2004 poz. 548). Czas jest chroniony prawnie nie tylko w naszym kraju. Niebawem, czasem obowiązującym na terenie UE będzie również czas z systemu GALILEO. Wyznaczanie narodowych skal UTC koordynuje BIPM Francja. Czas dla GALILEO tworzą europejskie laboratoria. Polska i GUM biorą w tym również czynny udział.  Firmy Elproma i PIK-Time współuczestniczą w projekcie GIANO Horizon 2020. To projekt budowy pierwszego europejskiego odbiornika satelitarnego z kryptograficzną autentykacją PKI bezpośrednio z poziomu satelitów GALILEO. Liderem projektu jest fabryka satelitów Thales Alenia Space Włochy, a wykonanie części sieciowej powierzono polskiej Elpromie.
    Ale czas UTC nie jest tak uniwersalny jak wskazuje to jego nazwa i tu pojawiają się rozbieżności między UTC laboratoriów poszczególnych państw UE. To wyzwanie również dla GALILEO, którego czas zależy od wielu laboratoriów. Dzięki uprzejmości BIPM w Paryżu, możemy to pokazać na danych historycznych porównania UTC: Włoch, Wielkiej Brytanii, Niemiec, Francji i Hiszpanii. Pokazane tu rozbieżności są większe niż wymaga się dziś od stabilności UTC dla telekomunikacji 5G. Dzisiaj wygląda to lepiej niż 10 lat temu, ale prace nad poprawą dokładności nadal trwają nieustannie. Wprowadza się też nowe generacje satelitów GPS i GALILEO. Różny jest też czas pomiędzy poszczególnymi systemami satelitarnymi grupy GNSS. Np. rozbieżność między amerykańskim GPS a rosyjskim GLONASS wynosi aż 40ns. Dla energetyki rozproszonej smart-grids i telekomunikacji 5G to zdecydowanie zbyt dużo.

    UTC(k)
    źródło: konferencja PTTI/ION dzięki uprzejmości prof. Patrycji Tavelli z BIPM

    WS: A jaki jest wkład Elpromy w synchronizację światową?

    TW: Elproma wyspecjalizowała się w synchronizacji infrastruktur krytycznych oraz w obsłudze profesjonalnej metrologii czasu. Dostarczamy zgodny i stabilny czas urzędowy na dużym obszarze tam, gdzie warunki odbioru sygnałów satelitarnych są trudne lub niepewne, a priorytetowe pozostaje cyberbezpieczeństwo. W roku 2019 dostarczyliśmy 300+ rubidowych serwerów NTS-5000 do energetyki smart-grid w Azji. Pokonaliśmy tam nowozelandzką firmę Tekron, którą niedawno kupił amerykański koncern Microchip notowany na NASDAQ. Wartość transakcji została utajniona, ale uważa się, że mogła ona osiągnąć wielkość 20mln U$. Wcześniej Microchip przejął Microsemi, ten wchłonął Symmetricom, który w pierwszej dekadzie tego millenium porządkował amerykański rynek synchronizacji i przejął w USA firmy Truetime (za ok. 20mln US$) i Datum (za ok. 80mln US$). Podkreślam to, ponieważ wygrywamy na arenie, gdzie są przejęcia i fuzje liczone w dziesiątkach milionów dolarów. Elpromę traktuje się tu z dużą powagą jako gracza i konkurenta. Podpatruje się co robimy,
    a nierzadko kopiuje nasze pomysły. Wydaje nam się, że to spory wkład – bo w taki sposób rozsławiamy polską myśl techniczną, w trudnym niszowym segmencie zaliczanym do high-tech.
    Nasz udział w światowej służbie czasu wykracza też poza codzienny biznes. Wyznaczamy kierunki i trendy – szczególnie te w zakresie cyberbezpieczeństwa synchronizacji. W latach 2009-2013 współtworzyliśmy protokół White Rabbit w CERN, który w maju 2020 doczekał się standaryzacji i włączenia do IEEE1588:2019. Później w latach 2013-2014 opracowaliśmy specjalistyczny komputer przemysłowy TAKT kompensujący wewnętrzne opóźnienia do zera. W latach 2015-2016 uczestniczyliśmy w projekcie Horizon 2020 DEMETRA prezentując unikatowy model dystrybucji czasu urzędowego z funkcją zdalnego audytu czasu. Nasze prace są wysoko ocenione i jesteśmy regularnie cytowani. Jesteśmy też zapraszani jako eksperci przez firmy takie jak Facebook i NVIDIA.
    Czytaj: Historia Czasu i Synchronizacji – od dyliżansów do Białego Królika | BrandsIT.pl – Portal Technologiczny
    Ale największy i zarazem może najmniej znany wkład Elpromy w światową synchronizację to pomoc w zablokowaniu jednej jedynej sekundy, tzw. sekundy przestępnej (ang. leap second – Sekunda przestępna – Wikipedia, wolna encyklopedia) dodawanej nieregularnie do skali czasu UTC. Po czterech latach międzynarodowej aktywności Elpromy, organizacje BIPM i NIST zgodziły się m.in. na postulaty Elpromy zasadności usunięcia tej trudnej w obsłudze dla przemysłu sekundy. Tym samym zapobiegliśmy potencjalnym awariom sektora energetycznego na świecie.
    Trochę do pełnego sukcesu brakuje nam codziennego biznesu – przede wszystkim wielkości sprzedaży dorównującej Amerykanom z Microchip, szwajcarskiej Advie-Oscilloquartz czy francuskiej Orolii. Plasuje się nas w pierwszej piątce globalnych producentów serwerów czasu NTP/PTP, ale nasza sprzedaż jest zdecydowanie niższa od konkurencji. Bariera wejścia na rynki USA i UE pozostaje bardzo wysoka. Nie pomaga nawet fakt, że serwery Elpromy od 2017r. są dopuszczone do użycia w NATO w Europie, a naszym klientem jest m.in. Ministerstwo Obrony Australii.

    WS: Czy zagadnienie czasu jest dobrze rozumiane przez polskich specjalistów?

    TW: Nie jest. Brakuje nam poparcia w Polsce zapewniającego lokalny zbyt tak, jak robią to Francuzi, Niemcy i Amerykanie. U nas wiele przetargów opisywanych jest wg. specyfikacji urządzeń zagranicznych, na czym dużo tracimy. Chyba nikt nie robi tego specjalnie. To wynika z niszowej natury i właśnie braku wiedzy, co jest ważne, a co nieistotne w produkcie. Nasi decydenci, nieświadomi wag parametrów, po prostu najczęściej kopiują specyfikację tego, co im wpadnie w necie. Później zostają pozostawieni z tym sami. To generuje z czasem bardzo wysokie koszty utrzymania. A przecież, my jesteśmy w miejscu w Polsce, moglibyśmy im pomóc.
    Sama edukacja to oddzielna sprawa. Większość klientów uważa, że skoro dotychczas problemów u nich nie było, to dlaczego mają się one pojawić akurat teraz. Zapominają, że dwadzieścia pięć lat temu, na rynku pojawiały się dopiero pierwsze odbiorniki GPS i gospodarka nie była tak uzależniona od tych systemów. Nie wiadomo było też wtenczas, że tak łatwo będzie można manipulować sygnałami satelitarnymi. Ten problem pozostaje do dziś piętą Achillesa największych korporacji światowych. Pomagamy, doradzając między innymi firmom takim jak Facebook i NVIDIA. To dla nas zaszczyt, ale nie biznes. Największe firmy tworzące dziś CLOUD/EDGE/FOG korzystają z projektów open hardware/software i grupują się w projekcie OCP  (Home » Open Compute Project). Można tam znaleźć również konsultantów z Elpromy. Ostatnio, w listopadzie 2020, przekazaliśmy uwagi dla zespołu pracującego nad synchronizacją chmury Facebook’a, co pewnie przyczyni się do poprawy jej stabilności w przyszłości. Uwagi nasze uwzględniono, ale niestety do tej pory nie doczekaliśmy zamówienia, ba nawet zwykłego słowa „dziękuję” czy podania nas choćby jako źródło informacji. Dlatego wolelibyśmy, aby z naszych usług więcej korzystał krajowy rynek IT. Problemy z synchronizacją pojawiają się statystycznie raz na dekadę, a więc na tyle rzadko, że inwestycje takie odsuwa się na później, a szczególnie w Polsce. Przypomina to deklaracje rozbudowy i wzmocnienia wałów przeciwpowodziowych, gdy nastaje ryzyko powodzi. Gdy mija, inwestycje odsuwa się i tak do następnego razu.
    Czytaj: Czas – ukryty i niedoceniany problem nowoczesnych technologii | BrandsIT.pl – Portal Technologiczny

    WS: W których polskich firmach pracują urządzenia Elpromy?

    TW: W Polsce możemy się pochwalić wdrożeniami do Sejmu RP i Senatu RP, Ministerstwa Sprawiedliwości, Ministerstwa Finansów, policji, wojska, w ING Śląski, PeKaO SA, T-Mobile, Orange, Polkomtel, Tauron, do licznych elektrowni, rozgłośni radiowych i TV, korporacji i firm produkcyjnych. Jest tego sporo, ale w Polsce kupowane są od lat wyłącznie pojedyncze urządzenia, najczęściej te najprostsze, a wiele z nich kupiono aż 10-20 lat temu, kiedy zakup jednostkowych sztuk był zasadny. Dziś, wraz ze zmianą paradygmatu cyberbezpieczeństwa, pojedyncze serwery powinny być zastępowane systemami synchronizacji składających się z wielu nowoczesnych serwerów wytwarzających czas UTC bez udziału GNSS. Taką konfigurację zaprojektowaliśmy i wdrożyliśmy do Polskiej Agencji Żeglugi Powietrznej (PAŻP), gdzie kilkadziesiąt specjalnych serwerów NTS-5000 Rubidium współtworzy autonomiczną skalę czasu UTC na co dzień zarządzaną centralnie w Warszawie, ale przechodzącej natychmiast w stan pracy rozproszonej w warunkach sytuacji kryzysowych braku łączności. Takie rozwiązania powielają od nas dziś najwięksi światowi gracze. Coraz częściej, czas jest sprzedawany dzięki temu jako usługa, bo dokładny, pewny czas ma swoją wartość i ona stale rośnie. Ta wartość jest inna dla każdego, w zależności od indywidualnej oceny skutków awarii jakie wywołałaby choćby raz na dekadę niewystarczająca synchronizacja. Dziś na każde wydane na synchronizację 1000 EURO w krajach Benelux, Polska wydaje jedynie 1 EURO, a takie dysproporcje 1000:1 mówią same za siebie.

    Elproma

  • Kaspersky Lab Polska przyznaje wyróżnienia podczas XIX Konferencji Partnerów

    Kaspersky Lab Polska przyznaje wyróżnienia podczas XIX Konferencji Partnerów

    27 listopada 2020 r. firma Kaspersky Lab Polska zorganizowała XIX Konferencję Partnerów. W tym roku konferencja miała formę spotkania online. Nagrodzono trzynastu liderów sprzedaży w sieci partnerskiej Kaspersky Lab Polska, których przedstawiciele uczestniczyli w wydarzeniu.

    Organizując konferencję, firma Kaspersky Lab Polska położyła nacisk na merytoryczne rozmowy. Z tego powodu na imprezę zaproszono wyłącznie wyróżniających się Partnerów, którzy mieli możliwość uczestniczenia w otwartej dyskusji poświęconej warunkom współpracy i sprzedaży produktów firmy Kaspersky w Polsce.

    Podczas konferencji przedstawiciele firmy Kaspersky Lab Polska poinformowali uczestników o najnowszych produktach oraz planowanych premierach. Skupiono się na nowatorskich technologiach, takich jak Kaspersky Automated Security Awareness Platform ­– ASAP (zautomatyzowany system podnoszenia świadomości w zakresie cyberzagrożeń), Kaspersky Cybersafety for IT Online (interaktywne szkolenie dla informatyków), Kaspersky Online Trainings for Experts (zaawansowane wykłady dla ekspertów ds. cyberbezpieczeństwa), Kaspersky Open Threat Intelligence Portal (rozbudowany, bezpłatny serwis online pozwalający na analizę szkodliwych i potencjalnie niebezpiecznych obiektów), Kaspersky Security Microsoft Office 365 i Kaspersky Endpoint Security Cloud (rozwiązania wykorzystujące chmurę) oraz Kaspersky Integrated Endpoint Security (w pełni zautomatyzowane rozwiązanie bezpieczeństwa zbudowane wokół technologii EDR). Omówiono także zagadnienia związane z transparentnością oraz działalnością edukacyjną firmy, łącznie z prelekcjami dla młodzieży szkolnej i firm.

    Trzynastu liderów sprzedaży w sieci partnerskiej Kaspersky Lab Polska, których przedstawiciele byli obecni na konferencji, otrzymało wyróżnienia: AB, Action, APN Promise, Arkanet, AT Computers, Cbit, Gold.pl, Itekom, Systemy Informatyczne Itxon, Miecz Net, M Software, Point, Technologie Internetowe.

  • DataArt Kiddo: Bezpłatna platforma do nauki Pythona dla dzieci

    DataArt Kiddo: Bezpłatna platforma do nauki Pythona dla dzieci

    Programiści firmy DataArt, zajmującem się doradztwem technologicznym na skalę globalną, stworzyli platformę do nauki programowania dla dzieci. Młodzi adepci kodowania będą musieli poprowadzić szopa przez leśną ścieżkę pełną tajemnic.

    Kiddo to platforma, na której dzieci uczą się pisać kod w Pythonie, rozwiązując problemy i uzyskując natychmiastowy feedback. Uczeń pisze prosty program, który jest niemal natychmiast wizualizowany. Obecnie dostępne są dwa tryby nauki: pierwszy to labirynt, w którym uczeń prowadzi małego szopa przez las, gdzie zbiera on ciasteczka i ucieka przed potworami. Drugi, trudniejszy, to typowa konsola, klasyczne środowisko do rozwiązywania problemów programistycznych.

    • Kiddo nie jest z pewnością podręcznikiem. Każde dziecko, przed przystąpieniem do zabawy, powinno wiedzieć, czym jest programowanie. Nasza platforma może służyć jako uzupełnienie nauki, zapewniając zbiór praktycznych zadań. Wydaje mi się, że każdy gimnazjalista będzie w stanie rozwiązać problemy z Kiddo w ciągu kilku dni, a najprawdopodobniej nawet szybciej. Ponadto dajemy wiele wskazówek – powiedział Denis Tsyplakov, Solutions Architect w DataArt i twórca projektu.

    Obecnie platforma udostępnia 20-30 zadań dla każdego z trybów nauki. Zaczynają się od najprostszych wyzwań, jak przesunięcie szopa po makiecie. Stopniowo zadania stają się coraz bardziej złożone. W grze pojawiają się ruchome potwory, z którymi można walczyć, zmieniają się też same ścieżki.

    Aby osadzić Kiddo na swojej stronie, wystarczy skopiować kod – tak jak w przypadku odtwarzacza YouTube. Jest dostępna w wersji angielskiej, autorzy pracują nad kolejnymi wersjami językowymi. Więcej informacji o projekcie znajduje się na stronie: https://kiddo.academy/

    • W DataArt uważamy, że z tej platformy można korzystać również na konferencjach czy np. podczas dni otwartych szkoły lub uczelni. Gra dla programistów z jednej strony stawia minimalną barierę wejścia, z drugiej strony wciąż nie jest to do końca banalne rozwiązanie. Oczywiście myślimy o współpracy ze szkołami programowania dla dzieci – dodał Denis Tsyplakov.
  • 5G Made By Poland: już 26 listopada konferencja o udziale polskich firm w budowie sieci 5G

    5G Made By Poland: już 26 listopada konferencja o udziale polskich firm w budowie sieci 5G

    Nadchodząca sieć piątej generacji może być rewolucją na polskim rynku cyfrowym i IT. Duże oczekiwania wiązane są m.in. z Open RAN i możliwością powstawania sieci prywatnych. Ale czy polskie firmy są na to gotowe? Czy Polska ma szansę stać się jednym z liderów innowacyjnych rozwiązań we wdrażaniu sieci 5G – m.in. na te pytania odpowiedzą eksperci podczas konferencji „5G Made By Poland: Open RAN i polskie technologie 5G” organizowanej 26 listopada przez Związek Cyfrowa Polska i IS-Wireless.

    Perspektywa sieci 5G niesie ze sobą wiele sprzyjających warunków związanych z przeformatowaniem dotychczasowego modelu, w którym działają dziś dostawcy i operatorzy telekomunikacyjni. Nowe możliwości otwiera m.in. Open RAN i możliwość powstawania sieci prywatnych, co niewątpliwie zmieni cały rynek usług cyfrowych i IT, ale też może wpłynąć na całą naszą gospodarkę. – 5G to duża szansa dla innowatorów z branży cyfrowej. Na polskim rynku są dziś firmy, które oferują całkowicie nowe modele do wdrażania 5G. Warto wykorzystać ich potencjał, bo mamy szansę powalczyć o rolę lidera nie tylko w kraju, ale też na rynkach europejskich mówi prezes Związku Cyfrowa Polska Michał Kanownik.  I dodaje:Dlatego warto się zastanowić, co zrobić, by pomóc polskim przedsiębiorcom w budowaniu ich pozycji m.in. poprzez sprzyjające regulacje.

    Jak zauważa prezes Cyfrowej Polski, myśląc perspektywicznie o budowie i wdrażaniu sieci 5G w Polsce, należy wziąć pod uwagę wszelkie możliwe korzyści, jakie będą mieć wpływ na krajową gospodarkę.

    -5G ma wprowadzić rewolucję w zakresie jakościowym, a jego właściwy rozwój będzie mieć strategiczne znaczenie dla polskiej gospodarki. Kluczową kwestią w debacie o 5G powinna być rola naszego kraju. Czy będzie to miejsce konsumenta cudzych technologii i podwykonawcy czy może jednak twórcy i dostawcy własnych technologii na rynek polski i rynki zagranicznych partnerów? Od tego zależy nasza przyszłość. Możemy z powodzeniem iść własną drogą, z wykorzystaniem polskiej myśli technicznej. A modelem biznesowym, który w dłuższym horyzoncie gwarantuje najlepsze efekty jest właśnie Open RAN, którego jesteśmy nie tylko orędownikiem, ale przede wszystkim jedynym w Polsce dostawcą. Że sukces z wykorzystaniem Open RAN jest możliwy, pokazuje choćby przykład japońskiego operatora Rakuten tłumaczy dr Sławomir Pietrzyk, współzałożyciel i CEO IS-Wireless

    Partnerami wspierającymi wydarzenie jest Accenture oraz PTI. Konferencja wraz z debatą ekspertów odbędzie się 26 listopada br. od godz. 10 w trybie online. Rejestracja na wydarzenie prowadzona jest na stronie https://konferencja.cyfrowapolska.org

  • Międzynarodowa współpraca biznesowa w czasach Covid-19

    Międzynarodowa współpraca biznesowa w czasach Covid-19

    Największe międzynarodowe targi i konferencje zostały odwołane. Część lotów zawieszono, na granicach wprowadzane są – i znoszone – obostrzenia. Podróże biznesowe stały się więc trudne do przewidzenia i planowania, zależne bowiem są od chwilowej sytuacji epidemiologicznej. Biznes próbuje się w tej nowej rzeczywistości odnaleźć. Organizacje zmuszone są do szukania innych modeli utrzymywania kontaktów z zagranicznymi klientami i partnerami biznesowymi. Jak to robić skutecznie, pokazuje przykład ogólnopolskiego klastra firm IT – ITCorner.

    Relacje biznesowe – online 

    Problemy związane z przemieszczaniem się czy odbywaniem przymusowej kwarantanny po powrocie znacząco wpłynęły na współpracę międzynarodową. W przypadku niektórych państw – takich jak Stany Zjednoczone – podróżowanie stało się całkowicie niemożliwe. Nieco łatwiej jest w przypadku krajów bliższych Polsce – bezpośrednich sąsiadów czy innych krajów europejskich. Aczkolwiek i tutaj obostrzenia potrafią być nakładane przez władze państwowe z dnia na dzień, bez jakiegokolwiek uprzedzenia. Dlatego też niezastąpione stają się zarówno wypracowane wcześniej sieci współpracy, jak i kompetencje w zastosowaniu nowych technologii do organizowania webinarów, konferencji oraz spotkań. – Już w marcu przenieśliśmy większość naszych wydarzeń do online’u, musieliśmy też odwołać zaplanowany kongres i tech-meetupy. Natomiast bardzo szybko okazało się, że zarówno klienci naszych firm, jak i przedstawiciele organizacji biznesowych są chętni na spotkania online. Już w kwietniu mieliśmy okazję wziąć udział w cyklu telekonferencji z klastrami z Niemiec, Wielkiej Brytanii oraz Stanów Zjednoczonych. Dotyczyły one transformacji cyfrowej organizacji oraz radzenia sobie z kryzysem (International exchange Digital Cluster & Corona crisis) – wyjaśnia Jakub Orczyk, odpowiadający w klastrze ITCorner za współpracę z regionem DACH.

    Nowe kierunki współpracy – Finlandia

    Skandynawia już od dłuższego czasu stanowi kierunek ekspansji polskich firm, zwłaszcza z obszaru nowych technologii. Wysoki stopień innowacyjności oraz utworzenie specjalnych systemów jej wspierania sprawił, że już pod koniec 2018 roku w klastrze ITCorner został przygotowany plan współpracy z krajami skandynawskimi. Wybór padł na Finlandię, która po raz kolejny znalazła się na czele unijnego rankingu DESI – indeksu gospodarki i społeczeństwa cyfrowego. Słynie również z tego, że posiada mocno rozwinięty sektor ICT, który jest rezultatem zarówno działania mechanizmów wewnętrznych, napędzających innowacje, jak i globalnych relacji biznesowych. Dla polskich firm partnerstwo z tymi krajami to przede wszystkim szansa na skok technologiczny.

    – Finlandia to dla nas interesujący kierunek tworzenia sieci relacji biznesowych – głównie z powodu podobieństwa kulturowego oraz ciekawej, innowacyjnej gospodarki. W 2020 roku planowaliśmy we współpracy z naszymi fińskimi partnerami z m.in. Turku Business Region, organizację serii wydarzeń na żywo. Pandemia pokrzyżowała nasze plany. Wcześniejsza współpraca pozwoliła nam jednak na przeniesienie naszych projektów do świata wirtualnego. Wspólnie zorganizowaliśmy konferencję Opportunities for the Polish-Finnish ICT Sector, a także sesję spotkań biznesowych online. Szukamy z naszymi partnerami nowych obszarów współpracy zdalnej i jesteśmy przekonani, że mimo nietypowych warunków, jakie narzuca nam pandemia, będziemy w stanie pogłębiać nasze relacje. – wyjaśnia Michał Zacher, odpowiedzialny w ITCorner za współpracę międzynarodową.

    Niemcy – sprawdzeni partnerzy biznesowi

    Niemcy to trzecia gospodarka świata oraz najbardziej innowacyjna wg Bloomberg Innovation Index 2020 (w rankingu po raz pierwszy od 6 lat wyprzedziły Koreę Południową). Są też znaczącym partnerem biznesowym dla polskich firm, zwłaszcza dla branży IT. ITCorner niemal od samego początku swojego istnienia współpracuje z berlińskim klastrem SIBB (ICT & Digital Business Association Berlin-Brandenburg). W ostatnich kilku latach firmy z Polski – w tym z ITCorner – oraz członkowie SIBB spotykali się na konferencjach, eventach oraz podczas misji gospodarczych w ramach programu LookOut.

    • Po zakończeniu projektu LookOut wystartowaliśmy z nową inicjatywą Deep Tech Hub Poland, w ramach której będziemy chcieli nadal przybliżać berlińskim startupom i firmom IT polski ekosystem firm technologicznych. Planujemy organizację – w tym online – warsztatów, szkoleń, programów akceleracyjnych oraz delegacji biznesowych. Dzięki zaproszeniu przez ITCorner do projektu w ramach Dyplomacji publicznej mamy okazję już teraz zaprezentować nasz program i plany (w trakcie wirtualnych spotkań). – mówi Adam Formanek, Head of International Projects w SIBB.

    Rola organizacji technologicznych

    Jak pokazały ostatnie miesiące, można sprawnie współpracować spotykając się głównie w wirtualnym świecie. Skuteczność tych wydarzeń często jednak wiąże się z wcześniej wypracowanymi relacjami w świecie rzeczywistym. Mimo, że w ostatnim czasie powoli wracamy do tego typu współpracy biznesowej, to spotkania te są prowadzone nierzadko w mało komfortowych warunkach i w mniejszym gronie, a w przypadku niektórych rejonów świata są nadal niemożliwe. Stąd szczególna rola projektów hybrydowych, nastawionych na kooperację online opartą o wcześniejszą sieć współpracy międzynarodowych.

    Duża szansa otwiera się przed organizacjami i klastrami technologicznymi, które mogą stać się platformą wymiany biznesowych doświadczeń i wspierać firmy członkowskie w ekspansji międzynarodowej. ITCorner realizuje tę funkcję w ramach projektu International cooperation of the Polish ICT sector (finansowanego ze środków MSZ RP), polegającego na animacji współpracy między firmami technologicznymi z Polski, Niemiec i Finlandii. Ważnym aspektem tego programu jest przygotowanie gruntu pod spotkania w świecie rzeczywistym, jak tylko będą w pełni możliwe.

    Zadanie publiczne współfinansowane przez Ministerstwo Spraw Zagranicznych RP w konkursie „Dyplomacja publiczna 2020 – nowy wymiar”.

  • Praca w branży IT pod znakiem pandemii

    Praca w branży IT pod znakiem pandemii

    Kryzys wywołany pandemią koronawirusa zmodyfikował układ sił na rynku pracy w branży IT. Wciąż poszukiwani są informatycy o wysokich kwalifikacjach, ale początkujący w zawodzie częściej mają trudności ze znalezieniem posady. – Pożądana staje się stabilizacja zatrudnienia. Wśród osób z doświadczeniem rośnie zainteresowanie pracą na etacie lub w innej stałej formie, a nie na krótkoterminowych kontraktach. Do niedawna było odwrotnie – mówi Wiesław Paluszyński z Polskiego Towarzystwa Informatycznego.

    Zmiany na rynku pracy w sektorze IT zapoczątkował przestój gospodarczy, który nastąpił w marcu. Wtedy gwałtownie spadła liczba ogłoszeń o pracę dla specjalistów informatyków. Według danych Pracuj.pl w I półroczu w serwisie zamieszczono ponad 33 tys. ogłoszeń dla specjalistów od nowych technologii. To o jedną czwartą mniej niż rok wcześniej, wciąż jednak stanowiły one sporą grupę ogłoszeń na tym portalu (14 proc.). Jednocześnie widać było większą aktywność pracowników. Między marcem a czerwcem trzykrotnie częściej reagowali oni na oferty pracy w kategorii internet/e-commerce niż w tym samym okresie 2019 roku.

    – Dane z portali z ogłoszeniami o pracę najlepiej oddają sytuację na rynku – wyjaśnia Wiesław Paluszyński, prezes Polskiego Towarzystwa Informatycznego oraz przewodniczący Sektorowej Rady ds. Kompetencji Cyberbezpieczeństwa i Telekomunikacji. – W marcu, jeśli w ogóle pojawiały się ogłoszenia, nie były to oferty dla wysokokwalifikowanych specjalistów, ale raczej głownie dla juniorów, czyli osób rozpoczynających karierę zawodową. Obecnie sytuacja jest trochę inna, ale to nie znaczy, że lepsza.

    Znacznie częściej niż w poprzednich latach specjaliści informatycy zwracali uwagę na stabilność zatrudnienia i bezpieczeństwo miejsca pracy. Takie zachowania są obserwowane również w innych branżach, ale dla pracowników IT do tej pory nie był to kluczowy czynnik. Z raportu Pracuj.pl wynika, że dziś są oni ostrożniejsi w podejmowaniu współpracy na zasadach B2B.

    – Wyraźnie widzimy zainteresowanie pracą na etacie bądź w innej stałej formie, a nie pracą na krótkoterminowych umowach. Do tej pory było odwrotnie. Bardzo chętnie informatycy w kilku źródłach pracowali na umowach-zleceniach czy innych formach działalności gospodarczej indywidualnej, a w tej chwili wyraźnie widać, że osoby z wyższymi kwalifikacjami interesują się pracą stabilną. Zobaczymy, jak to będzie wyglądało w drugiej połowie tego roku mówi Wiesław Paluszyński.

    Mimo większej aktywności specjalistów IT na rynku pracy firmy wciąż zgłaszają problemy z pozyskaniem odpowiednio wykwalifikowanych pracowników. Dostępne na rynku kadry to przede wszystkim kandydaci na poziomie juniorskim, z niewielkim doświadczeniem lub dopiero startujący w branży.

    – Coraz większe znaczenie ma kwestia zdobywania kwalifikacji i doświadczenia. Osoby, które nie mają się jeszcze czym pochwalić w zakresie swoich umiejętności i kariery zawodowej, będą miały większe problemy ze znalezieniem stabilnej pracy. Z drugiej strony specjaliści o wysokich kwalifikacjach, tacy jak architekci rozwiązań czy specjaliści od cyberbezpieczeństwa z certyfikatami dokumentującymi kwalifikacje, nie muszą się specjalnie obawiać o swoją przyszłość – zaznacza prezes PTI.

    Przekonuje, że mimo zastoju gospodarczego niektóre dziedziny informatyki wciąż się rozwijają, np. w obszarze oprogramowania związanego ze zdalnym przekazywaniem wiedzy, telekonferencjami, czyli tym, co umożliwia ludziom kontakt w okresie pandemii. W dobrej kondycji jest także branża gier.

    – Programiści, którzy funkcjonują w tym sektorze, mogą mieć całkiem niezłe perspektywy rozwoju – ocenia Wiesław Paluszyński.

    Kolejnym perspektywicznym obszarem jest cyberbezpieczeństwo. Tu problemy potęguje jednak fakt, że jest to dziedzina słabo zdefiniowana, a nad stworzeniem ram kwalifikacji dopiero trwają prace.

    – Ten rynek ma bardzo duże potrzeby w zakresie certyfikacji, aby można było określić stabilne kryteria zatrudniania. Jako Sektorowa Rada ds. Kompetencji Cyberbezpieczeństwa i Telekomunikacji tworzymy leksykon cyberbezpieczeństwa. Chodzi o to, aby wszyscy dobrze rozumieli pojęcia z tego zakresu, a następnie zastanowimy się, czy są eksperci, którzy są w stanie spełnić określone wymagania. Zajmujemy się również budowaniem systemu kwalifikacji w zakresie cyberbezpieczeństwa, których obecnie w zasadzie w Polsce nie ma. Polskie Towarzystwo Informatyczne przygotowuje trzy takie certyfikaty i rada będzie je opiniowała. Pozwolą one uzyskać potwierdzenie umiejętności uznawane powszechnie na rynku informuje prezes PTI.

    Polscy programiści należą do najlepszych na świecie. Odnoszą sukcesy na arenie międzynarodowej, szczególnie w programowaniu zespołowym. Wielu zdobywa uznanie jeszcze na etapie studiów. Przykładem mogą być studenci Uniwersytetu Warszawskiego, którzy od wielu lat plasują się w ścisłej czołówce światowej w zakresie programowania zespołowego.

    – Mamy kadrę dobrze przygotowaną przez wyższe uczelnie, ale tych programistów jest wciąż za mało. Podobnie jest na całym świecie. Stąd w ramach prac rady usiłujemy określić, jakiego rodzaju specjalistów nam brakuje, jakie będą potrzeby rynku i jak ma wyglądać system certyfikacji – podsumowuje Wiesław Paluszyński.

  • HPE poszerza zakres rozwiązań w modelu as-a-Service oraz inicjatyw dla MŚP

    HPE poszerza zakres rozwiązań w modelu as-a-Service oraz inicjatyw dla MŚP

    Firma Hewlett Packard Enterprise przedstawiła nowe oferty i inicjatywy, które pomogą partnerom dystrybucyjnym w rozwoju biznesowym i wzroście sprzedaży. Informacja ta została ogłoszona podczas trzeciej corocznej konferencji partnerów dystrybucyjnych HPE. W tegorocznym wydarzeniu, które odbyło się online, uczestniczyło ponad 1000 gości reprezentujących 300 partnerów dystrybucyjnych z całego świata. Celem wydarzenia była dyskusja o tym, w jaki sposób partnerzy dystrybucyjni mogą wzmacniać swoje kompetencje poprzez model as-a-Service, a także poszerzać swoje możliwości biznesowe w tym zakresie, wykorzystując wspomniane inicjatywy i rozwijając swoją sprzedaż na rynku MŚP oraz wśród klientów MIdMarket.

    Niezmiennie sprzedaż poprzez kanał partnerski odgrywa kluczową rolę w działalności HPE – średnio 80 proc. biznesu angażuje partnerów dystrybucyjnych. Na niektórych rynkach 100 proc. działalności pośredniej jest realizowane przez dystrybutorów. Coroczna konferencja partnerów dystrybucyjnych HPE potwierdza kluczową rolę, jaką dystrybutorzy odgrywają w poszerzaniu wiedzy dealerów o nowych możliwościach rozwoju biznesu pozwalających zwiększyć rentowność oraz wyróżnić się na tle konkurencji.

    Zaanonsowane zmiany oraz ulepszenia programu, mają na celu pomóc partnerom w rozwoju modelu as-a-Service oraz lepszym wykorzystaniu specjalistycznej wiedzy, celem lepszej obsługi klientów MŚP oraz MidMarket, obejmują one:

    ·       Mniejsza pojemność początkowa, która już jest dostępna dla HPE GreenLake

    W ramach programu sprzedaży „Swift” ze standardową i uproszczoną ofertą HPE GreenLake, HPE wprowadziło nowe usługi chmurowe HPE GreenLake z opcjami skierowanymi do partnerów obsługujących MŚP i klientów MidMarket. HPE drastycznie zmniejszyło minimalną wartość rozwiązań w modelu HPE GreenLake dla swoich dystrybutorów i partnerów. Nowe podejście ma za zadanie pomóc partnerom w zawieraniu umów z mniejszymi klientami stosującymi model as-a-Service w IT. W połączeniu z łatwą i szybką sprzedażą oraz dzięki wstępnie skonfigurowanym i wycenionym rozwiązaniom, dystrybutorzy mogą rozwijać sprzedaż w modelu as-a-Service i jednocześnie poszerzać rynek dla siebie i swoich partnerów. Ponadto HPE nadal oferuje 17-procentowy rabat dla resellerów, zwiększający rentowność partnerów sprzedających rozwiązania HPE GreenLake.

    ·       Wsparcie specjalistów w zakresie HPE GreenLake i Storage portfolio

    W 2021 roku HPE zaoferuje partnerom dodatkowe wsparcie w postaci dostępu do specjalistów HPE GreenLake oraz dedykowanych programów, takich jak warsztaty z ekspertami, które pomogą spersonalizować sposób w jaki będą świadczyć usługi w modelu as-a-Service. Dzięki współpracy ze specjalistami HPE ds. sprzedaży rozwiązań opartymi na wynikach, dostawcy rozwiązań i dystrybutorzy będą również mieli okazję podnieść zaawansowanie prowadzonych projektów oraz przyspieszyć sprzedaż. Eksperci HPE, tzw. „Storage Rangers”, posiadają wysokie umiejętności techniczne i pomagają usprawnić proces odpowiedzi na zapytania ofertowe, realizując istniejące kampanie strategiczne oraz inicjatywy w zakresie pamięci masowych, tworzenia nowych możliwości w całym portfolio HPE Storage, jednocześnie odświeżając zainstalowaną bazę HPE Storage.

    ·       Program SMB FlexOffers dla małych i średnich przedsiębiorstw oraz klientów rozwiązań średniej klasy

    HPE uruchamia program SMB FlexOffers, który zapewnia partnerom dystrybucyjnym i dostawcom rozwiązań możliwość dostosowania produktów w modelu built-to-order (BTO) do indywidualnych potrzeb klientów i rynku. Zapewni to elastyczność wyboru preferowanych elementów i opcji, które dzięki dynamicznej wycenie mogą pomóc partnerom w uzyskaniu najlepszej ceny. Ponadto dostawcy rozwiązań będą mogli skrócić czas dostawy poprzez wykorzystanie zapasów dystrybutora, a dystrybutorzy skorzystają na zautomatyzowanym, uproszczonym procesie reklamacji.

    ·       Nowe udogodnienia we wdrażaniu partnerów

    HPE nieustannie rozwija program HPE Partner Ready, aby jak najlepiej odpowiadać na potrzeby partnerów i przewidywać zmieniające się priorytety na rynku IT, zachodzące w wyniku transformacji cyfrowej. Aby zmaksymalizować zadowolenie nowych partnerów, HPE ulepszyło proces wdrażania HPE Partner Ready poprzez pełną transparentność i polecanie partnerów. Dystrybutorzy są teraz w centrum tej inicjatywy, ponieważ stali się kluczowym punktem kontaktowym dla nowo wprowadzonych partnerów. Nowy proces zapewnia dodatkowe możliwości sprzedaży dystrybutorom, którzy dzięki temu modelowi będą mogli wspierać dostawców rozwiązań od początku ich drogi w HPE.

    ·       Wirtualne środowisko do nauki – HPE Pro Series oraz ulepszone opcje demo

    HPE kontynuuje inwestycje w HPE Pro Series – kompleksowy program zapewniający partnerom dostęp do szkoleń, możliwość poszerzenia wiedzy i nawiązywania kontaktów. Dzięki rozwiązaniom HPE Tech Pro, HPE Sales Pro i HPE Marketing Pro partnerzy łączą się z ekspertami i współpracownikami, aby dostać wsparcie w wykorzystaniu szans i tworzeniu rozwiązań opartych na wynikach. Pro Series umożliwia także wykorzystanie cyfrowych kampanii marketingowych oraz daje partnerom możliwość wyróżnienia się poprzez dostosowane szkolenia. Począwszy od roku fiskalnego 2021, partnerzy mogą uzyskać certyfikaty sprzedaży HPE w nowoczesnym, interaktywnym środowisku szkoleniowym za pośrednictwem Centrum szkoleniowego HPE Sales Pro. Platforma ta umożliwia partnerom szybsze dostosowanie się do strategii HPE i pomaga zwiększyć wzrost sprzedaży o 100 procent [1]. Ulepszony HPE Demo Program daje partnerom nowe możliwości wirtualnego demonstrowania rozwiązań HPE u klienta lub we własnym biurze.

     [1] Wzrost sprzedaży w 1FY18 r / r dla partnerów posiadających certyfikaty sprzedaży