Tag: Azure

  • Podatek od Azure? Brytyjski sąd otwiera drogę do miliardowego procesu przeciwko Microsoftowi

    Podatek od Azure? Brytyjski sąd otwiera drogę do miliardowego procesu przeciwko Microsoftowi

    Londyński Trybunał Apelacyjny ds. Konkurencji (CAT) podjął decyzję, która może fundamentalnie zmienić europejski rynek infrastruktury chmurowej. Microsoft, po miesiącach prób oddalenia roszczeń, musi przygotować się na masowy proces sądowy. Stawką jest 2,1 miliarda funtów odszkodowania oraz przyszłość strategii licencjonowania, która od lat budzi kontrowersje wśród dyrektorów finansowych i technologicznych na całym świecie.

    Sprawa, prowadzona przez Marię Luisę Stasi w imieniu blisko 60 tysięcy brytyjskich firm, uderza w samo serce modelu biznesowego Microsoftu. Sedno sporu nie dotyczy samej jakości usług chmurowych, lecz sposobu, w jaki gigant z Redmond wycenia licencje na oprogramowanie Windows Server. Według pozywających, Microsoft stosuje dyskryminacyjną politykę cenową: firmy decydujące się na uruchomienie Windows Server na platformach konkurentów, takich jak Amazon Web Services, Google Cloud czy Alibaba, płacą znacznie wyższe stawki hurtowe niż użytkownicy wybierający natywne środowisko Azure.

    Z perspektywy biznesowej oznacza to, że Azure nie wygrywa wyłącznie sprawnością technologiczną, ale sztucznie wygenerowaną przewagą kosztową. Dla wielu organizacji, które historycznie opierały swoją infrastrukturę na rozwiązaniach Microsoftu, przejście do konkurencyjnej chmury wiąże się z ukrytym „podatkiem”, który ostatecznie obciąża ich marże lub jest przerzucany na klientów końcowych.

    Microsoft konsekwentnie broni swojej strategii, argumentując, że zintegrowany model biznesowy sprzyja innowacyjności i pozwala na oferowanie lepszych rozwiązań w ramach własnego ekosystemu. Przedstawiciele firmy zapowiadają odwołanie, podważając metodykę wyliczania rzekomych strat i wskazując na dynamiczny charakter rynku chmurowego.

    Jednak decyzja londyńskiego trybunału zbiega się w czasie z rosnącą presją regulacyjną. Brytyjski Urząd ds. Konkurencji i Rynków (CMA) oraz organy w UE i USA coraz uważniej przyglądają się praktykom ograniczającym interoperacyjność oprogramowania.

    Rynek nie chce dłużej akceptować bezkarnego lock-inu technologicznego. Jeśli Microsoft przegra lub zostanie zmuszony do ugody, będziemy świadkami nie tylko gigantycznych wypłat odszkodowań, ale przede wszystkim wyrównania szans cenowych w chmurze. Może to otworzyć drogę do nowej fali migracji danych, gdzie o wyborze dostawcy decydować będzie wydajność, a nie zawiłe i kosztowne zapisy licencyjne.

  • Chmura obnażona. Awaria AWS to lekcja ekonomii, nie technologii

    Chmura obnażona. Awaria AWS to lekcja ekonomii, nie technologii

    Poniedziałkowy paraliż, który położył globalnych gigantów – od Zooma, przez Slacka, po Fortnite – był dla branży IT jak uderzenie obuchem. Jak to możliwe, że w czasach „zdecentralizowanej”, nieskończenie skalowalnej chmury, problem w jednym, fizycznym budynku w Wirginii (słynny region AWS US-EAST-1) jest w stanie wyłączyć pół internetu? Przecież uciekliśmy od naszych pękających w szwach serwerowni w piwnicy właśnie po to, by uniknąć takich scenariuszy.

    A jednak, wróciliśmy do punktu wyjścia. Patrząc na czerwone dashboardy, przyszło nam zmierzyć się z brutalną prawdą: ta awaria nie jest argumentem przeciwko chmurze jako koncepcji. Jest bolesną lekcją ekonomii i weryfikacją kompromisów, na które branża godzi się każdego dnia, wybierając wygodę i niski koszt, myląc elastyczność z nieśmiertelnością.

    Rzeczywistość centralizacji

    Przez lata sprzedawano nam obietnicę chmury publicznej. Płacisz tylko za to, czego używasz. Skalujesz infrastrukturę w minuty, a nie miesiące. Nie martwisz się o zasilanie, chłodzenie ani wymianę dysków. To bezdyskusyjna rewolucja, która umożliwiła powstanie startupów takich jak Snapchat czy Canva.

    Jednak ta rewolucja ma swoją cenę: uzależnienie. Dzisiejszy internet, wbrew idealistycznym wizjom, nie jest zdecentralizowaną utopią. To oligopol, w którym trzy firmy – Amazon Web Services, Microsoft Azure i Google Cloud – trzymają klucze do niemal całej cyfrowej gospodarki.

    Awaria w regionie US-EAST-1 jest tego idealnym dowodem. To najstarszy, największy i często domyślny region AWS. Przez lata stał się technologicznym centrum grawitacji, hostującym kluczowe usługi, od których zależą inne, globalne funkcje Amazona. W ten sposób, nawet wewnątrz ekosystemu jednego dostawcy, stworzyliśmy pojedynczy punkt awarii (SPOF) dla usług, które same siebie uznają za „globalne”. Kiedy ten jeden klocek domina się przewrócił, pociągnął za sobą resztę.

    Mit „wystarczającego backupu”

    W tej chwili wielu menedżerów IT i dyrektorów finansowych, widząc skalę problemu, zapewne odetchnęło z ulgą: „przynajmniej mamy backupy”. To fundamentalne niezrozumienie problemu, które należy jasno sprostować.

    Backup chroni przed utratą danych. Nie chroni przed awarią usługi.

    Poniedziałkowy incydent, którego źródłem były błędy w API bazy danych DynamoDB, nie dotyczył (z dużym prawdopodobieństwem) utraty danych. Dane użytkowników Snapchata czy postępy w grze Duolingo były niemal na pewno bezpieczne, zreplikowane i zabezpieczone w centrach danych Amazona.

    Problem polegał na tym, że nie działało API – „drzwi”, które pozwalają aplikacji się do tych danych dostać.

    Posiadanie backupu w takiej sytuacji jest bezużyteczne. To tak, jakby mieć idealną kopię kluczyka do sejfu, który jest zamknięty w płonącym budynku, do którego nie ma dostępu. Możesz mieć setki kopii zapasowych, ale jeśli zawodzi cała platforma obliczeniowa, sieciowa i usługowa, twoje dane są po prostu niedostępne do czasu naprawienia awarii.

    „Cyfrowy bliźniak” – święty graal niezawodności

    Co więc jest prawdziwym zabezpieczeniem przed taką sytuacją? Odpowiedź jest jedna, choć niezwykle skomplikowana: architektoniczna redundancja na poziomie dostawców.

    Świętym Graalem odporności jest architektura multi-cloud. Nie chodzi tu o używanie jednej usługi od Google, a drugiej od Amazona. Mówimy o posiadaniu pełnego „cyfrowego bliźniaka” (digital twin) całej naszej aplikacji u innego, konkurencyjnego dostawcy chmury.

    Wyobraźmy sobie scenariusz idealny: nasza usługa działa jednocześnie na infrastrukturze AWS i równolegle na Microsoft Azure. Specjalne systemy (np. DNS) monitorują stan obu platform. W momencie, gdy region US-EAST-1 w AWS zaczyna zgłaszać błędy, cały ruch użytkowników jest w ciągu sekund automatycznie przekierowywany na bliźniaczą infrastrukturę w Azure. Użytkownik końcowy nie zauważa niczego, poza może chwilowym spowolnieniem.

    \Brzmi idealnie. Dlaczego więc niemal nikt tego nie robi?

    Brutalna ekonomia niezawodności

    Odpowiedź jest banalna i brutalnie szczera: pieniądze. Wdrożenie prawdziwej architektury multi-cloud jest dla 99% firm na świecie, wliczając w to wielu giełdowych gigantów, po prostu nieopłacalne.

    Nie mówimy tu o podwojeniu miesięcznego rachunku za chmurę. Mówimy o jego zwielokrotnieniu, a największe koszty są ukryte.

    1.  Koszty technologiczne (złożoność): Nie da się prosto skopiować aplikacji z AWS na Azure. Każdy dostawca ma własne, unikalne usługi i odmienne API. Baza DynamoDB (AWS) to nie to samo co Cosmos DB (Azure) czy Spanner (Google). Utrzymanie logiki aplikacji, która potrafi płynnie działać na dwóch różnych fundamentach technologicznych, to gigantyczne wyzwanie inżynieryjne.

    2.  Koszty operacyjne (ludzie): Taka architektura wymaga posiadania podwójnych, wysoce wyspecjalizowanych zespołów inżynierskich. Potrzebujesz ekspertów od AWS oraz ekspertów od Azure. W dobie deficytu talentów IT jest to luksus, na który stać tylko nielicznych.

    3.  Koszty synchronizacji danych: To najtrudniejszy element. Jak zapewnić, że dane użytkownika (np. nowa transakcja bankowa lub zdobyty w grze przedmiot) są w tej samej milisekundzie spójne między bazami danych w Wirginii (AWS) i Teksasie (Azure)? Koszty transferu danych i złożoność logiki takiej replikacji są astronomiczne.

    I tu dochodzimy do sedna. Biznes umie liczyć. Firmy takie jak Zoom, Duolingo czy Roblox świadomie dokonały kalkulacji ryzyka. Koszt i straty wizerunkowe związane z kilkoma godzinami przestoju raz na rok czy dwa lata są akceptowalnie niższe niż stały, gigantyczny koszt utrzymania prawdziwej redundancji multi-cloud.

    Lekcja, którą musimy odrzucić

    Awaria nie jest więc porażką inżynierów AWS ani dowodem na słabość chmury. To jest porażka naszych złudzeń na jej temat.

    Chmura jest narzędziem. Można nim zbudować tanią, elastyczną infrastrukturę, która jest jednak fundamentalnie zależna od jednego dostawcy. Albo można nim zbudować ekstremalnie drogą, skomplikowaną i prawdziwie odporną na awarie twierdzę, działającą u wielu dostawców.

    Wybranie obu tych opcji jednocześnie – tanio, prosto i w 100% niezawodnie – jest przywilejem, na który niemal nikogo nie stać.

    aIncydent w Wirginii zmusił całą branżę do odpowiedzi na pytanie: Ile naprawdę jesteśmy w stanie zapłacić za 100% dostępności? Okazuje się, że znacznie mniej, niż lubimy o tym opowiadać na branżowych konferencjach.

  • Microsoft pod presją – czy zmusza klientów do Azure?

    Microsoft pod presją – czy zmusza klientów do Azure?

    W cieniu rosnącej dominacji na rynku chmury, Microsoft musi zmierzyć się z rosnącą krytyką ze strony swoich największych konkurentów — Google i Amazona. Obie firmy zarzucają gigantowi z Redmond, że poprzez politykę licencyjną zmusza klientów do korzystania z własnej platformy Azure, utrudniając jednocześnie migrację na konkurencyjne usługi.

    Problem sięga 2019 roku, kiedy to Microsoft zmienił zasady licencjonowania oprogramowania Windows i SQL Server w środowiskach chmurowych. Klienci chcący uruchamiać te produkty na platformach takich jak AWS, Google Cloud czy Alibaba muszą dziś kupować droższe, oddzielne licencje — podczas gdy na Azure dostęp do tych samych rozwiązań jest wyraźnie tańszy. Według Google, różnica w kosztach może sięgać nawet czterokrotności ceny.

    To stawia wielu klientów w trudnej sytuacji. Firmy, które od lat budują swoje systemy w oparciu o technologie Microsoftu, często nie mają realnej alternatywy. Choć Microsoft wskazuje, że możliwe jest przejście na Linuksa, w praktyce takie migracje są kosztowne, długotrwałe i obarczone ryzykiem — szczególnie dla organizacji o dużej złożoności środowiska IT.

    Nie jest to jednak wyłącznie spór między korporacjami. Brytyjski regulator rynku, Competition and Markets Authority (CMA), bada obecnie, czy działania Microsoftu mogą stanowić nieuczciwą praktykę ograniczającą konkurencję w sektorze chmury. Wstępne ustalenia sugerują, że problem jest realny. Finalna decyzja spodziewana 4 lipca może nie tylko wpłynąć na praktyki licencyjne Microsoftu w Wielkiej Brytanii, ale również stać się punktem wyjścia do szerszych regulacji na innych rynkach.

    Co to oznacza dla rynku chmurowego?

    Jeśli regulatorzy zdecydują się na interwencję, może to wymusić na Microsoft bardziej neutralne podejście do licencjonowania oprogramowania niezależnie od wybranej platformy chmurowej. W dłuższej perspektywie mogłoby to wyrównać szanse w rywalizacji o klientów korporacyjnych i ograniczyć zjawisko vendor lock-in — czyli uzależnienia firm od jednego dostawcy.

    Z drugiej strony, nawet jeśli CMA nakaże zmiany, wdrożenie nowych zasad może potrwać lata, a w tym czasie Microsoft utrzyma przewagę, budując kolejne warstwy zależności technologicznych w środowiskach swoich klientów.

    Warto też zauważyć, że podobne zarzuty wobec dominujących firm technologicznych stają się coraz częstsze. Trend w stronę zwiększonej regulacji w branży IT — od USA po Unię Europejską — pokazuje, że era pełnej swobody dla największych dostawców oprogramowania powoli dobiega końca. Microsoft, mimo swojej potęgi, może wkrótce stanąć przed koniecznością przedefiniowania swojej strategii wzrostu w chmurze.

  • Arrow Electronics wyróżnione przez Microsoft – kluczowy gracz w migracji do Azure

    Arrow Electronics wyróżnione przez Microsoft – kluczowy gracz w migracji do Azure

    Arrow Electronics ogłosiło, że uzyskało specjalizację w zakresie migracji infrastruktury i baz danych do Microsoft Azure. Specjalizacja potwierdza zaawansowaną wiedzę, bogate doświadczenie oraz wysokie kompetencje firmy w zakresie przenoszenia zasobów klientów do chmury Azure.

    Specjalizacja ta jest przyznawana wyłącznie partnerom, którzy spełniają surowe wymagania dotyczące klientów i umiejętności pracowników, a także przeszli szczegółowy audyt metod migracji. Jest to dowód na to, że Arrow Electronics skutecznie wspiera firmy w przejściu do nowoczesnych rozwiązań chmurowych.

    Współczesne organizacje coraz częściej decydują się na modernizację aplikacji i migrację do chmury, aby zwiększyć efektywność oraz wykorzystać pełen potencjał technologii chmurowych. Kluczowe znaczenie ma znalezienie doświadczonego partnera, który potrafi kompleksowo ocenić, zaplanować i przeprowadzić ten proces.

    „Zdobycie specjalizacji to dla nas ważne osiągnięcie. Potwierdza ono naszą zdolność do wspierania partnerów biznesowych w procesie migracji klientów do Azure oraz zapewniania im dodatkowych korzyści wynikających z tego wyróżnienia. Naszym priorytetem jest dostarczanie najlepszych narzędzi i wsparcia, aby pomóc naszym partnerom osiągnąć sukces w chmurze.”

    Brendan Murphy, Global Director of Public Cloud w Arrow ECS

    „Specjalizacja w zakresie Infrastructure & Database Migration wyróżnia partnerów, którzy specjalizują się w przenoszeniu zasobów do Azure. Arrow udowodniło, że posiada odpowiednie kompetencje i doświadczenie, aby zapewnić klientom płynną i skuteczną migrację, umożliwiając im czerpanie pełnych korzyści z chmury.”

    Andrew Smith, General Manager, Partner Program Management w Microsoft
  • Kampania phishingowa na dużą skalę złamała 20 000 europejskich kont Azure

    Kampania phishingowa na dużą skalę złamała 20 000 europejskich kont Azure

    Zespół śledczy Device42 z Palo Alto poinformował o zakrojonej na szeroką skalę kampanii phishingowej, która w okresie od czerwca do września 2024 roku naruszyła 20 000 kont Microsoft Azure w Europie. Atakującym celem były głównie firmy z sektora chemicznego, motoryzacyjnego oraz przemysłowego.

    Kampania opierała się na wykorzystaniu narzędzi uznawanych za wiarygodne, takich jak platforma marketingowa HubSpot i serwis DocuSign. Cyberprzestępcy wykorzystywali te usługi do wysyłania e-maili z złośliwymi linkami, które miały na celu wyłudzenie danych logowania. Osoby, które kliknęły w link, trafiały na spreparowany formularz stworzony za pomocą HubSpot Form Builder, który próbował przechwycić dane dostępowe do systemów firmowych.

    Chociaż nie doszło do żadnych naruszeń w samych systemach HubSpot, platforma odegrała istotną rolę w umożliwieniu ataku. Dzięki uznaniu HubSpot za legalne narzędzie, wiadomości phishingowe omijały filtry spamowe. W połączeniu z tym, że atakujący używali VPN, aby ich aktywność wydawała się pochodzić z kraju, w którym znajdowała się ofiara, kampania zyskała na skuteczności.

    Choć serwery wspierające kampanię zostały już wyłączone, zagrożenie związane z phishingiem pozostaje aktualne. Eksperci ostrzegają, że techniki wyłudzania danych są wciąż aktywne i mogą przybierać nowe formy.

  • Microsoft i CISPE rozmawiają o przyszłości chmurowych produktów po ugodzie z UE

    Microsoft i CISPE rozmawiają o przyszłości chmurowych produktów po ugodzie z UE

    W zeszłym tygodniu odbyło się spotkanie między MicrosoftemCISPE (Cloud Infrastructure Services Providers in Europe), którego celem była ocena postępów w zakresie produktów chmurowych firmy Microsoft, w tym Windows Azure Local. Spotkanie miało charakter technicznego szczytu, w trakcie którego omawiano zarówno aktualny stan prac, jak i dalszy rozwój platformy chmurowej.

    Podczas spotkania poruszono kwestie związane z niedawną skargą dotyczącą nieuczciwej konkurencji, złożoną przez CISPE w Komisji Europejskiejpodaje The Register. Dotyczyła ona praktyk Microsoftu na rynku usług chmurowych, w szczególności wykorzystywania produktów Windows Azure do wyeliminowania konkurentów. W ramach rozwiązania tej sprawy, Microsoft zgodził się na wprowadzenie pewnych zmian w swojej ofercie, w tym zmodyfikowanie licencji na oprogramowanie chmurowe. Choć dokładna wysokość zapłaconej kwoty pozostaje nieujawniona, zmiany te mają na celu poprawę warunków konkurencyjnych w tym segmencie rynku.

    Spotkanie miało także aspekt formalny, z obecnością zarówno przedstawicieli działów marketingowych i regulacyjnych Microsoftu, jak i osób technicznych, które dołączyły do rozmów drugiego dnia. W trakcie spotkania omawiano m.in. projekt ustawy UE dotyczącej danych oraz kolejne kroki w realizacji ugody.

    CISPE, jako organizacja reprezentująca dostawców usług chmurowych w Europie, podkreśliła, że spotkanie było krokiem ku dalszym postępom w zakresie realizacji warunków porozumienia. Jak zaznaczył rzecznik organizacji, oczekuje się, że dokumentacja wynikająca z rozmów zostanie opublikowana jeszcze przed końcem roku.

    Microsoft, w komunikacie po spotkaniu, podkreślił swoje zaangażowanie w rozwój europejskiego przemysłu technologicznego oraz kontynuację współpracy z CISPE. Firma zaznaczyła, że współpraca ta jest częścią długoterminowej strategii inwestycji w regionie.

  • Wyniki Microsoft pokazują, że AI może nie zwrócić się tak szybko, jak oczekiwano

    Wyniki Microsoft pokazują, że AI może nie zwrócić się tak szybko, jak oczekiwano

    Microsoft ogłosił znaczące zwiększenie inwestycji w infrastrukturę sztucznej inteligencji (AI) w bieżącym roku fiskalnym, pomimo spowolnienia wzrostu swojego biznesu w chmurze. Decyzja ta sygnalizuje, że korzyści z dużych inwestycji w technologię mogą zająć więcej czasu niż oczekiwano przez Wall Street.

    Podczas ostatniego ogłoszenia wyników finansowych, Microsoft zanotował spadek wartości akcji o 7%, jednak później straty zostały zredukowane do 4% po zamknięciu giełdy. Firma przewiduje, że wzrost chmury Azure przyspieszy w drugiej połowie roku fiskalnego 2025.

    Wzrost wydatków kapitałowych

    W czwartym kwartale fiskalnym, zakończonym 30 czerwca, wydatki kapitałowe Microsoftu wzrosły o 77,6% do 19 miliardów dolarów, z czego większość była związana z chmurą i AI. W skali całego roku fiskalnego 2024, wydatki te wyniosły 55,7 miliarda dolarów. Amy Hood, dyrektor finansowa Microsoftu, podkreśliła, że te inwestycje są konieczne, aby sprostać rosnącemu zapotrzebowaniu na usługi AI. Hood zaznaczyła również, że inwestycje te będą przynosić zyski przez co najmniej 15 lat.

    Reakcja inwestorów i wzrost Azure

    Inwestorzy, którzy w ostatnich 12 miesiącach zwiększyli wartość akcji Microsoftu o niemal jedną czwartą w oczekiwaniu na rozwój AI, byli rozczarowani obecnym tempem wzrostu Azure. Firma przewiduje wzrost o 28-29% w kwartale lipiec-wrzesień, co jest nieco poniżej oczekiwań analityków wynoszących 29,7%. Wzrost Azure w kwartale zakończonym 30 czerwca wyniósł 29%, co również było poniżej oczekiwań wynoszących 30,6%.

    Rosnące znaczenie usług AI

    Pomimo ogólnego spowolnienia wzrostu platformy Azure, usługi AI przyczyniły się do wzrostu przychodów w kwartale czerwcowym o 8 punktów procentowych, w porównaniu do 7 punktów procentowych w poprzednim kwartale. CEO Microsoftu, Satya Nadella, poinformował, że Azure AI jest obecnie używany przez ponad 60 000 klientów, co oznacza wzrost o niemal 60% rok do roku. Nadella podkreślił, że średnie wydatki w przeliczeniu na klienta również rosną.

    Rozwój produktów i technologii

    Microsoft intensywnie integruje technologię AI w niemal każdy swój produkt, od wyszukiwarki Bing po oprogramowanie biurowe, takie jak Word. Duża część tych działań opiera się na technologii OpenAI, w którą Microsoft zainwestował około 13 miliardów dolarów, w tym w asystenta 365 Copilot dla przedsiębiorstw.

    Wyniki finansowe

    Segment produktywności, obejmujący pakiet aplikacji Office, LinkedIn i 365 Copilot, odnotował wzrost o 11%, przewyższając oczekiwania wynoszące 10%. Przychody z działu Intelligent Cloud, obejmującego Azure, wzrosły o 19% do 28,5 miliarda dolarów, co było nieco poniżej oczekiwań analityków wynoszących 28,68 miliarda dolarów.

    Łączne przychody Microsoftu wzrosły o 15% do 64,7 miliarda dolarów w czwartym kwartale, przewyższając prognozy analityków wynoszące 64,39 miliarda dolarów. Segment komputerów osobistych, obejmujący system Windows oraz urządzenia takie jak Xbox i Surface, odnotował wzrost o 14% dzięki stabilizacji sprzedaży komputerów osobistych.

    Microsoft kontynuuje intensywne inwestycje w infrastrukturę AI, mimo że wzrost w jego biznesie chmurowym zwalnia. Firma jest przekonana, że te inwestycje będą opłacalne w długoterminowej perspektywie, choć inwestorzy oczekują szybszych zwrotów. Przyszłość pokaże, czy strategia ta przyniesie oczekiwane rezultaty, szczególnie w kontekście rosnącej konkurencji na rynku technologii AI.

  • Microsoft: Inwestycje w AI pod presją oczekiwań inwestorów

    Microsoft: Inwestycje w AI pod presją oczekiwań inwestorów

    W związku z nadchodzącą publikacją raportu finansowego Microsoftu, inwestorzy z niecierpliwością czekać na informacje dotyczące wzrostu w segmencie chmurowym Azure. Kluczowym pytaniem pozostaje, czy inwestycje firmy w infrastrukturę sztucznej inteligencji przyniosły oczekiwane rezultaty.

    Microsoft, powszechnie uznawany za lidera w komercjalizacji sztucznej inteligencji, szczególnie dzięki współpracy z OpenAI, producentem ChatGPT, spodziewa się stabilnego wzrostu przychodów Azure o około 31% kwartał do kwartału między kwietniem a czerwcem. Dane Visible Alpha wskazują, że taki wynik byłby zgodny z prognozami firmy. Niemniej jednak, inwestorzy liczą na większy wpływ działalności AI w czwartym kwartale fiskalnym, po tym jak AI przyczyniła się do 7 punktów procentowych wzrostu Azure w pierwszym kwartale roku.

    Microsoft znacząco zwiększył swoje wydatki kapitałowe, które prawdopodobnie wzrosły o 53% rok do roku do 13,64 miliarda dolarów. Jest to znaczący wzrost w porównaniu do 10,95 miliarda dolarów wydatków w poprzednim kwartale. Tak duże nakłady są wynikiem inwestycji w centra danych, które są kluczowe dla rozwoju infrastruktury AI.

    Jednakże, nadmierne wydatki technologicznych gigantów na centra danych budzą obawy na rynku. Przykładem jest Alphabet, którego akcje spadły o ponad 5% po zgłoszeniu wydatków kapitałowych przekraczających szacunki o prawie 1 miliard dolarów, podczas gdy wzrost przychodów z AI pozostał niewielki. Alphabet zapowiedział, że jego nakłady inwestycyjne pozostaną wysokie przez resztę 2024 roku, co wywołało wyprzedaż akcji wśród największych firm technologicznych.

    Microsoft uzasadnia swoje wydatki koniecznością przezwyciężenia ograniczeń przepustowości w centrach danych, co jest kluczowe dla wykorzystania popytu na AI. Dyrektor generalny Google, Sundar Pichai, również wskazał na ryzyko niedoinwestowania w infrastrukturę AI, podkreślając, że jest ono większe niż ryzyko nadmiernych inwestycji.

    Rozszerzone inwestycje pozwoliły Microsoftowi na zdobycie większej liczby klientów z szerokiej bazy korporacyjnej, oferując rozszerzony dostęp do chmurowych usług AI oraz wprowadzenie nowych funkcji, takich jak 365 Copilot dla Worda i Excela. Usługa Copilot, wyceniona na 30 USD miesięcznie, jest używana przez połowę firm z listy Fortune 500. Mimo to, wpływ Copilota na przychody ma być bardziej widoczny w drugiej połowie 2024 roku.

    Akcje Microsoftu wzrosły w tym roku o około 13%, co dodało ponad 350 miliardów dolarów do wartości rynkowej firmy. Pomimo tego, akcje spadły o prawie 9% podczas ostatniej wyprzedaży technologii. W bieżącym roku wzrost Microsoftu był słabszy w porównaniu do 14,5% wzrostu indeksu S&P 500.

  • Microsoft wprowadza obowiązkowe MFA dla użytkowników Azure

    Microsoft wprowadza obowiązkowe MFA dla użytkowników Azure

    Microsoft ogłosił, że tego lata uwierzytelnianie wieloskładnikowe (MFA) stanie się obowiązkowym wymogiem dla wszystkich użytkowników swojej platformy chmurowej Azure. Decyzja ta jest odpowiedzią na narastające zagrożenia cybernetyczne i ma na celu znaczące wzmocnienie bezpieczeństwa danych klientów.

    W ostatnich latach, konta bez dodatkowego zabezpieczenia uwierzytelniania wieloskładnikowego stały się łatwym celem dla cyberprzestępców. Jak pokazują badania przeprowadzone przez Microsoft, aż 99,9% skompromitowanych kont nie korzystało z MFA. Z kolei aktywacja MFA skutecznie blokuje 99,2% ataków wykorzystujących przejęcie kont użytkowników.

    MFA jest prostym, ale niezwykle skutecznym narzędziem, które znacząco utrudnia zadanie cyberprzestępcom – mówi ekspert ds. bezpieczeństwa Microsoft. – Dlatego zdecydowaliśmy się na wprowadzenie tej metody jako standardu bezpieczeństwa dla wszystkich naszych użytkowników Azure.

    Nowa polityka bezpieczeństwa zostanie wprowadzona stopniowo. Użytkownicy zostaną o niej poinformowani za pośrednictwem wiadomości e-mail oraz powiadomień w portalu Azure. Chociaż firma nie ujawniła jeszcze dokładnego harmonogramu wprowadzenia zmian, to wszystko wskazuje na to, że przed oficjalnym obowiązkiem użytkownicy będą mieli czas na adaptację.

    Jednakże, wprowadzenie obowiązkowego MFA może wiązać się z pewnymi wyzwaniami. Na przykład, nie jest jasne, czy będą istnieć wyjątki dla określonych typów kont, takich jak konta usług, które mogą wymagać innego podejścia do zarządzania uwierzytelnianiem.

    Konfiguracja MFA jest prosta i nie wiąże się z dodatkowymi kosztami, a odpowiednie ustawienia można znaleźć w panelu zarządzania Microsoft Entra. Zastosowanie tej metody to nie tylko krok w kierunku zabezpieczenia danych przed nieuprawnionym dostępem, ale także element szerszej strategii firmy mającej na celu zapewnienie kompleksowej ochrony w erze cyfrowej.

    Microsoft nie jest jedyną firmą, która zdecydowała się na takie środki. W 2023 roku podobną politykę wprowadził już AWS, co świadczy o rosnącym znaczeniu uwierzytelniania wieloskładnikowego w branży technologicznej.

    Decyzja Microsoftu o uczynieniu MFA obowiązkowym dla wszystkich użytkowników Azure jest wyraźnym sygnałem, że branża IT przechodzi od dobrowolnego wprowadzania dodatkowych środków bezpieczeństwa do ich wymuszania, co może zaważyć na przyszłych standardach bezpieczeństwa cyfrowego na całym świecie.

  • Microsoft ogłosił 5 nowych narzędzi Azure AI

    Microsoft ogłosił 5 nowych narzędzi Azure AI

    W najnowszym ruchu mającym na celu wzmocnienie bezpieczeństwa i jakości generatywnych aplikacji sztucznej inteligencji (AI), Microsoft ogłosił wprowadzenie pięciu nowych narzędzi w ramach swojej platformy Azure AI. Te innowacyjne narzędzia, zaprezentowane w niedawnym wpisie na blogu firmy, są projektowane tak, aby pomóc twórcom w łatwiejszym tworzeniu bezpieczniejszych i bardziej niezawodnych modeli językowych dużych skal (LLM), które stają się fundamentem nowoczesnej sztucznej inteligencji.

    Wprowadzenie do nowych narzędzi Azure AI

    W obliczu rosnących wyzwań związanych z bezpieczeństwem, takich jak ataki typu prompt injection, które mogą pozwolić intruzom na dostęp do poufnych informacji, Microsoft odpowiedział zestawem narzędzi mających na celu ograniczenie tych zagrożeń. Narzędzia te obejmują:

    • Prompt Shields: Mechanizm zaprojektowany do wykrywania i blokowania podejrzanych danych wejściowych w czasie rzeczywistym, zanim te dane mogą zakłócić działanie podstawowego modelu AI. Jest to istotny krok w kierunku zapobiegania nieautoryzowanemu dostępowi do systemów AI poprzez wyrafinowane techniki manipulacji danymi wejściowymi.
    • Groundedness Detection: Adresuje problem „halucynacji” w AI, gdzie modele mogą generować błędne lub całkowicie nieprawdziwe wyniki. To narzędzie pomaga w identyfikacji i korygowaniu takich błędów, wspierając tym samym wiarygodność i dokładność generowanych treści.
    • Wiadomości z systemu bezpieczeństwa: Microsoft planuje zaoferować standardowe szablony komunikatów, które mogą kierować działania modelu w stronę bezpieczniejszego i bardziej odpowiedzialnego generowania treści, zapewniając tym samym dodatkową warstwę kontroli nad generowanym wyjściem.
    • Oceny bezpieczeństwa: Narzędzie to ocenia ryzyko i podatność aplikacji na ataki, takie jak próby „jailbreak”, które mogą pozwolić generowanym treściom omijać wewnętrzne ograniczenia bezpieczeństwa.
    • Monitorowanie ryzyka i bezpieczeństwa: Oferuje szczegółową analizę wrażliwości aplikacji na potencjalne zagrożenia, dostarczając wyjaśnień wyników oceny oraz proponując odpowiednie rozwiązania.

    Te narzędzia, które obecnie są dostępne w wersji zapoznawczej, stanowią część szerszej inicjatywy Microsoftu mającej na celu umocnienie ekosystemu AI. Ich ogólna dostępność w niedalekiej przyszłości stanowi obiecujący krok ku bardziej bezpiecznemu i odpowiedzialnemu rozwijaniu technologii AI.

    Znaczenie dla przyszłości AI

    Wprowadzenie tych narzędzi przez Microsoft ma kluczowe znaczenie dla przyszłości bezpieczeństwa i jakości generatywnych aplikacji AI. W miarę jak te technologie stają się coraz bardziej zintegrowane z codziennym życiem i biznesem, ważne jest, aby deweloperzy mieli narzędzia niezbędne do budowania bezpiecznych i niezawodnych systemów. To nie tylko zwiększa zaufanie użytkowników do tych technologii, ale także otwiera drzwi do nowych, innowacyjnych zastosowań AI, które mogą przynieść korzyści społeczeństwu w szerokim zakresie dziedzin.

  • Alior Bank stawia na chmurę – Bank przeprowadził migrację Hurtowni Danych do chmury publicznej

    Alior Bank stawia na chmurę – Bank przeprowadził migrację Hurtowni Danych do chmury publicznej

    Alior Bank, we współpracy z firmami Teradata i Microsoft przeprowadził migrację Hurtowni Danych do chmury publicznej. Dzięki integracji ze środowiskiem analitycznym Microsoft Azure, bank planuje zwiększyć efektywność procesów analitycznych, w tym w obszarze sztucznej inteligencji oraz uczenia maszynowego. Pozwoli to szybciej reagować na zmieniające się potrzeby rynku i klientów. Proces wdrożenia trwał rekordowe 6 miesięcy. Jest to kolejny krok w realizacji strategii „Bank na co dzień, Bank na przyszłość”, której jednym z filarów jest rozwój technologiczny.

    Dzięki migracji danych do chmury publicznej, Alior Bank uzyskał możliwość łatwej integracji z najnowszymi technologiami i usługami oferowanymi przez Microsoft Azure i Teradata VantageCloud. Ten krok stanowi pierwszy etap realizowanego w banku projektu, którego celem jest modernizacja obecnej architektury danych oraz budowa nowoczesnego ekosystemu aplikacji wspierających wykorzystanie sztucznej inteligencji oraz technik uczenia maszynowego, opartych na rozwiązaniach chmurowych.

    Wykorzystanie chmury pozwala na praktycznie nieograniczone skalowanie danych, umożliwiając uruchamianie nowych inicjatyw z obszaru ich przetwarzania i analityki, bez konieczności długotrwałego rozbudowywania infrastruktury we własnej serwerowni. Dzięki zastosowanemu modelowi rozliczeń bank ma również pełną kontrolę nad ich kosztami.

    Wdrożenie chmury przynosi znaczne korzyści także pod względem bezpieczeństwa danych. Firmy Teradata i Microsoft wykorzystują najbardziej zaawansowane środki zabezpieczeń, co daje klientom banku pewność, że ich dane są odpowiednio chronione. Migracja umożliwia również automatyczne aktualizacje oprogramowania bez potrzeby interwencji specjalistów bankowych, co zapewnia bieżącą ochronę systemu. Jednocześnie, dzięki automatycznej zdolności do przenoszenia w razie awarii ośrodka przetwarzania danych do innego regionu, bank uzyskuje większą odporność.

    Bank zapowiada, że migracja do chmury publicznej przyniesie mu istotne oszczędności związane z utrzymaniem infrastruktury serwerowej banku. Alior liczy na redukcję to wydatki na energię elektryczną potrzebną do zasilania i chłodzenia, powierzchnię fizyczną na serwery oraz koszty administracji środowiskiem. Ponadto, decyzja wspiera politykę ESG – dostawcy chmurowi korzystają z zielonej energii, co przyczynia się do zrównoważonego rozwoju i korzystnie wpływa na środowisko.

  • Microsoft reaguje na wyzwania prywatności. Unijna granica danych w praktyce

    Microsoft reaguje na wyzwania prywatności. Unijna granica danych w praktyce

    Microsoft, jeden z gigantów technologicznych, niedawno ogłosił ważną zmianę w swojej polityce dotyczącej danych – przedłużenie unijnej granicy danych w swoim produkcie Azure. Ten ruch, choć z pozoru techniczny, ma znaczące implikacje zarówno dla prywatności danych, jak i dla ogólnej polityki prywatności w Europie.

    Faza 1 i 2: Pierwsze kroki Microsoftu

    Rozpoczęta w styczniu 2023 roku inicjatywa „EU Data Boundary” Microsoftu stanowi odpowiedź na rosnące obawy dotyczące prywatności danych w chmurze. Zasada jest prosta: dane klientów korzystających z usług chmurowych Microsoftu pozostają w granicach Unii Europejskiej. To, co brzmi jak prosty mechanizm, w rzeczywistości jest skomplikowanym procesem wymagającym znacznych inwestycji technologicznych i logistycznych.

    Znaczący rozwój nastąpił w „fazie 2”, gdzie Microsoft rozszerza zakres EU Data Boundary, by obejmował również dane osobowe. To zdecydowane posunięcie w stronę zwiększenia ochrony danych osobowych, które są szczególnie wrażliwe i podlegają surowym regulacjom, takim jak RODO. Obejmują one dane pochodzące z dzienników systemowych aplikacji Microsoft 365, co jest kluczowe, biorąc pod uwagę rosnące wykorzystanie tych narzędzi w biznesie i edukacji.

    Proces, a nie przycisk

    Microsoft podkreśla, że włączenie granicy danych to nie kwestia jednego kliknięcia. Wymaga to szczegółowej konfiguracji usług online, co stanowi wyzwanie zarówno dla Microsoftu, jak i jego klientów. Ta konieczność konfiguracji rzuca cień na to, czy mniejsze firmy będą mogły łatwo dostosować się do tych zmian bez znaczących zasobów IT.

    Faza 3: nadchodzące wyzwania

    Faza 3, planowana na koniec roku, rzuca kolejne pytania dotyczące sposobu, w jaki Microsoft zamierza radzić sobie z danymi potrzebnymi do wsparcia technicznego. Chociaż firma obiecuje utrzymywać te dane w UE w jak największym stopniu, złożone interwencje, jak np. infrastruktura wirtualnego pulpitu, mogą wymagać ograniczonego i bezpiecznego transferu danych poza UE. To stawia pod znakiem zapytania pełną skuteczność granicy danych, szczególnie w kontekście bardziej złożonych problemów technicznych.

    Opłata za prywatność?

    Warto również zauważyć, że dostęp do wsparcia technicznego z Europy ma być opcją płatną. To rodzi pytanie o równość dostępu do ochrony danych: czy firmy z głębszymi kieszeniami będą bardziej chronione niż mniejsze przedsiębiorstwa?

    Inicjatywa Microsoftu w zakresie EU Data Boundary jest ważnym krokiem w ochronie danych osobowych w chmurze. Jednakże, należy uważnie obserwować, jak firma będzie realizować swoje obietnice, zwłaszcza w kontekście przyszłych faz i wyzwań technicznych. Kluczowe będzie, czy ta inicjatywa okaże się być rzeczywistym zobowiązaniem do ochrony danych, czy tylko powierzchownym działaniem mającym na celu zaspokojenie oczekiwań rynkowych i regulacyjnych.

  • Jak douczyć i dopasować ChatGPT do swoich potrzeb?

    Jak douczyć i dopasować ChatGPT do swoich potrzeb?

    Jedną z najważniejszych korzyści korzystania z modeli OpenAI w chmurze Azure jest zdolność do ich douczenia. Organizacje mogą tam bowiem łatwo dostosować m.in. ChatGPT czy Dall-E do swoich specyficznych potrzeb, dostarczając im własnych danych do treningu. Dzięki temu, modele będą mogły lepiej zrozumieć typowe dla firmy konteksty i specyfikę, co przełoży się na jeszcze większą efektywność ich działania i skuteczność realizacji zadań – uważa firma Crayon, która jest wiodącym partnerem Microsoft na świecie w obszarze AI i uczenia maszynowego. w

    Microsoft jest obecnie wśród liderów wyścigu technologicznego w obszarze AI dzięki swojej inwestycji na początku 2023 roku w OpenAI, twórcę słynnego ChatGPT.  Do tej pory firma zintegrowała to środowisko z wyszukiwarką Bing oraz oprogramowaniem wspomagającym współpracę Teams. Dodatkowo Microsoft zainwestował w narzędzie do tworzenia aplikacji bez kodowania Builder.ai, a ostatnio udostępnił także OpenAI w chmurze Azure. I to właśnie integracja środowiska OpenAI z Azure jest uznawana za potencjalnie najważniejszy ruch giganta z Redmonta w wyścigu po fotel lidera na globalnym rynku AI.

    Inwestycje firm w AI przyśpieszyły

    „Udostępnienie OpenAI w Azure jest jedną z najważniejszych rzeczy, jeśli chodzi o rozwój AI przez Microsoft, bo pozwala tej firmie zostać głównym dystrybutorem zaawansowanych rozwiązań opartych o sztuczną inteligencję dla biznesu. Już w pierwszym kwartale br. około 2500 firm i organizacji zaczęło używać OpenAI w Azure” – mówi Andrzej Wyszomierski, Head of Service Delivery w Crayon.

    Jak przekonuje przedstawiciel Crayon, te liczby będą bardzo szybko rosły, na co wskazują choćby niedawne badania  firmy Gartner, według których aż 45 proc. firm  po upublicznieniu ChatGPT zwiększyło swoje budżety na inwestycje w rozwiązania oparte o sztuczną inteligencję, a 19 proc. jest już na etapie ich pilotażowego wdrożenia lub w pełni je zaimplementowało. Liczba wdrożeń może wkrótce znacząco wzrosnąć, bo aż 70 proc. firm ewaluuje obecnie potencjalne zastosowania generatywnej AI. Potwierdzają to także szacunki firmy doradczej McKinsey & Company. Według jej danych, do 2030 roku 70% organizacji będzie używać narzędzi AI w różnej formie, wnosząc do globalnej gospodarki ok. 13 miliardów dolarów dodatkowej wartości.

    Zdaniem McKinsey, ci, którzy najwcześniej wdrożą rozwiązania oparte o AI do zautomatyzowania lub usprawnienia różnych procesów w swojej organizacji, zyskają na tym najwięcej. Pierwsze firmy z narzędziami AI przez najbliższe 5-7 lat mogą zwiększyć swoje wolne przypływy pieniężne (FCF) o nawet 122%. Z kolei te, które będą czekać dłużej z wdrożeniami, mogą liczyć na wzrosty tego wskaźnika jedynie o 10%. Firmy, które nie będą korzystały z AI, muszą się liczyć ze spadkami FCF o około 20%.

    Korzystanie z OpenAI w chmurze Azure oznacza dostęp do wszystkich modeli językowych i systemów sztucznej inteligencji w bezpiecznym środowisku Microsoft. Obejmuje to m.in. najnowszy model GPT-4, który jest zdolny do generowania spójnych odpowiedzi na różnorodne pytania, czy DALL-E, umożliwiający tworzenie realistycznych obrazów na podstawie opisu w języku naturalnym. Użytecznym modelem jest także Codex, który jest biegły w programowaniu w języku Python, C#, JavaScript, PHP, SQL i wielu innych.

    „Przeniesienie tych modeli do Microsoft Azure umożliwia organizacjom pełne wykorzystanie ich możliwości, zachowując przy tym kluczowe standardy bezpieczeństwa oraz zapewniając jedno miejsce do zarządzania i monitorowania zasobami. Azure, z bogatą ofertą usług chmurowych, dostarcza narzędzia niezbędne do skutecznego wdrożenia i zarządzania modelami OpenAI” – mówi Łukasz Piotrowicz, Data Platform Technology Strategist w Crayon.

    Przedstawiciele Crayon podkreślają także, że jedną z kluczowych korzyści korzystania z modeli OpenAI w Azure jest zdolność do ich douczenia. Organizacje mogą tam bowiem łatwo dostosować te modele do swoich specyficznych potrzeb, dostarczając im własnych danych do treningu. Dzięki temu, modele mogą lepiej zrozumieć typowe dla firmy konteksty i specyfikę danej organizacji, co przekłada się na jeszcze większą efektywność ich działania i skuteczność realizacji zadań.

  • Tech Data rozszerza ofertę aktualizacji 
Microsoft Dynamics

    Tech Data rozszerza ofertę aktualizacji 
Microsoft Dynamics

    Tech Data ogłasza nową strategiczną współpracę z Simplanova, dostawcą usług Dynamics 365 Business Central Upgrade i NAV Development. Tech Data i Simplanova zdecydowały się połączyć siły, żeby dostarczać usługi IT klasy korporacyjnej dla portfolio Microsoft Dynamics 365 oraz najwyższej jakości wiedzę ekspercką, aby wzmocnić pozycję partnerów i klientów końcowych Dynamics.

    Dzięki tej umowie, partnerzy Tech Data mogą uzyskać dostęp do profesjonalnych, zautomatyzowanych usług Simplanova o stałej cenie, aby wspierać swoich klientów w przyspieszaniu i usprawnianiu migracji z Microsoft Dynamics NAV do Dynamics 365 Business Central. Partnerzy mogą również korzystać z innych usług, takich jak niestandardowy rozwój systemu Business Central, migracja dodatków do AppSource oraz szkolenia zespołu technicznego, które pozwolą wspierać klientów końcowych w uaktualnianiu ich środowisk Dynamics i uzyskiwać dostęp do nowych funkcjonalności, zwiększonej elastyczności oraz wspierać instancje systemu Dynamics NAV.

    Stephen Ennis, vice president, Services, Advanced Solutions, Europe, Tech Data, powiedział: „Aktualizacja lub migracja do Microsoft Dynamics mogą być skomplikowane i czasochłonne dla naszych partnerów i ich klientów końcowych. Tech Data i Simplanova wspólnie stawiają czoła temu wyzwaniu dostarczając specjalistyczną wiedzę oraz doświadczenie wraz z solidnymi zautomatyzowanymi narzędziami, które przyspieszają i ułatwiają ten proces. Pozwoli to partnerom na płynne zarządzanie tymi przejściami i korzystanie z możliwości długoterminowego generowania przychodów dzięki corocznym aktualizacjom Microsoftu. Partnerstwo Tech Data z Simplanova oznacza, że nasi partnerzy będą korzystać z wysokiej jakości zautomatyzowanych usług profesjonalnych, bezpiecznych w rękach godnego zaufania partnerstwa naszych firm w zakresie dostaw”.

    „Ponieważ większość rozwiązań Dynamics NAV ciągle działa na starszych wersjach lokalnych, jest globalne zapotrzebowanie na zautomatyzowane zasoby i rozwiązania do migracji. Łącząc siły z wiodącym globalny dystrybutorem jakim jest Tech Data, Simplanova będzie miała możliwość wytworzenia automatyzacji na dużą skalę, a nasi partnerzy będą mieli dostęp do dodatkowych ofert, włączając w to licencje Azure i CSP” – powiedział Petras Butėnas, założyciel Simplanova.

    Za rozwój sprzedaży rozwiązań Simplanova i Microsoft Dynamics w Tech Data w Polsce odpowiada Dorota Wróblewska, Cloud Product Manager.

  • Tech Data rozbudowuje zespół o nowego AWS Business Development

    Tech Data rozbudowuje zespół o nowego AWS Business Development

    Tech Data, a TD SYNNEX company, poinformowała o powierzeniu stanowiska AWS Business Development Managera Kornelii Szlósarczyk związanej z branżą IT od ponad 11 lat, posiadającej doświadczenie w obszarze rozwoju biznesu zarówno po stronie dystrybutora, jak i resellera. Obejmując nowe obowiązki Kornelia Szlósarczyk stawia sobie za cel zbudowanie dobrze rozwiniętego kanału sprzedaży partnerów AWS oraz umocnienie pozycji Tech Data jako dystrybutora oferującego rozwiązania chmurowe poprzez wykorzystanie potencjału „Multi-Cloud” – współpraca z innymi producentami, jak Microsoft Azure, IBM. Ma to na celu nie tylko zwiększenie udziałów rynkowych Tech Data, ale również pomoc Partnerom Biznesowym w projektowaniu i odsprzedaży rozwiązań chmurowych do ich klientów i tym samym umocnienie ich pozycji na rynku.

    Kornelia Szlósarczyk swoją przygodę z IT rozpoczęła w 2010 r. od pracy w Veracomp (dziś Exclusive Networks) na stanowisku Market Research Executive. W 2013 r. awansowała na stanowisko Product Managera i odpowiadała za budowę kanałów sprzedaży dla produktów i rozwiązań takich dostawców jak Netgear, Symantec, Qnap, Dell czy Lenovo. Przed przyjściem do Tech Data przez 2 lata pracowała w Boat.Systems. Jako Customer Navigation Officer pozyskiwała nowych klientów oraz wspierała tych istniejących w rozwoju ich biznesów. W 2019 r. przez pół roku zajmowała się rozwojem kanałów sprzedaży dla całej gamy produktów w Action, pracując na stanowisku Sales Specialist. W latach 2018 -2019 była Product Managerem Backup&Storage w Konsorcjum FEN. Budowała kanał sprzedaży, współpracowała z partnerami firmy, wprowadzała do oferty nowe produkty, prowadziła szkolenia i organizowała działania marketingowe.

    Mariusz Ziółkowski, Country General Manager, Tech Data, Polska, komentuje: „Kornelia stała się częścią młodego, dynamicznego i niezwykle elastycznego Zespołu, doskonale adaptującego się do realiów rynkowych. Zasilając go niespożytą energią, doświadczeniem wyniesionym z pracy u różnych graczy rynku IT oraz chęcią osiągania nowych celów z pewnością przyczyni się do dalszego wzmacniania pozycji Tech Data w obszarze rozwiązań AWS oraz rozwoju ekosystemu Partnerów Biznesowych. Mocno jej kibicuję”.

    Kornelia Szlósarczyk ma wykształcenie wyższe. Ukończyła Akademię Górniczo – Hutniczą w Krakowie na kierunku Technologia Chemiczna. Jest stałą bywalczynią Podhala. Pasjonują ją klocki LEGO oraz dzierganie.

    Kornelia Szlósarczyk raportuje do Piotra Blonkowskiego, AWS Team Leadera.

  • Red Hat: Co przyniesie rok 2022?

    Red Hat: Co przyniesie rok 2022?

    Nie zawsze łatwo jest tworzyć prognozy na cały przyszły rok. Po pierwsze cała branża IT bardzo szybko się rozwija i rozwiązania, które dziś uznawane są za niszowe, jutro mogą stać się dominujące. Także pandemia nauczyła nas, że pomimo ustalonych planów, rzeczywistość wymaga od nas zupełnie innych działań, ale i często zmusza do przyśpieszenia cyfrowej transformacji. Jaki zatem będzie kolejny rok w technologii IT?

    Rosnąca rola kontenerów i Kubernetes

    Firma Gartner przewiduje, że do 2022 roku ponad 75% organizacji na świecie będzie uruchamiać aplikacje kontenerowe w środowisku produkcyjnym, co oznacza duży wzrost z poziomu niecałych 30% w roku 2020. Co jednak będzie motorem tak gwałtownego wzrostu?

    W ciągu ostatnich 7 lat Kubernetes ewoluował i stał się de facto standardem zarządzania aplikacjami kontenerowymi. I, podobnie jak w przypadku każdej nowej technologii, mamy do czynienia zarówno z dojrzewaniem jej samej, jak i z krzywą uczenia się użytkowników. W początkowym okresie użytkownicy często budowali własne lokalne platformy Kubernetes i wdrażali bardziej uproszczony zestaw aplikacji. Jednak wraz z ustabilizowaniem się platformy Kubernetes wzorce użytkowania znacznie dojrzały.

    – Organizacje dostrzegły sukces połączenia technologii Kubernetes z Red Hat (dzięki OpenShift), dlatego oczekują podobnych rezultatów biznesowych. Często jednak nie chcą inwestować w kwalifikacje niezbędne do zarządzania platformą Kubernetes i jej utrzymywania. To właśnie tutaj spodziewamy się szybkiej ekspansji wykorzystania zarządzanych usług chmurowych Kubernetes, takich jak OpenShift Dedicated, Red Hat OpenShift on AWS (ROSA) oraz Microsoft Azure Red Hat OpenShift (ARO) komentuje Adam Wojtkowski.

    Widzieliśmy już szeroką gamę aplikacji działających w kontenerach, a teraz zaczynamy dostrzegać, że coraz więcej organizacji przenosi na platformę Kubernetes swoje newralgiczne aplikacje. Oczekuje się, że bazy danych, komunikaty sterowane zdarzeniami oraz newralgiczne aplikacje będą przenoszone na platformę Kubernetes, aby wykorzystać skalowalność, bezpieczeństwo i przenośność, które Kubernetes zapewnia wszystkim aplikacjom.

    Jednak spośród wszystkich aplikacji działających na platformie Kubernetes wyróżnia się jeden obszar — to AI/ML. Wraz ze wzrostem znaczenia analizy danych w niemal każdej firmie rośnie także zdolność do ulepszania i usprawniania wielu rodzajów aplikacji. Kubernetes dodaje do AI/ML doskonałe możliwości platformowe: skalowalność, dostęp do procesorów graficznych, przenośność obciążeń i wiele więcej. Byliśmy już świadkami wspaniałych osiągnięć, do jakich zdolne są organizacje dzięki technologiom AI/ML opartym na platformie Kubernetes. Oczekujemy, że następna generacja aplikacji całkowicie odmieni branże.

    Zmierzch ery wirtualizacji

    Kontenery będą wypierać maszyny wirtualne, a to głównie przez to, że pozwalają znacznie uprościć cały stos infrastruktury aplikacyjnej. Jeśli posiadamy aplikacje, które wymagają dedykowanych maszyn wirtualnych to jest na to świetna metoda. Maszyna wirtualna nie jest niczym innym jak procesem, który z łatwością można uruchomić w kontenerze. Zabieg taki pozwala całkowicie wyeliminować warstwę wirtualizacji. Platformy wirtualne w dotychczasowej postaci powoli przechodzą już do lamusa. Obecnie obciążenia kontenerowe coraz częściej uruchamiane są bezpośrednio na warstwie sprzętowej (bare metal), dotyczy to również maszyn wirtualnych, które do tej pory wymagały osobnej platformy. Dzięki temu stos technologiczny można spłaszczyć, rezygnując zupełnie z warstwy wirtualizacji. Korzyści, jakie niesie taki zabieg, nie ograniczają się jedynie do oszczędności kosztów platformy wirtualnej ale przede wszystkim upraszczają operacje, dzięki wykorzystaniu tych samych narzędzi do zarządzania zarówno kontenerami jak i maszynami wirtualnymi. Łatwiejszy staje się proces powołania całego projektu, gdyż maszyny wirtualne tworzone są w sposób równie zwinny jak kontenery. Wspólne narzędzia CI/CD, cykl życia środowisk od rozwoju po produkcję wygląda teraz znacznie prościej. Eliminujemy również narzut wydajnościowy, jaki do tej pory konsumował wirtualizator.

    Rosnąca rola przetwarzania brzegowego

    Organizacje będą wykorzystywać przetwarzanie brzegowe do rozwiązywania najważniejszych problemów globalnych — w tym związanych ze zrównoważonym rozwojem, zmianą klimatu i niestabilnością łańcuchów dostaw. Będzie to naturalne rozszerzenie transformacji działalności, która na miejsce już dziś. Te wysiłki będą mieć charakter ekosystemowy, ponieważ zmuszą do współpracy wszystkie branże.

    – Wydaje się, że na tym polu jednym z głównych graczy będzie sektor telekomunikacyjny, który wykorzysta sieci 5G i przetwarzanie brzegowe, aby pomóc w rozwiązaniu problemu braku dostępności do najnowszych technologii IT w wielu branżach. Technologie te są już odpowiednio dojrzałe — stają się tańsze, bezpieczniejsze i mają bardziej globalny zasięg — dzięki czemu stworzą prawdziwe okno możliwości, które pozwoli rozwiązać problemy uważane dotychczas za niemożliwe do pokonania. Przykłady zastosowań są niemal nieograniczone.dodaje Adam Wojtkowski, General Manager na region CEE w Red Hat.

    Obliczenia na brzegu sieci będą oznaczać powrót przetwarzania heterogenicznego, które zapewni ogromny ekosystem z mocą specjalistycznego sprzętu — bez kompromisów, co zapewnia jedynie technologia open source, nieograniczana przez sztywne ramy, jak ma to miejsce w przypadku oprogramowania zastrzeżonego. Obliczenia będzie można przeprowadzać w dowolnym miejscu, mając do dyspozycji kompletny stos zbudowany zgodnie z konkretnym przeznaczeniem oraz optymalizujący aplikacje i infrastrukturę.

    Wraz z powstawaniem nowych projektów przetwarzania brzegowego organizacje zaczną zdawać sobie sprawę, że będą też musiały prowadzić więcej niż jeden projekt brzegowy w tym samym czasie. Podobnie jak to miało miejsce w przypadku przetwarzania w chmurze, klienci zaczną opracowywać zasady zarządzania, które określą to, z czego należy korzystać i w jaki sposób faktoryzować projekty.

    Mobilność, sztuczna inteligencja oraz uczenie maszynowe

    W ciągu najbliższych kilku lat zobaczymy, że przetwarzanie brzegowe oraz sztuczna inteligencja / uczenie maszynowe (AI/ML) będą wspólnie napędzać kolejną falę innowacji technologicznych. W większości rzeczywistych zastosowań zarówno technologie brzegowe, jak i AI/ML będą pracować ramię w ramię, aby dostarczać rozwiązania, które pomogą zwalczać największe problemy świata — związane m.in. ze zrównoważonym rozwojem, zmianą klimatu, obłożeniem szpitali i nie tylko.

    Nową klasą urządzeń brzegowych o dużej mobilności i mocy obliczeniowej staną się pojazdy. Technologie open source pomogą przyspieszyć transformację przemysłu motoryzacyjnego dzięki wspólnemu celowi, jakim jest poprawa bezpieczeństwa na drogach. Ostatecznie doprowadzi to do zbudowania bardziej solidnego ekosystemu mobilności, zwiększenia możliwości ponownego wykorzystania oprogramowania oraz bardziej wydajnego i zrównoważonego łańcucha wartości dla producentów samochodów.

    Bezpieczeństwo łańcuchów dostaw oprogramowania

    Jednym z głównych obszarów zainteresowania w nadchodzącym roku będzie bezpieczeństwo łańcuchów dostaw oprogramowania. Organizacje muszą chronić swój łańcuch dostaw przed włamaniami. Osiągnięcie tego celu będzie wymagało inwestycji w zastosowanie nowych technologii w potokach, np. łańcuchów Tekton CD, a także Sigstore, aby ułatwić dodawanie podpisów w potokach.

    – Zaczniemy dostrzegać zmiany w sposobie, w jaki firmy zabezpieczają aplikacje na etapie ich wdrażania. Ten proces już się rozpoczął wraz z przesunięciem w kierunku prostszego podejścia w samej platformie Kubernetes, zwanego kontrolą poza drzewem. Nadal będziemy obserwować wzrost w obszarze zarządzania wdrożeniami opartego na regułach — z wykorzystaniem narzędzi takich jak OPA Gatekeeper, Kyverno i Argo CD. Warto też zwrócić uwagę na nowe mechanizmy reguł, które dopiero się pojawiąpodsumowuje Adam Wojtkowski z Red Hat.

    Nastąpi wzrost zainteresowania zestawieniami komponentów oprogramowania (SBOM). Proponowane standardy dotyczące dostarczania SBOM istnieją już od dłuższego czasu, ale — ze względu na obawy związane z bezpieczeństwem łańcucha dostaw — doszliśmy do punktu, w którym wszystkie organizacje będą musiały wymyślić, jak dostarczać zestawienia komponentów oprogramowania. W branży będzie się toczyć dyskusja na temat statycznych informacji w zestawieniach komponentów w porównaniu z informacjami dynamicznymi, takimi jak dane dotyczące podatności wraz z informacją o tym, w którym przypadku pakiet nie uległ zmianie, ale podatności związane z takim pakietem — już tak. W związku z tym nastąpi gwałtowny rozwój automatyzacji wokół SBOM i powiązanych metadanych pakietów.

    Kubernetes będzie zawierać większą liczbę funkcji bezpieczeństwa dodanych bezpośrednio do poszczególnych dystrybucji tej platformy. Pomoże to zwiększyć ogólne bezpieczeństwo dystrybucji, a także obniżyć koszty zabezpieczania wdrożeń platformy Kubernetes.

  • MedTech z grupy TenderHut pozyskał blisko 3,6 mln zł nowego kapitału i planuje IPO

    MedTech z grupy TenderHut pozyskał blisko 3,6 mln zł nowego kapitału i planuje IPO

    Podpisane z początkiem stycznia dwie umowy inwestycyjne są wynikiem negocjacji prowadzonych jeszcze podczas jesiennej rundy crowdfundingowej, kiedy to start-up Holo4Med z powodzeniem zebrał ok. 1,8 mln zł. Teraz w start-up 1,3 mln zł zainwestował fundusz Augebit FIZ – podmiot blisko związany z Panem Tadeuszem Wesołowskim, który znany jest z zainteresowania sektorem ochrony zdrowia. Ponadto, Holo4Med pozyskał dodatkowe 0,5 mln zł od dużego inwestora prywatnego.  W sumie spółka pozyskała z rynku blisko 3,6 mln zł.

    Holo4Med to działający w sektorze MedTech innowacyjny start-up, który powstał jako spin-off w technologicznej grupie TenderHut. Spółka dostarcza rozwiązania przeznaczone dla branży medycznej, w oparciu o tworzone przez siebie innowacje wykorzystujące między innymi technologie AI, Azure Communication Services czy Mixed Reality.

    Nowi inwestorzy obejmą pakiet akcji Holo4Med po przekształceniu jej w spółkę akcyjną. Start-up łamie schematy nie tylko na polu rozwoju hybrydowej telemedycyny, ale także w pozyskiwaniu finansowania swojego rozwoju. Fundusze kapitałowe do tej pory niechętnie inwestowały w tzw. corp-upy, czyli spółki powstałe z wydzielenia projektu spółki technologicznej. Holo4Med jednak złamało ten schemat pozyskując kapitał nie tylko z crowdfundingu, ale także od funduszu kapitałowego oraz dużego inwestora prywatnego – Nowi inwestorzy, to dla nas nie tylko wyraz zaufania z ich strony oparty na analizie naszych dotychczasowych dokonań, ale także wiara w to, że opracowana przez nas technologia to przyszłość nowoczesnej opieki medycznejmówi Bartłomiej Przybylak, CTO i członek zarządu Holo4Med.  – Ostatni kwartał ubiegłego roku był dla nas niezwykle intensywny i już dziś możemy powiedzieć, że 2022 rok to czas na skalowanie naszego biznesu dodaje Robert Król, prezes zarządu spółki.

    Start-up rozwija projekt HoloMIAI wykorzystywany w zabiegach termoablacji stosowanej między innymi przy walce z nowotworami. Rozwiązanie z zakresu nawigacji obrazowej zostało już zastosowane podczas 30 zabiegów przeprowadzanych przez czołowe medyczne jednostki akademickie w Polsce. Pozyskane od inwestorów środki pozwolą na rozwój technologii HoloMIAI wraz z pilotażowymi wdrożeniami na całym świecie. Spółka rozpoczęła poszukiwania partnerów na terenie Europy Zachodniej, USA, Emiratów Arabskich i w Singapurze, aby kontynuować prace badawczo-rozwojowe, a także rozpocząć proces certyfikacji przygotowanego produktu.

    – Holo4Med to spółka, która już dziś posiada milionowe przychody, a opracowana przez nią technologia wzbudza duże zainteresowanie wśród zarządzających systemami opieki zdrowotnej zarówno w Europie, jak również w innych częściach świata.  Dla atrakcyjności inwestycyjnej spółki nie bez znaczenia jest również fakt, że za start-upem stoi duża technologiczna grupa kapitałowa zapewniająca mu wsparcie technologiczne oraz globalne kontakty biznesowe – to z pewnością duży atutmówi Tadeusz Wesołowski.

    Zespół Holo4Med stworzył także hybrydową platformę telemedyczną – MediHELP, która pozwala m.in. na zdalny monitoring stanu zdrowia pacjentów w ich własnych domach.  Technologia łączy aplikację mobilną z urządzeniami peryferyjnymi takimi jak cyfrowy ciśnieniomierz, glukometr, pulsoksymetr, stetoskop czy opaska medyczna. Całość rozwiązania wzbogacona jest wirtualnym gabinetem medycznym, który zapewnia wygodne miejsce w cyberprzestrzeni do leczenia pacjenta. Z rozwiązania skorzystało ponad milion unikalnych użytkowników co klasyfikuje tę platformę jako największą w regionie CEE, a także w pierwszej trójce europejskiej.

    – Plany Holo4Med są bardzo ambitne, a współpraca i partnerstwa z firmami takimi jak Microsoft czy LabVantage pokazują, że rozwiązania dostarczane przez spółkę są traktowane bardzo poważnie przez liderów rynku. Po przekształceniu w spółkę akcyjną start-upu rozważamy przeprowadzenie jej debiutu na głównym parkiecie warszawskiej giełdy.podsumował Robert Strzelecki, prezes zarządu Grupy TenderHut.

  • QRADAR – konieczność w niespokojnych czasach

    QRADAR – konieczność w niespokojnych czasach

    Jak pokazuje „Cyber Security Report 2021”[i] firmy Check Point, w sferze bezpieczeństwa trwa nieustający wyścig technologiczny. Codziennie na świecie ponad 100 000 złośliwych witryn i 10 000 plików jest wykorzystywanych do kradzieży lub wyłudzenia danych. W 2019 roku na forum hakerskim było do sprzedania 773 miliony adresów e-mail i ponad 22 miliony haseł[ii]. Jak się nieco później okazało się, była to tylko część większej całości o objętości 1 TB, podzielonej na siedem części, która została wystawiona na sprzedaż. Ponad pół miliarda rekordów użytkowników Facebooka przechowywano na niechronionych serwerach w chmurze Amazona – zostawili je tam zewnętrzni twórcy aplikacji Facebooka[iii]. Zdarzają się też skutki śmiertelne naruszenia bezpieczeństwa IT – pacjent szpitala w Niemczech zmarł, nie uzyskawszy pilnej pomocy lekarskiej, bo jego szpital został zaatakowany przez hakerów, którzy wykorzystali niezałataną lukę w oprogramowaniu, mimo, że poprawka była dostępna od miesięcy[iv].

    „Nie ma się co oszukiwać. Od lat bezpieczeństwo danych i systemów jest największym problemem praktycznie każdego działu IT. W sieci bez trudu można znaleźć informacje o liczbie incydentów bezpieczeństwa danych, średnim koszcie strat i kosztach odzyskiwania danych. Mówi się o kwotach rzędu 4 mln dolarów za każde naruszenie. Ale nie to jest najgorsze. Naprawdę o stanie bezpieczeństwa mówi czas, jaki upływa od ataku do wykrycia i usunięcia jego skutków – średnio wynosi on 280 dni, z medianą” – twierdzi Daniel Wysocki, Specjalista ds. Bezpieczeństwa z firmy Advatech, jednego z największych integratorów rozwiązań informatycznych w Polsce.

    Zgromadzone zasoby informatyczne, w szczególności bazy danych to często najcenniejsze aktywa firmy. Nic zatem dziwnego, że 37% polskich dyrektorów finansowych postrzega kwestie bezpieczeństwa na równi z szefami IT. Dzięki współdziałaniu wszystkich komórek organizacji można zbudować skuteczną politykę cyberbezpieczeństwa, ale jej realizacja wymaga odpowiedniej platformy monitorowania bezpieczeństwa pomagającej w agregacji i orkiestracji informacji, bez względu na ich źródło, pokazującej stan infrastruktury IT, wskazującej potencjalne zagrożenia i pozwalającej na zaawansowane analizy. Te ostatnie są często wspomagane uczeniem maszynowym (ML) i sztuczną inteligencją (AI).Przykładem takiego rozwiązania są systemy klasy SIEM – Security Information and Event Management.  Automatyzacja w zakresie bezpieczeństwa eliminuje powtarzalną i czasochłonną pracę człowieka, dzięki czemu specjaliści mogą poświęcić czas zagadnieniom o większej wartości, skupiając swoją uwagę na strategii i planowaniu bezpieczeństwa.

    „Nasi specjaliści ds. bezpieczeństwa bardzo wysoko oceniają możliwości platformy IBM QRadar, którą Gartner lokuje w ścisłej czołówce rozwiązań klasy SIEM[v]. W jednym przejrzystym interfejsie widać stan bezpieczeństwa firmy i najważniejsze zagrożenia, a to pozwala nadać kontekst i zrozumieć rozwój wydarzeń. Zespoły ds. bezpieczeństwa mogą również szybko identyfikować zmiany w zachowaniu użytkowników wskazujące na nieznane zagrożenie, co pozwala na podjęcie adekwatnych kroków bazując na informacjach pochodzących z jednej, centralnej konsoli. Słowem QRadar to zintegrowana widoczność, wykrywanie, badanie i reagowanie na cyberzagrożenia”podkreśla Daniel Wysocki z Advatech.

    QRadar, dzięki obsłudze szerokiego spektrum technologii, aplikacji i usług, zbiera i przetwarza dane z całej organizacji budując kompleksowy obraz aktywności w środowiskach tak lokalnych, jak i chmurowych, w tym hybrydowych. Po scentralizowaniu danych, wbudowane mechanizmy sztucznej inteligencji pozwalają w czasie rzeczywistym szybko i dokładnie wykrywać zagrożenia i ustalać ich priorytety. Alerty analizujące kontekst potencjalnych incydentów pozwalają analitykom bezpieczeństwa na szybką reakcję, aby ograniczyć wpływ i skutki ataku.

    Platforma QRadar® buduje mapę monitorowanej infrastruktury, a użytkownicy mogą wskazać szczególnie istotne segmenty sieci i krytyczne zasoby tak, aby automatycznie identyfikować i klasyfikować prawidłowy ruch w sieci na podstawie używanych aplikacji, protokołów, usług i portów. Jest to możliwe za sprawą ponad 450 wbudowanych modułów obsługi urządzeń (DSM – Device Support Modules), dzięki którym użytkownicy mogą wprost kierować swoje dzienniki zdarzeń do systemu, a QRadar automatycznie wykryje typ źródła i zastosuje poprawny system DSM, aby przeanalizować i znormalizować dane. Dodatkowo, aplikacja DSM Editor, z intuicyjnym interfejsem graficznym, pozwala definiować sposoby analizowania dzienników z niestandardowych źródeł, co zwiększa elastyczność i zakres zastosowań QRardar. W efekcie pozwala on na znacznie szybsze działanie, niż w alternatywnych rozwiązaniach.

    „W Cyber Security Report 2021 można znaleźć informację, że czas potrzebny na przełamanie zabezpieczeń i np. skopiowanie danych przez atakującego w 2019 r. miał globalną medianę wynoszącą około 21 dni. Mediana obrońców to 56 dni — bo tyle potrzebowali czasu na wykrycie incydentów. Szybkość ma zatem absolutnie najwyższy priorytet. W tym świetle widać jak na dłoni przewagi platformy QRadar – dzięki niej można reagować praktycznie natychmiast”ocenia Daniel Wysocki z Advatech.

    QRadar inteligentnie koreluje i analizuje dane o aktywności urządzeń sieciowych jak zapory sieciowe, czy routery, dane z dzienników zdarzeń Windows, informacje o lukach w zabezpieczeniach, systemów wykrywania lub zapobiegania włamaniom, zbiera dane o aktywności w chmurach ze środowisk SaaS i IaaS takich, jak Office 365, SalesForce.com, Amazon Web Services (AWS), Microsoft Azure, czy Google Cloud. Jako źródło danych dla QRadar mogą służyć systemy klasy ERP, bazy danych, aplikacje udostępnianie w modelu SaaS oraz źródła Threat Intelligence jak IBM X-Force®.

    „QRadar zawiera setki gotowych scenariuszy bezpieczeństwa opartych na algorytmach wykrywania anomalii, czy regułach korelacji w czasie rzeczywistym do wykrywania znanych i nieznanych zagrożeń. Po wykryciu zagrożenia system agreguje powiązane zdarzenia dotyczące bezpieczeństwa w pojedyncze alerty o określonym priorytecie, określane jako incydenty bezpieczeństwa. Nadawanie priorytetów odbywa się automatycznie z uwzględnieniem wagi zagrożenia i oceny, jak krytyczne są atakowane zasoby”wyjaśnia Specjalista ds. Bezpieczeństwa, Daniel Wysocki z Advatech.

    Analitycy bezpieczeństwa mogą zobaczyć pełny łańcuch działań związanych z zagrożeniami na jednym ekranie i łatwo prześledzić określone zdarzenia lub przepływy sieciowe, aby rozpocząć dochodzenie, podjąć odpowiednie środki zaradcze, czy przypisać analizę incydentu określonemu analitykowi. Wykroczenia są automatycznie aktualizowane w miarę pojawiania się nowej powiązanej aktywności, dzięki czemu analitycy mogą w dowolnym momencie zobaczyć najbardziej aktualne informacje. To unikalne podejście pomaga analitykom bezpieczeństwa w łatwym zrozumieniu najbardziej krytycznych zagrożeń w środowisku, zapewniając kompleksowy wgląd w każdy potencjalny incydent przy jednoczesnym zmniejszeniu całkowitej liczby alertów.

    Postęp technologiczny po stronie atakujących wymusza konieczność wykrywania nawet niewielkich zmian w zachowaniu sieci, użytkowników lub systemu, a mogących wskazywać na nieznane zagrożenia, takie jak obecność intruzów, kradzież poświadczeń, czy złośliwe oprogramowanie.

    „Jeśli liczba alertów przybiera niebezpieczne rozmiary, to konieczność ich analizowania pożera zasoby działów bezpieczeństwa IT. Mając do dyspozycji QRadar Advisor z Watson™ można do pracy zaprząc sztuczną inteligencję i uczenie maszynowe. Wtedy czas prowadzenia analiz skraca się do pojedynczych minut, a to zmniejsza ryzyko przestoju firmy, czy przeoczenia krytycznych incydentów. Dzięki takiemu podejściu cały zespół ds. bezpieczeństwa pracuje po prostu lepiej i wydajniej. Efekty mogliśmy obserwować wdrażając QRadar np. w Amica SA we Wronkach” dodaje Daniel Wysocki.

    Na wysoką oceną platformy IBM QRadar ma wpływ łatwość jej integracji z rozwiązaniami firm trzecich oraz elastyczna i skalowalna architektura pozwalająca dynamiczne dostosowywać ją do zmiennych potrzeb klienta i sytuacji. Nic zatem dziwnego, że to rozwiązanie cieszy się tak dużą popularnością wśród użytkowników.

    Jacek Szubert, Prezes zarządu Advatech
    Jacek Szubert, Prezes Zarządu Advatech

    „Advatech systematycznie zwiększa swoje przychody z wdrażania i integracji rozwiązań informatycznych własnych i naszych partnerów technologicznych. Szczególnie dużą dynamiką wzrostu wyróżnia się nasz dział Cyberbezpieczeństwa. Współpraca w zakresie cyberbezpieczeństwa z IBM pozwala na transfer technologii i wiedzy do naszych klientów, którzy zyskują bardzo wysoki poziom ochrony i stabilności prowadzonego biznesu”podsumowuje Jacek Szubert, Prezes Zarządu Advatech.


    [i] https://www.checkpoint.com/pages/cyber-security-report-2021/
    [ii] „The 773 Million Record “Collection #1” Data Breach”, Troy Hunt, Troyhunt.com, January 2019
    [iii] „Facebook Caught Asking Some Users Passwords for Their Email Accounts”, Swati Khendelwal, The Hacker News, April 3, 2019
    [iv] https://www.checkpoint.com/pages/cyber-security-report-2021/, s.10.
    [v] https://www.rapid7.com/c/2021-siem-mq/

  • Sztuczna Inteligencja w służbie cyberbezpieczeństwa w Amica S.A.

    Sztuczna Inteligencja w służbie cyberbezpieczeństwa w Amica S.A.

    Skąd zainteresowanie nowymi technologiami jak Sztuczna inteligencja w zakresie cyberbezpieczeństwa?

    Jerzy Zieliński, Chief Information Officer, Grupa Amica S.A.: Wiele osób, zwłaszcza w Polsce, zna markę Amica. Jednak już znacznie mniej zdaje sobie sprawę z tego, że Amica S.A. to największy polski producent sprzętu AGD, który od lat z powodzeniem eksportuje swoje produkty na wiele rynków na świecie. W związku z tym znacznie mniej osób jest świadomych rozległości i stopnia skomplikowania struktury organizacyjnej firmy. Musimy pamiętać o tym, że Amica to nie tylko fabryka we Wronkach, ale także liczne biura i fabryki poza granicami kraju. W kilkunastu krajach posiadamy rozbudowaną infrastrukturę informatyczną, którą zarządzamy centralnie. Rozległość terytorialna generuje niemałe problemy w monitorowaniu środowisk w oddziałach lokalnych i zagranicznych firmy.

    Dynamiczny rozwój firmy, a co za tym idzie infrastruktury  IT pociąga za sobą konieczność ciągłego doskonalenia posiadanych umiejętności, zdobywania nowych oraz podnoszenia poziomu dojrzałości organizacji pod kątem cyberbezpieczeństwa. W świetle szybko zmieniających się zagrożeń związanych z cyberatakami, zauważyliśmy, iż systemy mające zabezpieczać infrastrukturę IT na podstawie sygnatur, czy wzorców ataków są zwyczajnie niewystarczające, ponieważ wykrywają tylko znane już zagrożenia. Jak wiemy przestępcy są mocno zmotywowani do tego, by najdłużej pozostać w ukryciu, aby mieć więcej czasu na przeprowadzenie skutecznego ataku.

    Szukając technologii, która mogłaby uzupełnić naszą koncepcję rozwoju, jednocześnie skutecznie podnieść poziom bezpieczeństwa organizacji, naszą uwagę przykuła szybko rozwijająca się i coraz częściej wykorzystywanej technologia sztucznej inteligencji w obszarze cyberbezpieczeństwa. Analiza potrzeb w tym zakresie wykazała, iż innowacyjna technologia wykorzystująca analizę behawioralną wspomagana sztuczną inteligencją jak i głębokim uczeniem maszynowym może być jednym z najskuteczniejszych kierunków rozwoju, umożliwiającym skuteczną identyfikację i powstrzymanie zagrożeń w sieci w czasie rzeczywistym. Dlatego podjęliśmy decyzję o sprawdzeniu dostępnych rozwiązań na rynku i analizie dodatkowych korzyści wynikających z ich implementacji.

    Jerzy Zieliński
    Jerzy Zieliński, Chief Information Officer, Grupa Amica S.A.

    W jaki sposób szukaliście tego rozwiązania spełniającego Wasze oczekiwania i co skłoniło Was do wyboru?

    Jerzy Zieliński: Bezpieczeństwo było i jest dla nas najwyższym priorytetem, dlatego przeprowadziliśmy rzetelny proces oceny dostępnych rozwiązań wykorzystujących sztuczną inteligencję w zakresie cyberbezpieczeństwa. Jak powiedziałem wcześniej, technologia ta jest coraz szerzej i chętniej stosowana, dlatego ograniczając wszelkie kompromisy technologiczne i funkcjonalne, skupiliśmy się wyłącznie na rozwiązanych czołowych producentów mających największe doświadczenie w tym zakresie, posiadających ugruntowaną pozycję na rynku. Zależało nam również na rozwiązaniu, które będzie łatwe w implementacji i utrzymaniu oraz gwarancji, iż zintegruje się z istniejącym środowiskiem, tworząc spójną infrastrukturę zapewniająca maksymalne bezpieczeństwo.

    Wybór padł na platformę Vectra Cognito Detect jako spełniającą nasze wymagania w obszarze wykrywania i reagowania na zagrożenia w sieci. Firma Vectra posiada ogromne doświadczenie w obszarze zarówno bezpieczeństwa jak i analizy danych, opracowała i opatentowała niezwykle skuteczne algorytmy maszynowego uczenia się właśnie w obszarze cyberbezpieczeństwa. Słuszność tego wyboru potwierdził też raport Magic Quadrant firmy Gartner, w którym Vectra jako jedyny producent znalazła się w kwadracie wizjonerskim, tak więc współpracujemy z partnerem, któremu zależy na nieustannym rozwoju i wytyczaniu nowych kierunków dla tego typu systemów. Vectra ewidentnie jest nie tylko pionierem w tym względzie, jest równocześnie wizjonerem.

    Jak przebiegło wdrożenie i jakie dodatkowe korzyści zauważyliście po wdrożeniu?

    Jerzy Zieliński: Szczegółowa analiza wymagań i oczekiwań oraz testy poprzedzające wdrożenie, przeprowadzone przez firmę Advatech, wspólne zaangażowanie naszego zespołu ds. bezpieczeństwa oraz zespołu inżynierów Vectra i Advatech pozwoliły na szybką i sprawną implementację oraz integrację rozwiązania z istniejącymi komponentami naszej infrastruktury.

    Już w pierwszych dniach użytkowania systemu zdaliśmy sobie sprawę, że łatwość obsługi oraz automatyzacja Vectry w połączeniu z jej wysoką skutecznością przyczynią się do poprawy efektywności pracy zespołu ds. bezpieczeństwa, przyspieszając analizę każdego ataku i reakcję mającą na celu wyeliminowanie zagrożenia.

    Czytelny pulpit nawigacyjny rozwiązania Vectra Cognito dostarcza wszelkich niezbędnych informacji, dotyczących statusu bezpieczeństwa w sieci, nadając odpowiednie priorytety wykrytym przypadkom naruszenia bezpieczeństwa, minimalizując tym samym ilość danych nadmiarowych, których obecność mogłaby zaciemniać rzeczywisty obraz sytuacji i spowolnić analizę.

    Wyróżnikiem rozwiązania Vectra Cognito jest także to, iż podczas analizy ruchu sieciowego, skupia się na analizie behawioralnej zarówno urządzeń i użytkowników, mapując je na framework MITRE ATT&CK, który szczegółowo opisuje taktyki, techniki i procedury (TTP) stosowane przez atakujących. Rozwiązanie to monitoruje pełen ruch sieciowy pozwalając na wykrycie i zatrzymanie ataku jeszcze we wstępnej fazie, dając możliwość szybkiej reakcji i zapewniając bezpieczeństwo całej infrastruktury.

    Vectra Cognito nie ogranicza się tylko do monitorowania infrastruktury „on-premis”, dodatkową jego zaletą jest również możliwość analizy środowisk AWS, Azure, kont Office 365, wraz z analizą zachowań użytkowników zaobserwowanych na poziomie Active Directory, SharePoint, OneDrive, Exchange oraz Teams.

    Jak wygląda codzienna praca z systemem Vectra Cognito Detect?

    Jerzy Zieliński: Implementacja rozwiązania Vectra Cognito Detect pozwoliła zobaczyć nam więcej w obszarach, które do tej pory nie były widoczne lub w sposób automatyczny monitorowane. Takie rozwiązanie zapewnia większą swobodę działania i daje więcej czasu na podjęcie właściwych decyzji. Integracja z innymi elementami naszej infrastruktury pozwala na przeprowadzenie gruntownego śledztwa i dokładna analizę zagrożenia.
    Uważam, iż Vectre Cognito można potraktować jako dodatkowego członka zespołu ds. bezpieczeństwa, który pracuje 24h na dobę uważnie monitorując naszą sieć wspiera pozostałą cześć zespołu w czasochłonnej analizie zdarzeń bezpieczeństwa. Dzięki temu skutecznie podnieśliśmy bezpieczeństwo do nowego do tej pory nieosiągalnego poziomu.


    Komentarz Integratora:

    – Jako integrator działający w obszarach bezpieczeństwa i dostępu do danych jesteśmy obecni na rynku już od ponad 20 lat. Nasz dział Cybersecurity to przede wszystkim wykwalifikowani i doświadczeni inżynierowie posiadający szeroką wiedzę z zakresu bezpieczeństwa. W 2018 roku dostarczyliśmy dla Grupy Amica platformę SIEM, która teraz została rozszerzona o narzędzie klasy NDR, wzbogacone o sztuczną inteligencję. Sprawdzona metodyka prowadzenia dużych i wymagających projektów przełożyła się na szybki czas i bezproblemową implementację, która w rezultacie przełożyła się na zadowolenie Klienta.Nowe systemy oparte przede wszystkim na sztucznej inteligencji zwiększą bezpieczeństwo cybernetyczne w Grupie Amica S.A. mówi Marcin Janusz, Kierownik ds. Kluczowych Klientów, Advatech.

  • Bayer nawiązał współpracę z Microsoft. Współpraca ma wesprzeć postęp w rolnictwie

    Bayer nawiązał współpracę z Microsoft. Współpraca ma wesprzeć postęp w rolnictwie

    Firma Bayer ogłosiła zawiązanie partnerstwa strategicznego z Microsoft w celu stworzenia opartego na chmurze obliczeniowej zestawu narzędzi i rozwiązań z dziedziny danetyki (ang. data science) do zastosowań w rolnictwie i branżach okołorolniczych. Wniesie to nowe możliwości podstawowe i w zakresie infrastruktury – by przyspieszyć innowacje, radykalnie zwiększyć sprawność wszystkich łańcuchów dostaw i wspomagać ich całościowe zrównoważenie.

    Współcześnie rolnictwo i sektor agrobiznesu wykorzystują szeroki zakres narzędzi cyfrowych i wiedzy płynącej z danych za pośrednictwem platform takich jak Climate FieldView™ firmy Bayer – wykorzystywanych współcześnie na ponad 70 milionach hektarów gruntów uprawnych w ponad 20 krajach. Niemniej wciąż pozostaje dużo do zrobienia w zakresie optymalizacji całego łańcucha wartości wytwarzania żywności, pasz, paliw i błonnika i zużywania przezeń cennych zasobów naturalnych niezbędnych do zasilania naszej planety, jednocześnie zapewniając zwiększanie wysiłków na rzecz zwalczania zmian klimatu. Zgodnie z umową Bayer będzie pracować z Microsoft nad wspólnym opracowaniem rozwiązań do obsługi mających krytyczne znaczenie scenariuszy branżowych, takich jak poprawa działalności rolniczej, zrównoważenia zapatrzenia, produkcji i łańcucha dostaw, a także monitorowanie i mierzenie ESG (czynników środowiskowych, odpowiedzialności społecznej i ładu korporacyjnego).

    W tym celu firmy opracują rozwojową architekturę pod cyfrowe rozwiązania dla rolnictwa z wykorzystaniem możliwości stwarzanych przez danetykę. Te nowe rozwiązania i możliwości będą udostępniane firmom – poczynając od startupów do globalnych korporacji – działającym w rolnictwie i branżach okołorolniczych do wykorzystywania w ich własnych ofertach. Firma Bayer zmigruje też swoje podstawowe cyfrowe rozwiązania rolnicze na nową infrastrukturę udostępniającą jej rozwiązania jej klientom. Partnerstwo jest kontynuacją wieloletnich związków pomiędzy firmami Bayer i Microsoft – obydwie wspólnie zobowiązują się dbać o poufność danych, cyberbezpieczeństwo i zaufanie klientów.

    – To partnerstwo narodziło się wyjątkowym momencie, gdy wzrost innowacji jest ogromnie potrzebny w łańcuchu wartości sektora produkcji żywności i błonnikastwierdził Liam Condon, członek zarządu Bayer AG i prezes Bayer Crop Science.Podczas gdy walczymy z ogólnoświatową pandemią, kruchymi łańcuchami dostaw i postępującą katastrofą klimatyczną, utrzymanie stanu obecnego nie wystarczy. Potrzebujemy współpracy, wspólnej wizji i działań. Z tych powodów firmy Bayer i Microsoft rozpoczynają działania mające zaowocować pozytywnymi skutkami, zarówno poprzez współpracę między nami, jak i dzięki oferowaniu przez nas gotowej infrastruktury i możliwości cyfrowych innym firmom, by mogły zajmować się ogromnymi wyzwaniami, przed którymi stoi społeczeństwo.

    – W pracach prowadzonych przez sektor rolny i przedsiębiorców oraz organizacje technologiczne nad rozwojem bezpieczeństwa i zrównoważenia łańcucha wartości, na którym opiera się działalność rolników, potrzebna jest współpracapowiedział Jeremy Williams, szef The Climate Corporation i Bayer Digital Farming Solutions. Bayer jest pionierem innowacji cyfrowych w rolnictwie. Microsoft wytycza standardy zaufanych ogólnoświatowych rozwiązań chmurowych. Działając jako jeden zespół możemy wprowadzać innowacje i wdrażać to, co jest potrzebne do zapewniania żywności, pasz, błonnika i paliw zasilających naszą planetę.

    – Jak każda branża, sektor rolno–spożywczy przechodzi gwałtowną transformację cyfrową, poczynając od autonomicznych traktorów do cyfrowego doradztwa z wykorzystaniem sztucznej inteligencji i skalowalnego rolnictwa precyzyjnego stwierdził Ravi Krishnaswamy, wiceprezes korporacyjny ds. Azure Global Industry w Microsoft.Cieszy nas współpraca z firmą Bayer nad przyspieszaniem transformacji i uwalnianiem jeszcze większych innowacji w rolnictwie, poprzez łączenie opartych na danych analiz z ekspercką wiedzą firmy Bayer na temat rolnictwa i możliwościami platformy Microsoft Azure.

    Ta partnerska współpraca jest znaczącym strategicznym krokiem ku osiąganiu ambitnego celu firmy Bayer, jakim jest oparcie do 2030 roku w 100 procentach na rozwiązaniach cyfrowych sprzedaży realizowanej przez dział Crop Science i skrócenie czasu, w jakim będzie opracowywać dla klientów cyfrowe rozwiązania zorientowane na wyniki. Bayer dąży do wytyczenia nowej normy dla branży w zakresie cyfrowych innowacji napędzanych danymi.

  • Billennium pierwszą polską firmą ze statusem Advanced Specialization w obszarze migracji do chmury

    Billennium pierwszą polską firmą ze statusem Advanced Specialization w obszarze migracji do chmury

    Billennium, polska spółka dostarczająca rozwiązania oraz usługi IT dla biznesu, otrzymała – jako pierwsza (i jedyna) polska firma – status Advanced Specialization w obszarze Modernization of Web Applications to Microsoft Azure. Wyróżnienie przyznawane przez Microsoft jest potwierdzeniem najwyższych kompetencji związanych z przeniesieniem i modernizacją aplikacji do środowiska chmurowego.

    Status Advanced Specialization to potwierdzenie najwyższego poziomu kompetencji w ramach programów partnerskich Microsoft. Aby go otrzymać, firma musi posiadać m.in. tytuł Gold Partnera w zakresie danej specjalizacji oraz odpowiednią liczbą certyfikowanych ekspertów z konkretnych technologii, a także przejść audyt potwierdzający realizację projektów zgodnie z najlepszymi praktykami zalecanymi przez Microsoft.

    Billennium jest pierwszą i aktualnie jedyna polską firmą oraz trzecią w Europie, która otrzymała status Advanced Specialization w zakresie Modernization of Web Applications to Microsoft Azure! Tytuł przyznany Billennium jest efektem wieloletniego rozwoju kompetencji organizacji i jej pracowników w obszarze migracji aplikacji do Microsoft Azure, a także realizacji kilkunastu projektów dla klientów z sektora publicznego i prywatnego z całego świata.

    W kolejnych miesiącach Billennium planuje potwierdzenie kompetencji w ramach Advanced Specializations w kolejnych obszarach technologicznych. Firma posiada obecnie 23 Centra Kompetencyjne (obszary, w których świadczy usługi) oraz statusy Gold i Silver w programie partnerskim Microsoft w 10 specjalizacjach, m.in. data analytics, data center, application development, application integration, cloud platform czy collaboration and content.