Tag: Microsoft

  • Microsoft integruje AI od Anthropic w Office 365. Co to oznacza dla OpenAI?

    Microsoft integruje AI od Anthropic w Office 365. Co to oznacza dla OpenAI?

    Microsoft wkrótce zintegruje modele sztucznej inteligencji od Anthropic z niektórymi funkcjami pakietu Office 365. To strategiczny ruch, który osłabia dotychczasową wyłączność OpenAI w produktach Microsoftu i sygnalizuje przejście na bardziej zdywersyfikowane i pragmatyczne podejście do AI.

    Przez lata Microsoft mocno opierał rozwój funkcji AI w aplikacjach takich jak Word, Excel czy PowerPoint na technologii swojego kluczowego partnera, OpenAI, w którego zainwestował ponad 13 miliardów dolarów.

    Jednak wewnętrzne testy w zespołach rozwijających Office AI wykazały, że w specyficznych zadaniach najnowsze modele Anthropic, takie jak Claude Sonnet 4, przewyższają rozwiązania konkurencji. Dotyczy to zwłaszcza automatyzacji złożonych funkcji finansowych w Excelu oraz generowania estetycznych, gotowych do użycia prezentacji w PowerPoint.

    Decyzja ta wpisuje się w szerszą strategię Microsoftu, która obejmuje również rozwój własnych modeli AI oraz integrację z innymi dostawcami, jak na przykład DeepSeek w chmurze Azure.

    Celem jest maksymalizacja wydajności i dobranie najlepszego narzędzia do konkretnego zadania, zamiast polegania na jednym, uniwersalnym rozwiązaniu.

    Firma podkreśla jednocześnie, że partnerstwo z OpenAI pozostaje nienaruszone i kluczowe, zwłaszcza w kontekście najbardziej zaawansowanych modeli „frontierskich”.

    Co ciekawe, aby uzyskać dostęp do modeli Anthropic, Microsoft będzie płacić swojemu największemu rynkowemu rywalowi – Amazon Web Services.

    AWS jest jednym z głównych inwestorów w Anthropic i udostępnia jego technologię w swojej chmurze. Ta zależność pokazuje, jak skomplikowane i wielowymiarowe stają się sojusze w dobie generatywnej sztucznej inteligencji.

    Według nieoficjalnych informacji, ruch ten zostanie ogłoszony w nadchodzących tygodniach. Dla użytkowników końcowych nic się nie zmieni – cena narzędzi AI w pakiecie Office ma pozostać na dotychczasowym poziomie. Zmiana dostawcy technologii ma na celu wyłącznie podniesienie jakości i efektywności działania wybranych funkcji.

  • Światłowód z powietrzem w środku. Microsoft prezentuje technologię, która przyspieszy centra danych i AI

    Światłowód z powietrzem w środku. Microsoft prezentuje technologię, która przyspieszy centra danych i AI

    Microsoft, we współpracy z naukowcami z University of Southampton, zaprezentował nową generację kabla światłowodowego, która może znacząco wpłynąć na architekturę sieci w centrach danych i rozwój sztucznej inteligencji.

    Technologia, bazująca na pracach przejętej w 2022 roku firmy Lumensity, pozwala na przesyłanie światła przez rdzeń wypełniony powietrzem, a nie litym szkłem.

    Kluczową zaletą nowego rozwiązania, znanego jako Hollow-Core Fiber (HCF), jest fundamentalne zwiększenie prędkości transmisji. Światło w powietrzu porusza się z prędkością bliską 300 milionom metrów na sekundę, podczas gdy w tradycyjnym włóknie szklanym zwalnia do około 200 milionów m/s.

    Ta różnica przekłada się na redukcję opóźnień (latencji) nawet o 45%, co jest wartością nie do przecenienia w zastosowaniach wymagających komunikacji w czasie rzeczywistym.

    Dotychczas główną barierą w komercjalizacji światłowodów z pustym rdzeniem była wysoka strata sygnału. Zespół badawczy zdołał jednak pokonać ten problem, osiągając rekordowo niski poziom tłumienności na poziomie 0,091 decybela na kilometr.

    To wynik lepszy niż w przypadku standardowych kabli światłowodowych, gdzie strata wynosi około 0,14 dB/km.

    Niższa tłumienność oznacza, że sygnał wymaga rzadszego wzmacniania, co bezpośrednio prowadzi do mniejszego zużycia energii w infrastrukturze sieciowej.

    W przyszłości technologia HCF ma również potencjał obsłużenia nawet dziesięciokrotnie większej przepustowości niż obecne standardy.

    Praktyczne zastosowania tej innowacji są szerokie – od ultraszybkich połączeń między centrami danych, przez akcelerację procesów trenowania modeli AI, aż po komunikację w pojazdach autonomicznych.

    Nowe kable zostały już przetestowane we współpracy z brytyjskim operatorem telekomunikacyjnym BT i są wdrażane do wewnętrznego użytku w infrastrukturze Microsoftu.

    Szersza dostępność komercyjna dla innych graczy na rynku jest przewidywana w perspektywie najbliższych pięciu lat.

  • Microsoft kreśli nową mapę AI. Stawia na własne modele, obok OpenAI

    Microsoft kreśli nową mapę AI. Stawia na własne modele, obok OpenAI

    Microsoft zaprezentował swoje pierwsze autorskie, fundamentalne modele AI, sygnalizując strategiczną zmianę w podejściu do generatywnej sztucznej inteligencji. Choć firma zainwestowała miliardy w OpenAI, teraz stawia na rozwój własnych technologii.

    Ten ruch ma na celu nie tylko uniezależnienie się od kluczowego partnera, ale także optymalizację kosztów i wydajności w wysoce konkurencyjnym sektorze.

    Nowe rozwiązania to MAI-Voice-1, model do generowania mowy, oraz MAI-1-preview, duży model językowy. Kluczowym wyróżnikiem obu projektów, nadzorowanych przez szefa Microsoft AI, Mustafę Suleymana, jest efektywność.

    MAI-Voice-1 jest w stanie wygenerować minutę naturalnie brzmiącej mowy w mniej niż sekundę, działając na pojedynczym procesorze graficznym (GPU). Model ten jest już wykorzystywany w niektórych funkcjach asystenta Copilot.

    Z kolei MAI-1-preview to pierwsza tak zaawansowana technologia tekstowa w całości wytrenowana wewnątrz Microsoftu. Firma postawiła tu na zoptymalizowany proces treningu, wykorzystując około 15 000 procesorów graficznych Nvidia H-100.

    To znacznie mniej niż w przypadku niektórych konkurencyjnych modeli, które wymagały ponad 100 000 GPU. Jak podkreśla Suleyman, sztuka trenowania AI w coraz większym stopniu polega na inteligentnym doborze danych i unikaniu marnowania zasobów.

    Wprowadzenie własnych modeli nieuchronnie redefiniuje relację Microsoftu z OpenAI. Dotychczasowy układ, w którym Microsoft był głównie dostawcą infrastruktury i klientem, ewoluuje w stronę skomplikowanego partnerstwa połączonego z rywalizacją.

    Rozwijając własne fundamenty AI, Microsoft zyskuje większą kontrolę nad produktami i kosztami, zmniejszając swoją zależność od technologii OpenAI, która do tej pory napędzała większość funkcji Copilota.

    Firma przyznaje, że ma do nadrobienia kilkuletni dystans do liderów rynku, takich jak Google czy samo OpenAI. Jednak publiczne testy MAI-1-preview na platformie LMArena pokazują, że Microsoft wchodzi do gry z konkurencyjnym rozwiązaniem.

    Ta strategia podwójnego toru – inwestycji w OpenAI i jednoczesnego rozwoju własnych, wydajnych modeli – pozycjonuje Microsoft jako elastycznego gracza, gotowego do długoterminowej walki o dominację w erze sztucznej inteligencji.

  • Microsoft zwalnia kolejne osoby w związku z protestami

    Microsoft zwalnia kolejne osoby w związku z protestami

    Microsoft zwolnił czwórkę pracowników, którzy aktywnie protestowali przeciwko kontraktom firmy z rządem Izraela w kontekście trwającej wojny w Gazie.

    Działania te stanowią kolejny przykład rosnących napięć wewnątrz gigantów technologicznych, których pracownicy coraz głośniej wyrażają sprzeciw wobec współpracy z siłami zbrojnymi i agencjami wywiadowczymi.

    Decyzje o rozwiązaniu umów, jak tłumaczy Microsoft, były podyktowane poważnymi naruszeniami wewnętrznych zasad firmy oraz względami bezpieczeństwa, szczególnie po tym, jak część demonstracji przeniosła się do biura jednego z prezesów.

    Zwolnione osoby należały do grupy „No Azure for Apartheid”, która domaga się od firmy zerwania relacji biznesowych z Izraelem i oskarża Microsoft o dostarczanie technologii, w tym platformy chmurowej Azure, wykorzystywanej do inwigilacji Palestyńczyków oraz wspierania działań militarnych.

    Napięcia w firmie eskalowały po opublikowaniu międzynarodowego śledztwa dziennikarskiego, w którym zarzucono, że izraelski wywiad wojskowy wykorzystuje usługi Microsoft Azure do przechowywania i analizy masowych danych z podsłuchów rozmów telefonicznych Palestyńczyków.

    W odpowiedzi na te doniesienia Microsoft zlecił zewnętrznej kancelarii prawnej przeprowadzenie audytu w tej sprawie.

    Zwolnienia nie są pierwszym tego typu incydentem w firmie. Już w kwietniu pracę straciły dwie inne osoby, które publicznie zaprotestowały podczas wewnętrznego wydarzenia z udziałem dyrektora generalnego Microsoft AI.

    Sytuacja w Microsofcie wpisuje się w szerszy trend aktywizmu pracowniczego w sektorze IT, gdzie kwestie etyczne i geopolityczne stają się coraz częstszym polem sporu między załogą a zarządami korporacji. Firmy technologiczne stają przed wyzwaniem pogodzenia lukratywnych kontraktów rządowych z wartościami i oczekiwaniami swoich pracowników.

  • Konflikt w Gazie dzieli Microsoft. Zwolnienia po proteście w siedzibie firmy

    Konflikt w Gazie dzieli Microsoft. Zwolnienia po proteście w siedzibie firmy

    Microsoft zwolnił dwóch pracowników, którzy protestowali przeciwko kontraktom firmy z Izraelem, okupując biuro jednego z prezesów firmy, Brada Smitha. Decyzja ta jest kolejnym dowodem na rosnące napięcia wewnątrz technologicznych gigantów, których działalność biznesowa na Bliskim Wschodzie staje się przedmiotem ostrej krytyki ze strony własnej załogi.

    Zwolnienia są następstwem aresztowania siedmiu osób, które we wtorek zajęły biuro menedżera w geście protestu. Wśród nich byli zwolnieni pracownicy, byli pracownicy oraz aktywiści niezwiązani z firmą.

    Oficjalnym powodem zakończenia współpracy było „poważne naruszenie zasad firmy i kodeksu postępowania”.

    Sercem konfliktu jest platforma chmurowa Microsoft Azure. Grupa protestacyjna, działająca pod nazwą „No Azure for Apartheid”, domaga się, aby firma zerwała wszelkie więzi technologiczne z izraelskim rządem i wojskiem.

    Aktywiści powołują się na dziennikarskie śledztwo m.in. „The Guardian” i „+972 Magazine”, z którego wynikało, że izraelskie służby wojskowe wykorzystują infrastrukturę Azure do masowej inwigilacji Palestyńczyków, w tym do przechowywania nagrań rozmów telefonicznych.

    W odpowiedzi na rosnącą presję wewnętrzną i zewnętrzną, Microsoft zlecił kancelarii prawnej Covington & Burling LLP przeprowadzenie przeglądu swoich umów i należytej staranności w zakresie praw człowieka.

    Kierownictwo firmy podkreśla, że szanuje prawo do wyrażania opinii, pod warunkiem, że odbywa się to w granicach prawa.

    Incydent w Microsoft nie jest odosobniony. Już w kwietniu firma zwolniła innego pracownika za zakłócenie wystąpienia szefa Microsoft AI, Mustafy Suleymana, w proteście o podobnym charakterze.

    Problem dotyczy całej branży – podobne napięcia i protesty pracowników odnotowuje się również w Google w związku z kontraktem „Project Nimbus”.

    Wydarzenia te podkreślają dylemat, przed jakim stają największe firmy technologiczne. Z jednej strony dążą do realizacji lukratywnych kontraktów rządowych, z drugiej muszą mierzyć się z coraz głośniejszym sprzeciwem pracowników, którzy nie godzą się na wykorzystywanie tworzonych przez nich narzędzi w konfliktach zbrojnych i działaniach naruszających prawa człowieka.

  • Wojna o tron CRM: Czy nowi gracze, jak ServiceNow, mogą zagrozić dominacji Salesforce?

    Wojna o tron CRM: Czy nowi gracze, jak ServiceNow, mogą zagrozić dominacji Salesforce?

    Rynek oprogramowania do zarządzania relacjami z klientem (CRM) to strategiczne pole bitwy, którego wartość w 2024 roku przekroczyła 80 miliardów dolarów, czyniąc go największą kategorią oprogramowania dla przedsiębiorstw.

    Na czele tego imperium od ponad dekady stoi Salesforce, niekwestionowany lider, którego analitycy z IDC już dwunasty rok z rzędu koronują na króla rynku. Z platformy korzysta ponad 150 000 firm, w tym około 90% korporacji z listy Fortune 500, a jego udział w rynku jest większy niż łączny udział czterech największych konkurentów.  

    Jednak nawet najpotężniejsze królestwa nie są wieczne. Mimo że przychody Salesforce wciąż rosną, jego procentowy udział w rynku zaczął nieznacznie spadać – z 21,7% w 2023 roku do 20,7% w 2024. Ten subtelny, lecz istotny sygnał pokazuje, że krajobraz strategiczny ulega zmianie.

    Odrodzenie ekosystemowego giganta w postaci Microsoftu, pojawienie się dysruptora z innej domeny, jakim jest ServiceNow, oraz nieustająca presja rewolucji AI tworzą największe od lat wyzwanie dla hegemonii Salesforce. Czy jesteśmy świadkami początku końca ery Salesforce, czy jedynie przejściowych turbulencji?

    Anatomia dominacji: jak Salesforce zbudował swoje imperium

    Zrozumienie obecnych wyzwań wymaga analizy fundamentów potęgi Salesforce. Jego dominacja to wynik konsekwentnej strategii opartej na trzech filarach:

    • Pionierstwo w chmurze: Jako jeden z pierwszych graczy, który postawił na model Software-as-a-Service (SaaS), Salesforce zyskał ogromną przewagę, eliminując u klientów potrzebę inwestowania w kosztowną infrastrukturę
    • Niezrównany ekosystem (AppExchange): Stworzenie AppExchange było strategicznym majstersztykiem. Umożliwiając tysiącom deweloperów tworzenie własnych rozszerzeń, Salesforce zbudował wokół swojej platformy samonapędzającą się gospodarkę, która sprawiła, że system stał się niezwykle „lepki” – trudny i kosztowny do opuszczenia.
    • Wzrost przez akwizycje: Przejęcia takie jak Tableau (15,7 mld USD) czy Slack (27,7 mld USD) nie były jedynie zakupami technologii, ale strategicznymi ruchami mającymi na celu przejęcie kontroli nad kluczowymi obszarami: analityką danych i komunikacją firmową.

    W obliczu nowych zagrożeń Salesforce inwestuje miliardy w rozwój platformy Einstein AI, czego dowodem jest niedawne przejęcie Convergence AI za 14 miliardów dolarów, firmy specjalizującej się w predykcji zachowań klientów.

    Jednak to właśnie strategia, która była źródłem siły Salesforce – agresywne przejęcia – może okazać się jego piętą achillesową. Doprowadziła ona do powstania potężnego, ale architektonicznie niespójnego portfolio.

    Zamiast jednej, zunifikowanej platformy, Salesforce oferuje zbiór połączonych ze sobą „chmur”, co tworzy fundamentalne wyzwania związane z unifikacją danych – kluczowym warunkiem skutecznego wdrożenia AI.

    Przebudzenie giganta: Microsoft Dynamics 365 i potęga ekosystemu

    Microsoft przez lata był postrzegany jako jeden z wielu pretendentów, jednak jego ostatnie ruchy czynią go najpoważniejszym rywalem dla Salesforce. Strategia Microsoftu nie polega na wygraniu w bezpośrednim porównaniu funkcji CRM.

    Zamiast tego, firma dąży do tego, by Dynamics 365 stał się naturalnym wyborem dla milionów przedsiębiorstw, które już funkcjonują w jej ekosystemie.

    Kluczem jest bezproblemowa, natywna integracja z Microsoft 365, Teams, Power BI oraz chmurą Azure. W tej strategii centralną rolę odgrywa Copilot – warstwa inteligencji, która przenika wszystkie aplikacje Microsoftu.

    Copilot w Outlooku analizuje treść maila i automatycznie sugeruje utworzenie nowej szansy sprzedaży w Dynamics 365. W Teams generuje podsumowanie spotkania, które od razu trafia do CRM. Ta głęboka, kontekstowa integracja tworzy pętlę produktywności, której Salesforce nie jest w stanie łatwo skopiować.

    Co więcej, Microsoft aktywnie konkuruje niższym całkowitym kosztem posiadania (TCO) i elastycznością. Studia przypadków firm, które przeszły z Salesforce na Dynamics 365, często podkreślają redukcję niepotrzebnych customizacji o 30-60% oraz znaczne przyspieszenie cykli raportowania.

    Dla dyrektorów IT zmagających się z chaosem aplikacyjnym, propozycja Microsoftu – konsolidacja dostawców w ramach jednego, spójnego ekosystemu – jest niezwykle kusząca.

    Atak z innej dziedziny: ServiceNow i rewolucja workflow

    Wejście ServiceNow na rynek CRM to jedno z najciekawszych wydarzeń w branży od lat. Firma nie próbuje konkurować z Salesforce na jego warunkach. Zamiast tego, proponuje fundamentalnie inne podejście. Tradycyjne CRM-y to „systemy zapisu” (systems of record).

    ServiceNow pozycjonuje się jako „system działania” (system of action), którego celem jest orkiestracja i automatyzacja działań w całej firmie, aby zrealizować obietnicę złożoną klientowi.

    Sercem przewagi konkurencyjnej ServiceNow jest jego architektura. W przeciwieństwie do Salesforce, ServiceNow od początku rozwijało się organicznie, w oparciu o filozofię „jednej platformy, jednego modelu danych, jednej architektury”.To podejście eliminuje złożoność integracji i tworzy idealne środowisko dla sztucznej inteligencji.

    Unikalna pozycja ServiceNow wynika z jego korzeni w zarządzaniu usługami IT (ITSM). Firma przenosi swoją ekspertyzę w automatyzacji złożonych, wewnętrznych procesów na procesy skierowane do klienta, takie jak obsługa klienta (CSM) i serwis w terenie (FSM).

    Strategia ta jest szczególnie atrakcyjna dla branż o skomplikowanych procesach posprzedażowych, jak telekomunikacja czy usługi finansowe. ServiceNow próbuje zmienić zasady gry, argumentując, że prawdziwa wartość leży nie w samej sprzedaży, ale w realizacji obietnicy złożonej klientowi.

    Stara gwardia w obronie: pozycja Oracle i SAP

    Podczas gdy na czele toczy się walka, weterani rynku, OracleSAP, prowadzą własną batalię o obronę swoich terytoriów. Strategia Oracle opiera się na niższym TCO i oferowaniu w pełni zintegrowanego pakietu aplikacji front-office (CX/CRM) i back-office (ERP, HCM).

    Jest to atrakcyjne dla firm już zakorzenionych w ekosystemie Oracle, co potwierdza pozycja „Lidera” w Magicznym Kwadrancie Gartnera.

    Podejście SAP jest podobne i koncentruje się na wykorzystaniu gigantycznej bazy klientów systemu ERP S/4HANA. Propozycja wartości SAP CX polega na obietnicy płynnej, natywnej integracji z kluczowymi danymi finansowymi i logistycznymi rezydującymi w sercu przedsiębiorstwa.

    Dla obecnego klienta SAP, wybór zintegrowanego CRM od tego samego dostawcy jest często ścieżką najmniejszego oporu.

    Przyszłość królestwa

    Walka o tron CRM nie toczy się już tylko na polu funkcjonalności. O przyszłości zadecyduje starcie fundamentalnie różnych filozofii technologicznych.

    Analiza strategii głównych graczy ujawnia trzy kluczowe osie rywalizacji: platforma kontra aplikacja, AI wbudowane kontra AI jako warstwa oraz centralna rola danych.

    Biorąc pod uwagę te trendy, można nakreślić trzy prawdopodobne scenariusze na najbliższe lata:

    • Erozja Status Quo: Salesforce utrzymuje pozycję lidera, ale jego udział w rynku nadal powoli maleje. Microsoft umacnia się na drugiej pozycji, a ServiceNow zdobywa znaczącą niszę w branżach o złożonych procesach usługowych.
    • Duopol Władzy: Przewaga ekosystemu Microsoftu okazuje się decydująca. Firma znacząco zmniejsza dystans do Salesforce, tworząc wyraźny wyścig dwóch koni
    • Nowy Triumwirat: Podejście ServiceNow, skoncentrowane na przepływach pracy, odnosi tak duży sukces, że redefiniuje część rynku, czyniąc z firmy trzeciego, niekwestionowanego gracza na najwyższym poziomie.

    Werdykt końcowy? Tytuł „najlepszego CRM” przestał być uniwersalny. Optymalny wybór zależy od strategicznego centrum grawitacji danej firmy.

    Jeśli priorytetem jest najlepsze w swojej klasie, zorientowane na sprzedaż zaangażowanie klienta, wsparte przez największy na świecie ekosystem aplikacji, Salesforce pozostaje domyślnym liderem.

    Jeśli celem jest maksymalizacja produktywności w całej organizacji i wykorzystanie istniejących inwestycji w technologie Microsoft, Dynamics 365 oferuje potężną, zintegrowaną i często bardziej opłacalną propozycję.

    Jeśli model biznesowy opiera się na złożonych, wielodziałowych procesach usługowych i wsparcia posprzedażowego, ServiceNow prezentuje fundamentalnie inne i potencjalnie znacznie skuteczniejsze podejście.

    Ostateczna rada dla decydentów brzmi: nie oceniajcie platform CRM wyłącznie na podstawie ich dzisiejszych funkcji. Analizujcie ich fundamentalną filozofię architektoniczną i jej zgodność z długoterminową strategią waszej firmy w obszarze danych, AI i automatyzacji. W tej nowej erze to właśnie te fundamenty zadecydują o przyszłym sukcesie.

  • Microsoft ogranicza chińskim firmom dostęp do danych o lukach po atakach na SharePoint

    Microsoft ogranicza chińskim firmom dostęp do danych o lukach po atakach na SharePoint

    Microsoft ograniczył niektórym chińskim firmom z branży cyberbezpieczeństwa dostęp do swojego programu wczesnego ostrzegania o zagrożeniach. Decyzja jest następstwem czerwcowych i lipcowych ataków hakerskich wykorzystujących luki w oprogramowaniu SharePoint, o które firma i amerykańscy eksperci podejrzewali podmioty powiązane z Pekinem.

    Reakcja na falę ataków

    Zmiany dotyczą Microsoft Active Protections Program (MAPP), kluczowej inicjatywy, w ramach której gigant z Redmond dzieli się ze swoimi partnerami – firmami z sektora cyberbezpieczeństwa – informacjami o nowo odkrytych lukach, zanim zostaną one upublicznione.

    Celem programu jest umożliwienie partnerom szybkiego przygotowania i wdrożenia mechanizmów obronnych w celu ochrony swoich klientów.

    Jednak zeszłomiesięczna fala ataków na serwery SharePoint wzbudziła podejrzenia. Microsoft powiadomił członków MAPP o lukach w zabezpieczeniach 24 czerwca oraz 3 i 7 lipca. Zmasowane próby ich wykorzystania rozpoczęły się niemal natychmiast po ostatnim z powiadomień.

    Taka zbieżność czasowa nasunęła ekspertom wniosek, że informacje z programu mogły zostać niewłaściwie wykorzystane przez jednego z jego uczestników do przygotowania ataków, zamiast do budowy zabezpieczeń.

    Rząd w Pekinie konsekwentnie zaprzecza swojemu udziałowi w jakichkolwiek działaniach hakerskich.

    Ograniczenie dostępu do kluczowych danych

    W odpowiedzi Microsoft podjął decyzję o zaostrzeniu zasad dla kilku chińskich firm uczestniczących w programie. Nie będą one już otrzymywać tzw. kodu proof-of-concept (PoC).

    Jest to rodzaj niegroźnego kodu, który symuluje działanie prawdziwego exploita, pomagając analitykom zrozumieć mechanizm ataku i zbudować skuteczną obronę.

    Jednak w niepowołanych rękach kod PoC może zostać łatwo zmodyfikowany i użyty do stworzenia pełnoprawnego narzędzia hakerskiego.

    Firma podkreśla, że stale monitoruje swoich partnerów w ramach MAPP i podejmuje odpowiednie kroki w przypadku naruszenia umowy, która zakazuje wykorzystywania udostępnianych danych do celów ofensywnych.

    Microsoft nie ujawnił jednak, które konkretnie chińskie firmy zostały objęte restrykcjami ani jaki jest status wewnętrznego dochodzenia w sprawie czerwcowego incydentu.

    Ten krok sygnalizuje rosnącą ostrożność i napięcie w relacjach zachodnich firm technologicznych z chińskimi partnerami w dziedzinie cyberbezpieczeństwa.

  • Polsko-brytyjski Tracelight integruje AI z Excelem. Na rozwój ma 3,6 mln USD od globalnych graczy

    Polsko-brytyjski Tracelight integruje AI z Excelem. Na rozwój ma 3,6 mln USD od globalnych graczy

    Polsko-brytyjski startup Tracelight pozyskał 14 mln zł (3,6 mln USD) w rundzie seed na rozwój narzędzia, które ma zautomatyzować najbardziej czasochłonne zadania w Excelu. Rundzie przewodził polski fundusz Inovo.vc, a wsparli ją doświadczeni aniołowie biznesu z Wielkiej Brytanii i USA, w tym byli menedżerowie z Microsoftu.

    Pieniądze posłużą do rozwoju agenta AI, który działa bezpośrednio wewnątrz arkusza kalkulacyjnego.

    Excel od dekad jest fundamentem pracy analityków finansowych, konsultantów i zespołów M&A.

    Mimo ewolucji programu, praca w nim wciąż w dużej mierze polega na ręcznym tworzeniu skomplikowanych formuł, szukaniu błędów i formatowaniu danych. To procesy podatne na błędy i niezwykle czasochłonne, które odciągają specjalistów od kluczowego zadania – analizy danych i wyciągania wniosków.

    Na rynku od dawna istnieje zapotrzebowanie na narzędzie, które usprawniłoby te procesy bez konieczności rezygnacji ze znanego i powszechnie używanego środowiska.

    Podejście Tracelight wyróżnia się na tle konkurencyjnych rozwiązań. Zamiast tworzyć kolejną zewnętrzną aplikację czy prostego „copilota”, startup stworzył agenta AI, który integruje się bezpośrednio z Excelem jako oficjalny dodatek Microsoft.

    Narzędzie rozumie strukturę i logikę arkusza, dzięki czemu może automatyzować pisanie formuł, walidować modele finansowe i wykrywać błędy w czasie rzeczywistym.

    Jak twierdzą twórcy, rozwiązanie pozwala skrócić czas pracy nawet dziesięciokrotnie. Pierwsi użytkownicy z banków inwestycyjnych i firm doradczych raportują ponad 90% oszczędności czasu przy najbardziej żmudnych czynnościach. To pozwala im skupić się na strategicznej analizie, a nie na mechanicznych, powtarzalnych zadaniach.

    Założycielami Tracelight są absolwenci Uniwersytetu Cambridge, Aleksander Misztal i Jan Zimoch.

    Połączyli oni doświadczenie z elitarnych firm technologicznych i tradingowych (Jane Street) oraz zaawansowanych badań nad uczeniem maszynowym.

    Wśród inwestorów, obok Inovo.vc, znaleźli się m.in. Charlie Songhurst (były szef strategii w Microsofcie), Mike Chalfen (wczesny inwestor w King.com, twórcę Candy Crush Saga) oraz fundusz Acecap, założony przez byłych dyrektorów Microsoftu.

    Co istotne, wielu z nich to zaawansowani użytkownicy Excela, którzy dostrzegli praktyczną wartość w usprawnianiu narzędzia od wewnątrz, zamiast zastępowania go nowym systemem.

  • Windows 2030: Microsoft stawia wszystko na AI

    Windows 2030: Microsoft stawia wszystko na AI

    Microsoft uchylił rąbka tajemnicy na temat swojej długoterminowej wizji dla najpopularniejszego systemu operacyjnego na świecie. W nowej serii wideo „Windows 2030 Vision” firma zarysowała przyszłość, w której sztuczna inteligencja nie jest już dodatkiem, ale fundamentem całego doświadczenia użytkownika.

    Kierunek jest jasny: za sześć lat interakcja z komputerem ma przypominać rozmowę z asystentem, a klawiatura i mysz mogą stać się reliktami przeszłości.

    Strategia Microsoftu jest konsekwencją wielomiliardowych inwestycji w technologie AI, w tym w OpenAI. Koncern dąży do pełnej integracji sztucznej inteligencji ze swoimi kluczowymi produktami, a Windows, jako brama do cyfrowego świata dla setek milionów użytkowników, jest w centrum tego planu.

    Nie chodzi już tylko o dodawanie funkcji takich jak Copilot. Celem jest przebudowa samego jądra systemu operacyjnego tak, aby był on z natury inteligentny.

    W wizji przedstawionej przez wiceprezesa ds. bezpieczeństwa, Davida Westona, tradycyjny interfejs graficzny ustępuje miejsca multimodalnej komunikacji.

    System operacyjny przyszłości ma rozumieć kontekst, widząc to, co użytkownik na ekranie i słysząc jego polecenia głosowe. Zamiast manualnie przeklikiwać się przez menu i okna w celu wykonania złożonego zadania, użytkownik ma je po prostu zlecić inteligentnemu agentowi AI.

    Taki agent miałby koordynować pracę między różnymi aplikacjami i plikami, w podobny sposób, w jaki przeglądarki zintegrowane z AI zaczynają zarządzać wieloma kartami.

    To fundamentalna zmiana, która według zapowiedzi Satyi Nadelli, CEO Microsoftu, odmieni istotę systemów operacyjnych. Według nieoficjalnych informacji, w Redmond trwają już prace nad prototypami badającymi ten nowy model interakcji.

    Mimo śmiałych zapowiedzi, wizja Microsoftu spotyka się z chłodnym przyjęciem i rodzi liczne pytania. Dotychczasowe próby integracji AI z Windows 11, w tym funkcja Copilot, nie przyniosły obiecywanej rewolucji w produktywności i często są postrzegane jako narzucone i niedopracowane.

    Otwarte pozostają kluczowe kwestie, takie jak znaczący wzrost zapotrzebowania na zasoby systemowe, ochrona prywatności w świecie, gdzie komputer „widzi i słyszy” naszą pracę, a także model biznesowy takich rozwiązań.

    Użytkownicy obawiają się również zabetonowania w ekosystemie Microsoftu, bez możliwości wyboru konkurencyjnych narzędzi AI. Trudno też ignorować szerszy kontekst społeczny – wizja automatyzacji pracy biurowej kłóci się z falą zwolnień, która przetacza się przez sektor technologiczny.

    Dominująca pozycja na rynku komputerów stacjonarnych daje Microsoftowi unikalną możliwość wdrożenia swojej wizji na masową skalę. O ile konkurencyjne chatboty pozostaną ograniczone do ram aplikacji, agent AI wbudowany w system operacyjny mógłby stać się wszechobecnym koordynatorem cyfrowego życia.

    Choć zapowiedź, że do 2030 roku klawiatury i myszy staną się dla Pokolenia Z tak obce, jak dziś MS-DOS, wydaje się przesadzona, kierunek zmian jest bezdyskusyjny. Microsoft stawia na AI jako siłę napędową kolejnej generacji Windows.

    Dla użytkowników i firm oznacza to konieczność adaptacji lub – jak sugerują krytycy – poszukiwania alternatyw, póki jest na to czas. Rewolucja AI w systemie Windows już się rozpoczęła.

  • Rynek wideokonferencji warty 18 mld dolarów to dopiero początek. Kto wygra wojnę o sale konferencyjne przyszłości?

    Rynek wideokonferencji warty 18 mld dolarów to dopiero początek. Kto wygra wojnę o sale konferencyjne przyszłości?

    Globalny rynek wideokonferencji, rosnąc o 5% rocznie mimo niepewności gospodarczej, udowadnia swoją siłę. Jednak prawdziwa rewolucja dzieje się za kulisami. Podczas gdy rynek staje się coraz bardziej „skomodytyzowany”, kluczem do zwycięstwa nie jest już tylko jakość obrazu, a strategiczne sojusze, sztuczna inteligencja i podbój gigantycznego, wciąż niezagospodarowanego potencjału sal konferencyjnych.

    Paradoks wzrostu – transformacja pracy zamiast rewolucji produktowej

    Na pierwszy rzut oka rynek wideokonferencji zdaje się przeczyć logice. Mimo trudnych warunków geopolitycznych i gospodarczych, w 2024 roku osiągnął wartość 18 miliardów dolarów, notując 5% wzrost rok do roku. Prognozy analityków przewidują utrzymanie tego tempa, z perspektywą osiągnięcia 21 miliardów dolarów do 2029 roku. Inne analizy są jeszcze bardziej optymistyczne, wskazując na wartość rynku sięgającą od 24 do nawet 60 miliardów dolarów na początku kolejnej dekady.

    Jednocześnie ten sam rynek staje się ofiarą własnego sukcesu. Rynek staje się coraz bardziej skomodytyzowany, z bardzo małym zróżnicowaniem produktów między ofertami dostawców. Podstawowe funkcje, takie jak wideo HD, udostępnianie ekranu czy czat, stały się standardem. Skoro więc motorem wzrostu nie jest rewolucja produktowa, to co nim jest? Odpowiedź jest jednoznaczna: fundamentalna i trwała transformacja globalnego modelu pracy. Firmy nie kupują już narzędzia do wirtualnych spotkań; inwestują w strategiczną infrastrukturę, która ma na celu łączenie rozproszonych zespołów, zwiększanie produktywności i zapewnianie ciągłości biznesowej. Wideokonferencje stały się kręgosłupem komunikacyjnym nowoczesnej organizacji, a wartość przeniosła się z cech produktu na jego rolę w szerszym ekosystemie biznesowym.

    Wzrost ten napędzany jest również przez ekspansję na nowe rynki. Podczas gdy Ameryka Północna (42% udziału w rynku subskrypcji) wydaje się nasycona, to Azja i Oceania (25% udziału) wykazują „obiecujący wzrost”. Równocześnie rynek pogłębia swoją penetrację w sektorach takich jak opieka zdrowotna, edukacja i finanse, co dowodzi, że wideokonferencje wyszły daleko poza tradycyjne zastosowania korporacyjne.

    Microsoft: architekt nowego ekosystemu

    Na rynku, gdzie zwycięstwo zależy od kontroli nad całym ekosystemem, nikt nie gra z większą skutecznością niż Microsoft. Jego strategia to podręcznikowy przykład „platformizacji”, gdzie celem nie jest sprzedaż aplikacji Teams, ale zdominowanie całego łańcucha wartości.

    Punktem wyjścia jest dominujący, 49% udział w rynku płatnych usług spotkań wirtualnych. Źródłem tej potęgi jest głęboka integracja Teams z ekosystemem Microsoft 365, co dla milionów firm czyni go nie dodatkowym wydatkiem, a zintegrowaną funkcjonalnością. Drugim filarem strategii jest Program Certyfikacji Urządzeń dla Microsoft Teams. Z pozoru jest to mechanizm kontroli jakości, ale w rzeczywistości to potężne narzędzie strategicznej kontroli. Ustanawiając rygorystyczne standardy, Microsoft de facto dyktuje mapę drogową rozwoju dla producentów sprzętu (OEM), takich jak Logitech, Poly czy Yealink, którzy muszą dostosować swoje produkty do wizji giganta, aby uzyskać dostęp do jego ogromnej bazy klientów.

    Strategię dopełnia globalna sieć partnerów wdrożeniowych, motywowanych specjalizacją „Meetings and Meeting Rooms for Microsoft Teams” , oraz inteligentny model licencyjny. Oferując bezpłatną licencję Teams Rooms Basic i płatną Teams Rooms Pro, Microsoft zachęca do głębszej integracji. To właśnie wersja Pro odblokowuje pełnię możliwości ekosystemu, w tym zaawansowane funkcje AI, obsługę dwóch ekranów oraz kluczowe z perspektywy IT zdalne zarządzanie i analitykę, zamykając cykl monetyzacji.

    Ukryty skarb: bitwa o salę konferencyjną

    Prawdziwa bitwa o przyszłość rynku wideokonferencji toczy się nie o licencje personalne, ale o fizyczne sale konferencyjne. To tutaj kryje się gigantyczny, niewykorzystany potencjał. Dane Omdia są jednoznaczne: zaledwie 28% wszystkich sal konferencyjnych na świecie posiada jakąkolwiek formę wyposażenia do wideokonferencji, a tylko 6.25% z nich to w pełni ustandaryzowane, natywne sale, takie jak Microsoft Teams Rooms czy Zoom Rooms. Oznacza to, że około 72% sal to technologiczna pustynia.

    W odpowiedzi na tę szansę rynkową wykrystalizowały się dwie filozofie wyposażania sal:

    • Systemy Natywne (np. Microsoft Teams Rooms, Zoom Rooms): Stawiają na standaryzację, prostotę i centralne zarządzanie przez IT. Oferują spójne doświadczenie użytkownika („one-touch join”) i wysokie bezpieczeństwo, ale kosztem elastyczności i ryzyka uzależnienia od jednego dostawcy.
    • Systemy BYOD/BYOM (Bring Your Own Device/Meeting): Priorytetyzują elastyczność, pozwalając użytkownikom na korzystanie z własnych laptopów i dowolnego oprogramowania. Są tańsze we wdrożeniu, ale generują potencjalne ryzyko bezpieczeństwa i problemy z kompatybilnością, obciążając działy wsparcia.

    Rynek szybko zrozumiał, że wybór „albo-albo” jest nieoptymalny. W odpowiedzi pojawia się trzecia droga: wszechstronne, zintegrowane listwy wideo (all-in-one video bars), często oparte na systemie Android. Urządzenia te, oferowane przez firmy takie jak AVer, działają w trybie podwójnym. Mogą funkcjonować jako natywna, zarządzana centralnie sala Teams lub Zoom, a jednocześnie, po podłączeniu laptopa przez USB, przełączyć się w tryb BYOD, stając się wysokiej jakości peryferium dla dowolnej aplikacji. To rozwiązanie godzi sprzeczne interesy IT i użytkowników, co czyni je prawdopodobnie dominującą architekturą dla sal konferencyjnych w przyszłości.

    Sojusze w cieniu gigantów

    W realiach rynku zdominowanego przez platformowych gigantów, strategia „samotnego wilka” jest przepisem na porażkę. Wartość dla klienta przesuwa się na całościowe, zintegrowane doświadczenie, będące wynikiem synergii między oprogramowaniem a sprzętem. Strategiczne sojusze stają się absolutną koniecznością.

    Model ekosystemu zintegrowanego: Logitech i Microsoft

    Partnerstwo Logitech i Microsoft to wzorcowy przykład głębokiej, pionowej integracji. Logitech oferuje szeroką gamę urządzeń „Certyfikowanych dla Teams”, pokrywającą każde możliwe zapotrzebowanie. Kluczowa jest tu wspólna innowacja w obszarze AI. Zaawansowane funkcje oprogramowania, jak IntelliFrame i Copilot w Teams, wymagają wysokiej jakości danych ze sprzętu. Dlatego innowacje sprzętowe Logitecha, takie jak inteligentne kamery czy technologia audio RightSound 2, są projektowane tak, aby wzmacniać usługi AI Microsoftu, tworząc prawdziwą symbiozę.

    Model ekosystemu otwartego: Poly (HP) i Zoom

    Strategia Zoom i jego kluczowego partnera sprzętowego, Poly, stanowi alternatywę dla zamkniętego ogrodu Microsoftu. Stawia na otwartość i innowacyjność sprzętową. Technologia inteligentnych kamer Poly DirectorAI staje się potężnym, sprzętowym argumentem za wyborem ekosystemu Zoom Rooms. Kluczowym elementem strategii jest też interoperacyjność.

    Przyszłość definiowana przez AI i ekosystemy

    Analiza rynku wideokonferencji prowadzi do jednoznacznego wniosku: era wideokonferencji jako samodzielnej aplikacji dobiegła końca. Przyszłość należy do inteligentnych, zintegrowanych platform współpracy, a o sukcesie zadecyduje siła i spójność ekosystemu, w którym bitwa o salę konferencyjną staje się celem strategicznym.

    Nową granicą różnicowania i głównym motorem wartości staje się sztuczna inteligencja. W miarę jak podstawowe funkcje ulegają komodytyzacji, to właśnie zdolności napędzane przez AI – takie jak automatyczne podsumowania spotkań , inteligentne śledzenie mówcy  czy analityka predykcyjna  – będą stanowić o przewadze konkurencyjnej. Przyszłość spotkań to nie tylko możliwość zobaczenia i usłyszenia się nawzajem, ale posiadanie inteligentnego asystenta, który rozumie kontekst rozmowy i aktywnie wspiera produktywność zespołu. Rynek o wartości 18 miliardów dolarów to zaledwie wierzchołek góry lodowej. Prawdziwą nagrodą jest stworzenie infrastruktury technologicznej, która będzie obsługiwać biliony godzin wirtualnej i hybrydowej współpracy w nadchodzącej dekadzie. Ta nagroda zostanie zdobyta – lub przegrana – właśnie w salach konferencyjnych przyszłości.

    Cecha StrategicznaEkosystem Microsoft TeamsEkosystem Zoom
    Główne WyzwanieZapewnienie elastyczności w świecie wieloplatformowym.Konkurowanie z siłą dystrybucyjną i pakietową ofertą Microsoftu.
    Dominujący Model BiznesowySprzedaż zintegrowanej platformy (Microsoft 365), gdzie Teams jest kluczowym elementem.Sprzedaż usług komunikacyjnych jako „best-of-breed”, z rosnącym naciskiem na platformę (Zoom Workplace).
    Strategia SprzętowaKontrola ekosystemu poprzez rygorystyczny program certyfikacji „Certified for Teams”.Budowanie sojuszy z wiodącymi producentami sprzętu (np. Poly, Neat, DTEN) i promowanie innowacji sprzętowych.
    Podejście do Sali KonferencyjnejPriorytet dla natywnych, ustandaryzowanych „Microsoft Teams Rooms” dla spójności i zarządzania przez IT.Silne wsparcie dla „Zoom Rooms”, ale również duży nacisk na elastyczność i interoperacyjność z innymi platformami.
    Kluczowi PartnerzySprzęt: Logitech, Poly, Crestron, Yealink. Kanał: Globalna sieć partnerów z certyfikacją „Meetings and Meeting Rooms”.Sprzęt: Poly (HP), Logitech, Neat, DTEN. Interoperacyjność: Pexip.
    Strategia AIGłęboka integracja z Copilot, wykorzystująca dane z całego ekosystemu M365. AI sprzętowe (IntelliFrame) wzmacnia AI w chmurze.Rozwój własnego AI Companion i inteligentnych funkcji (np. Zoom Intelligent Director) w ścisłej współpracy z partnerami sprzętowymi.
    Główna SiłaEfekt sieciowy i przywiązanie klienta do zintegrowanego pakietu Microsoft 365.Postrzegana łatwość użycia, elastyczność i silna marka w komunikacji wideo.
  • EY i Microsoft zacieśniają współpracę w Polsce. Cel: AI i cyberbezpieczeństwo

    EY i Microsoft zacieśniają współpracę w Polsce. Cel: AI i cyberbezpieczeństwo

    Microsoft i firma doradcza EY rozszerzają swój globalny alians o Polskę. Partnerstwo ma na celu przyspieszenie transformacji cyfrowej, ze szczególnym naciskiem na adopcję sztucznej inteligencji i wzmocnienie cyberodporności w kluczowych sektorach gospodarki: publicznym, energetycznym i finansowym.

    Współpraca ma odpowiadać na konkretne wyzwania rynkowe. Z danych EY wynika, że choć 94% polskich firm analizuje kwestie cyberbezpieczeństwa przy wdrażaniu AI, to zaledwie 34% przeznacza na ten cel realne inwestycje. Ten rozdźwięk stanowi istotną lukę, którą alians zamierza adresować, zwłaszcza że według raportów Microsoftu Polska jest trzecim w Europie celem cyberataków.

    Model współpracy opiera się na synergii. Microsoft dostarcza platformę technologiczną, w tym infrastrukturę chmurową Azure Poland Central, narzędzia AI, takie jak Copilot Studio i Azure OpenAI, oraz pakiet rozwiązań z zakresu cyberbezpieczeństwa. EY wnosi natomiast wiedzę branżową, doświadczenie w zarządzaniu projektami transformacyjnymi, audycie oraz zarządzaniu ryzykiem. Wspólna oferta ma obejmować m.in. opracowywanie strategii Zero Trust, rozwój architektury bezpieczeństwa oraz projekty z zakresu ochrony danych i tożsamości.

    Działania nie ograniczają się jedynie do wdrażania gotowych rozwiązań. Alians zakłada również tworzenie dedykowanych narzędzi dla polskiego rynku oraz inicjatywy edukacyjne. W obliczu niedoboru umiejętności w zakresie AI, który według Word Trend Index 2025 dotyka 53% firm w sektorze publicznym, Microsoft zobowiązał się do przeszkolenia miliona osób w Polsce do końca 2025 roku.

    Partnerstwo celuje w kompleksowe podejście, łącząc technologię z wiedzą o procesach biznesowych i specyfice regulacyjnej. Celem jest nie tylko dostarczenie narzędzi, ale również zbudowanie w strategicznych dla kraju branżach kompetencji i zaufania niezbędnych do skutecznego i bezpiecznego wykorzystania potencjału sztucznej inteligencji.

  • 40 zawodów najbardziej narażonych na wpływ generatywnego AI. Tłumacze, nauczyciele, analitycy – kto następny?

    40 zawodów najbardziej narażonych na wpływ generatywnego AI. Tłumacze, nauczyciele, analitycy – kto następny?

    Nowy raport badaczy z Microsoft Research i OpenAI analizuje rzeczywisty wpływ generatywnej AI na 800 zawodów, bazując nie na przewidywaniach, lecz na danych z setek tysięcy interakcji użytkowników z narzędziami typu Copilot. Wynik? Powstała lista 40 zawodów, w których AI już dziś wykonuje znaczną część zadań – i nie są to tylko klasyczni „pracownicy wiedzy”.

    Co to jest AI Applicability Score?

    Badacze zebrali ponad 200 tysięcy rzeczywistych zapytań użytkowników korzystających z Copilota Microsoftu. Na tej podstawie stworzyli klasyfikację zawodów, które najczęściej korzystają z AI jako wsparcia – lub których zadania AI już przejęła.

    Wskaźnik AI Applicability Score pokazuje, jak często w danym zawodzie użytkownicy delegują zadania generatywnej AI – takie jak pisanie, tłumaczenie, tworzenie treści czy doradztwo. W odróżnieniu od wcześniejszych modeli predykcyjnych, ten raport nie opiera się na ocenach ekspertów, ale na realnych danych z użycia AI w pracy.

    Im wyższy wynik, tym większa część zadań wykonywanych w danym zawodzie może być obsłużona przez AI. W czołówce rankingu znajdziemy wiele zadań związanych z komunikacją, pisaniem oraz pracą z tekstem.

    Top 40 zawodów podatnych na AI

    Na szczycie listy znalazły się zawody, w których AI wykonuje od 80 do 98 proc. typowych zadań:

    1. Tłumacze i interpreterzy (0.98)

    2. Historycy (0.97)

    3. Pisarze i autorzy (0.95)

    4. Reporterzy i korespondenci (0.94)

    5. Matematycy (0.92)

    6. Wykładowcy akademiccy (język angielski, historia, komunikacja)

    7. Specjaliści HR

    8. Doradcy ds. edukacji i kariery

    9. Analitycy danych

    10.  Specjaliści ds. marketingu internetowego

    W zestawieniu dominują zawody wymagające tworzenia treści, interpretacji informacji lub wsparcia komunikacyjnego. Co ciekawe, znalazło się w nim także wiele profesji z sektora edukacji i HR – dziedzin tradycyjnie postrzeganych jako odporne na automatyzację.

    Dlaczego akurat te zawody?

    Generatywna AI – jak ChatGPT czy Copilot – została stworzona z myślą o przetwarzaniu i generowaniu języka naturalnego. Zawody, które polegają na pisaniu, streszczaniu, tłumaczeniu czy doradzaniu, są więc naturalnym środowiskiem dla takich narzędzi. Co ważne, nie chodzi tylko o powtarzalne czynności – AI potrafi też generować analizy, podsumowania i kontekstowe odpowiedzi, co pozwala jej wspierać np. dziennikarzy, analityków czy nauczycieli akademickich.

    Przykład? W przypadku tłumaczy AI wykonuje dużą część pracy: od automatycznych przekładów po edycję tekstów i korektę językową. Podobnie w edukacji – AI wspomaga przygotowanie materiałów, tworzenie quizów, a nawet ocenianie.

    Zastąpienie czy wsparcie?

    Raport podkreśla, że w większości przypadków AI nie zastępuje ludzi, ale wspiera ich jako tzw. copilot* Oznacza to przesunięcie roli pracownika – z wykonawcy na kreatora, edytora i decydenta.

    Na przykład dziennikarz może skorzystać z AI do wstępnego researchu, a nauczyciel – do wygenerowania materiału lekcyjnego. W obu przypadkach człowiek nadal odpowiada za wartość merytoryczną i kontekst, ale czas przygotowania materiału znacząco się skraca.

    Kto nie musi się (jeszcze) martwić?

    Na drugim końcu spektrum znajdują się zawody, których natura wymaga fizycznego działania, kontaktu bezpośredniego lub precyzyjnej kontroli środowiska – jak masażyści, operatorzy maszyn, personel techniczny czy opiekunowie medyczni.

    AI w obecnej formie nie jest w stanie manipulować obiektami w świecie fizycznym ani przejąć zadań manualnych. Dlatego te zawody są na razie relatywnie odporne – choć rozwój robotyki może to zmienić.

    Raport pokazuje też ciekawe korelacje: im wyższe wynagrodzenie i poziom wykształcenia w danym zawodzie, tym wyższy AI applicability score. To odwraca dotychczasową narrację, w której automatyzacja miała dotyczyć głównie pracy fizycznej czy powtarzalnej.

  • Więcej niż Zoom. Rynek wideokonferencji rośnie o 10% rocznie. Kto na tym zarabia?

    Więcej niż Zoom. Rynek wideokonferencji rośnie o 10% rocznie. Kto na tym zarabia?

    Wideokonferencje, niegdyś niszowe narzędzie dla globalnych korporacji, w ciągu ostatnich kilku lat stały się fundamentem komunikacji biznesowej. Gwałtowna transformacja w kierunku pracy zdalnej i hybrydowej, przyspieszona przez globalne wydarzenia, na stałe zmieniła krajobraz pracy, czyniąc z platform wideo krwiobieg nowoczesnych organizacji. Dziś rynek wideokonferencji, wyceniany na dziesiątki miliardów dolarów i prognozowany do stabilnego, dwucyfrowego wzrostu w nadchodzących latach, wkracza w nową fazę dojrzałości. Przestaje być areną walki na podstawowe funkcje, a staje się strategicznym polem bitwy o przyszłość pracy, gdzie kluczowe są zintegrowane ekosystemy, sztuczna inteligencja, bezpieczeństwo i psychologia ludzkiej interakcji.   

    Wojna na ekosystemy: oprogramowanie jako centrum dowodzenia

    Sercem rewolucji wideokonferencyjnej jest oprogramowanie. To tutaj toczy się najbardziej zacięta walka, a innowacje najszybciej redefiniują zasady gry. Rynek jest zdominowany przez dwóch tytanów: Zoom, który kontroluje ponad połowę rynku, oraz Microsoft Teams, depczący mu po piętach z udziałem przekraczającym 30%. Jednak ich rywalizacja dawno przestała dotyczyć pojedynczych funkcji, takich jak udostępnianie ekranu czy nagrywanie, które stały się standardem . Prawdziwa walka toczy się o to, która platforma stanie się zintegrowanym „systemem operacyjnym” dla pracy zespołowej.

    Microsoft Teams czerpie swoją siłę z głębokiej, natywnej integracji z wszechobecnym pakietem Microsoft 365. Dla firm, które już funkcjonują w ekosystemie Microsoftu, Teams jest naturalnym, często bezkosztowym rozszerzeniem, łączącym komunikację, współpracę nad dokumentami i zarządzanie zadaniami w jednym, spójnym środowisku . Z kolei Zoom zbudował swoją pozycję na legendarnej prostocie użycia, niezawodności i, co kluczowe, platformowej agnostyczności. Pozycjonuje się jako neutralne centrum komunikacyjne, które można zintegrować z niemal każdym narzędziem, co potwierdza ogromny rynek blisko 2800 aplikacji w Zoom App Marketplace . Ta elastyczność czyni go preferowanym wyborem do komunikacji z partnerami zewnętrznymi, którzy niekoniecznie pracują w środowisku Microsoftu. Google Meet natomiast konkuruje prostotą i bezproblemową integracją z pakietem Google Workspace, działając bezpośrednio w przeglądarce, co jest ogromną zaletą w środowiskach z ograniczonymi uprawnieniami IT .

    Decyzja o wyborze platformy staje się więc strategicznym wyborem całego stosu technologicznego firmy. Dostawcy dążą do „zamknięcia” klienta w swoim ekosystemie, ponieważ im więcej procesów zostanie zintegrowanych z jedną platformą, tym trudniejsza i bardziej kosztowna staje się ewentualna migracja.

    AI: ucieczka od komodytyzacji

    W obliczu standaryzacji podstawowych funkcji, sztuczna inteligencja stała się głównym polem bitwy i kluczowym czynnikiem różnicującym ofertę. AI przestała być marketingowym hasłem, a stała się rdzeniem propozycji wartości, oferując realne usprawnienia produktywności. Wszyscy liderzy rynku intensywnie inwestują w rozwój swoich „inteligentnych asystentów”: AI Companion w Zoomie, Copilot w Microsoft Teams i Gemini w Google Meet . Ich możliwości rewolucjonizują spotkania, oferując automatyczne podsumowania z listą zadań do wykonania, transkrypcję i tłumaczenie w czasie rzeczywistym, które przełamują bariery językowe w międzynarodowych zespołach. Narzędzia takie jak Read.ai idą o krok dalej, analizując nie tylko treść, ale i kontekst spotkania, identyfikując momenty o najwyższym zaangażowaniu czy sentyment wypowiedzi . Dla dostawców, AI jest sposobem na tworzenie unikalnej wartości dodanej i uzasadnienie wyższych cen w planach premium.   

    Sprzęt i znaczenie certyfikacji

    Oprogramowanie jest mózgiem operacji, ale to sprzęt stanowi fizyczny fundament profesjonalnych doświadczeń wideokonferencyjnych. Rynek ten, choć zdominowany przychodowo przez drogie systemy, jest nierozerwalnie związany ze światem software’u. Producenci tacy jak Logitech, Poly (HP) czy Cisco nie konkurują już w próżni – projektują swoje produkty i strategie wokół ekosystemów Microsoftu i Zooma, oferując dedykowane „zestawy dla Teams” czy „rozwiązania dla Zoom Rooms”.   

    W tym kontekście kluczowego znaczenia nabrały programy certyfikacji, takie jak „Certified for Microsoft Teams” i „Zoom Certified” . Certyfikat to dla klienta gwarancja, że urządzenie przeszło rygorystyczne testy jakościowe, zapewniając bezproblemową integrację, najwyższą jakość audio i wideo oraz pełne wsparcie dla zaawansowanych funkcji platformy . Upraszcza to proces wyboru i wdrożenia, dając działom IT pewność, że zakupiony sprzęt będzie działał niezawodnie. To właśnie certyfikacja stała się de facto standardem branżowym i kluczowym kryterium wyboru dla przedsiębiorstw.

    Główne wyzwania: bezpieczeństwo, interoperacyjność i czynnik ludzki

    Pomimo dynamicznego wzrostu, rynek stoi w obliczu poważnych wyzwań. Cyberbezpieczeństwo wysunęło się na pierwszy plan. Incydenty takie jak „Zoombombing” (nieautoryzowany dostęp do spotkań) czy wycieki danych, jak ten z Royal Mail Group, pokazały, jak atrakcyjnym celem stały się platformy wideo . W odpowiedzi, standardem stały się szyfrowanie end-to-end (E2EE), silne mechanizmy uwierzytelniania i regularne aktualizacje oprogramowania, mające na celu ochronę przed phishingiem i malwarem .

    Kolejnym fundamentalnym problemem jest interoperacyjność, a raczej jej brak. Wiodący dostawcy celowo tworzą „zamknięte ogrody” (walled gardens), w których ich oprogramowanie i certyfikowany sprzęt działają idealnie, ale komunikacja z innymi ekosystemami jest utrudniona. Organizacja posiadająca sale konferencyjne oparte na sprzęcie Cisco może napotkać problemy, próbując dołączyć do spotkania w Microsoft Teams. Rozwiązaniem są usługi pośredniczące, tzw. Cloud Video Interop (CVI), oferowane przez wyspecjalizowane firmy jak Pexip, które „tłumaczą” protokoły między platformami . Jest to jednak dodatkowy koszt, który firmy muszą ponieść w imię elastyczności.   

    Nie można również ignorować czynnika ludzkiego. Intensywne korzystanie z wideokonferencji prowadzi do zjawiska znanego jako „Zoom Fatigue” – psychicznego i fizycznego wyczerpania. Badania Uniwersytetu Stanforda zidentyfikowały jego przyczyny: nadmierny i nienaturalny kontakt wzrokowy, zwiększone obciążenie poznawcze związane z interpretacją ograniczonych sygnałów niewerbalnych, stres wywołany ciągłym widokiem własnego odbicia oraz ograniczona mobilność fizyczna. Problem ten ma realne konsekwencje biznesowe, prowadząc do spadku produktywności i wypalenia zawodowego. Zarówno organizacje, jak i dostawcy platform zaczynają reagować, wprowadzając zmiany w kulturze pracy (np. dni bez spotkań) i interfejsach oprogramowania (np. opcja ukrycia widoku własnej kamery).

    Przyszłość jest immersyjna

    Ewolucja rynku wideokonferencji przyspiesza, a na horyzoncie widać już technologie, które zdefiniują następną generację komunikacji. Sztuczna inteligencja przekształci się z asystenta w proaktywnego partnera, który nie tylko streści spotkanie, ale również przeanalizuje jego dynamikę i sentyment uczestników. Ostatecznym celem jest jednak przełamanie bariery ekranu. Technologie wirtualnej (VR) i rozszerzonej (AR) rzeczywistości umożliwią tworzenie w pełni immersyjnych, trójwymiarowych przestrzeni do współpracy. Przełomem może okazać się Project Starline, rozwijany przez Google i HP, który dzięki zaawansowanym technologiom tworzy realistyczne, trójwymiarowe hologramy rozmówcy w czasie rzeczywistym. Wczesne testy wykazały, że technologia ta radykalnie zwiększa ilość komunikacji niewerbalnej i poprawia zapamiętywanie treści rozmowy.   

    Rynek wideokonferencji dojrzał. Zwycięzcami w tej nowej erze nie będą ci, którzy zaoferują najwięcej funkcji, ale ci, którzy najlepiej zrozumieją, że technologia jest tylko narzędziem. Ostatecznym celem jest umożliwienie bardziej produktywnej, bezpiecznej i satysfakcjonującej ludzkiej interakcji, niezależnie od fizycznej odległości, która dzieli rozmówców.

  • 30 miliardów dolarów w 3 miesiące. Microsoft idzie na całość w walce o AI

    30 miliardów dolarów w 3 miesiące. Microsoft idzie na całość w walce o AI

    Microsoft zasygnalizował, że jest gotów wydać bezprecedensowe kwoty, aby zdominować erę sztucznej inteligencji. Firma prognozuje rekordowe 30 miliardów dolarów wydatków kapitałowych (capex) tylko w bieżącym kwartale fiskalnym. Ta ogromna inwestycja to bezpośrednia odpowiedź na gwałtowny popyt na usługi AI, który napędza dynamiczny wzrost platformy chmurowej Azure.

    Potwierdzeniem słuszności tej strategii są najnowsze wyniki. Microsoft po raz pierwszy ujawnił, że roczne przychody z Azure przekroczyły 75 miliardów dolarów, przewyższając oczekiwania analityków. W minionym kwartale dynamika wzrostu sięgnęła 39%, a prognozy na obecny okres zakładają utrzymanie jej na poziomie 37%. Te liczby pokazują, że gigantyczne inwestycje w infrastrukturę centrów danych zaczynają przynosić wymierne korzyści i przekładają się na realne, zakontraktowane już zlecenia.

    Decyzja Microsoftu wpisuje się w szerszy trend w branży. Google również zwiększa wydatki na centra danych, aby sprostać zapotrzebowaniu na swoje usługi AI. Choć Azure wciąż goni lidera rynku, Amazon Web Services, tak agresywne inwestycje mają na celu szybkie zmniejszenie dystansu. Rynek zareagował entuzjastycznie – akcje spółki zanotowały wyraźny wzrost po ogłoszeniu wyników.

    Jednak strategia Microsoftu nie jest pozbawiona ryzyka. Kluczowym elementem pozostaje jego ścisła współpraca z OpenAI, której warunki są obecnie renegocjowane. Pojawiają się doniesienia o poszukiwaniu przez twórców ChatuGPT alternatywnych dostawców chmury, co mogłoby osłabić wyłączność Microsoftu.

    Zarząd z Redmond zdaje sobie sprawę z tego wyzwania. Firma aktywnie dywersyfikuje swoje portfolio AI, rozwijając własne modele językowe i poszerzając ofertę na platformie Azure o technologie od partnerów, takich jak Meta, xAI czy francuski Mistral. Ten ruch to próba zabezpieczenia pozycji i uniezależnienia się od jednego, kluczowego dostawcy technologii.

  • Chmura w Europie: Między innowacją a utratą suwerenności

    Chmura w Europie: Między innowacją a utratą suwerenności

    Migracja do chmury obiecywała firmom elastyczność i skalowalność, o jakich nie mogły marzyć w erze lokalnych serwerowni. Jednak za obietnicą niemal nieskończonych zasobów i zwinności kryje się rosnąca zależność od kilku amerykańskich gigantów technologicznych. Dla Europy to nie tylko wyzwanie biznesowe, ale strategiczny dylemat dotyczący suwerenności cyfrowej, danych i przyszłości jej gospodarki.

    Dekadę temu argumenty za chmurą były nie do odparcia. Utrzymywanie własnej infrastruktury IT, zwymiarowanej na szczytowe obciążenia, oznaczało, że przez większość czasu kosztowne serwery pozostawały bezczynne. Model chmurowy, oferujący zasoby na żądanie i płatność za faktyczne zużycie (pay-as-you-go), jawił się jako rewolucja w efektywności. Firmy z entuzjazmem porzucały swoje serwerownie na rzecz usług oferowanych przez Amazon Web Services (AWS), Microsoft Azure i Google Cloud.

    Jednak to, co początkowo było postrzegane jako czysta optymalizacja kosztów i technologii, z czasem ukazało swoje drugie oblicze.

    Pułapki ukryte w chmurze

    Pierwszym twardym lądowaniem dla wielu firm okazały się koszty. Choć model subskrypcyjny wydaje się przewidywalny, rzeczywiste rachunki za chmurę potrafią zaskoczyć. Jednym z kluczowych, a często niedocenianych czynników, są tzw. opłaty za wyjście (egress fees) – koszty związane z transferem danych na zewnątrz platformy dostawcy. Choć wprowadzenie danych do chmury jest zazwyczaj darmowe lub tanie, ich odzyskanie lub przeniesienie do innego usługodawcy wiąże się ze znacznymi opłatami.

    Taka struktura cenowa w subtelny sposób prowadzi do zjawiska „vendor lock-in”, czyli uzależnienia od jednego dostawcy. Im więcej danych i procesów firma przeniesie do ekosystemu AWS, Azure czy Google, tym trudniejsza i droższa staje się ewentualna zmiana platformy. W rezultacie, zamiast wolnego rynku i elastyczności, klienci często stają przed wyborem między rosnącymi kosztami a skomplikowaną i kosztowną migracją.

    Starcie regulacji: RODO kontra CLOUD Act

    Problem wykracza jednak daleko poza finanse. Prawdziwym polem bitwy staje się suwerenność danych. Zgodnie z danymi Synergy Research Group, trzej amerykańscy hiperskalerzy kontrolują obecnie około 70% europejskiego rynku usług chmurowych. Mimo że ich centra danych znajdują się na terenie UE, podlegają oni amerykańskiemu prawu, w szczególności ustawie CLOUD Act.

    Regulacja ta pozwala amerykańskim organom ścigania żądać dostępu do danych przechowywanych przez amerykańskie firmy, niezależnie od lokalizacji serwerów. Stoi to w bezpośredniej sprzeczności z unijnym ogólnym rozporządzeniem o ochronie danych (RODO), które ściśle reguluje transfer danych osobowych poza Europejski Obszar Gospodarczy.

    Dla europejskich firm, zwłaszcza z sektorów infrastruktury krytycznej, finansów czy ochrony zdrowia, tworzy to fundamentalne ryzyko prawne i biznesowe. Jak można zagwarantować poufność danych klientów i tajemnic handlowych, skoro mogą one zostać udostępnione na żądanie zagranicznych służb, bez wiedzy i kontroli europejskich sądów?

    Problem ten nabiera szczególnego znaczenia w dobie rewolucji AI. Efektywne modele sztucznej inteligencji wymagają dostępu do ogromnych, często wrażliwych, zbiorów danych firmowych. Niechęć do powierzania tych strategicznych zasobów amerykańskim korporacjom jest naturalną konsekwencją konfliktu jurysdykcji.

    W poszukiwaniu alternatywy

    Europa dostrzega problem i próbuje działać. Najbardziej znaną inicjatywą jest Gaia-X, projekt mający na celu stworzenie sfederowanej, bezpiecznej i interoperacyjnej infrastruktury danych. Celem Gaia-X nie jest budowa jednego „europejskiego hiperskalera”, który konkurowałby bezpośrednio z AWS czy Microsoftem. Chodzi raczej o stworzenie wspólnych standardów i ram, które umożliwią współpracę mniejszym, regionalnym dostawcom usług chmurowych i zapewnią przenośność danych oraz zgodność z europejskim prawem.

    Mimo tych starań, droga do cyfrowej suwerenności jest wyboista. Udział europejskich dostawców w rodzimym rynku chmury, choć stabilny, od lat utrzymuje się na poziomie zaledwie 15%. Amerykańscy giganci inwestują w Europie miliardy euro każdego kwartału, budując kolejne centra danych i poszerzając portfolio usług. Dla lokalnych graczy, takich jak niemiecki Deutsche Telekom czy francuski OVHcloud, dorównanie tej skali inwestycji jest niezwykle trudne.

    Przyszłość europejskiej chmury nie leży prawdopodobnie w całkowitym odrzuceniu globalnych dostawców, lecz w budowie zdywersyfikowanego i odpornego ekosystemu. Kluczowe będzie wspieranie regionalnych specjalistów i dostawców, rozwój otwartych standardów w ramach takich inicjatyw jak Gaia-X oraz promowanie rozwiązań multi-cloud, które pozwalają firmom korzystać z usług wielu dostawców jednocześnie, minimalizując ryzyko uzależnienia.

    Dla europejskiego sektora IT oznacza to konieczność strategicznego przemyślenia swojej drogi w chmurze. Nie chodzi już tylko o to, gdzie jest taniej i wydajniej, ale przede wszystkim o to, gdzie jest bezpieczniej i kto realnie kontroluje najcenniejszy zasób cyfrowej gospodarki – dane.

  • Koniec dominacji Google Chrome? Microsoft odpala w Edge „tajną broń” z AI

    Koniec dominacji Google Chrome? Microsoft odpala w Edge „tajną broń” z AI

    Microsoft wprowadza „tryb Copilot” do swojej przeglądarki Edge, co stanowi najbardziej agresywną jak dotąd próbę przejęcia inicjatywy w wyścigu o dominację w przeglądarkach nowej generacji, napędzanych przez sztuczną inteligencję. Nowa funkcja, dostępna w wersji zapoznawczej, ma fundamentalnie zmienić interakcję użytkownika z siecią, przekształcając pasywną przeglądarkę w proaktywnego asystenta.

    W nowym trybie tradycyjny interfejs z kartami ustępuje miejsca jednemu polu do wprowadzania komend. Użytkownik, zamiast klikać i nawigować, może za pomocą języka naturalnego (pisanego lub mówionego) zlecać zadania. Edge, dzięki dostępowi do kontekstu wszystkich otwartych kart, jest w stanie porównywać treści, podsumowywać informacje, tłumaczyć czy konwertować jednostki bez konieczności przełączania się między stronami. Microsoft podkreśla, że funkcja przewiduje intencje użytkownika i proaktywnie sugeruje kolejne kroki.

    Ten ruch to bezpośrednia odpowiedź na działania konkurencji i próba odwrócenia losów na rynku zdominowanym przez Google Chrome. Podczas gdy globalny udział Edge w rynku przeglądarek oscyluje w granicach 5%, na komputerach stacjonarnych sięga on około 13%, co daje Microsoftowi solidną bazę do walki o bardziej zaangażowanych użytkowników.

    Google nie pozostaje w tyle, wprowadzając do Chrome funkcje AI, takie jak automatyczne grupowanie kart („Tab organizer”) czy pomoc w pisaniu („Help me write”). Jednak to wyspecjalizowane start-upy, takie jak Perplexity ze swoją nową przeglądarką Comet, wyznaczają kierunek rozwoju, oferując głęboką integrację z asystentem AI, który potrafi działać w tle i wykonywać złożone zadania na wielu witrynach.

    Microsoft pozycjonuje tryb Copilot jako opcjonalne, ale potężne narzędzie dla profesjonalistów i zaawansowanych użytkowników. Firma zapewnia, że działanie AI będzie transparentne i kontrolowane przez użytkownika, z wyraźnymi powiadomieniami o dostępie do danych. Dostęp do bardziej zaawansowanych funkcji, które pozwolą Copilotowi na wykonywanie działań w imieniu użytkownika (np. rezerwacje), jest planowany w przyszłych aktualizacjach.

    Uruchomienie trybu Copilot sygnalizuje, że polem bitwy o rynek przeglądarek nie są już tylko szybkość i prostota, ale zdolność do inteligentnego przetwarzania informacji i realnego wspierania użytkownika w jego zadaniach. Dla Microsoftu jest to kluczowa próba udowodnienia, że Edge może być nie tylko bramą do sieci, ale centralnym punktem produktywności wspomaganej przez AI.

  • Szokujące wyznanie Microsoft. Jedno prawo USA sprawia, że są bezradni

    Szokujące wyznanie Microsoft. Jedno prawo USA sprawia, że są bezradni

    Kwestia suwerenności danych w Unii Europejskiej nabiera coraz większego znaczenia, a niedawne oświadczenie Microsoftu przed francuskim Senatem tylko potęguje obawy. Koncern przyznał, że nie może w pełni zagwarantować, iż dane europejskich klientów nie zostaną udostępnione amerykańskim władzom. To stwierdzenie, choć szczere, rzuca cień na koncepcję „suwerennej chmury”, promowanej przez największych dostawców z USA.

    Problem leży w konflikcie jurysdykcji. Z jednej strony, amerykańscy giganci technologiczni, tacy jak Microsoft, AWS i Google, inwestują w europejskie centra danych, obiecując, że informacje ich klientów z UE pozostaną na kontynencie. Inicjatywy takie jak „Microsoft Sovereign Cloud” mają zapewniać zgodność z lokalnymi regulacjami i chronić przed nieautoryzowanym dostępem. Z drugiej strony, te same firmy podlegają amerykańskiej ustawie CLOUD Act, która zobowiązuje je do udostępnienia danych na żądanie amerykańskich organów ścigania, niezależnie od miejsca ich przechowywania.

    Przedstawiciele Microsoftu podkreślają, że firma nie jest bezbronna i może kwestionować bezzasadne żądania. Do tej pory, jak twierdzi koncern, nie było przypadku przekazania danych z europejskich serwerów na mocy CLOUD Act. Jednak dla wielu ekspertów ds. prywatności i europejskich decydentów to za mało. Ryzyko, nawet jeśli teoretyczne, jest nie do zaakceptowania, zwłaszcza w kontekście przetwarzania danych wrażliwych przez instytucje publiczne.

    Unia Europejska, świadoma swojej zależności – około 72% rynku chmury w Europie jest w rękach trzech amerykańskich firm – poszukuje alternatyw. Inicjatywy takie jak Gaia-X mają na celu stworzenie sfederowanej, europejskiej infrastruktury danych, która zapewniłaby większą kontrolę i suwerenność. Jest to jednak proces długotrwały i kosztowny, a dorównanie skali i zaawansowaniu technologicznemu amerykańskich liderów stanowi ogromne wyzwanie.

    W rezultacie, europejskie firmy i instytucje stają przed trudnym wyborem. Mogą kontynuować współpracę z amerykańskimi dostawcami, akceptując ryzyko prawne, lub poszukiwać lokalnych alternatyw, które mogą jeszcze nie oferować tak zaawansowanych i kompleksowych usług. Przyznanie przez Microsoft, że „nie może zagwarantować” pełnej suwerenności, jest ważnym głosem w tej debacie, który z pewnością przyspieszy dążenia Europy do osiągnięcia cyfrowej niezależności.

  • Microsoft znał lukę w SharePoint od maja. Ataki ruszyły, zanim naprawa zadziałała

    Microsoft znał lukę w SharePoint od maja. Ataki ruszyły, zanim naprawa zadziałała

    Lipcowa aktualizacja bezpieczeństwa Microsoftu miała zamknąć poważną lukę w oprogramowaniu SharePoint, wykrytą na prestiżowym konkursie hakerskim Pwn2Own w Berlinie. Jednak – jak się okazało – wydana poprawka nie rozwiązała problemu w pełni. W efekcie dziesiątki organizacji na świecie zostały narażone na zdalne ataki, a fala cyberszpiegostwa zatacza coraz szersze kręgi.

    Luka o nazwie „ToolShell” została zgłoszona przez badacza z wietnamskiej grupy Viettel, co przyniosło mu 100 tys. dolarów nagrody. Od tego momentu czas zaczął działać na niekorzyść administratorów: choć Microsoft zareagował, jego pierwsza łatka została skutecznie ominięta przez cyberprzestępców w ciągu kilku dni. Nowa wersja łaty została wydana, ale według ekspertów z Sophos, zagrożenie pozostaje aktywne.

    Za pierwszą falą ataków miały stać trzy chińskie grupy APT, w tym znane z wcześniejszych kampanii cyberszpiegowskich „Fioletowy Tajfun” i „Lniany Typhoon”. Zastosowane exploity umożliwiały przejęcie kontroli nad serwerami SharePoint bez wiedzy administratorów. Ataki objęły m.in. amerykańską Krajową Administrację Bezpieczeństwa Jądrowego, co wywołało zaniepokojenie na poziomie rządowym – choć, według źródeł cytowanych przez Bloomberg, nie doszło do wycieku informacji niejawnych.

    Z danych z wyszukiwarki Shodan i Fundacji Shadowserver wynika, że podatnych na atak może być ponad 9 tys. serwerów, z czego większość znajduje się w USA i Niemczech. Potencjalne cele obejmują instytucje publiczne, banki, firmy przemysłowe, a także sektor ochrony zdrowia.

    Cała sytuacja ponownie stawia pod znakiem zapytania skuteczność procesu łat patchowania w środowiskach korporacyjnych. Microsoft zapowiada kontynuację działań naprawczych, ale incydent pokazuje, jak niewielkie okno czasowe dzieli badaczy od cyberprzestępców i jak kosztowna może być luka w oprogramowaniu powszechnie używanym przez sektor publiczny i prywatny.

  • Co cyberatak na Microsoft SharePoint oznacza dla biznesu?

    Co cyberatak na Microsoft SharePoint oznacza dla biznesu?

    Trwająca właśnie kampania cyberataków „ToolShell” skierowana przeciwko lokalnym serwerom Microsoft SharePoint nie jest jedynie kolejnym incydentem bezpieczeństwa. To sygnał ostrzegawczy dla firm i instytucji publicznych, które wciąż polegają na lokalnych środowiskach IT – często z pominięciem aktualizacji, bez ciągłego nadzoru i z ograniczonym budżetem na cyberochronę. Konsekwencje mogą być daleko poważniejsze niż tylko czasowe zakłócenia.

    Słabość w lokalnych instalacjach

    W ataku „ToolShell” cyberprzestępcy wykorzystują dwie luki – CVE-2025-53770CVE-2025-53771 – w lokalnych wersjach SharePoint Server. Oprogramowanie, które przez lata uchodziło za kluczowe ogniwo cyfrowej współpracy w firmach, okazało się łatwym celem – o ile nie zostało odpowiednio zabezpieczone. Co istotne, podatności nie dotyczą chmurowej wersji SharePoint Online, co tylko pogłębia przepaść między tymi, którzy już migrowali do środowisk SaaS, a tymi, którzy z różnych względów nadal utrzymują własną infrastrukturę.

    Microsoft wydał już awaryjne poprawki dla wersji Subscription Edition i SharePoint Server 2019. Jednak użytkownicy wersji 2016 wciąż czekają na aktualizację – a to właśnie ta edycja jest szeroko wykorzystywana w instytucjach publicznych, szkołach i firmach produkcyjnych. Problem dotyczy więc nie tylko dużych korporacji, ale też całego zaplecza administracyjnego i edukacyjnego, które nie zawsze dysponuje działem cyberbezpieczeństwa z prawdziwego zdarzenia.

    Skala problemu rośnie

    Według niezależnych badaczy ataki trwają od co najmniej 17 lipca i nie są ograniczone geograficznie. Najbardziej poszkodowane są organizacje w USA, Niemczech, Francji i Australii, ale skala działania atakujących sugeruje, że narażone są instytucje na całym świecie – w tym także w Polsce.

    Najbardziej niepokojący jest fakt, że celem ataków padły m.in. agencje rządowe i organizacje zarządzające infrastrukturą krytyczną. Eksperci ds. bezpieczeństwa zalecają, by każda organizacja z wystawionym do internetu lokalnym SharePointem przyjęła domyślne założenie: „jesteśmy już zainfekowani”.

    Tego typu ostrzeżenia nie pojawiają się często. W praktyce oznacza to konieczność nie tylko zainstalowania dostępnych łatek, ale też dokładnego przeprowadzenia analiz śledczych, odcięcia dostępu zewnętrznego, rotacji kluczy kryptograficznych i potencjalnej odbudowy środowiska. Dla wielu firm oznacza to zatrzymanie projektów, angażowanie zewnętrznych zespołów IR (incident response) i poważne koszty operacyjne.

    Dlaczego SharePoint?

    SharePoint to nie tylko repozytorium dokumentów. W wielu organizacjach integruje się z Office’em, Teamsami, OneDrive’em i Outlookiem – stanowiąc w praktyce hub całej komunikacji i współdzielenia danych. Uzyskanie nieautoryzowanego dostępu do tego systemu oznacza dla atakującego dostęp do najważniejszych informacji operacyjnych firmy.

    Dodatkowo luka CVE-2025-53770 umożliwia wykonanie zdalnego kodu bez uwierzytelnienia. W praktyce – pełne przejęcie kontroli nad serwerem, włącznie z kradzieżą danych, tworzeniem backdoorów i eksfiltracją kluczy kryptograficznych. Dla organizacji oznacza to nie tylko ryzyko wycieku danych, ale też potencjalny szantaż, infekcję ransomware i trwałe osłabienie zaufania klientów.

    Kwestia strategiczna, nie tylko techniczna

    Dla wielu przedsiębiorstw atak na SharePoint to moment zwrotny. Wieloletnie odkładanie decyzji o migracji do chmury lub modernizacji lokalnej infrastruktury właśnie pokazało swoją ciemną stronę. Firmy, które wcześniej zainwestowały w rozwiązania SaaS, były chronione przed tą kampanią niemal z definicji.

    Z drugiej strony, sektor publiczny i duże organizacje z rygorystycznymi wymogami compliance nadal często utrzymują środowiska on-premise. Problem polega jednak na tym, że wiele z tych systemów działa w tzw. trybie „ustaw i zapomnij”. Brak zasobów, przeszkolonych administratorów i procedur IR powoduje, że wykrycie ataku może nastąpić dopiero po tygodniach – o ile w ogóle zostanie odnotowane.

    Co dalej?

    Organizacje, które jeszcze tego nie zrobiły, powinny bezzwłocznie:

    • Zainstalować dostępne poprawki Microsoftu (Subscription Edition, 2019),
    • Odłączyć lokalne SharePointy od internetu do czasu wydania łatek dla wersji 2016,
    • Zweryfikować logi, uruchomić analizy forensic i sprawdzić, czy nie doszło do eksfiltracji danych,
    • Zrotować klucze kryptograficzne, tokeny i hasła dostępowe,
    • Przeprowadzić pełny audyt konfiguracji i ekspozycji środowisk lokalnych.

    W dłuższej perspektywie firmy powinny też zrewidować swoją strategię IT. Utrzymywanie lokalnych systemów bez planu aktualizacji i zasobów na ich zabezpieczanie jest dziś równie ryzykowne jak trzymanie gotówki w sejfie z wyjętym zamkiem. To nie jest już tylko temat dla działu IT – to zagadnienie strategiczne, które powinno trafić na biurko zarządu.

  • Microsoft gra o długą pozycję w AI. Otwarcie na Groka to początek końca monopolu OpenAI

    Microsoft gra o długą pozycję w AI. Otwarcie na Groka to początek końca monopolu OpenAI

    Na konferencji Build 2025 Microsoft ogłosił, że na jego platformie chmurowej Azure pojawił się nowy model językowy – Grok, opracowany przez start-up xAI założony przez Elona Muska. Choć informacja ta może wydawać się jedynie kolejnym krokiem w rozbudowie oferty AI, w rzeczywistości sygnalizuje istotną zmianę kursu. Microsoft stawia na otwartość wobec różnych dostawców sztucznej inteligencji – również tych, którzy mogą być konkurencją dla jego strategicznych partnerów, takich jak OpenAI.

    Ten ruch otwiera nowe możliwości dla klientów Azure, ale też rodzi pytania o przyszłość całego ekosystemu chmurowego Microsoftu. Czy otwartość jest atutem w czasach dominacji kilku dużych graczy AI, czy może ryzykiem strategicznym?

    Od Copilota do Groka: Microsoft szuka równowagi

    Przez ostatnie lata Microsoft budował swój wizerunek lidera w dziedzinie generatywnej AI, głównie w oparciu o bliską współpracę z OpenAI. Modele GPT-4 napędzają szereg produktów firmy, od pakietu Microsoft 365 po narzędzia dla programistów. W tym kontekście pojawienie się Groka w Azure to sygnał, że firma nie chce być zakładnikiem jednego dostawcy.

    xAI, założona przez Elona Muska, prezentuje Groka jako alternatywę dla „zbyt ułożonych” modeli innych firm. Sam model zyskał rozgłos m.in. dzięki integracji z X (dawniej Twitterem), ale jego pojawienie się w Azure to coś więcej niż tylko kolejna integracja. Microsoft sygnalizuje, że nie chce być kojarzony wyłącznie z jednym podejściem do AI – i że platforma Azure ma być przestrzenią dla wielu perspektyw.

    Różnorodność jako przewaga… i wyzwanie

    Z punktu widzenia klientów biznesowych to dobra wiadomość. Różne modele AI oferują różne funkcjonalności, a możliwość wyboru może przynieść realne korzyści – dopasowanie do branż, języka domenowego, kosztów operacyjnych czy polityki przetwarzania danych. Firmy coraz częściej chcą mieć opcję: nie tylko „GPT albo nic”, ale np. Grok do szybkiego przetwarzania mediów społecznościowych, Mistral do pracy offline i Claude do analizy dokumentów.

    Jednak otwartość nie jest darmowa. Równoległe zarządzanie wieloma modelami w jednej infrastrukturze chmurowej generuje złożoność – zwłaszcza w zakresie bezpieczeństwa, widoczności i zgodności z regulacjami. To, co dla jednych jest elastycznością, dla innych może być początkiem chaosu.

    Ekosystem pod presją

    Microsoft z jednej strony promuje Copiloty oparte na GPT, z drugiej udostępnia konkurencyjne rozwiązania – takie jak Grok. Ta dwutorowość może budzić napięcia zarówno w relacjach z partnerami, jak i z klientami końcowymi. Co stanie się z integratorami i dostawcami rozwiązań opartych wyłącznie na OpenAI? Czy będą zmuszeni do dostosowania się do „nowego pluralizmu”, czy raczej zaczną szukać bardziej zamkniętych środowisk?

    Z punktu widzenia użytkownika końcowego może to również prowadzić do fragmentacji doświadczenia. Gdy różne narzędzia działają w oparciu o różne modele AI, pojawia się pytanie o spójność wyników, bezpieczeństwo danych i kontrolę nad przepływem informacji.

    Bezpieczeństwo: nowa linia frontu

    Największe wyzwanie dotyczy jednak bezpieczeństwa. Każdy nowy model w ekosystemie Azure to nowy wektor ataku – niekoniecznie ze względu na złośliwość twórców, ale przez brak standaryzacji, niedoskonałości konfiguracji i ograniczoną przejrzystość.

    Wielomodelowe środowisko AI w chmurze oznacza, że nie zawsze wiadomo, kto przetwarza dane, w jaki sposób i w jakim celu. Granica między legalnym a ukrytym wykorzystaniem sztucznej inteligencji staje się coraz trudniejsza do uchwycenia. Firmy, które nie mają odpowiednich narzędzi do inspekcji, audytu i wykrywania anomalii, mogą nawet nie wiedzieć, że ich dane trafiły do modelu, którego nigdy nie zatwierdzały.

    To zmusza organizacje do przedefiniowania swojej strategii bezpieczeństwa. Tradycyjne podejścia – takie jak zapory ogniowe czy proste systemy DLP – nie są już wystarczające. Potrzebne są architektury zero trust, zaawansowane mechanizmy analizy behawioralnej i polityki najmniejszych uprawnień, które obejmują nie tylko ludzi, ale i maszyny.

    Czy Microsoft stanie się „marketplace’em” dla AI?

    Otwarcie na Groka może być zapowiedzią szerszego trendu – Microsoft może dążyć do uczynienia z Azure czegoś na kształt „App Store’u” dla modeli AI. Klient wybiera, który model chce użyć, a Microsoft zapewnia infrastrukturę, dostęp i integrację.

    Z jednej strony to interesujący model biznesowy – Microsoft nie musi inwestować we własne LLM-y w takim stopniu, jeśli stworzy otwartą platformę z modelami od innych firm. Z drugiej – to wymaga silnej kontroli jakości, bezpieczeństwa i zgodności, bez których taka platforma szybko zamieni się w pole minowe.

    Pytanie brzmi: czy użytkownicy zaufają platformie, która daje wolność wyboru, ale jednocześnie przerzuca część odpowiedzialności na klienta?

    Otwartość to przyszłość – ale wymaga dojrzałości

    Otwarcie Azure na alternatywne modele AI to logiczny krok w kierunku demokratyzacji sztucznej inteligencji. Microsoft chce, by jego chmura była miejscem, gdzie można korzystać z dowolnego modelu, dostosowanego do konkretnych potrzeb.

    Ale im większa różnorodność, tym większa potrzeba porządku. Firmy muszą nie tylko wybierać najlepsze modele, ale także rozumieć, jak te modele działają, jakie dane przetwarzają i jakie zagrożenia ze sobą niosą. Bez tego, otwartość zamieni się w niekontrolowaną ekspozycję.

    Microsoft gra dziś na wielu fortepianach. Pytanie, czy uda mu się utrzymać melodię – czy też zacznie rozbrzmiewać chaos.

  • Windows 11 wreszcie popularniejszy od swojego poprzednika. Pomogła presja Microsoftu

    Windows 11 wreszcie popularniejszy od swojego poprzednika. Pomogła presja Microsoftu

    Po czterech latach od premiery Windows 11 wreszcie wyprzedził swojego poprzednika pod względem udziału w rynku – wynika z danych Statcountera. W lipcu 2025 roku z „jedenastki” korzysta już 52% użytkowników Windowsa, podczas gdy udział „dziesiątki” spadł do 44,5%. Ten symboliczny moment trudno jednak uznać za dowód pełnego sukcesu – raczej świadczy o tym, jak bardzo Microsoft musiał popchnąć użytkowników do przesiadki.

    Wzrost popularności Windows 11 nie był naturalnym efektem przewagi technologicznej. Jeszcze w styczniu tego roku Windows 10 miał niemal 60% udziału w rynku. Co więc się zmieniło? Decydującym czynnikiem jest zapowiedziane na 14 października 2025 roku zakończenie wsparcia technicznego dla Windows 10. Microsoft już wcześniej stosował znane z poprzednich migracji taktyki: wyskakujące komunikaty, naciski, a nawet zapowiedzi dodatkowych opłat za aktualizacje bezpieczeństwa po zakończeniu wsparcia.

    Choć system Windows 11 teoretycznie jest bezpieczniejszy i nowocześniejszy, jego przyjęcie od początku było chłodne. Wysokie wymagania sprzętowe (TPM 2.0, nowsze procesory) skutecznie zniechęciły miliony użytkowników, zwłaszcza w sektorze SMB i w krajach o niższej sile nabywczej. Z kolei ci, którzy mogli dokonać aktualizacji, nie zawsze widzieli uzasadnione powody, by to robić.

    Microsoft może dziś świętować, ale obraz rynku jest bardziej złożony. Firma nie podaje dokładnych danych, ilu z ponad miliarda użytkowników Windowsa przeszło na Windows 11. A wiele wskazuje na to, że znaczna ich część została niejako zmuszona do zmiany.

    Czy Windows 11 zbuduje silną pozycję i stanie się równie powszechny jak jego poprzednicy? Na razie to nie jest oczywiste. Cień kończącego się Windows 10 wciąż ciąży nad „jedenastką” – nie jako konkurencja, ale jako przypomnienie, że sukces nowej wersji nie zawsze przychodzi z entuzjazmem rynku.