Tag: Microsoft

  • OpenAI tnie udział Microsoftu w przychodach. Co to oznacza dla rynku?

    OpenAI tnie udział Microsoftu w przychodach. Co to oznacza dla rynku?

    OpenAI planuje radykalnie ograniczyć udział Microsoftu w swoich przychodach – z dotychczasowych 20% do zaledwie 10% do 2030 roku. Ta zmiana, ujawniona inwestorom i opisana przez The Information, to część szerszej korekty kursu firmy. Cofnięcie planów restrukturyzacji oraz utrzymanie kontroli przez macierzystą organizację non-profit sugerują, że OpenAI chce bardziej uniezależnić się – nie tylko operacyjnie, ale i kapitałowo.

    Dotychczasowy układ z Microsoftem zapewniał OpenAI dostęp do ogromnych zasobów chmurowych Azure oraz kapitału. Teraz, gdy OpenAI staje się rentownym graczem z rosnącym portfelem klientów biznesowych, proporcje tego partnerstwa zaczynają się zmieniać. Microsoft nadal będzie miał dostęp do technologii OpenAI, ale jego wpływ finansowy i strategiczny może stopniowo maleć – zwłaszcza w świetle własnych inwestycji w infrastrukturę AI (m.in. z Oracle i SoftBankiem).

    To kolejny sygnał, że OpenAI buduje niezależność – zarówno wobec partnerów, jak i wobec swojego charyzmatycznego CEO. Dla rynku oznacza to potencjalne otwarcie na nowych graczy w obszarze partnerstw technologicznych oraz możliwość, że OpenAI zacznie dyktować warunki bardziej samodzielnie.

  • Presja Unii Europejskiej na Microsoft: firma obiecuje przestrzegać zasad, mimo zastrzeżeń

    Presja Unii Europejskiej na Microsoft: firma obiecuje przestrzegać zasad, mimo zastrzeżeń

    Microsoft, pomimo zastrzeżeń do niektórych przepisów, zadeklarował pełne podporządkowanie się unijnym regulacjom, obiecując przestrzegać europejskich zasad. To stanowisko zostało docenione przez Komisję Europejską, która wskazała na wartość transparentności i chęci dostosowania się do norm, nawet jeśli nie wszystkie z nich są w pełni akceptowane przez amerykańskiego giganta.

    Ruch ten pojawia się w kontekście ostatnich działań Microsoftu, które mają na celu uniknięcie kar antymonopolowych. Przykładem jest rozdzielenie aplikacji Microsoft Teams od pakietu Office w Europie, co stanowi odpowiedź na zarzuty konkurencyjnego Slacka i obawy Komisji o nieuczciwą koncentrację władzy na rynku narzędzi komunikacyjnych. Warto zauważyć, że zmiany te zostały już wdrożone globalnie, a Microsoft zgodził się na ich pełne wdrożenie także poza Europą.

    Ten krok firmy wpisuje się w szerszy obraz presji regulacyjnej, z jaką muszą mierzyć się globalne korporacje działające na rynku europejskim. Jednak decyzja o rozdzieleniu produktów może być także sygnałem, że Microsoft dostrzega zmiany w dynamice konkurencyjnej. Z jednej strony, jest to odpowiedź na realne zagrożenia karami, z drugiej – krok w stronę większej transparentności i być może wyważonego podejścia do współpracy z regulatorami.

    Microsoft
    źródło: Unsplash

    Choć dla Microsoftu może to oznaczać dalsze wyzwania związane z przestrzeganiem przepisów, europejska gospodarka może zyskać na większej konkurencyjności i równowadze rynkowej. Jednocześnie warto śledzić, jak podobne ruchy będą odbierane przez inne amerykańskie firmy technologiczne, które mogą stanąć przed podobnym wyborem.

  • 40% więcej mocy i pięć obietnic. Microsoft przechodzi do ofensywy w Europie

    40% więcej mocy i pięć obietnic. Microsoft przechodzi do ofensywy w Europie

    Microsoft ogłosił pięć cyfrowych zobowiązań dla Europy i zapowiada rozbudowę infrastruktury centrów danych na kontynencie o 40% do 2027 roku. Deklaracje te wpisują się w szerszą strategię zacieśniania relacji z europejskimi rządami, przy jednoczesnym umacnianiu pozycji na rynku chmurowym i AI — i są odpowiedzią na rosnącą potrzebę cyfrowej suwerenności w obliczu napięć geopolitycznych – pisze na blogu Brad Smith, Prezes Microsoft.

    Lokalne dane, lokalne zaufanie

    Najważniejszym sygnałem płynącym z wypowiedzi Brada Smitha w Brukseli jest jasna deklaracja: dane europejskich klientów będą nie tylko przechowywane, ale też przetwarzane wyłącznie w granicach UE i EFTA. To efekt finalizacji projektu EU Data Boundary — inicjatywy, która ma zneutralizować obawy o ingerencję rządów spoza Europy w dane firm i instytucji publicznych. W czasach, gdy każde pytanie o lokalizację danych ma wymiar polityczny, Microsoft stara się wystąpić w roli „zaufanego partnera cyfrowego” europejskich państw.

    Nie bez znaczenia są zapowiedzi wsparcia odporności operacyjnej: kopie zapasowe w neutralnej Szwajcarii i struktury awaryjne obsługiwane przez europejskich partnerów to sygnał, że firma stara się rozbroić kluczowy zarzut wobec Big Tech — zbyt daleko posuniętą zależność infrastrukturalną od amerykańskich firm.

    Suwerenność chmury po europejsku

    Inwestycje w infrastrukturę mają realny ciężar: wzrost mocy centrów danych o 40% do 2027 roku obejmie 16 krajów. To nie tylko ekspansja w skali, ale też jakości — projekty takie jak Bleu (Francja) czy Delos (Niemcy) to przykład podejścia hybrydowego: globalny dostawca chmury działa w modelu zgodnym z lokalnym prawem i pod nadzorem lokalnych podmiotów. Takie rozwiązania mogą stać się złotym środkiem między technologiczną wydajnością a cyfrową suwerennością, której coraz mocniej domagają się europejscy regulatorzy.

    Bezpieczeństwo jako karta przetargowa

    Microsoft wzmacnia również obecność w obszarze cyberbezpieczeństwa — zarówno symbolicznie, jak i organizacyjnie. Nowa funkcja europejskiego zastępcy CISO ma zapewnić zgodność z dyrektywą NIS 2 i przyszłą unijną ustawą o odporności cybernetycznej. Jednocześnie firma obiecuje niezależne audyty zgodności — co wprost nawiązuje do ducha europejskiego podejścia do regulacji: nie chodzi już tylko o deklaracje, ale o weryfikowalne dowody.

    AI i open source bez murów

    W warstwie gospodarczej Microsoft stara się pokazać jako siła wspierająca europejską innowacyjność. Otwartość na współpracę z firmami open source, eliminacja kosztów migracji danych między dostawcami chmury oraz udostępnienie modeli AI na Azure mają ułatwić dostęp do zaawansowanych technologii także mniejszym firmom. To również czytelny sygnał pod adresem Komisji Europejskiej: nie jesteśmy barierą dla konkurencji, wręcz przeciwnie — wspieramy ją.

    Miękka suwerenność czy twarda ekspansja?

    Microsoft umiejętnie łączy miękki język współpracy z twardą ekspansją rynkową. Zobowiązania są precyzyjnie dostrojone do europejskich lęków: o prywatność, suwerenność, cyberbezpieczeństwo. A jednocześnie firma kontynuuje budowę swojej dominacji w chmurze i AI, rozszerzając fizyczną obecność, wzmacniając wpływy regulacyjne i minimalizując bariery wejścia dla klientów.

    To podejście może stać się wzorcem dla innych graczy: ci, którzy chcą działać w Europie, muszą grać według lokalnych reguł — a najlepiej je współtworzyć. Microsoft pokazuje, że rozbudowana infrastruktura i silna narracja o cyfrowej odporności mogą być skutecznym narzędziem budowania zaufania i pozycji w regionie, który coraz śmielej stawia granice technologicznym gigantom.

  • Microsoft Copilot zwalnia. Dlaczego użytkownicy wybierają inne AI?

    Microsoft Copilot zwalnia. Dlaczego użytkownicy wybierają inne AI?

    Microsoft miał wszystkie karty w ręku, by na starcie wyścigu o dominację w generatywnej sztucznej inteligencji zostawić konkurencję daleko w tyle. Wiosną 2023 roku, dzięki strategicznemu partnerstwu z OpenAI i szybkiemu wdrożeniu Bing Chata, wydawało się, że Redmond obejmuje rolę lidera nowej ery technologii. Rok później dane o adopcji Copilota studzą ten optymizm: mimo imponujących 20 milionów aktywnych użytkowników tygodniowo, Microsoft zostaje daleko w tyle za ChatGPT czy Google Gemini.

    Wysoki próg startu, niska trajektoria wzrostu

    W prezentacji inwestorskiej CFO Microsoftu, Amy Hood, ujawniono, że liczba użytkowników Copilota od premiery praktycznie nie wzrosła. Krzywa adopcji, zamiast oczekiwanego wykładniczego wzrostu, przypomina płaską linię. To poważny sygnał ostrzegawczy, zwłaszcza że OpenAI z ChatGPT oraz Google z Gemini zgarniają od 350 do 400 milionów użytkowników miesięcznie.

    Sama liczba 20 milionów nie jest przecież niska. Problemem jest raczej relacja między oczekiwaniami a rzeczywistością oraz brak dynamiki wzrostu. Przy ogromnych inwestycjach Microsoftu – zarówno finansowych, jak i wizerunkowych – Copilot miał być nie tylko dodatkiem do Office 365, ale samodzielnym motorem napędowym nowej generacji usług AI. Tymczasem pozostaje raczej eksperymentalnym dodatkiem, który nie przebił się do masowego użytkownika.

    OpenAI – sojusznik czy konkurent?

    Jednym z mniej oczywistych, ale kluczowych wyzwań dla Microsoftu jest jego związek z OpenAI. Z jednej strony Redmond jest największym inwestorem OpenAI, z drugiej – ChatGPT rozwija się jako niezależna platforma i nie promuje bezpośrednio ekosystemu Microsoftu. W praktyce oznacza to, że nawet lojalność partnera nie chroni przed konkurencją o uwagę użytkownika.

    Warto też zauważyć, że OpenAI i Google wprowadzają na rynek bardziej konsumenckie, lekkie doświadczenia użytkownika, podczas gdy Copilot – zintegrowany z zaawansowanymi narzędziami biurowymi – jest skierowany raczej do profesjonalistów. To może tłumaczyć różnicę w dynamice adopcji, ale jednocześnie pokazuje ograniczenia strategii Microsoftu.

    Strategia „inwazyjnej integracji” – ryzyko drugiego Clippy’ego

    Microsoft, świadomy powolnej adopcji, decyduje się na agresywną strategię: Copilot ma być częścią standardowej subskrypcji Microsoft 365, a jego wprowadzenie wiąże się z podwyżką cen. Taki ruch może zwiększyć zasięg Copilota „siłą”, ale niesie też ryzyko alienacji użytkowników.

    Pierwsze reakcje pokazują, że wielu klientów nie jest zachwyconych przymusową obecnością Copilota – przypomina to niechlubne wspomnienia o Clippy’m, niechcianym asystencie z przeszłości. Microsoft musi uważać, aby nie przekroczyć cienkiej granicy między dostarczaniem wartościowych narzędzi a narzucaniem rozwiązań wbrew woli użytkowników.

    Copilot wciąż ma ogromny potencjał – zwłaszcza w kontekście integracji z produktami Office, z których korzystają setki milionów ludzi na świecie. Kluczowe jednak będzie dostosowanie strategii: bardziej naturalne wdrażanie funkcji AI w codzienną pracę użytkowników, zwiększenie użyteczności, a nie tylko „obecności” oraz wyraźniejsze zakomunikowanie korzyści płynących z wykorzystania Copilota.

    Microsoft nie może pozwolić sobie na porażkę w AI. Ale aby wygrać, potrzebuje czegoś więcej niż tylko dobrych technologii i szerokiej dystrybucji. Potrzebuje prawdziwej adopcji – a ta nie wydarza się pod przymusem.

  • AI pod presją – Microsoft i Amazon cofają się o krok

    AI pod presją – Microsoft i Amazon cofają się o krok

    W ciągu ostatnich dwóch lat inwestycje w sztuczną inteligencję (AI) osiągnęły niespotykane dotąd poziomy, napędzane przez przełomy technologiczne i rosnące zapotrzebowanie na przetwarzanie danych. Jednakże, w obliczu rosnących napięć geopolitycznych i niepewności gospodarczej, sektor AI stoi przed nowymi wyzwaniami, które mogą zahamować jego dynamiczny rozwój.​

    Korekta kursu: ostrożność gigantów technologicznych

    Microsoft i Amazon, dotychczasowi liderzy w inwestycjach w infrastrukturę AI, zaczęli wykazywać oznaki ostrożności. Microsoft wstrzymał projekty centrów danych o łącznej mocy 2 gigawatów w USA i Europie, tłumacząc to nadpodażą i niższym niż oczekiwano popytem . Amazon z kolei zawiesił negocjacje dotyczące nowych dzierżaw centrów danych, szczególnie na rynkach międzynarodowych, co może sugerować fazę „trawienia” po okresie intensywnego wzrostu.

    Pomimo tych działań, obie firmy utrzymują, że popyt na usługi AI pozostaje silny, a wstrzymania są częścią rutynowego zarządzania pojemnością, a nie oznaką strategicznej zmiany.​

    Cła i łańcuchy dostaw: geopolityczne przeszkody

    Administracja Trumpa wprowadziła 145% cła na chińskie towary, co znacząco wpływa na koszty budowy centrów danych, zwłaszcza że wiele kluczowych komponentów pochodzi z Chin . Te taryfy zakłócają łańcuchy dostaw i zwiększają koszty infrastruktury AI, zmuszając firmy do ponownego przemyślenia swoich planów inwestycyjnych.​

    Dodatkowo, napięcia w regionie Tajwanu, kluczowego dla globalnej produkcji półprzewodników, zwiększają ryzyko dla sektora AI. BCA Research szacuje 35% prawdopodobieństwo konfliktu militarnego w regionie, co mogłoby poważnie zakłócić dostawy chipów i wpłynąć na cały sektor technologiczny .​

    Rynki finansowe: sygnały ostrzegawcze

    Inwestorzy zaczynają reagować na te niepewności. Akcje Nvidii, lidera w produkcji chipów AI, spadły o około 26% w 2025 roku, a firma straciła ponad 1 bilion dolarów wartości rynkowej od stycznia. Alphabet również odnotował spadek wartości akcji o około 20%.​

    Te spadki odzwierciedlają rosnące obawy inwestorów dotyczące opłacalności inwestycji w AI w krótkim terminie oraz wpływu czynników geopolitycznych na sektor technologiczny.​

    Perspektywy: długoterminowa gra z krótkoterminowymi wyzwaniami

    Pomimo obecnych trudności, wielu analityków i inwestorów pozostaje optymistycznych co do długoterminowego potencjału AI. Uważają oni, że obecne spowolnienie to naturalna korekta po okresie intensywnego wzrostu i że sektor AI nadal ma ogromne możliwości rozwoju.​

    Jednakże, aby utrzymać ten rozwój, konieczne będzie dostosowanie strategii inwestycyjnych do nowej rzeczywistości geopolitycznej i gospodarczej. Firmy technologiczne będą musiały zrównoważyć swoje ambicje z pragmatyzmem, uwzględniając ryzyka związane z łańcuchami dostaw, kosztami i regulacjami.​

    Potrzeba strategicznej elastyczności

    Obecna sytuacja w sektorze AI przypomina, że nawet najbardziej obiecujące technologie nie są odporne na czynniki zewnętrzne. Sukces w tej dziedzinie będzie zależał od zdolności firm do szybkiego dostosowywania się do zmieniających się warunków i podejmowania świadomych decyzji inwestycyjnych.

    Dla inwestorów i liderów branży technologicznej kluczowe będzie teraz nie tylko inwestowanie w innowacje, ale także umiejętność nawigowania w złożonym krajobrazie geopolitycznym i gospodarczym.​

  • Copilot Studio – Microsoft uczy AI obsługi komputera jak człowieka

    Copilot Studio – Microsoft uczy AI obsługi komputera jak człowieka

    Microsoft znacząco przesuwa granice możliwości sztucznej inteligencji. Wprowadzenie nowej funkcji w Copilot Studio – „użycie komputera” – zwiastuje przełomowy moment w automatyzacji procesów biznesowych. Dzięki niej AI może nie tylko rozumieć, co dzieje się na ekranie, ale także klikać, pisać i nawigować po systemach tak, jak robi to człowiek.

    W praktyce oznacza to, że agent AI może obsługiwać dowolne aplikacje desktopowe i strony internetowe – nawet te, które nie mają publicznego API czy wsparcia integracyjnego. Jeśli człowiek jest w stanie wykonać operację, agent Copilot także sobie z nią poradzi. Microsoft podkreśla, że ich rozwiązanie dynamicznie reaguje na zmiany w interfejsie, takie jak przesunięcie przycisków czy zmiana układu stron, co ma kluczowe znaczenie dla stabilności automatyzacji.

    Od Copilot Actions do pełnej autonomii

    Nowa funkcja wyraźnie odcina się od wcześniejszego rozwiązania Microsoftu – Copilot Actions. Tam możliwości były ograniczone: AI mogła działać tylko w ramach określonych partnerstw i scenariuszy, takich jak rezerwacja biletów czy zakup produktów online. „Użycie komputera” w Copilot Studio idzie o krok dalej, umożliwiając pełną, kontekstową interakcję z praktycznie dowolnym środowiskiem cyfrowym.

    To subtelna, ale fundamentalna zmiana. Zamiast budować dedykowane integracje lub szukać obejść, firmy będą mogły tworzyć automatyzacje szybciej i taniej – nawet dla starszych, trudnych do modernizacji systemów jak przestarzałe ERP czy niestandardowe narzędzia backoffice.

    Nowy standard automatyzacji?

    Na rynku automatyzacji procesów biznesowych (BPA) i robotyzacji procesów (RPA) funkcje tego typu były dotąd domeną wyspecjalizowanych platform, takich jak UiPath, Automation Anywhere czy Blue Prism. Teraz Microsoft integruje podobne zdolności bezpośrednio ze swoim ekosystemem Copilot, co stanowi wyraźny sygnał: gigant z Redmond nie zamierza ograniczać Copilota wyłącznie do wspierania użytkownika. AI ma przejąć samodzielnie całe procesy.

    Pojawia się jednak pytanie o skalowalność i stabilność tego podejścia. Tradycyjne rozwiązania RPA często borykają się z problemami, gdy interfejs aplikacji ulega zmianie. Microsoft twierdzi, że ich modele AI potrafią rozpoznawać takie zmiany w locie, ale praktyka w dużych organizacjach z setkami aplikacji pokaże, na ile to założenie jest realistyczne.

    Strategiczny ruch w kierunku AI jako infrastruktury

    W dłuższej perspektywie „użycie komputera” to kolejny element większej układanki: przekształcenia Copilota z osobistego asystenta w platformę zarządzającą całą cyfrową infrastrukturą przedsiębiorstwa. Microsoft jasno sygnalizuje, że przyszłość to nie tylko generowanie tekstu czy asysta w pracy biurowej, ale także autonomiczne wykonywanie złożonych procesów operacyjnych.

    Dla firm oznacza to potencjalne korzyści: szybszą transformację cyfrową, obniżenie kosztów operacyjnych i uniezależnienie się od skomplikowanych integracji. Ale też nowe wyzwania: od zapewnienia bezpieczeństwa takich agentów, przez kontrolę jakości ich działań, po kwestie odpowiedzialności za błędy.

    Microsoft zdaje się być świadomy stawki. I choć „użycie komputera” w Copilot Studio to dopiero początek, to kierunek jest już wyraźnie nakreślony: AI ma nie tylko pomagać, ale działać tak skutecznie, jak najlepszy pracownik. Albo skuteczniej.

  • Microsoft pod presją – czy zmusza klientów do Azure?

    Microsoft pod presją – czy zmusza klientów do Azure?

    W cieniu rosnącej dominacji na rynku chmury, Microsoft musi zmierzyć się z rosnącą krytyką ze strony swoich największych konkurentów — Google i Amazona. Obie firmy zarzucają gigantowi z Redmond, że poprzez politykę licencyjną zmusza klientów do korzystania z własnej platformy Azure, utrudniając jednocześnie migrację na konkurencyjne usługi.

    Problem sięga 2019 roku, kiedy to Microsoft zmienił zasady licencjonowania oprogramowania Windows i SQL Server w środowiskach chmurowych. Klienci chcący uruchamiać te produkty na platformach takich jak AWS, Google Cloud czy Alibaba muszą dziś kupować droższe, oddzielne licencje — podczas gdy na Azure dostęp do tych samych rozwiązań jest wyraźnie tańszy. Według Google, różnica w kosztach może sięgać nawet czterokrotności ceny.

    To stawia wielu klientów w trudnej sytuacji. Firmy, które od lat budują swoje systemy w oparciu o technologie Microsoftu, często nie mają realnej alternatywy. Choć Microsoft wskazuje, że możliwe jest przejście na Linuksa, w praktyce takie migracje są kosztowne, długotrwałe i obarczone ryzykiem — szczególnie dla organizacji o dużej złożoności środowiska IT.

    Nie jest to jednak wyłącznie spór między korporacjami. Brytyjski regulator rynku, Competition and Markets Authority (CMA), bada obecnie, czy działania Microsoftu mogą stanowić nieuczciwą praktykę ograniczającą konkurencję w sektorze chmury. Wstępne ustalenia sugerują, że problem jest realny. Finalna decyzja spodziewana 4 lipca może nie tylko wpłynąć na praktyki licencyjne Microsoftu w Wielkiej Brytanii, ale również stać się punktem wyjścia do szerszych regulacji na innych rynkach.

    Co to oznacza dla rynku chmurowego?

    Jeśli regulatorzy zdecydują się na interwencję, może to wymusić na Microsoft bardziej neutralne podejście do licencjonowania oprogramowania niezależnie od wybranej platformy chmurowej. W dłuższej perspektywie mogłoby to wyrównać szanse w rywalizacji o klientów korporacyjnych i ograniczyć zjawisko vendor lock-in — czyli uzależnienia firm od jednego dostawcy.

    Z drugiej strony, nawet jeśli CMA nakaże zmiany, wdrożenie nowych zasad może potrwać lata, a w tym czasie Microsoft utrzyma przewagę, budując kolejne warstwy zależności technologicznych w środowiskach swoich klientów.

    Warto też zauważyć, że podobne zarzuty wobec dominujących firm technologicznych stają się coraz częstsze. Trend w stronę zwiększonej regulacji w branży IT — od USA po Unię Europejską — pokazuje, że era pełnej swobody dla największych dostawców oprogramowania powoli dobiega końca. Microsoft, mimo swojej potęgi, może wkrótce stanąć przed koniecznością przedefiniowania swojej strategii wzrostu w chmurze.

  • Błąd w Intune podważa kontrolę administratorów nad wdrożeniem Windows 11

    Błąd w Intune podważa kontrolę administratorów nad wdrożeniem Windows 11

    W ekosystemie zarządzania urządzeniami Microsoft Intune pojawiła się nieoczekiwana luka: od 12 kwietnia część administratorów zgłasza, że polityki blokujące instalację Windows 11 na komputerach z Windows 10 są ignorowane. Choć skala problemu nie jest do końca znana, sam fakt jego wystąpienia pokazuje szerszy problem: jak cienka bywa granica między automatyzacją a rzeczywistą kontrolą nad procesami IT w organizacjach.

    Microsoft potwierdził istnienie błędu za pośrednictwem Centrum Administratorów Microsoft 365, choć nadal nie wiadomo, co jest jego przyczyną. Jednocześnie firma podkreśla, że aktualizacja nie była intencjonalnym działaniem wymuszającym przejście na Windows 11.

    Dla wielu organizacji moment wdrożenia nowego systemu operacyjnego nie jest kwestią przypadkowej decyzji. Starsze aplikacje, procesy produkcyjne, czy potrzeba dodatkowego szkolenia użytkowników — to realne powody, dla których Windows 11 wciąż nie jest priorytetem. Administratorzy z premedytacją konfigurują polityki w Intune, aby zachować pełną kontrolę nad momentem migracji. Tym bardziej niepokojące jest, że błąd w zarządzanym narzędziu obchodzi te ustawienia.

    W praktyce oznacza to, że organizacje, które nie chcą ryzykować przedwczesnej aktualizacji, powinny tymczasowo zablokować wszystkie aktualizacje funkcji przez Intune. Jest to aktualnie jedyny skuteczny sposób na powstrzymanie nieautoryzowanych instalacji Windows 11. Urządzenia, które już zostały zaktualizowane, będą wymagały ręcznej interwencji, co dla większych środowisk IT może oznaczać znaczne nakłady pracy.

    Z perspektywy branży IT ten incydent może mieć szersze konsekwencje. Intune od lat pozycjonowany jest jako kluczowy element strategii zarządzania urządzeniami w modelu „zero trust” i jako fundament dla organizacji stawiających na automatyzację i bezpieczeństwo. Błąd, który w praktyce odbiera administratorom kontrolę, podważa zaufanie do narzędzia — nawet jeśli problem jest ograniczony i tymczasowy.

    W tle rysuje się też większe napięcie: Microsoft coraz wyraźniej dąży do przyspieszenia adopcji Windows 11, zwłaszcza że koniec wsparcia dla Windows 10 (planowany na październik 2025 r.) zbliża się nieuchronnie. Jednak balansowanie pomiędzy strategicznymi celami firmy a rzeczywistymi potrzebami klientów wymaga ogromnej precyzji. Tego rodzaju incydenty pokazują, jak łatwo można ją zachwiać.

    Na dziś organizacjom pozostaje zwiększona czujność, zabezpieczenie polityk aktualizacji i stałe monitorowanie kanałów komunikacyjnych Microsoftu. W dłuższej perspektywie warto jednak zadać sobie pytanie, jaką odporność na błędy tego typu powinny mieć procesy zarządzania w erze automatyzacji i ciągłych aktualizacji.

  • Copilot bez iluzji: Microsoft liczy udane sesje, nie kliknięcia

    Copilot bez iluzji: Microsoft liczy udane sesje, nie kliknięcia

    ​W ramach obchodów 50-lecia Microsoftu, Mustafa Suleyman, dyrektor generalny Microsoft AI, przedstawił nową metrykę oceny skuteczności asystenta AI firmy, Copilot. Tradycyjne wskaźniki, takie jak liczba aktywnych użytkowników dziennie czy tygodniowo, choć nadal monitorowane, ustępują miejsca wskaźnikowi Successful Session Rate (SSR), czyli wskaźnikowi udanych sesji. SSR mierzy odsetek interakcji użytkowników z Copilotem, które zakończyły się sukcesem, dostarczając bardziej precyzyjnej oceny jakości i użyteczności narzędzia. ​

    Suleyman podkreślił, że w przeszłości firmy polegały na pośrednich wskaźnikach jakości, takich jak czas spędzony z produktem. Obecnie, dzięki analizie anonimowych dzienników i ocenie sentymentu użytkowników, możliwe jest bezpośrednie mierzenie jakości interakcji. W ciągu ostatnich czterech miesięcy Microsoft odnotował znaczący wzrost SSR, co wskazuje na rosnącą skuteczność Copilota. ​

    Wprowadzenie SSR jako kluczowego wskaźnika efektywności Copilota odzwierciedla szerszy trend w branży IT, polegający na przechodzeniu od ilościowych miar zaangażowania do jakościowych ocen doświadczeń użytkowników. Ta zmiana może sygnalizować nową erę w projektowaniu i ocenie narzędzi AI, gdzie nacisk kładziony jest na realną wartość dostarczaną użytkownikom, a nie tylko na statystyki użytkowania.​

    Dla firm wdrażających rozwiązania AI, takich jak Copilot, kluczowe staje się nie tylko monitorowanie wskaźników adopcji, ale również głębsze zrozumienie, jak te narzędzia wpływają na efektywność i satysfakcję pracowników. Microsoft udostępnił raport adopcji Copilota w Microsoft 365, który pozwala organizacjom śledzić wykorzystanie narzędzia w różnych grupach i aplikacjach, co może wspierać procesy decyzyjne dotyczące dalszego wdrażania i optymalizacji. ​

  • Koniec wyłączności Qualcomm. Microsoft otwiera Copilot+ na Intela i AMD

    Koniec wyłączności Qualcomm. Microsoft otwiera Copilot+ na Intela i AMD

    ​Microsoft ogłosił rozszerzenie dostępności funkcji Copilot+ na laptopy wyposażone w procesory Intel Core Ultra 200V oraz AMD Ryzen AI 300, co oznacza zakończenie dotychczasowej wyłączności dla układów Qualcomm Snapdragon. To posunięcie sygnalizuje istotną zmianę w strategii Microsoftu, otwierając nowe możliwości dla użytkowników i producentów sprzętu.​

    Wśród nowych funkcji dostępnych na urządzeniach z procesorami Intel i AMD znajdują się:​

    • Live Captions: umożliwia tłumaczenie dźwięku na napisy w języku angielskim w czasie rzeczywistym, wspierając wiele języków.
    • Cocreator w Paint: narzędzie AI pozwalające na tworzenie obrazów na podstawie opisów tekstowych oraz aktualnie rysowanych elementów. ​
    • Zaawansowane funkcje edycji w aplikacji Zdjęcia: umożliwiające m.in. skalowanie zdjęć do rozdzielczości 4K za pomocą lokalnych modeli AI. ​

    Wcześniej te funkcje były dostępne wyłącznie na urządzeniach z procesorami Qualcomm Snapdragon. Rozszerzenie wsparcia na układy Intel i AMD jest odpowiedzią na rozwój technologii NPU (Neural Processing Unit) w tych procesorach, które teraz spełniają wymagania Microsoftu dotyczące wydajności na poziomie co najmniej 40 TOPS (trilionów operacji na sekundę). ​

    Wprowadzenie funkcji Copilot+ na szerszą gamę urządzeń może znacząco wpłynąć na rynek PC. Użytkownicy zyskują dostęp do zaawansowanych narzędzi AI, niezależnie od wyboru platformy sprzętowej, co zwiększa konkurencyjność i innowacyjność w sektorze. Dla producentów oznacza to konieczność dostosowania się do nowych standardów i potencjalne inwestycje w rozwój układów NPU.​

    Należy jednak zauważyć, że choć Microsoft otworzył dostęp do funkcji Copilot+ dla procesorów Intel i AMD, niektóre funkcje, takie jak Voice Access, nadal będą najpierw wdrażane na urządzeniach z układami Qualcomm, co może sugerować kontynuację pewnych preferencji w zakresie wdrażania nowych technologii. ​


    Decyzja Microsoftu o rozszerzeniu dostępności funkcji Copilot+ jest krokiem w kierunku bardziej otwartego i zróżnicowanego ekosystemu PC, co może przynieść korzyści zarówno użytkownikom, jak i producentom sprzętu.​

  • Koniec ikony Windows? BSOD w Windows 11 zmienia kolor

    Koniec ikony Windows? BSOD w Windows 11 zmienia kolor

    Microsoft ogłosił plany przeprojektowania znanego „Blue Screen of Death” (BSOD) w systemie Windows 11, rozważając zmianę jego koloru z tradycyjnego niebieskiego na czarny. Nowy design ma na celu uproszczenie interfejsu i lepsze dopasowanie do zasad projektowania Windows 11. Zmiany obejmują usunięcie smutnej buźki oraz kodu QR, zachowując jednocześnie informacje techniczne na ekranie. ​

    W testowych wersjach systemu dla uczestników programu Windows Insider, ekran BSOD będzie tymczasowo wyświetlany na zielono. Finalna decyzja dotycząca koloru nie została jeszcze oficjalnie potwierdzona przez Microsoft. ​

    Historia BSOD sięga Windows 3.0, gdzie pełnił funkcję diagnostyczną dla profesjonalistów IT. Przez lata przeszedł kilka zmian, w tym dodanie smutnej buźki w Windows 8 oraz kodu QR w Windows 10. W 2021 roku Microsoft eksperymentował z czarnym tłem BSOD w testowych wersjach Windows 11, jednak finalnie powrócono do niebieskiego koloru. ​

    Zmiana koloru BSOD może budzić mieszane uczucia wśród użytkowników i specjalistów IT, dla których niebieski ekran stał się rozpoznawalnym symbolem krytycznych błędów systemu. Z jednej strony, nowy design może lepiej komponować się z estetyką Windows 11 i sygnalizować odświeżenie podejścia do komunikacji błędów. Z drugiej strony, istnieje ryzyko, że użytkownicy przyzwyczajeni do tradycyjnego niebieskiego ekranu mogą początkowo odczuwać dezorientację.​

    W kontekście strategii Microsoftu, taka zmiana może sygnalizować dążenie do modernizacji i unifikacji interfejsu użytkownika. Jednak kluczowe będzie zapewnienie, że nowy design BSOD nie wpłynie negatywnie na zdolność użytkowników i administratorów IT do szybkiego diagnozowania i rozwiązywania problemów systemowych.​

    Warto również zauważyć, że zmiany w tak ikonicznych elementach systemu operacyjnego mogą być odbierane jako sygnał większych przemian w filozofii projektowania Microsoftu, co może mieć dalsze implikacje dla przyszłych wersji Windows i innych produktów firmy.​

     

     

  • PGE Obrót stawia na AI. Microsoft partnerem transformacji cyfrowej

    PGE Obrót stawia na AI. Microsoft partnerem transformacji cyfrowej

    Współpraca Polskiej Grupy Energetycznej z Microsoftem to kolejny sygnał, że cyfrowa transformacja w sektorze energetycznym nie jest już tylko modnym hasłem. PGE Obrót, spółka zależna Grupy PGE, ogłosiła właśnie partnerstwo z amerykańskim gigantem technologicznym, którego celem jest wdrożenie rozwiązań opartych na sztucznej inteligencji w obszarach obsługi klienta i sprzedaży.

    Na pierwszy plan wysuwają się projekty pilotażowe, które mają przetestować wykorzystanie narzędzi AI – takich jak Microsoft 365 Copilot i Azure OpenAI – w takich procesach jak rozliczenia, obsługa posprzedażowa, czy zarządzanie reklamacjami. Ich skuteczność ma przesądzić o skali wdrożeń komercyjnych w kolejnych etapach.

    „Jesteśmy przekonani, że wykorzystanie technologii AI przyniesie wymierne korzyści w naszej działalności. Sztuczna inteligencja staje się kluczowym narzędziem, który pozwala szybciej rozwijać się na dynamicznym rynku i lepiej odpowiadać na rosnące potrzeby klientów. To nie tylko usprawnienie procesów, ale także konsekwentne podnoszenie jakości obsługi – a to jeden z naszych priorytetów. Dlatego aktywnie testujemy i wdrażamy nowoczesne rozwiązania technologiczne, które wspierają te działania”mówi Sebastian Janda, Prezes Zarządu PGE Obrót.

    Z perspektywy Microsoftu to nie tylko kolejna współpraca z dużym graczem na rynku, ale też krok w kierunku głębszej obecności firmy w sektorze energetycznym – jednym z najbardziej wymagających, jeśli chodzi o bezpieczeństwo, skalę i zgodność z regulacjami.

    „Cyfrowa transformacja sektora energetycznego przyspiesza. Dlatego jesteśmy dumni z nawiązania współpracy z PGE Obrót, która pozwoli nam wspólnie eksplorować potencjał sztucznej inteligencji w sektorze energetycznym. Wierzymy, że nasze innowacyjne rozwiązania takie jak M365 Copilot oraz Azure OpenAI przyczynią się do znaczącej poprawy produktywności oraz jakości obsługi klientów PGE Obrót”mówi Tomasz Dreslerski Dyrektor Segmentu Enterprise.

    AI w energetyce: mniej papieru, więcej danych

    Energetyka – mimo swojej infrastrukturalnej złożoności – staje się coraz bardziej podatna na innowacje. Cyfrowe biura obsługi, automatyzacja rozliczeń, boty wspierające konsultantów, czy modele predykcyjne w analizie zużycia energii to tylko niektóre ze scenariuszy, w których technologie takie jak AI i uczenie maszynowe mogą wprowadzić realne usprawnienia.

    Dla PGE Obrót, która obsługuje niemal 6 milionów odbiorców, każdy procent poprawy efektywności w skali operacyjnej przekłada się na wymierne korzyści – zarówno finansowe, jak i wizerunkowe. Spółka jest jednym z filarów Grupy PGE, która odpowiada za 41% produkcji netto energii elektrycznej w Polsce i 33% sprzedaży do odbiorców końcowych.

    Z kolei dla partnerów technologicznych takich jak Microsoft, tego typu wdrożenia są nie tylko potwierdzeniem dojrzałości oferty chmurowej, ale też poligonem do testowania skalowalnych, bezpiecznych i regulacyjnie zgodnych modeli AI w wymagającym środowisku.

    Microsoft i PGE Obrót – co dalej?

    W nadchodzących miesiącach PGE Obrót i Microsoft skupią się na realizacji pilotaży. Jeśli rezultaty będą zgodne z oczekiwaniami, należy spodziewać się dalszej ekspansji rozwiązań AI w grupie – być może także poza samą spółką obrotu, w kierunku dystrybucji, OZE czy prognozowania zapotrzebowania.

  • Po fiasku z Crowdstrike, Microsoft testuje narzędzie do automatyzacji naprawy systemu Windows

    Po fiasku z Crowdstrike, Microsoft testuje narzędzie do automatyzacji naprawy systemu Windows

    Microsoft pilotuje nową funkcję, „Szybkie Odzyskiwanie Maszyny” (QRM), mającą na celu automatyzację odzyskiwania systemów Windows, które nie mogą się uruchomić. Ta inicjatywa, będąca częścią szerszego programu „Windows Resilience”, ma na celu złagodzenie skutków powszechnych awarii rozruchu, problemu, który uwypuklił znaczący incydent w zeszłym roku.

    Automatyczne odzyskiwanie w centrum uwagi

    QRM działa poprzez monitorowanie procesu uruchamiania systemu Windows i wykrywanie krytycznych błędów, które uniemożliwiają pomyślny rozruch. Gdy wystąpi taki błąd, system automatycznie uruchamia się ponownie w środowisku odzyskiwania systemu Windows. Tradycyjnie to środowisko często wymaga ręcznej interwencji, co jest uciążliwym procesem, szczególnie w przypadku awarii na dużą skalę.

    Innowacja Microsoftu polega na automatyzacji procesu odzyskiwania w tym środowisku. Dotknięte systemy będą teraz próbowały nawiązać połączenie z serwerami Microsoftu za pośrednictwem Wi-Fi lub Ethernet. To połączenie umożliwia Microsoftowi analizę danych o awariach i identyfikację powtarzających się wzorców. Jeśli zostanie wykryta wspólna przyczyna, Microsoft może opracować i wdrożyć pakiet odzyskiwania. Dotknięte systemy mogą następnie pobrać ten pakiet bezpośrednio ze środowiska odzyskiwania i spróbować samodzielnie się naprawić.

    Reakcja na incydent z Crowdstrike

    Wydaje się, że rozwój QRM jest bezpośrednią odpowiedzią na wyzwania, jakie stwarzają incydenty, takie jak ten, który miał miejsce 19 lipca ubiegłego roku. Wówczas wadliwa aktualizacja oprogramowania z Sensor Tower firmy Crowdstrike uniemożliwiła rozruch około 8,5 milionom komputerów z systemem Windows. Brak zautomatyzowanego mechanizmu odzyskiwania wymusił ręczną interwencję w celu przywrócenia dotkniętych systemów.

    Dzięki QRM Microsoft przewiduje bardziej usprawnioną reakcję na podobne zdarzenia. W scenariuszu z Crowdstrike, dotknięte maszyny automatycznie skontaktowałyby się z Microsoftem, umożliwiając firmie szybkie opracowanie i wdrożenie pakietu odzyskiwania, który wycofałby problematyczną aktualizację. To znacznie skróciłoby czas przestoju i obciążenie administratorów IT.

    Fazowe wdrażanie i kontrola

    Microsoft obecnie testuje QRM z Windows Insiders w kanale Beta Windows 11 24H2. Firma planuje ostatecznie domyślnie włączyć tę funkcję dla użytkowników Windows 11 Home. Co ważne, Microsoft zdaje sobie sprawę z potrzeby kontroli w środowiskach korporacyjnych. Klienci Windows 11 Pro i Enterprise zachowają możliwość włączenia lub wyłączenia QRM, zarówno na poziomie lokalnego administratora, jak i na poziomie organizacji. Ta elastyczność rozwiązuje obawy dotyczące prywatności danych i potrzeby, aby działy IT utrzymywały kontrolę nad procesami odzyskiwania systemu.

    Implikacje i rozważania

    QRM stanowi znaczący krok w kierunku poprawy odporności ekosystemu Windows. Automatyzując proces odzyskiwania, Microsoft ma na celu skrócenie czasu przestoju i zminimalizowanie skutków powszechnych awarii rozruchu.

  • Bańka AI pęka? Microsoft tnie gigawatowe projekty centrów danych

    Bańka AI pęka? Microsoft tnie gigawatowe projekty centrów danych

    Microsoft zrewidował swoje plany dotyczące rozbudowy infrastruktury centrów danych, rezygnując z projektów o łącznej mocy 2 gigawatów w Stanach Zjednoczonych i Europie. Decyzja ta, ujawniona przez analityków TD Cowen, wynika z oceny nadpodaży mocy obliczeniowych w stosunku do aktualnych prognoz popytu.

    Kluczowym czynnikiem wpływającym na ograniczenie przez Microsoft leasingu nowych mocy produkcyjnych była decyzja o rezygnacji z obsługi dodatkowych obciążeń związanych ze szkoleniem modeli AI dla OpenAI, producenta ChatGPT. Ta zmiana strategii odzwierciedla ostrożniejsze podejście do inwestycji w infrastrukturę, w kontekście ewoluującego krajobrazu sztucznej inteligencji.

    W tle tych wydarzeń narasta sceptycyzm inwestorów co do skali wydatków na AI ponoszonych przez amerykańskie firmy technologiczne. Obawy te wynikają z powolnego tempa monetyzacji technologii AI oraz pojawienia się chińskiego startupu DeepSeek, który zaprezentował konkurencyjne rozwiązania AI przy znacznie niższych kosztach niż zachodni rywale. Rozwój DeepSeek podważa dotychczasowe założenia o wysokich barierach wejścia na rynek AI i zmusza gigantów technologicznych do ponownej oceny strategii inwestycyjnych.

    W wyniku wycofania się Microsoftu, inne podmioty dostrzegają szansę na wypełnienie luki na rynku centrów danych. Analizy TD Cowen wskazują, że Alphabet (Google) zwiększa swoje zaangażowanie w rozbudowę mocy obliczeniowych na rynkach międzynarodowych, a Meta Platforms robi to samo w Stanach Zjednoczonych. Te ruchy sugerują przetasowania w krajobrazie infrastruktury chmurowej, gdzie konkurenci Microsoftu dążą do przejęcia udziału w rynku.

    Microsoft, mimo redukcji niektórych projektów, podkreśla, że nadal zamierza dynamicznie rozwijać swoją infrastrukturę we wszystkich regionach. Firma potwierdza, że plan wydania 80 miliardów dolarów na infrastrukturę AI w bieżącym roku fiskalnym pozostaje aktualny. To stanowisko ma na celu uspokojenie inwestorów i podkreślenie długoterminowego zaangażowania Microsoftu w rozwój sztucznej inteligencji.

    Zarówno Microsoft, jak i Meta, bronią swoich znaczących wydatków na AI, argumentując, że są one kluczowe dla utrzymania konkurencyjności w tej dynamicznie rozwijającej się dziedzinie. Ujawnienie technologii DeepSeek w styczniu dodatkowo zintensyfikowało dyskusję na temat efektywności i opłacalności inwestycji w AI. Alphabet zadeklarował, że w tym roku przeznaczy na rozwój AI 75 miliardów dolarów, co stanowi wzrost o 29% w stosunku do oczekiwań Wall Street, natomiast Meta zapowiedziała inwestycje rzędu 65 miliardów dolarów.

  • Dlaczego każdy gigant IT chce mieć swoją AI

    Dlaczego każdy gigant IT chce mieć swoją AI

    Sztuczna inteligencja (AI) przestała być futurystycznym konceptem rodem z filmów science fiction i stała się nieodłącznym elementem strategii największych firm technologicznych. Google, Microsoft, Apple, Amazon, Meta – każdy z tych gigantów IT rozwija własne rozwiązania AI, integrując je z produktami i usługami, które codziennie trafiają do miliardów użytkowników.

    Dlaczego jednak każda duża firma technologiczna chce mieć swoje AI, zamiast polegać na rozwiązaniach dostępnych na rynku? Czy chodzi wyłącznie o przewagę konkurencyjną, czy może o coś więcej? Rozwój własnych modeli AI oznacza nie tylko możliwość dostosowania technologii do specyficznych potrzeb, ale także kontrolę nad danymi, bezpieczeństwo i potencjalnie ogromne zyski. AI nie jest już tylko narzędziem wspierającym rozwój – to kluczowy filar przyszłości technologii.

    Motywacje gigantów IT do rozwijania własnych rozwiązań AI

    Każdy z gigantów IT inwestuje w rozwój własnej sztucznej inteligencji, ponieważ stawką jest nie tylko przewaga konkurencyjna, ale także kontrola nad danymi, koszty operacyjne i przyszłość technologii. AI przestała być jedynie narzędziem wspomagającym – stała się fundamentem innowacji i kluczowym elementem ekosystemów technologicznych. Firmy, które posiadają własne modele AI, mogą w pełni dostosować je do swoich produktów i usług, integrując je w sposób, który daje im unikalne możliwości. Google rozwija Gemini, Microsoft wspiera OpenAI i wdraża AI w swoje oprogramowanie biurowe, Apple implementuje sztuczną inteligencję bezpośrednio w swoich urządzeniach,Amazon wprowadza inteligentne rozwiązania zarówno w e-commerce, jak i w chmurze AWS. 

    Posiadanie własnego modelu AI oznacza również optymalizację operacji i redukcję kosztów. Sztuczna inteligencja może automatyzować procesy biznesowe, usprawniać obsługę klienta, analizować ogromne ilości danych w czasie rzeczywistym i przewidywać trendy rynkowe. Firmy technologiczne, które kontrolują swoje rozwiązania AI, nie tylko zwiększają efektywność wewnętrzną, ale także uniezależniają się od dostawców zewnętrznych, co daje im większą elastyczność i bezpieczeństwo.

    AI to także narzędzie personalizacji doświadczeń użytkowników. Współczesne technologie nie mogą być jedynie funkcjonalne – muszą rozumieć potrzeby użytkownika i dostosowywać się do jego preferencji. Wyszukiwarki internetowe, media społecznościowe, aplikacje zakupowe czy cyfrowi asystenci – wszystkie te narzędzia korzystają z AI do analizy zachowań użytkowników i dostarczania im odpowiednio dopasowanych treści i usług. Firmy inwestujące w własne modele sztucznej inteligencji mogą bardziej precyzyjnie kontrolować ten proces i utrzymywać wysoki poziom zaangażowania klientów.

    Nie mniej istotnym powodem budowania własnych rozwiązań AI jest kwestia prywatności i bezpieczeństwa danych. Dane są dziś jednym z najcenniejszych zasobów, a ich analiza stanowi podstawę nowoczesnego biznesu. Firmy, które rozwijają własne modele sztucznej inteligencji, mogą lepiej zabezpieczać informacje użytkowników i unikać ryzyk związanych z udostępnianiem ich podmiotom trzecim. Apple, które od lat podkreśla swoje podejście do ochrony prywatności, dąży do tego, by coraz więcej procesów AI odbywało się lokalnie na urządzeniach użytkowników, bez konieczności przesyłania danych do chmury.

    Sztuczna inteligencja to nie chwilowy trend, lecz fundament przyszłości technologii. Inwestowanie w AI to strategia długoterminowa, która pozwala firmom technologicznym budować przewagę na lata. Przyszłe rozwiązania, od autonomicznych systemów po inteligentne interfejsy, będą bazować na modelach sztucznej inteligencji rozwijanych już dziś. Każdy gigant IT rozumie, że kontrola nad AI to kontrola nad przyszłością, dlatego wyścig o najbardziej zaawansowane technologie w tej dziedzinie dopiero się rozpoczyna.

    Wyzwania związane z rozwojem własnych rozwiązań AI

    Choć rozwijanie własnej sztucznej inteligencji daje firmom technologicznym ogromne możliwości, jest to jednocześnie proces pełen wyzwań. AI nie jest technologią, którą można wdrożyć z dnia na dzień – wymaga dostępu do ogromnych ilości danych, potężnych zasobów obliczeniowych oraz zespołów wykwalifikowanych specjalistów. Nawet dla gigantów IT, którzy dysponują niemal nieograniczonymi budżetami, stworzenie efektywnego i bezpiecznego modelu AI to skomplikowane przedsięwzięcie.

    Jednym z największych problemów jest dostęp do danych. Sztuczna inteligencja uczy się na podstawie olbrzymich zbiorów informacji, które muszą być aktualne, różnorodne i odpowiednio skategoryzowane. W dobie rosnących regulacji dotyczących ochrony prywatności, takich jak RODO w Europie czy podobne przepisy w innych częściach świata, firmy muszą balansować pomiędzy potrzebą trenowania modeli AI a ograniczeniami dotyczącymi zbierania i wykorzystywania danych użytkowników. To szczególnie trudne w przypadku firm, które nie posiadają własnych ekosystemów danych, takich jak Google czy Facebook, gdzie miliardy użytkowników codziennie generują wartościowe informacje.

    Drugim wyzwaniem są zasoby technologiczne i koszty. Trening zaawansowanych modeli AI wymaga dostępu do potężnych centrów danych i kosztownych procesorów GPU. Firmy takie jak Microsoft czy Amazon mogą sobie na to pozwolić dzięki swoim chmurowym rozwiązaniom, ale nawet one muszą liczyć się z ogromnymi wydatkami. Warto pamiętać, że rozwój AI nie kończy się na jednorazowym trenowaniu modelu – jego ciągłe aktualizowanie, optymalizacja i dostosowywanie do zmieniających się warunków rynkowych to proces wymagający stałych nakładów finansowych.

    Kolejnym istotnym problemem jest etyka i odpowiedzialność. Algorytmy AI nie są wolne od błędów i mogą wzmacniać uprzedzenia, które pojawiają się w danych, na których były trenowane. Modele językowe mogą generować nieprawdziwe lub stronnicze odpowiedzi, a systemy decyzyjne wykorzystywane np. w rekrutacji czy analizie kredytowej mogą faworyzować jedne grupy społeczne kosztem innych. Firmy rozwijające własne AI muszą nie tylko zadbać o sprawiedliwość algorytmów, ale także ponosić odpowiedzialność za ich skutki – zarówno prawne, jak i wizerunkowe.

    Nie można też zapominać o zagrożeniu, jakie AI może stanowić dla samej branży technologicznej. Automatyzacja wielu procesów prowadzi do zmian na rynku pracy – niektóre stanowiska stają się zbędne, inne wymagają zupełnie nowych kompetencji. W miarę jak AI przejmuje coraz więcej zadań, firmy muszą zmierzyć się z pytaniem, jak pogodzić innowacje technologiczne z odpowiedzialnością społeczną.

    Wszystkie te wyzwania sprawiają, że rozwój własnych modeli AI to nie tylko kwestia technologii, ale także strategii, etyki i długoterminowego planowania. Nawet największe firmy nie mogą pozwolić sobie na błędy w tej dziedzinie, bo w świecie sztucznej inteligencji to nie tylko innowacja decyduje o sukcesie, ale także sposób, w jaki jest wdrażana i wykorzystywana.

    Kontrola nad danymi i prywatność

    Dane są paliwem, które napędza sztuczną inteligencję. To na ich podstawie modele AI uczą się rozpoznawać wzorce, podejmować decyzje i dostarczać coraz bardziej precyzyjne rekomendacje. Im więcej i lepszej jakości informacji posiada firma, tym skuteczniejsze może stworzyć algorytmy. Nic więc dziwnego, że kontrola nad danymi stała się jednym z kluczowych powodów, dla których giganci IT rozwijają własne rozwiązania AI.

    Firmy technologiczne, które opierają swoje produkty na AI, nie mogą pozwolić sobie na zależność od zewnętrznych dostawców danych. Po pierwsze, wiąże się to z ograniczeniami dotyczącymi dostępu i elastyczności – firmy korzystające z cudzych rozwiązań muszą liczyć się z tym, że nie zawsze będą mogły wykorzystać AI w sposób, jaki by chciały. Po drugie, w grę wchodzi bezpieczeństwo i prywatność użytkowników. Jeśli dane są przechowywane i przetwarzane przez podmiot trzeci, pojawia się ryzyko naruszenia ochrony prywatności oraz problem zgodności z regulacjami prawnymi, takimi jak RODO w Europie czy CCPA w Kalifornii.

    Dlatego giganci IT dążą do tego, by dane, na których trenują swoje AI, pozostawały w ich ekosystemach. Apple konsekwentnie rozwija technologie przetwarzania lokalnego (on-device AI), co pozwala na analizę danych bez konieczności ich wysyłania na zewnętrzne serwery. Google i Meta, które opierają swoje modele AI na ogromnych zbiorach informacji użytkowników, starają się balansować między wykorzystywaniem tych danych a rosnącymi wymaganiami regulacyjnymi. Microsoft, integrując AI w produkty biznesowe, stawia na przejrzystość i kontrolę danych w ramach chmury Azure, gdzie firmy mogą samodzielnie zarządzać swoją infrastrukturą.

    Kontrola nad danymi to także kluczowy element strategii związanej z monetyzacją AI. Firmy, które posiadają własne modele i infrastrukturę do ich trenowania, mogą nie tylko oferować swoje AI jako usługę (np. API do generowania treści czy analizy), ale także lepiej dostosowywać je do potrzeb biznesowych. Amazon wykorzystuje AI w e-commerce i AWS, zapewniając firmom dostęp do potężnych narzędzi analitycznych bez konieczności dzielenia się wrażliwymi danymi z konkurencją.

    Jednocześnie rośnie presja społeczna i prawna dotycząca odpowiedzialnego wykorzystania danych. Użytkownicy coraz bardziej świadomie podchodzą do kwestii prywatności, a firmy muszą dostosowywać swoje strategie do nowych regulacji. Giganci IT balansują więc między chęcią maksymalnego wykorzystania AI a koniecznością budowania zaufania i przestrzegania zasad etycznych. W przyszłości to właśnie transparentność i odpowiednie zarządzanie danymi mogą stać się kluczowymi czynnikami decydującymi o sukcesie modeli AI na rynku.

    Przyszłość AI w strategiach gigantów IT

    Giganci IT nie tylko intensywnie inwestują w badania i rozwój własnych modeli AI, ale także rywalizują o to, kto pierwszy stworzy rozwiązania, które zmienią sposób, w jaki pracujemy, komunikujemy się i korzystamy z technologii.

    Jednym z kluczowych kierunków rozwoju jest integracja AI na jeszcze głębszym poziomie w codzienne życie użytkowników. Apple rozwija technologie AI działające lokalnie na urządzeniach, dzięki czemu Siri i inne funkcje asystenta głosowego mogą stać się bardziej użyteczne i prywatne. Google stawia na sztuczną inteligencję jako naturalne rozszerzenie wyszukiwarki i ekosystemu Androida, dążąc do stworzenia bardziej inteligentnych i intuicyjnych narzędzi. Microsoft konsekwentnie rozwija Copilot – swojego asystenta AI dla środowiska pracy, który ma na celu zwiększenie produktywności użytkowników pakietu Office i systemu Windows.

    AI będzie też coraz mocniej wpływać na rynek usług chmurowych. Amazon, Google i Microsoft konkurują nie tylko na polu AI, ale także w dostarczaniu infrastruktury chmurowej, która umożliwia firmom trenowanie i wdrażanie własnych modeli sztucznej inteligencji. To właśnie rozwój AI-as-a-Service (AIaaS) może stać się jednym z najbardziej dochodowych segmentów rynku – firmy będą mogły korzystać z gotowych narzędzi AI bez konieczności inwestowania w kosztowną infrastrukturę.

    Kolejną istotną kwestią jest rosnąca rola regulacji i etyki w AI. Wraz z dynamicznym rozwojem tej technologii pojawiają się coraz większe obawy dotyczące jej wpływu na prywatność, bezpieczeństwo i rynek pracy. Giganci IT będą musieli dostosować swoje strategie do zmieniających się przepisów oraz rosnących oczekiwań społecznych. Transparentność działania modeli AI, eliminowanie uprzedzeń algorytmicznych i odpowiedzialność za skutki ich stosowania staną się kluczowymi wyzwaniami, które zadecydują o tym, kto utrzyma przewagę na rynku.

    W najbliższych latach sztuczna inteligencja będzie coraz bardziej wszechobecna – zarówno w naszych codziennych urządzeniach, jak i w zaawansowanych systemach analitycznych wykorzystywanych przez firmy. Niezależnie od tego, czy AI stanie się cichym asystentem wspierającym użytkowników, czy przełomową technologią zmieniającą całe sektory gospodarki, jedno jest pewne – giganci IT zrobią wszystko, by to ich rozwiązania wyznaczały kierunek przyszłości.

  • Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja jeszcze kilka lat temu była futurystyczną wizją, a dziś stanowi kluczowy element cyfrowej transformacji. Jej rozwój i wdrożenia są w dużej mierze kształtowane przez największe firmy technologiczne – Google, Microsoft, Amazon, Meta czy Apple. To właśnie te korporacje posiadają zarówno kapitał, jak i infrastrukturę, aby trenować i rozwijać zaawansowane modele AI.

    W ostatnich latach wyścig o dominację w dziedzinie AI nabrał tempa. Microsoft strategicznie inwestuje w OpenAI, a ostatnio inwestuje także we własny model, Google rozwija własne modele w ramach DeepMindGemini, a Amazon wzmacnia swoje usługi chmurowe o nowe narzędzia oparte na sztucznej inteligencji, w ostatnim czasie również dołączając do bezpośredniego wyścigu AI dzięki ogłoszeniu Amazon Nova. Z jednej strony oznacza to dynamiczny postęp technologiczny, z drugiej – rodzi pytania o monopolizację tej kluczowej technologii. Czy mniejsze firmy i startupy mają jeszcze szansę na konkurowanie w tej dziedzinie? Jakie są konsekwencje takiego układu sił dla innowacji i dostępności AI?

    Status quo: kto rządzi rynkiem AI?

    Obecny krajobraz sztucznej inteligencji jest zdominowany przez kilka gigantycznych firm technologicznych, które nie tylko posiadają największe zasoby obliczeniowe, ale także inwestują miliardy dolarów w rozwój AI. Google, Microsoft, Amazon, Meta, Apple oraz Nvidia to główni gracze, którzy kontrolują zarówno rozwój modeli AI, jak i infrastrukturę potrzebną do ich działania.

    Najwięksi gracze i ich strategie

    • Microsoft & OpenAI – Microsoft zainwestował już ponad 13 miliardów dolarów w OpenAI i mocno integruje modele AI, takie jak GPT-4, z własnymi produktami (np. Copilot w systemie Windows i pakiecie Office). Ostatnie nieoficjalne doniesienia sugerują, że gigant z Redmond nie poprzestaje na zewnętrzych modelach AI i inwestuje we własne.
    • Google & DeepMind – Google od lat rozwija własne modele AI, a jego jednostka badawcza DeepMind stoi za takimi osiągnięciami jak AlphaFold czy nowa seria modeli Gemini. Firma zintegrowała AI w swoich usługach, od wyszukiwarki po chmurę.
    • Amazon – Jako lider w sektorze chmurowym, Amazon rozwija AI w ramach AWS, oferując własne modele AI, takie jak Bedrock oraz narzędzia do budowy chatbotów i systemów predykcyjnych. Poza tym, w połowie lutego Amazon ogłosił własne modele AI – Amazon Nova.
    • Meta (Facebook) – Meta skupia się na AI generatywnej oraz otwartoźródłowych modelach, jak Llama 2, które mają być alternatywą dla zamkniętych systemów.
    • Apple – Choć Apple wydaje się mniej aktywne w publicznych dyskusjach o AI, to pracuje nad integracją tej technologii w ekosystemie iPhone’ów i Maców, inwestując w rozwój AI-on-device.
    • Nvidia – Nie rozwija własnych modeli, ale ma największy udział w rynku sprzętu dla AI. Jej karty graficzne (GPU) są podstawą dla treningu i działania najnowocześniejszych modeli AI.

    Dominacja Big Tech w AI wynika nie tylko z doświadczenia i zespołów badawczych, ale przede wszystkim z dostępu do gigantycznych zasobów obliczeniowych. Trening zaawansowanego modelu językowego, takiego jak GPT-4 czy Gemini, wymaga tysięcy układów GPU, co sprawia, że tylko najwięksi gracze mogą sobie na to pozwolić.

    Ponadto, wiele startupów AI jest uzależnionych od infrastruktury dostarczanej przez te firmy – od chmury (AWS, Google Cloud, Azure), przez API do modeli AI, aż po narzędzia programistyczne. 

    AI jako nowy monopol – czy grozi nam dominacja kilku firm?

    Coraz częściej pojawiają się obawy, że zamiast szeroko dostępnej technologii, AI staje się domeną kilku gigantycznych firm. Microsoft, Google, Amazon, Meta i Nvidia inwestują miliardy dolarów w rozwój AI i kontrolują kluczowe zasoby: modele, dane i infrastrukturę obliczeniową. Czy grozi nam sytuacja, w której dostęp do najbardziej zaawansowanych systemów AI będzie ściśle kontrolowany przez nielicznych?

    Jednym z największych wyzwań jest to, że startupy i mniejsze firmy są w dużej mierze zależne od infrastruktury dostarczanej przez gigantów. Budowa własnego modelu AI od podstaw wymaga nie tylko ogromnej mocy obliczeniowej, ale także dostępu do wysokiej jakości danych, co często jest poza zasięgiem mniejszych graczy. W rezultacie wiele firm korzysta z gotowych modeli dostarczanych przez OpenAI (GPT-4), Google (Gemini) czy Meta (Llama), co jeszcze bardziej umacnia pozycję tych gigantów.

    Jeśli rozwój sztucznej inteligencji zostanie scentralizowany w rękach kilku firm, mogą pojawić się poważne konsekwencje:

    • Ograniczona konkurencja – mniejsze firmy będą miały utrudniony dostęp do zaawansowanych technologii.
    • Wysokie koszty dostępu – AI może stać się usługą premium, dostępną tylko dla tych, którzy zapłacą.
    • Brak przejrzystości – zamknięte modele AI nie ujawniają, jak są trenowane, co budzi pytania o ich obiektywność i etykę.
    • Potencjalna cenzura i kontrola narracji – AI wykorzystywana w wyszukiwarkach, mediach społecznościowych i generowaniu treści może wpływać na sposób, w jaki konsumujemy informacje.

    Przykładem globalnych napięć jest DeepSeek, chiński projekt AI, który rozwija modele językowe jako alternatywę dla amerykańskich gigantów. DeepSeek AI to open-source’owy model LLM (Large Language Model), który ma uniezależnić Chiny od OpenAI i Google. Rząd w Pekinie od lat inwestuje w sztuczną inteligencję, widząc ją jako kluczowy element przyszłej konkurencyjności. To oznacza, że walka o dominację nad AI nie ogranicza się tylko do korporacji – staje się częścią globalnej rywalizacji gospodarczej.

    Rośnie ruch na rzecz otwartej i zdecentralizowanej sztucznej inteligencji. Inicjatywy takie jak Hugging Face, Stability AI czy Mistral AI rozwijają open-source’owe modele, które mogą być używane bez ograniczeń narzuconych przez Big Tech. Choć modele open-source mają wiele zalet (dostępność, przejrzystość), ich rozwój wciąż wymaga ogromnych zasobów. Kluczowym pytaniem pozostaje, czy rządy i firmy będą wspierać otwarte AI, czy pozwolą na dalszą koncentrację technologii w rękach kilku korporacji.

    Przyszłość AI jeszcze nie jest przesądzona. To, czy stanie się otwartym narzędziem dla wszystkich, czy zamkniętym systemem kontrolowanym przez kilka firm, zależy od decyzji podejmowanych dziś.

    Open-source kontra zamknięte modele – gdzie leży przyszłość?

    Podział na otwarte i zamknięte modele AI nie jest tylko kwestią techniczną – to fundamentalna różnica w podejściu do przyszłości sztucznej inteligencji. Z jednej strony mamy firmy, które traktują AI jako zasób strategiczny, kontrolowany i monetyzowany, z drugiej rosnący ruch open-source, stawiający na dostępność i transparentność. Ta rywalizacja będzie miała kluczowy wpływ na to, kto w przyszłości będzie mógł korzystać z zaawansowanej sztucznej inteligencji i na jakich warunkach.

    Open-source AI zdobywa coraz większą popularność, bo oferuje coś, czego brakuje zamkniętym modelom – elastyczność i niezależność. Deweloperzy mogą dostosowywać modele do własnych potrzeb, bez ograniczeń wynikających z regulaminów OpenAI, Google czy Anthropic. To szczególnie ważne dla sektora naukowego, startupów oraz firm poszukujących tańszych alternatyw.

    Jednak wzrost popularności otwartego AI może zagrozić modelowi biznesowemu Big Tech. Jeśli organizacje będą mogły samodzielnie uruchamiać własne modele, bez potrzeby płacenia za API OpenAI czy Google Cloud, oznacza to mniejsze zyski dla tych firm. W odpowiedzi korporacje próbują balansować między otwartością a kontrolą – Meta udostępniła Llama 2, ale wciąż wymaga zgody na komercyjne użycie, a Google eksperymentuje z częściowo otwartymi modelami.

    Geopolityczny wymiar otwartego AI

    Sztuczna inteligencja staje się też elementem globalnej rywalizacji. Chiny rozwijają alternatywne modele open-source, jak DeepSeek AI, które mają uniezależnić kraj od amerykańskich technologii. DeepSeek jest częścią szerszej strategii Pekinu, zakładającej rozwój suwerennego ekosystemu AI – odpornego na sankcje i kontrolę Zachodu.

    To pokazuje, że otwartość AI to nie tylko kwestia wolności technologicznej, ale też geopolityki i bezpieczeństwa narodowego. Europa również szuka niezależności, wspierając inicjatywy takie jak Mistral AI, ale wciąż jest w tyle za USA i Chinami pod względem inwestycji.

    Nie ma jednoznacznej odpowiedzi, która ścieżka zwycięży. AI rozwija się dynamicznie, na wielu płaszczyznach, pod wpływem różnych czynników, przez co przewidzenie dalszego rozwoju nie jest łatwe. Pewnym jest natomiast, że ktokolwiek może, stara się być jak najbliżej AI, inwestować w nią, rozwijać, ingerować w rozwój, ponieważ w tym momencie jest ona czarnym koniem rozwoju technologicznego. W zależności od ruchów, jakie podejmą firmy tworzące AI, a także od roszad geopolitycznych oraz poziomu regulacji, jakie będą nakładane na AI, możliwe wydają się być trzy scenariusze: wzmocnienie Big Tech – jeśli zamknięte modele okażą się bardziej zaawansowane i kosztowne w utrzymaniu niż ich otwarte odpowiedniki; ekspansja open-source – jeśli rządy i instytucje akademickie zaczną wspierać otwarte AI jako przeciwwagę dla monopolu korporacji lub model hybrydowy – gdzie otwarte modele będą szeroko stosowane, ale najpotężniejsze systemy pozostaną zamknięte.

    Regulacje i polityka – czy rządy mogą ograniczyć wpływ Big Tech na AI?

    Rządy starają się regulować rozwój sztucznej inteligencji, aby ograniczyć monopol Big Tech i zwiększyć kontrolę nad jej wpływem na społeczeństwo. Unia Europejska przyjęła AI Act, który klasyfikuje modele AI według ryzyka i nakłada na firmy obowiązki dotyczące przejrzystości. USA podchodzą ostrożniej, prowadząc rozmowy z technologicznymi gigantami i koncentrując się na rywalizacji z Chinami. Chiny natomiast już teraz wymagają certyfikacji modeli AI i rozwijają własne alternatywy, takie jak DeepSeek AI, by uniezależnić się od amerykańskich firm.

    Choć regulacje mogą zwiększyć nadzór nad AI, mogą też nieoczekiwanie umocnić dominację Big Tech, bo to właśnie największe firmy mają środki na dostosowanie się do nowych wymogów. Aby rzeczywiście zwiększyć konkurencję, konieczne jest wspieranie alternatywnych rozwiązań, takich jak modele open-source i inicjatywy krajowe. Polska, choć nie jest globalnym liderem AI, również rozwija własne technologie, czego przykładem jest PLLuM (Polish Large Language Model), czyli pierwszy duży model językowy stworzony z myślą o języku polskim.

    Przyszłość regulacji AI będzie balansowaniem między kontrolą a innowacją. Zbyt restrykcyjne przepisy mogą spowolnić rozwój technologii, podczas gdy ich brak grozi dominacją kilku korporacji kształtujących AI na własnych zasadach. Wspieranie narodowych inicjatyw, takich jak PLLuM, oraz open-source’owych modeli może stać się kluczowym narzędziem w budowaniu bardziej zdecentralizowanego ekosystemu sztucznej inteligencji.

    Z jednej strony widzimy dynamiczny postęp i integrację AI w codziennym życiu, z drugiej – rosnące obawy o monopolizację i ograniczoną dostępność najpotężniejszych systemów dla mniejszych firm czy niezależnych badaczy.

    Alternatywą dla dominacji Big Tech są modele open-source oraz inicjatywy narodowe, takie jak DeepSeek AI w Chinach czy PLLuM w Polsce. Choć otwarte modele oferują większą przejrzystość i dostępność, ich rozwój jest trudniejszy z powodu ograniczeń sprzętowych i finansowych. Rządy na całym świecie starają się regulować AI, ale ich działania, jak europejski AI Act, mogą paradoksalnie umocnić pozycję największych graczy, jeśli nie zostaną połączone ze wsparciem dla mniejszych podmiotów i inicjatyw open-source.

    Przyszłość sztucznej inteligencji będzie zależała od tego, jak uda się wypracować równowagę między kontrolą a innowacją. Jeśli regulacje i otwarte technologie zostaną odpowiednio rozwinięte, AI może stać się narzędziem dostępnym dla wszystkich, a nie tylko dla kilku globalnych firm.

  • Microsoft rzuca wyzwanie OpenAI i rozwija własne modele AI

    Microsoft rzuca wyzwanie OpenAI i rozwija własne modele AI

    Microsoft intensyfikuje prace nad własnymi modelami sztucznej inteligencji (AI), dążąc do uniezależnienia się od OpenAI i umocnienia swojej pozycji w dynamicznie rozwijającym się sektorze AI – czytamy w The Information.

    Nowe modele MAI: Ambicje Microsoftu w AI

    Zespół kierowany przez Mustafę Suleymana, współzałożyciela DeepMind i byłego pracownika Google, opracował rodzinę modeli AI o nazwie kodowej MAI. Według doniesień, modele te osiągają wyniki porównywalne z czołowymi rozwiązaniami OpenAI i Anthropic w standardowych testach branżowych. 

    Integracja z Microsoft 365 Copilot

    Microsoft testuje zastąpienie technologii OpenAI w swoim flagowym produkcie, Microsoft 365 Copilot, własnymi modelami MAI. Dążenie to ma na celu zmniejszenie zależności od zewnętrznych dostawców oraz obniżenie kosztów operacyjnych. 

    Plany udostępnienia modeli deweloperom

    Firma rozważa udostępnienie modeli MAI jako interfejsu programowania aplikacji (API) dla zewnętrznych deweloperów jeszcze w tym roku. Pozwoli to na integrację tych zaawansowanych modeli AI w różnorodnych aplikacjach, co może przyczynić się do szybszego rozwoju innowacyjnych rozwiązań na rynku. ​

    Dywersyfikacja partnerstw AI

    Oprócz własnych modeli, Microsoft nawiązał współpracę z innymi liderami branży AI, takimi jak xAI, Meta i DeepSeek, testując ich technologie jako potencjalne uzupełnienia lub zamienniki dla rozwiązań OpenAI w swoich produktach. 

    Strategia na przyszłość

    Kroki podejmowane przez Microsoft wskazują na strategiczne dążenie do dywersyfikacji źródeł technologii AI, co ma na celu zwiększenie elastyczności, redukcję kosztów i wzmocnienie pozycji firmy jako lidera innowacji w branży technologicznej.​

    Dzięki tym działaniom Microsoft nie tylko umacnia swoją pozycję na rynku, ale także oferuje deweloperom i klientom szerszy wachlarz narzędzi i rozwiązań opartych na sztucznej inteligencji, co może znacząco wpłynąć na przyszłość technologii i biznesu.​

  • Brytyjski regulator: Microsoft nie rządzi OpenAI… jeszcze?

    Brytyjski regulator: Microsoft nie rządzi OpenAI… jeszcze?

    ​Brytyjski Urząd ds. Konkurencji i Rynków (CMA) zakończył dochodzenie w sprawie partnerstwa Microsoftu z OpenAI, uznając, że nie ma podstaw do dalszych działań antymonopolowych. Decyzja ta zapadła po analizie wpływu Microsoftu na OpenAI, twórcę popularnego ChatGPT, i stwierdzeniu, że nie osiągnął on poziomu kontroli uzasadniającego dalsze dochodzenie. ​

    Partnerstwo między Microsoftem a OpenAI rozpoczęło się w 2019 roku od inwestycji w wysokości 1 miliarda dolarów. Współpraca ta była przedmiotem analiz antymonopolowych zarówno w Wielkiej Brytanii, jak i w Stanach Zjednoczonych, zwłaszcza po wydarzeniach z 2023 roku, kiedy to doszło do tymczasowego odejścia i powrotu CEO OpenAI, Sama Altmana, co wzbudziło pytania dotyczące struktury firmy. ​

    CMA stwierdził, że choć Microsoft uzyskał istotny wpływ na OpenAI w 2019 roku, nie przejął de facto kontroli nad firmą, co wykluczało konieczność dalszego przeglądu w ramach brytyjskiego systemu kontroli fuzji. Jednocześnie regulator zaznaczył, że zakończenie dochodzenia nie oznacza braku obaw dotyczących konkurencji w przyszłości. ​

    Rzecznik Microsoftu wyraził zadowolenie z decyzji CMA, podkreślając, że partnerstwo z OpenAI promuje konkurencję, innowacje i odpowiedzialny rozwój sztucznej inteligencji. ​reuters.com

    W ostatnich latach CMA bacznie przyglądał się powiązaniom między dużymi firmami technologicznymi a startupami AI.Analizowano m.in. partnerstwa Microsoftu z Mistral AI, Amazona z Anthropic oraz Alphabetu (właściciela Google) z Anthropic. Jednak żadne z tych powiązań nie osiągnęło progu kontroli wymaganego do przeprowadzenia pełnego dochodzenia w ramach kontroli fuzji. ​

    W 2025 roku CMA uzyskał nowe uprawnienia do badania największych firm technologicznych pod kątem ich „strategicznego statusu rynkowego”. Już rozpoczęto dochodzenia dotyczące ekosystemów smartfonów Apple i Google oraz usług wyszukiwania Google. Nominacja Douga Gurra, byłego dyrektora Amazona, na stanowisko tymczasowego przewodniczącego regulatora, może sygnalizować bardziej elastyczne podejście do przyszłych transakcji technologicznych. ​

    Decyzja CMA w sprawie partnerstwa Microsoftu z OpenAI stanowi istotny krok w kształtowaniu przyszłości współpracy między gigantami technologicznymi a innowacyjnymi startupami AI, podkreślając jednocześnie znaczenie zachowania konkurencyjności i innowacyjności na rynku technologii.​

    Nowy rozdział w regulacji Big Tech

    Brytyjski Urząd ds. Konkurencji i Rynków (CMA) zakończył dochodzenie w sprawie relacji między Microsoftem a OpenAI, stwierdzając, że partnerstwo technologiczne tych firm nie spełnia kryteriów fuzji wymagających dalszej analizy. Decyzja ta jest istotna nie tylko dla rynku AI, ale także dla całej branży technologicznej, która coraz częściej znajduje się w centrum zainteresowania regulatorów.

    Z jednej strony, decyzja ta wydaje się rozsądna – Microsoft, mimo znacznych inwestycji w OpenAI, nie sprawuje formalnej kontroli nad tą organizacją. Struktura OpenAI pozostaje skomplikowana, co pokazały wydarzenia z 2023 roku, kiedy doszło do nagłego usunięcia i powrotu Sama Altmana na stanowisko CEO. Gdyby Microsoft faktycznie miał decydujący wpływ na firmę, zapewne nie dopuściłby do takiej niepewności zarządczej.

    Z drugiej strony, nie można ignorować faktu, że współpraca Microsoftu z OpenAI jest jednym z kluczowych czynników kształtujących rynek AI. Microsoft zapewnia infrastrukturę obliczeniową, integruje technologie OpenAI w swoich produktach i ma znaczący wpływ na rozwój tej organizacji. W praktyce, nawet jeśli nie ma formalnej „kontroli”, może mieć istotne narzędzia wpływu. W kontekście obaw o dominację Big Tech w kluczowych obszarach rynku, decyzja CMA może budzić pytania, czy regulatorzy są w stanie efektywnie identyfikować nowe formy władzy korporacyjnej.

    Co ciekawe, CMA w ostatnim czasie intensywnie przygląda się rynkowi AI i dużym firmom technologicznym. Analizuje m.in. partnerstwa Google i Amazona z innymi startupami AI oraz bada wpływ ekosystemów smartfonowych Apple i Google. Możliwe, że w przyszłości, dzięki nowym uprawnieniom do nadzorowania firm o „strategicznym statusie rynkowym”, CMA będzie w stanie skuteczniej oceniać realne siły oddziaływania gigantów technologicznych.

    Decyzja o zamknięciu dochodzenia nie oznacza, że problem koncentracji siły rynkowej znika. Microsoft i OpenAI mogą kontynuować współpracę bez formalnych przeszkód, ale presja regulacyjna na branżę AI nie słabnie. Jeśli w przyszłości relacja między tymi firmami stanie się jeszcze bliższa, regulatorzy mogą ponownie wrócić do tematu. Na razie jednak decyzja CMA jest sygnałem, że regulatorzy wciąż uczą się, jak skutecznie kontrolować dynamikę innowacji w świecie sztucznej inteligencji.

  • To koniec Skype. Microsoft rezygnuje z ikonicznej usługi

    To koniec Skype. Microsoft rezygnuje z ikonicznej usługi

    ​Po ponad dwóch dekadach obecności na rynku, Skype zakończy swoją działalność 5 maja 2025 roku. Microsoft, właściciel usługi, zdecydował się na ten krok, aby skupić się na rozwoju platformy Teams, która zyskała na popularności w ostatnich latach. 

    Historia Skype’a

    Skype został założony w 2003 roku i szybko stał się synonimem internetowych połączeń głosowych i wideo, rewolucjonizując sposób, w jaki ludzie komunikują się na odległość. W szczytowym okresie miał ponad 300 milionów aktywnych użytkowników miesięcznie. W 2011 roku Microsoft nabył Skype’a za 8,5 miliarda dolarów, co było wówczas największą transakcją firmy.

    Przyczyny zamknięcia

    Mimo początkowego sukcesu, Skype w ostatnich latach tracił na znaczeniu na rzecz konkurencyjnych platform, takich jak Zoom czy WhatsApp. Pandemia COVID-19 i związany z nią wzrost zapotrzebowania na narzędzia do komunikacji online przyspieszyły rozwój innych aplikacji, podczas gdy Skype nie nadążał za rosnącymi oczekiwaniami użytkowników. Microsoft zdecydował się skupić na rozwoju Teams, które obecnie ma około 320 milionów aktywnych użytkowników miesięcznie.

    Przejście na Microsoft Teams

    Aby ułatwić użytkownikom migrację, Microsoft umożliwi logowanie się do Teams za pomocą istniejących danych Skype’a. Czaty i kontakty zostaną automatycznie przeniesione, co zapewni płynne przejście na nową platformę. Teams oferuje funkcje znane ze Skype’a, takie jak darmowe połączenia i wiadomości, a także dodatkowe możliwości, takie jak organizacja spotkań i zarządzanie kalendarzem. 

    Koniec pewnej ery

    Zamknięcie Skype’a symbolizuje koniec pewnej ery w komunikacji internetowej. Jego historia pokazuje, jak dynamicznie zmienia się rynek technologiczny i jak ważne jest dostosowywanie się do nowych trendów oraz potrzeb użytkowników. Microsoft, koncentrując się na Teams, stawia na integrację i rozszerzenie funkcji, odpowiadając na współczesne wymagania komunikacyjne.​

  • Microsoft Copilot dla Mac dostępny… ale nie w Europie

    Microsoft Copilot dla Mac dostępny… ale nie w Europie

    Microsoft wprowadził natywną aplikację Copilot dla systemu macOS, umożliwiając użytkownikom komputerów Mac korzystanie z internetowego asystenta AI. Aplikacja pozwala na przesyłanie obrazów oraz generowanie tekstu i obrazów, a także oferuje tryb ciemny i skrót klawiaturowy Command + Spacja do szybkiej aktywacji asystenta. Obecnie Copilot dla macOS jest dostępny w USA, Wielkiej Brytanii i Kanadzie. Wersja na iPada została zaktualizowana o tryb podzielonego ekranu, a funkcja logowania za pomocą Apple ID oraz możliwość przesyłania plików tekstowych lub PDF do podsumowania lub zadawania pytań wkrótce pojawią się także w wersji na macOS. Kilka dni temu Microsoft udostępnił funkcje Copilot Voice i Think Deeper za darmo, bez ograniczeń, umożliwiając użytkownikom prowadzenie dłuższych rozmów z asystentem AI.

    Niestety, użytkownicy w Europie muszą jeszcze poczekać na dostępność aplikacji Copilot dla macOS, ponieważ nie ma oficjalnych informacji na temat planowanej premiery w tym regionie.

  • Microsoft ma Majorana-1, AWS odpowiada Ocelotem – kto zdominuje obliczenia kwantowe?

    Microsoft ma Majorana-1, AWS odpowiada Ocelotem – kto zdominuje obliczenia kwantowe?

    W ciągu ostatnich dni świat technologii kwantowej został zelektryzowany przez dwa znaczące ogłoszenia od gigantów branży IT. Najpierw Microsoft zaprezentował swój przełomowy chip kwantowy Majorana 1, a zaledwie tydzień później Amazon Web Services (AWS) odpowiedział, przedstawiając własny układ o nazwie Ocelot. Oba te wydarzenia mogą znacząco wpłynąć na przyszłość obliczeń kwantowych, przybliżając nas do ery komputerów zdolnych do rozwiązywania problemów, które dotychczas były poza zasięgiem tradycyjnych maszyn.

    Microsoft i jego Majorana 1: Nowy stan materii w służbie kwantów

    19 lutego 2025 roku Microsoft ogłosił stworzenie Majorana 1 – pierwszego na świecie chipu kwantowego opartego na nowej architekturze Topological Core. Kluczowym elementem tego układu jest wykorzystanie topologicznych kubitów, które dzięki swoim unikalnym właściwościom mogą zapewnić większą stabilność i skalowalność obliczeń kwantowych. Firma twierdzi, że dzięki tej technologii możliwe będzie umieszczenie nawet miliona kubitów na pojedynczym chipie wielkości dłoni, co stanowi ogromny krok naprzód w kierunku praktycznych zastosowań komputerów kwantowych.

    Topologiczne kubity w Majorana 1 są zbudowane z nowego rodzaju materiału nazwanego topoprzewodnikiem, który łączy w sobie właściwości półprzewodników i nadprzewodników. Dzięki temu możliwe jest tworzenie bardziej niezawodnych i mniejszych kubitów, które mogą być kontrolowane cyfrowo. Satya Nadella, prezes Microsoftu, podkreślił, że to odkrycie może przyspieszyć rozwój użytecznych komputerów kwantowych z dekad do zaledwie kilku lat.

    AWS i Ocelot: Efektywność korekcji błędów kwantowych

    Tydzień po ogłoszeniu Microsoftu, 27 lutego 2025 roku, AWS zaprezentował swój pierwszy prototypowy chip kwantowy o nazwie Ocelot. Ten układ został zaprojektowany z myślą o rozwiązaniu jednego z największych wyzwań w obliczeniach kwantowych – korekcji błędów. Ocelot wykorzystuje tzw. „kocie kubity” (cat qubits), które naturalnie tłumią pewne rodzaje błędów, co pozwala na znaczne zmniejszenie zasobów potrzebnych do korekcji błędów. Według AWS, architektura Ocelota może obniżyć koszty implementacji korekcji błędów nawet o 90%, przyspieszając tym samym rozwój praktycznych komputerów kwantowych o około pięć lat.

    Ocelot składa się z dwóch nałożonych na siebie mikroukładów krzemowych o powierzchni 1 cm² każdy, zawierających 14 głównych komponentów, w tym 5 kubitów danych, 5 obwodów buforowych do stabilizacji oraz 4 kubity dedykowane do wykrywania błędów. Zastosowanie tantalu w konstrukcji oscylatorów pozwala na utrzymanie stabilności kubitów, minimalizując dekoherencję.

    Konkurencja napędza postęp

    Rywalizacja między gigantami takimi jak Microsoft i AWS w dziedzinie obliczeń kwantowych świadczy o rosnącym znaczeniu tej technologii w przyszłości IT. Obie firmy, prezentując swoje innowacyjne podejścia do konstrukcji chipów kwantowych, dążą do przezwyciężenia obecnych ograniczeń technologicznych i przyspieszenia komercjalizacji komputerów kwantowych. Chociaż przed nami wciąż wiele wyzwań, takie przełomy pokazują, że jesteśmy coraz bliżej ery, w której obliczenia kwantowe staną się integralną częścią naszego codziennego życia.

    Warto obserwować dalszy rozwój wydarzeń w tej dynamicznie rozwijającej się dziedzinie, gdyż kolejne miesiące i lata mogą przynieść jeszcze bardziej rewolucyjne odkrycia i zastosowania praktyczne technologii kwantowej.