Kategoria: Świat

  • Alphabet inwestuje 40 mld dolarów w Anthropic. Walczy o kontrolę z Amazonem?

    Alphabet inwestuje 40 mld dolarów w Anthropic. Walczy o kontrolę z Amazonem?

    Alphabet, spółka matka Google, ogłosiła zamiar zainwestowania nawet 40 miliardów dolarów w Anthropic – startup, który dla giganta z Mountain View jest jednocześnie kluczowym klientem chmurowym i jednym z najgroźniejszych konkurentów w wyścigu o prymat w dziedzinie sztucznej inteligencji.

    Struktura tej transakcji odzwierciedla nową rzeczywistość finansowania sektora AI, gdzie kapitał jest ściśle powiązany z konkretnymi wynikami. Google wyłoży 10 miliardów dolarów w gotówce przy wycenie startupu na poziomie 350 miliardów dolarów. Pozostałe 30 miliardów zostanie uruchomione dopiero wtedy, gdy twórcy modelu Claude osiągną rygorystyczne cele wydajnościowe. Dla Alphabetu to nie tylko lokata kapitału, ale przede wszystkim próba zacieśnienia więzi z podmiotem, który wyrósł na lidera w niszach, w których Google wciąż szuka swojej tożsamości.

    Ruch ten następuje zaledwie kilka dni po tym, jak Amazon zadeklarował własny zastrzyk gotówki dla Anthropic w wysokości 25 miliardów dolarów. Sytuacja, w której dwóch największych dostawców chmury na świecie licytuje się o względy tego samego startupu, pokazuje, jak desperacko giganci technologiczni potrzebują sukcesów zewnętrznych modeli, aby napędzać sprzedaż własnej infrastruktury obliczeniowej.

    Siłą napędową Anthropic nie jest już tylko obietnica bezpiecznej sztucznej inteligencji, ale realne wyniki finansowe. Roczne przychody firmy przekroczyły właśnie barierę 30 miliardów dolarów, co stanowi imponujący skok względem 9 miliardów odnotowanych pod koniec 2025 roku. Inwestorzy reagują entuzjastycznie, a niektóre oferty z rynku venture capital wyceniają firmę nawet na 800 miliardów dolarów. Fundamentem tego wzrostu jest Claude Code – narzędzie, które zdominowało segment programistyczny, oraz agent Anthropic’s Cowork, którego wtyczki wywołały niedawno drżenie na giełdach, obniżając wyceny tradycyjnych spółek oprogramowania SaaS.

    Największym wyzwaniem dla Anthropic pozostaje jednak „głód mocy”. Skalowanie modeli wymaga infrastruktury o skali dotąd niespotykanej. Startup zabezpiecza ją poprzez wieloletnie umowy z Broadcomem oraz CoreWeave, a także ambitny plan budowy własnych centrów danych w USA o wartości 50 miliardów dolarów.

    Rynek dzieli się na wyspecjalizowane narzędzia, a Anthropic, koncentrując się na kodowaniu i autonomicznych agentach, udowadnia, że można skutecznie rzucić wyzwanie modelom ogólnego przeznaczenia. Alphabet, inwestując w Anthropic, kupuje sobie polisę ubezpieczeniową na wypadek, gdyby to właśnie podejście startupu okazało się docelowym standardem w biznesie.

  • 14 tysięcy cyberataków w trzy miesiące: Dlaczego protokół z lat 70. to wciąż wielkie ryzyko dla przemysłu?

    14 tysięcy cyberataków w trzy miesiące: Dlaczego protokół z lat 70. to wciąż wielkie ryzyko dla przemysłu?

    Bezpieczeństwo nowoczesnych fabryk i elektrowni wciąż opiera się na technologii sprzed niemal pół wieku, co staje się coraz większym problemem dla globalnego biznesu. Najnowszy raport ekspertów z Cato Networks ostrzega przed falą cyberataków wymierzonych w sterowniki przemysłowe (PLC). Hakerzy wykorzystują fakt, że powszechnie używany protokół Modbus powstał w latach 70. i nie posiada żadnych zabezpieczeń – dla kogoś, kto potrafi go obsługiwać, przejęcie kontroli nad maszyną podłączoną do sieci jest dziś niepokojąco proste.

    W centrum uwagi znajduje się Modbus – protokół komunikacyjny opracowany w 1979 roku. W czasach, gdy powstawał, nikt nie zakładał, że sterowniki przemysłowe (PLC) będą kiedykolwiek podłączone do publicznego internetu. Modbus projektowano z myślą o zaufanych, odizolowanych sieciach wewnętrznych. W efekcie całkowicie pozbawiono go mechanizmów, które dziś uznajemy za elementarne: szyfrowania oraz uwierzytelniania. Ta otwartość, niegdyś będąca zaletą ułatwiającą integrację systemów, stała się zaproszeniem dla hakerów.

    Skalę problemu obrazują dane zebrane przez zespół pod kierownictwem dr Guya Waizela i Jakuba Osmaniego. Przez zaledwie trzy miesiące jesieni 2025 roku zidentyfikowali oni skoordynowaną aktywność wymierzoną w sterowniki PLC, obejmującą ponad 14 tysięcy zaatakowanych adresów IP w 70 krajach. To nie są odosobnione incydenty, lecz systematyczne mapowanie słabych punktów światowego przemysłu.

    Strategia napastników jest wielowarstwowa i precyzyjna. Większość zidentyfikowanych interakcji – ponad 235 tysięcy żądań – dotyczyła tzw. ekstrakcji danych. Hakerzy nie próbują od razu niszczyć maszyn; zamiast tego cicho odczytują zawartość rejestrów, poznając parametry procesów i konfigurację urządzeń. Kolejnym krokiem jest „pobieranie odcisków palców” sprzętu. Znając producenta i wersję oprogramowania, przestępcy mogą dopasować konkretne luki bezpieczeństwa do konkretnej maszyny.

    To, co zaczyna się od niewinnego zbierania informacji, może szybko przeistoczyć się w scenariusz katastroficzny. Aby zrozumieć realne ryzyko, eksperci Cato Networks przeprowadzili symulację na projekcie Wildcat-Dam. Wykazali, że dysponując jedynie laptopem i dostępem do niezabezpieczonego protokołu Modbus, są w stanie przejąć kontrolę nad cyfrową logiką zapory wodnej. Manipulując wartościami rejestrów, badacze wywołali sztuczną powódź, unieważniając limity bezpieczeństwa i zdalnie otwierając bramy tamy. 

    Geografia ataków pokrywa się z mapą globalnych potęg przemysłowych. Na celowniku znalazły się przede wszystkim Stany Zjednoczone, Francja i Japonia, które łącznie odpowiadają za 61 procent incydentów. Niepokojący jest również fakt, że napastnicy nie ograniczają się do jednej branży. Choć sektor wytwórczy jest najczęstszą ofiarą, ślady ingerencji odnaleziono w placówkach opieki zdrowotnej, budownictwie, a nawet w systemach zarządzania infrastrukturą miejską. Wyłania się z tego obraz hakerstwa oportunistycznego: atakujący szukają jakiegokolwiek dostępnego sterownika, który został lekkomyślnie wystawiony na działanie publicznej sieci.

    Analiza techniczna sugeruje, że część tej aktywności pochodzi z infrastruktury zlokalizowanej w Chinach, choć tożsamość aktorów pozostaje ukryta za systemami serwerów pośredniczących. Dla decydentów biznesowych kluczowym wnioskiem nie jest jednak wskazanie konkretnego winnego, lecz uświadomienie sobie strukturalnej wady własnych systemów.

  • Kac po euforii, czyli jak agenci AI mogą przepuścić roczny budżet w kilka godzin

    Kac po euforii, czyli jak agenci AI mogą przepuścić roczny budżet w kilka godzin

    Jeszcze niedawno sztuczna inteligencja miała być „ostatecznym rozwiązaniem” problemów z produktywnością – cyfrowym alchemikiem zamieniającym puste przebiegi procesów w czyste złoto efektywności. Bal trwał w najlepsze, a szampan wylewał się z prezentacji obiecywanych przez dostawców modeli.

    Jednak dziś, zamiast o kolejnych przełomach w rozumowaniu maszyn, w kuluarach konferencji biznesowych szepcze się o czymś znacznie mniej widowiskowym: o rachunku za szczęście. Okazuje się bowiem, że bilet wstępu do świata AI nie był opłatą jednorazową, lecz dynamicznym, trudnym do okiełznania abonamentem na przyszłość, którego koszt potrafi wzrosnąć wykładniczo w ciągu jednej nocy.

    To, co obserwujemy, to narodziny „gorączki tokenów”. To stan, w którym entuzjazm inżynierów zderza się z przerażeniem dyrektorów finansowych. Przez dekady przyzwyczailiśmy się do modelu SaaS – przewidywalnych, stałych opłat za licencje, które można było łatwo wpisać w budżet. Generatywna AI zburzyła ten ład, wprowadzając model „probabilistyczny”. Tutaj błąd w logice jednego agenta lub zbyt wylewny prompt mogą spalić zasoby finansowe szybciej, niż tradycyjna infrastruktura chmurowa zużywa prąd.

    Uber i błąd wart miliardy

    Jeśli branża technologiczna szukała „kanarka w kopalni”, to w kwietniu 2026 roku znalazła go w San Francisco. Podczas konferencji IA HumanX, Praveen Neppalli Naga, CTO Ubera, wygłosił przemówienie, które otrzeźwiło nawet największych optymistów. Gigant, który w 2025 roku zainwestował w badania i rozwój astronomiczne 3,4 miliarda dolarów, stanął przed murem: roczny budżet na sztuczną inteligencję wyparował w zaledwie cztery miesiące.

    To nie była kwestia jednej, błędnej decyzji inwestycyjnej, ale efekt uboczny inżynieryjnej fantazji pozbawionej hamulców. Uber, dążąc do agresywnej adopcji technologii, zachęcał swoich programistów do masowego korzystania z agentów takich jak Claude Code. Efekt? 11% kodu zaplecza generowała już sztuczna inteligencja, ale cena za tę „efektywność” okazała się zabójcza. Bez odpowiednich filtrów wydajności i nadzoru nad zużyciem tokenów, AI przestało być dźwignią oszczędności, a stało się niekontrolowanym silnikiem wydatków.

    Przypadek Ubera to klasyczny przykład „tsunami tokenów”. Autonomiczni agenci, wchodząc w nieskończone pętle iteracji bez jasnych limitów, potrafią spalić fortunę w czasie potrzebnym na wypicie espresso. To bolesna lekcja dla każdego CIO: innowacja bez architektury finansowej to po prostu bardzo drogie hobby. Naga przyznał, że firma musiała wrócić do stołu projektowego, by całkowicie przedefiniować swoją strategię. Każda firma, która dziś wdraża AI bez rygorystycznej analizy rentowności, ryzykuje, że jej sukces będzie mierzony nie wzrostem marży, lecz szybkością, z jaką wyczerpie własne zasoby.

    Żegnaj SaaS, witaj zmienności

    Żegnamy epokę, w której budżet IT był jak stały abonament na Netfliksa – przewidywalny, bezpieczny i dający złudne poczucie kontroli. Przez lata model SaaS przyzwyczaił nas do licencji per user, gdzie jedynym ryzykiem była nadmiarowość kont, których nikt nie używał. Generatywna sztuczna inteligencja brutalnie kończy ten okres „licencyjnego spokoju ducha”, wprowadzając model rozliczeń, który bardziej przypomina rachunki za prąd w czasie kryzysu energetycznego niż tradycyjne oprogramowanie.

    Przejście z kosztów stałych na koszty zmienne to fundamentalna zmiana paradygmatu. W 2024 roku działy IT kupowały dostęp do AI w ryczałcie. Dziś, w 2026 roku, dostawcy tacy jak OpenAI czy Anthropic wyeliminowali nielimitowane plany Enterprise, wprowadzając dynamiczne rozliczanie za zużycie tokenów. Powód jest prozaiczny: agenci AI zniszczyli krzywą dystrybucji, na której opierał się stary biznes. Model subskrypcyjny działał tylko wtedy, gdy „leccy” użytkownicy dotowali tych „intensywnych”. Jedna, gdy zaczęliśmy zatrudniać autonomicznych agentów, różnice te stały się absurdalne. Analizy pokazują przypadki, w których użytkownik płacący 100 dolarów miesięcznie generował koszty rzędu 5600 dolarów w jednym cyklu rozliczeniowym. Współczynnik dotacji 25 do 1 to prosta droga do bankructwa dostawcy, stąd gwałtowny zwrot ku rozliczeniom „używasz – płacisz”.

    To sprawia, że wydatki na IT stały się probabilistyczne. To radykalnie odróżnia AI od tradycyjnej chmury. Zapomniany serwer w AWS generuje stały, liniowy koszt. Źle zaprojektowany prompt lub agent pozbawiony limitów iteracji może natomiast wejść w pętlę i wygenerować miliony bezużytecznych tokenów w kilka sekund. W tym nowym świecie błąd logiczny programisty nie kończy się na „wywaleniu” aplikacji – kończy się na drenażu konta firmowego z prędkością światła. Oznacza to konieczność natychmiastowego przeprojektowania finansów IT i porzucenia sztywnych ram budżetowych na rzecz elastycznego zarządzania „ekonomią wnioskowania”.

    Tsunami tokenów – nowa jednostka ryzyka

    W słowniku nowoczesnego CIO obok „długu technicznego” pojawił się nowy, znacznie bardziej drapieżny termin: „tsunami tokenów”. To zjawisko, w którym autonomiczni agenci, zamiast uwalniać czas pracowników, wpadają w pętle niekończących się iteracji, paląc budżet z intensywnością huty stali. Problem w tym, że bot, w przeciwieństwie do człowieka, nigdy nie czuje zmęczenia ani wstydu z powodu powielania błędów – on po prostu konsumuje zasoby, dopóki nie napotka twardego limitu lub nie opróżni konta.

    Skala problemu jest tak duża, że nawet najwięksi gracze musieli zrewidować swoje dogmaty. Gartner bije na alarm: do końca 2027 roku aż 40% agentycznych projektów AI zostanie anulowanych. Powód? Nie brak wizji, lecz brutalna matematyka – rosnące koszty przy jednoczesnym braku precyzyjnych narzędzi do pomiaru realnej wartości biznesowej.

    Tutaj objawia się największy paradoks 2026 roku: jednostkowa cena za token systematycznie spada, ale całkowity rachunek rośnie. Agenci AI zużywają bowiem od 5 do nawet 30 razy więcej jednostek na jedno zadanie niż standardowy chatbot. To klasyczna pułapka skali – wydajność, która staje się nieefektywna ekonomicznie przez samą swoją objętość. Jeśli Twoja strategia AI opiera się jedynie na nadziei, że „modele będą tańsze”, to właśnie budujesz zamek na piasku, który nadchodzące tsunami zmyje w jeden cykl rozliczeniowy. Bez rygorystycznej kontroli nad tym, co i po co procesują maszyny, nowoczesne IT staje się zakładnikiem własnej, niepohamowanej mocy obliczeniowej.

    AI FinOps – nowa alchemia finansów IT

    Jeśli myśleliście, że Cloud FinOps był wyzwaniem, przygotujcie się na jazdę bez trzymanki. Tradycyjna optymalizacja chmury polegała na prostym rzemiośle: wyłączaniu nieużywanych serwerów i pilnowaniu rezerwacji instancji. AI FinOps to zupełnie inna dyscyplina – to zarządzanie zasobami probabilistycznymi, a nie deterministycznymi. Tutaj jednostką wydatków nie jest już roboczogodzina procesora, lecz koszt użytecznej odpowiedzi w relacji do kosztu odpowiedzi błędnej lub „halucynowanej”.

    W 2026 roku aż 98% zespołów FinOps uznaje wydatki na AI za swój priorytet numer jeden. Powód jest prosty: w tradycyjnej chmurze błąd techniczny rzadko prowadzi do wykładniczego wzrostu kosztów. W świecie agentów AI, źle skonfigurowana logika promptu może spalić budżet szybciej, niż zdążysz odświeżyć dashboard. To zmusza liderów IT do zdefiniowania nowej metryki – ekonomii wnioskowania. Nie liczymy już, ile kosztuje nas model, ale ile kosztuje nas sukces operacyjny uzyskany dzięki jego pracy.

    A to oznacza konieczność przepisania pulpitów sterowniczych od zera. Klasyczne ramy zarządcze, takie jak ITIL 4 czy COBIT, choć dają solidną bazę, wymagają dziś natychmiastowych rozszerzeń o zarządzanie cyklem życia promptów czy limity iteracji agentów. AI FinOps to nie tylko tabelki w Excelu; to nowa filozofia zarządzania, gdzie inżynier musi myśleć jak ekonomista, a finansista musi rozumieć architekturę LLM. Bez tej synergii, kupowanie tokenów przypomina wlewanie paliwa rakietowego do dziurawego baku – efekt jest spektakularny, ale skrajnie krótkotrwały i przerażająco kosztowny.

    Jak nie przepalić dekady innowacji

    Okno czasowe na bezkarne błędy właśnie się zatrzasnęło. Aby uniknąć „tokenowego tsunami”, organizacje muszą przejść od fazy radosnej adaptacji do fazy rygorystycznej architektury. Pierwszym i najbardziej palącym krokiem jest przeprowadzenie audytu zużycia tokenów – nie ogólnego, ale precyzyjnego, z podziałem na konkretne zespoły i przypadki użycia. Gdy zapytanie do modelu może kosztować tyle co dobra kawa, musimy wiedzieć, kto zamawia podwójne espresso bez wyraźnej potrzeby biznesowej.

    Kluczem do finansowego przetrwania jest wdrożenie trzech fundamentów technicznych:

    • RAG (Retrieval-Augmented Generation): Dostarczanie modelowi tylko tych danych, których faktycznie potrzebuje, drastycznie ograniczając „dietę” tokenową.
    • Modele specjalistyczne: Rezygnacja z „wszechwiedzących” gigantów na rzecz mniejszych, tańszych i precyzyjnie dotrenowanych modeli do powtarzalnych zadań.
    • Karta korporacyjna dla bota: Ustanowienie sztywnych limitów iteracji i budżetów na każdego agenta. To kwestia elementarnej higieny finansowej.

    Musimy również zweryfikować, jak nasi ludzie pracują z tą technologią. Zidentyfikowanie „Centaurów” (ekspertów wzmacniających swoje kompetencje AI) i wyeliminowanie „Automatyzatorów” (bezrefleksyjnie delegujących pracę maszynie) pozwoli na realny wzrost ROI. Najdroższym i najszybszym sposobem na zmarnowanie budżetu na innowacje jest kupowanie milionów tokenów po to, by zespoły pracowały dokładnie tak samo jak w 2022 roku, tyle że z interfejsem czatu na ekranie.

     

  • Intel wraca do gry – wyniki powyżej oczekiwań i potężny wzrost akcji

    Intel wraca do gry – wyniki powyżej oczekiwań i potężny wzrost akcji

    Po latach strategicznego dryfu i błędów w zarządzaniu, Intel pod wodzą Lip-Bu Tana zaczyna udowadniać, że jego plan naprawczy to coś więcej niż tylko agresywne cięcie kosztów. Najnowsze prognozy przychodów na drugi kwartał, oscylujące w granicach 14,3 miliarda dolarów, nie tylko pobiły oczekiwania Wall Street, ale wywołały euforyczny, 19-procentowy wzrost wartości akcji. To sygnał, że dawna ikona Doliny Krzemowej odnalazła swoją ścieżkę w świecie zdominowanym przez sztuczną inteligencję.

    Strategiczny zwrot ku CPU i agentom AI

    Kluczem do optymizmu Intela jest zmiana paradygmatu w sektorze centrów danych. Podczas gdy pierwsza faza boomu AI należała bezsprzecznie do układów GPU Nvidii, wykorzystywanych do trenowania potężnych modeli, rynek wchodzi obecnie w fazę wdrażania (inferencji). To właśnie tutaj procesory CPU Intela odzyskują znaczenie. W architekturze opartej na autonomicznych agentach AI, wymagających zaawansowanego rozumowania i obsługi złożonych obciążeń, tradycyjne jednostki centralne okazują się nieodzownym elementem infrastruktury. Lip-Bu Tan wyraźnie zaznacza, że popyt ten nie jest jedynie życzeniowym myśleniem, lecz realnym trendem płynącym od największych dostawców usług chmurowych.

    Partnerstwo z Muskiem jako fundament odlewni

    Największym zwycięstwem wizerunkowym i technologicznym ostatnich dni jest jednak zabezpieczenie Tesli jako kluczowego klienta dla nadchodzącego procesu technologicznego 14A. Udział w projekcie Terafab Elona Muska to dla biznesu produkcyjnego Intela (Intel Foundry) potężny zastrzyk wiarygodności. Partnerstwo to ma na celu stworzenie procesorów nowej generacji dla robotyki i centrów danych, co bezpośrednio rzuca wyzwanie dominacji TSMC. Choć detale finansowe pozostają poufne, strategiczny sojusz z takimi graczami jak Musk, Nvidia czy SoftBank daje Intelowi paliwo niezbędne do transformacji w nowoczesną, kontraktową odlewnię chipów.

    Ryzykowna droga do 2030 roku

    Mimo sukcesów finansowych w pierwszym kwartale, gdzie skorygowany zysk na akcję wyniósł 29 centów, Intel wciąż stąpa po cienkim lodzie. Transformacja ze „starego giganta” w „zwinnego sportowca odlewnictwa” wymaga nie tylko przełamania wąskich gardeł w produkcji, ale i utrzymania tempa innowacji w obliczu rosnącej konkurencji ze strony AMD i ARM. Dla inwestorów obecna wycena może być jednak atrakcyjnym punktem wejścia. Jeśli Intel skutecznie zagospodaruje popyt na krzem w nadchodzącej erze robotyki, dzisiejszy „hazard o wysokie stawki” może zakończyć się powrotem firmy na tron technologicznego imperium.

  • Japonia powołuje grupę zadaniową przeciwko zagrożeniom AI Mythos

    Japonia powołuje grupę zadaniową przeciwko zagrożeniom AI Mythos

    Kiedy Anthropic ogłosił, że jego najnowszy model AI, Mythos, zidentyfikował tysiące nieznanych wcześniej luk w zabezpieczeniach systemów operacyjnych, w Dolinie Krzemowej zawrzało. Jednak to w Tokio, sercu konserwatywnego azjatyckiego systemu finansowego, zapadła najbardziej konkretna decyzja polityczna. Minister finansów Satsuki Katayama ogłosiła powołanie specjalnej grupy zadaniowej, która ma zabezpieczyć japoński sektor bankowy przed nową erą zagrożeń generowanych przez sztuczną inteligencję.

    Ruch Japonii oznacza dla rynku, że tradycyjne podejście do cyberbezpieczeństwa oparte na cyklach łatania dziur właśnie przechodzi do historii. W skład nowej jednostki weszły najważniejsze instytucje państwowe, w tym Agencja Usług Finansowych i Bank Japonii, a także prywatni giganci oraz operator giełdy Japan Exchange Group. Skala tej koalicji odzwierciedla powagę sytuacji: Mythos nie jest tylko kolejnym modelem językowym, lecz narzędziem zdolnym do wykrywania i eksploatowania słabości oprogramowania z prędkością, której ludzcy administratorzy nie są w stanie dorównać.

    Dla sektora finansowego to scenariusz krytyczny. Banki, mimo nowoczesnych interfejsów, wciąż w dużej mierze polegają na złożonej, wielowarstwowej architekturze IT, której elementy pamiętają jeszcze ubiegłe dekady. Wzajemne powiązania systemów transakcyjnych sprawiają, że pojedynczy wyłom może wywołać efekt domina. Katayama słusznie zauważa, że w świecie operacji w czasie rzeczywistym kryzys cyfrowy natychmiast przekłada się na utratę zaufania do rynku i realne straty płynności.

    Choć do tej pory nie odnotowano incydentów bezpośrednio związanych z modelem Mythos, prewencyjne działanie Japonii wyznacza nowy standard regulacyjny. Organy nadzorcze w USA i Europie również wydały ostrzeżenia, sugerując bankom pilną rewizję systemów obronnych. Jednak to japońska administracja jako pierwsza otwarcie przyznała, że mamy do czynienia z „kryzysem pod ręką”.

    Kadra zarządzająca w sektorze fintech i bankowości powinna zwrócić uwagę na fakt, że AI drastycznie skróciło czas, w którym luka w zabezpieczeniach pozostaje teoretycznym zagrożeniem. Inwestycje w bezpieczeństwo powinny teraz ewoluować w stronę systemów autonomicznych, zdolnych do reagowania w tym samym tempie, w jakim modele takie jak Mythos potrafią uderzać. Walka o stabilność finansową w 2026 roku nie toczy się już o to, czy system zostanie zaatakowany, ale o to, czy zdąży się on samoczynnie naprawić, zanim rynek dostrzeże anomalię.

  • DeepSeek V4: Nowy model AI zoptymalizowany pod chipy Huawei

    DeepSeek V4: Nowy model AI zoptymalizowany pod chipy Huawei

    DeepSeek, chiński startup, który w ubiegłym roku zdestabilizował rynek AI swoimi niskokosztowymi modelami, wykonał właśnie ruch o charakterze stricte strategicznym. Premiera wersji zapoznawczej modelu V4 dowodzi, że chiński ekosystem sztucznej inteligencji przygotowuje się do trwałego odcięcia od zachodniej infrastruktury.

    Kluczowym wyróżnikiem V4 jest jego ścisła optymalizacja pod architekturę procesorów Huawei Ascend. Choć startup z Hangzhou w przeszłości opierał swój sukces na układach Nvidii, obecny zwrot ku krajowym rozwiązaniom jest odpowiedzią na rosnącą presję regulacyjną Waszyngtonu. Huawei potwierdził, że cała linia produktów „superwęzłów” Ascend obsługuje już nową architekturę DeepSeek, co sugeruje głęboką integrację na poziomie hardware-software, mającą na celu zminimalizowanie strat wydajnościowych wynikających z braku dostępu do najnowszych jednostek H100 czy Blackwell.

    Pod względem merytorycznym V4 Pro pozycjonuje się w ścisłej światowej czołówce. Według danych producenta model ten przewyższa inne rozwiązania open-source w testach wiedzy ogólnej, ustępując pola jedynie zamkniętemu modelowi Gemini-Pro-3.1 od Google. Strategia udostępnienia wersji flash oraz wersji preview pozwala firmie na zbieranie danych zwrotnych w czasie rzeczywistym, co jest niezbędne do kalibracji parametrów przed finalnym wdrożeniem.

    Rynkowa reakcja na premierę była natychmiastowa i bolesna dla konkurencji. Notowania giełdowe rywali, takich jak Zhipu AI czy MiniMax, odnotowały znaczące spadki, co potwierdza dominującą pozycję DeepSeek w chińskim sektorze open-source. Jednocześnie firma znajduje się w centrum geopolitycznego cyklonu. Biały Dom otwarcie oskarża pekińskie laboratoria o systemową kradzież własności intelektualnej, a sam DeepSeek musi mierzyć się z zarzutami o niewłaściwe wykorzystywanie danych z modeli OpenAI i Anthropic.

    Dla inwestorów DeepSeek pozostaje jednak jednym z najbardziej perspektywicznych aktywów w Azji. Firma, kontrolowana przez High-Flyer Capital Management, dąży do uzyskania wyceny przekraczającej 20 miliardów dolarów. Zainteresowanie objęciem udziałów przez gigantów takich jak Alibaba i Tencent sugeruje, że chiński Big Tech widzi w DeepSeek nie tylko dostawcę technologii, ale fundament narodowego stosu technologicznego.

  • Drukarka jako 'koń trojański’ w sieci firmowej? Jak zamienić najsłabsze ogniwo w bezpieczny element ekosystemu IT

    Drukarka jako 'koń trojański’ w sieci firmowej? Jak zamienić najsłabsze ogniwo w bezpieczny element ekosystemu IT

    Transformacja cyfrowa w sektorze MŚP osiągnęła punkt krytyczny, ale w tym technologicznym pędzie zapomniano o jednym z najbardziej oczywistych elementów biurowej infrastruktury. Podczas gdy uwaga działów IT koncentruje się na zabezpieczaniu chmury, wdrażaniu AI i ochronie laptopów pracowniczych, w kątach biur stoją „uśpieni agenci” – urządzenia wielofunkcyjne (MFP). Dziś drukarka nie jest już tylko prostym urządzeniem peryferyjnym; to zaawansowany punkt końcowy z własnym procesorem, dyskiem twardym i systemem operacyjnym, stale podłączony do serca firmowej sieci.

    To sprawia, że urządzenia drukujące stały się największym „blind spotem” (martwym polem) współczesnego cyberbezpieczeństwa. Dane są bezlitosne: według raportu Quocirca Managed Print Services Landscape, ponad 60% organizacji przyznało, że w ciągu ostatniego roku doświadczyło naruszenia bezpieczeństwa danych powiązanego bezpośrednio z infrastrukturą druku.

    Dlaczego hakerzy tak bardzo „kochają” drukarki? Odpowiedź jest bolesna w swojej prostocie. Te urządzenia są rzadko objęte systemami monitorowania logów (SIEM), ich firmware bywa aktualizowany sporadycznie, a w wielu firmach – o zgrozo – nadal funkcjonują na domyślnych hasłach administratora. Dla cyberprzestępcy niezabezpieczona drukarka to idealny „koń trojański” – cichy port wejściowy, który pozwala na infiltrację sieci bez wszczynania alarmu w głównych systemach obronnych.

    Anatomia ataku: Jak drukarka staje się bazą wypadową?

    Współczesny cyberprzestępca rzadko atakuje najsilniej strzeżone „drzwi frontowe” infrastruktury IT. Zamiast tego szuka bocznego wejścia, którym coraz częściej okazuje się niezabezpieczone urządzenie wielofunkcyjne (MFP). Atak przez drukarkę to podręcznikowy przykład strategii lateral movement – po infiltracji urządzenia, napastnik wykorzystuje je jako bazę do cichego skanowania sieci wewnętrznej i eskalacji uprawnień. Ponieważ MFP rzadko trafiają pod lupę systemów monitorowania (SIEM), haker może miesiącami przechwytywać skanowane dokumenty lub wykradać dane z dysku twardego urządzenia, pozostając całkowicie niewidocznym dla tradycyjnych antywirusów.

    Nie możemy też zapominać o najprostszym, fizycznym wymiarze ryzyka. Poufne raporty finansowe czy dane osobowe pozostawione bez nadzoru na tacy odbiorczej to zaproszenie do wycieku danych, który może mieć dramatyczne skutki w reżimie RODO. Ekspert Sharp, Szymon Trela, wskazuje, że fundamentem obrony jest tu rygorystyczna higiena konfiguracji, która wciąż pozostaje największym wyzwaniem dla działów IT:

    „Do najważniejszych błędów w konfiguracji urządzeń wielofunkcyjnych należy brak ustawień ograniczających dostęp do urządzenia. Warto rozważyć zdefiniowanie adresów IP lub MAC urządzeń z uprawnieniami do druku oraz zablokowanie nieużywanych portów, co znacząco ogranicza pole ataku. Bardzo restrykcyjnym, ale skutecznym ustawieniem jest również utworzenie listy aplikacji i procesów, które mogą komunikować się z MFP. Drugą grupą ustawień są kwestie szyfrowania – zarówno komunikacji sieciowej, jak i danych przechowywanych przez urządzenie, zawsze z użyciem najnowszych wersji protokołów. I wreszcie, kluczowa jest automatyczna aktualizacja oprogramowania systemowego. Nowe wersje firmware są reakcją na pojawiające się zagrożenia i rozwiązują krytyczne problemy bezpieczeństwa. Aktualizacje te są pobierane z zaufanych serwerów producenta, co w przypadku Sharp jest standardową możliwością dla naszych klientów” – mówi Szymon Trela, Product Manager w Sharp Systems Business Polska.

    Od „najsłabszego ogniwa” do aktywnej ochrony

    W 2026 roku paradygmat ochrony punktów końcowych przesunął się z defensywnego blokowania dostępu w stronę aktywnej analityki i wykrywania anomalii w czasie rzeczywistym. Nowoczesne urządzenia wielofunkcyjne przestały być pasywnymi odbiorcami danych, a stały się inteligentnymi sensorami bezpieczeństwa. Dzięki architekturze Security by Design, rozwiązania takie jak integracja z silnikami antywirusowymi (np. Bitdefender) czy moduły TPM (Trusted Platform Module), pozwalają na weryfikację integralności systemu już na etapie rozruchu. Jeśli oprogramowanie systemowe zostało naruszone, urządzenie po prostu się nie uruchomi, zapobiegając rozprzestrzenianiu się infekcji wewnątrz sieci.

    Jednak prawdziwa rewolucja dzieje się w warstwie aktywnego monitoringu. W dobie zautomatyzowanych ataków napędzanych przez AI, człowiek nie jest w stanie reagować wystarczająco szybko. Dlatego to samo urządzenie musi przejąć rolę strażnika. To podejście zmienia MFP z potencjalnego „konia trojańskiego” w wysuniętą placówkę obronną, która nie tylko chroni samą siebie, ale też ostrzega całą organizację przed niebezpieczeństwem.

    Szymon Trela, Sharp
    źródło: Sharp

    „W nowoczesnych urządzeniach wielofunkcyjnych jest wiele rozwiązań, które pomagają w monitorowaniu sieci IT pod kątem bezpieczeństwa. Przykładem może być oprogramowanie antywirusowe zainstalowane w urządzeniu. Jego podstawowym zadaniem jest oczywiście wykrywanie wirusów, które mogą pojawić się w danych drukowania. Ale oprócz tej funkcji monitoruje ono również oprogramowanie systemowe urządzenia i wykrywa potencjalne próby jego zainfekowania wirusami lub złośliwym oprogramowaniem. Poza tym skanuje cały ruch sieciowy przechodzący przez urządzenie, blokując próby wykorzystania urządzenia MFP do włamania się do sieci firmowej. Oczywiście wszelkie podejrzane zdarzenia mogą być raportowane do odpowiedzialnych osób. Jest to rozwiązanie niezwykle przydatne w mniejszych organizacjach, które nie posiadają dedykowanych działów, odpowiadających za bezpieczeństwo. Innym rozwiązaniem jest wykrywanie prób ataków DoS. W przypadku wykrycia zbyt wielu prób komunikacji w określonym czasie, pochodzących z tych samych adresów IP, urządzenie automatycznie blokuje podejrzane adresy, tworząc ich listę. Proces ten odbywa się w tle, ale możliwe jest też raportowanie tych zdarzeń odpowiednim osobom. Dla klientów korporacyjnych niezwykle ważna jest integracja urządzeń wielofunkcyjnych z systemami klasy SIEM, które informują o wszelkich incydentach w czasie rzeczywistym.” – komentuje Szymon Trela, Product Manager w Sharp Systems Business Polska.

    Zastosowanie oprogramowania antywirusowego bezpośrednio na MFP to „game changer” dla sektora MŚP. W małych firmach, gdzie jedna osoba często łączy funkcję szefa IT, administratora i wsparcia technicznego, każda automatyzacja jest na wagę złota. Urządzenie, które samo blokuje ataki typu DoS (Denial of Service) i odcina podejrzane adresy IP, działa jak niewidzialny ochroniarz.

    Z kolei dla dużych graczy, integracja z systemami SIEM domyka lukę w widoczności infrastruktury, która przez lata była traktowana jako „martwe pole” audytów. Dzięki temu logi z drukarki trafiają do tego samego panelu, co dane z serwerów czy firewalli, pozwalając na pełną korelację zdarzeń i błyskawiczną reakcję na incydenty zgodną z wymogami NIS2. W ten sposób MFP staje się pełnoprawnym, aktywnym elementem ekosystemu cyberbezpieczeństwa.

    Drukarka w reżimie NIS2 i RODO: Standardy techniczne

    W 2026 roku „zgodność” stała się kwestią przetrwania biznesowego. Wejście w życie rygorystycznych wymogów dyrektywy NIS2 oraz ewolucja interpretacji RODO sprawiły, że każda luka w infrastrukturze – w tym ta „stojąca w kącie korytarza” – może stać się powodem dotkliwych kar finansowych. Dla audytora drukarka nie jest już urządzeniem peryferyjnym; jest węzłem przetwarzającym dane, który musi spełniać standardy tzw. state-of-the-art w zakresie cyberbezpieczeństwa.

    Największym wyzwaniem dla inżynierów bezpieczeństwa jest dziś zapewnienie tzw. Root of Trust, czyli niezmiennego fundamentu zaufania do sprzętu. Standardowe zabezpieczenia software’owe to za mało. Jeśli firmware urządzenia zostanie podmieniony przez napastnika, żadne szyfrowanie plików nie pomoże.

    „Niezwykle istotne są funkcjonalności, które gwarantują integralność urządzenia, a więc dają pewność, że systemy urządzenia nie zostały zmienione w sposób nieautoryzowany. Z tego względu duże znaczenie mają funkcje automatycznego wykrywania poprawności oprogramowania systemowego oraz BIOS, a w przypadku ich zmiany, automatycznego przywracania ich właściwej wersji. Chroni to urządzenie na najbardziej podstawowym poziomie i zapewnia całościowe bezpieczeństwo. Drugą niezwykle ważną kwestią jest raportowanie wszelkich podejrzanych zdarzeń do odpowiedzialnych osób, przy czym istotne jest, nawet w najmniejszej organizacji, wyznaczenie takich osób i ustalenie procedury postępowania w takich przypadkach. Na koniec trzeba zaznaczyć, że aspekty techniczne to tylko część problemu bezpieczeństwa. Aby właściwie nim zarządzać, zwłaszcza w kontekście RODO, niezbędne jest wprowadzenie innych środków, związanych z ochroną dokumentów, przede wszystkim są to: bezpieczny wydruk i autoryzacja użytkowników.” – mówi Szymon Trela, Product Manager w Sharp Systems Business Polska.

    Podejście, o którym wspomina ekspert, idealnie wpisuje się w koncepcję Security by Design. Mechanizmy „samoleczącego się” BIOS-u (Self-Healing BIOS) to dziś kluczowy parametr, na który powinny patrzeć działy zakupów. Z perspektywy NIS2, urządzenie, które potrafi samo wykryć manipulację we własnym kodzie i przywrócić bezpieczną wersję oprogramowania, drastycznie obniża ryzyko w łańcuchu dostaw.

    Jednak technologia to tylko połowa sukcesu. RODO wymaga od nas dowodów na ochronę danych osobowych w każdym punkcie styku. Dlatego funkcje takie jak Secure Print, wymagający przyłożenia karty zbliżeniowej lub wpisania kodu PIN przy urządzeniu, przestają być wygodnym dodatkiem, a stają się niezbędnym środkiem kontroli. Bez nich każda lista płac czy umowa pozostawiona na tacy odbiorczej jest potencjalnym incydentem bezpieczeństwa, który w 2026 roku musisz zaraportować do organu nadzorczego w ciągu 72 godzin.

  • Podatek od Azure? Brytyjski sąd otwiera drogę do miliardowego procesu przeciwko Microsoftowi

    Podatek od Azure? Brytyjski sąd otwiera drogę do miliardowego procesu przeciwko Microsoftowi

    Londyński Trybunał Apelacyjny ds. Konkurencji (CAT) podjął decyzję, która może fundamentalnie zmienić europejski rynek infrastruktury chmurowej. Microsoft, po miesiącach prób oddalenia roszczeń, musi przygotować się na masowy proces sądowy. Stawką jest 2,1 miliarda funtów odszkodowania oraz przyszłość strategii licencjonowania, która od lat budzi kontrowersje wśród dyrektorów finansowych i technologicznych na całym świecie.

    Sprawa, prowadzona przez Marię Luisę Stasi w imieniu blisko 60 tysięcy brytyjskich firm, uderza w samo serce modelu biznesowego Microsoftu. Sedno sporu nie dotyczy samej jakości usług chmurowych, lecz sposobu, w jaki gigant z Redmond wycenia licencje na oprogramowanie Windows Server. Według pozywających, Microsoft stosuje dyskryminacyjną politykę cenową: firmy decydujące się na uruchomienie Windows Server na platformach konkurentów, takich jak Amazon Web Services, Google Cloud czy Alibaba, płacą znacznie wyższe stawki hurtowe niż użytkownicy wybierający natywne środowisko Azure.

    Z perspektywy biznesowej oznacza to, że Azure nie wygrywa wyłącznie sprawnością technologiczną, ale sztucznie wygenerowaną przewagą kosztową. Dla wielu organizacji, które historycznie opierały swoją infrastrukturę na rozwiązaniach Microsoftu, przejście do konkurencyjnej chmury wiąże się z ukrytym „podatkiem”, który ostatecznie obciąża ich marże lub jest przerzucany na klientów końcowych.

    Microsoft konsekwentnie broni swojej strategii, argumentując, że zintegrowany model biznesowy sprzyja innowacyjności i pozwala na oferowanie lepszych rozwiązań w ramach własnego ekosystemu. Przedstawiciele firmy zapowiadają odwołanie, podważając metodykę wyliczania rzekomych strat i wskazując na dynamiczny charakter rynku chmurowego.

    Jednak decyzja londyńskiego trybunału zbiega się w czasie z rosnącą presją regulacyjną. Brytyjski Urząd ds. Konkurencji i Rynków (CMA) oraz organy w UE i USA coraz uważniej przyglądają się praktykom ograniczającym interoperacyjność oprogramowania.

    Rynek nie chce dłużej akceptować bezkarnego lock-inu technologicznego. Jeśli Microsoft przegra lub zostanie zmuszony do ugody, będziemy świadkami nie tylko gigantycznych wypłat odszkodowań, ale przede wszystkim wyrównania szans cenowych w chmurze. Może to otworzyć drogę do nowej fali migracji danych, gdzie o wyborze dostawcy decydować będzie wydajność, a nie zawiłe i kosztowne zapisy licencyjne.

  • Oszustwa na Facebooku i Instagramie. Meta przed sądem za zyski z reklam

    Oszustwa na Facebooku i Instagramie. Meta przed sądem za zyski z reklam

    Dla gigantów technologicznych granica między agresywną monetyzacją a bezpieczeństwem użytkowników od lat jest przedmiotem dyskusji, ale nowa skarga zbiorowa przeciwko Meta Platforms może przenieść ten spór na zupełnie inny poziom finansowej odpowiedzialności. Amerykańska Federacja Konsumentów (CFA) uderza w czuły punkt imperium Marka Zuckerberga, stawiając tezę, że model biznesowy spółki nie tylko toleruje, ale wręcz systemowo premiuje oszukańcze kampanie reklamowe.

    Sprawa, która trafiła do Sądu Najwyższego w Waszyngtonie, opiera się na wyjątkowo obciążających danych, rzekomo pochodzących z wnętrza samej korporacji. Według szacunków Meta na rok 2024, każdego dnia użytkownicy Facebooka i Instagrama mogli oglądać nawet 15 miliardów reklam sklasyfikowanych jako „wysokiego ryzyka”. To, co dla konsumenta jest zagrożeniem, dla akcjonariusza stało się wymiernym zyskiem. Skarga sugeruje, że przychody z tego tytułu mogły osiągnąć 7 miliardów dolarów rocznie, a wewnętrzne prognozy firmy wskazywały, że nawet co dziesiąty dolar zarobiony przez Meta może pochodzić z wyświetlania treści zakazanych lub oszukańczych.

    Dla kadry menedżerskiej i inwestorów kluczowym aspektem tej batalii jest nie tylko kwestia wizerunkowa, ale przede wszystkim trwałość systemów reklamowych. CFA rzuca światło na tzw. „konta agencji” i współpracę z partnerami w Chinach, którzy działają jako pośrednicy w odsprzedaży reklam. Ten złożony ekosystem, mający na celu maksymalizację zasięgów, stał się – według oskarżycieli – kanałem ułatwiającym wprowadzanie w błąd milionów ludzi przy jednoczesnym zachowaniu bezpiecznego dystansu korporacyjnego od samych nadużyć.

    Meta nie pozostaje dłużna, twierdząc, że zarzuty budują fałszywy obraz jej działań. Firma podkreśla, że intensyfikuje procesy weryfikacji reklamodawców i wprowadza blokady na przekierowywanie z reklam finansowych do prywatnych komunikatorów, co jest typowym mechanizmem w scenariuszach wyłudzeń. Jednak dla rynku technologicznego ten proces to sygnał, że wreszcie czas, w którym platformy mogły powoływać się na status „neutralnego pośrednika”, dobiega końca.

  • Wyciek kontrowersyjnego modelu Claude Mythos. Anthropic bada incydent bezpieczeństwa

    Wyciek kontrowersyjnego modelu Claude Mythos. Anthropic bada incydent bezpieczeństwa

    Anthropic, jedna z czołowych sił w sektorze sztucznej inteligencji, mierzy się z poważnym wyzwaniem wizerunkowym i operacyjnym. Jak donosi Bloomberg News, najbardziej zaawansowany model firmy, Claude Mythos Preview, wyciekł do małej grupy nieautoryzowanych użytkowników. Incydent ten ma miejsce w kluczowym momencie dla startupu, który właśnie pozycjonuje swoją technologię jako fundament nowej ery cyberbezpieczeństwa.

    Wyciek nastąpił 7 kwietnia, dokładnie w dniu, w którym Anthropic ogłosił „Projekt Glasswing”. Inicjatywa ta miała umożliwić wybranym organizacjom testowanie modelu Mythos w kontrolowanych warunkach, głównie w celu wzmocnienia obrony przed atakami cyfrowymi. Tymczasem grupa użytkowników na prywatnym forum internetowym uzyskała dostęp do narzędzia niemal natychmiast po oficjalnej zapowiedzi. Choć z raportów wynika, że model nie został dotychczas wykorzystany do celów przestępczych, fakt jego regularnego używania poza kontrolą producenta budzi uzasadniony niepokój.

    Rzecznik Anthropic potwierdził, że firma bada sprawę, wskazując na środowisko zewnętrznego dostawcy jako prawdopodobne źródło wycieku. Incydent ten może skomplikować relacje Anthropic z organami regulacyjnymi. Mythos to model o bezprecedensowej zdolności identyfikowania luk w oprogramowaniu. To narzędzie „podwójnego zastosowania” – w rękach obrońców łata systemy, ale w rękach hakerów może stać się precyzyjną bronią. Utrata kontroli nad tak potężnym zasobem, nawet jeśli tymczasowa, wzmacnia argumenty zwolenników ścisłego nadzoru nad modelami o krytycznym znaczeniu dla bezpieczeństwa narodowego. Anthropic musi teraz udowodnić, że potrafi skutecznie chronić technologię, która ma chronić świat.

  • eAuditor V10 AI – skalowalność i elastyczność w nowoczesnym zarządzaniu IT

    eAuditor V10 AI – skalowalność i elastyczność w nowoczesnym zarządzaniu IT

    eAuditor to zaawansowana platforma do zarządzania i zapewnienia bezpieczeństwa IT, która w wersji V10 AI wprowadza istotne udoskonalenia oraz nowe możliwości operacyjne. System oferuje pełną swobodę w doborze technologii – od wsparcia dla baz danych open-source i rozwiązań kontenerowych, po obsługę alternatywnych platform wirtualizacji. Pozwala na budowę wydajnych środowisk dopasowanych do wyzwań rynkowych oraz optymalizację kosztów poprzez odejście od ograniczających modeli licencyjnych.

    Nowości w eAuditor V10 AI

    Poznaj kluczowe nowości i usprawnienia wprowadzone w systemie:

    • Obsługa wirtualizacji Proxmox: Rozszerzenie wsparcia o środowiska open source, wykorzystywane m.in. jako alternatywa dla VMware.
    • Architektura oparta na kontenerach: Wsparcie dla technologii Docker, Kubernetes oraz OpenShift w modelu on-premise, co zapewnia błyskawiczną skalowalność i łatwiejsze zarządzanie aplikacjami.
    • Natywne wsparcie dla PostgreSQL: Implementacja nowego silnika bazy danych pozwalająca na pełną optymalizację kosztów operacyjnych poprzez eliminację konieczności zakupu licencji MS SQL Server.
    • Mobilny Panel Użytkownika: Dedykowana aplikacja dla systemu Android, która integruje procesy obsługi zgłoszeń serwisowych w ramach systemów eAuditor oraz eHelpDesk, zwiększając dostępność wsparcia technicznego.

    Kluczowe przewagi i korzyści eAuditor V10 AI

    Zmiany wprowadzone w eAuditor V10 AI przekładają się bezpośrednio na wartość biznesową:

    • niższe koszty wdrożenia i utrzymania – dzięki wykorzystaniu PostgreSQL oraz technologii open source,
    • lepsze dopasowanie do zmian rynkowych – migracja z VMware do Proxmox bez utraty widoczności środowiska,
    • większa elastyczność infrastruktury – dzięki wsparciu dla technologii kontenerowych (Docker, Kubernetes),
    • wyższa efektywność pracy użytkowników – poprzez wprowadzenie nowego interfejsu (GUI) oraz Mobilnego Panelu Użytkownika na system Android.

    źródło: BTC

  • Google musi udostępnić dane wyszukiwania. Nowa propozycja Komisji Europejskiej

    Google musi udostępnić dane wyszukiwania. Nowa propozycja Komisji Europejskiej

    Przez dekady rynkowa dominacja Google opierała się na prostym, ale potężnym mechanizmie: pętli informacji zwrotnej. Im więcej osób korzystało z wyszukiwarki, tym więcej danych o kliknięciach i zachowaniach gromadził gigant, co pozwalało mu jeszcze precyzyjniej dopracowywać algorytmy. Ten „fos dany” (data moat) był dotychczas nie do przebicia dla konkurencji. Jednak nowa propozycja Komisji Europejskiej, oparta na przepisach ustawy o rynkach cyfrowych (DMA), może trwale zmienić układ sił na europejskim rynku technologicznym.

    Przymusowe dzielenie się paliwem dla AI

    Zgodnie z ogłoszonym planem, Google zostanie zobowiązane do udostępnienia kluczowych informacji — w tym rankingów, zapytań, kliknięć i wyświetleń — podmiotom trzecim. Choć na liście beneficjentów znajdują się klasyczne wyszukiwarki, prawdziwa stawka toczy się o nową generację usług: **chatboty AI zintegrowane z funkcjami wyszukiwania**. W dobie rewolucji generatywnej sztucznej inteligencji, dane o tym, czego szukają i w co klikają użytkownicy, są najcenniejszym zasobem treningowym.

    Komisja Europejska, reprezentowana przez Hennę Virkkunen, jasno daje do zrozumienia, że celem jest wymuszenie innowacji w momencie, gdy usługi wyszukiwania i AI stają się niemal jednością. Dla startupów technologicznych i mniejszych graczy to szansa na przeskoczenie bariery wejścia, która do tej pory wydawała się nie do pokonania bez miliardowych budżetów na pozyskiwanie ruchu.

    Gra o rynkowe zasady i prywatność

    Google, co nie jest zaskoczeniem, próbowało zablokować te regulacje na drodze odwoławczej, argumentując to ochroną swojej własności intelektualnej i prywatności użytkowników. Bruksela odpowiada jednak rygorystycznymi wymogami dotyczącymi anonimizacji danych osobowych. Co istotne dla biznesu, dostęp do danych nie będzie darmowym przywilejem. Komisja zapowiada wprowadzenie parametrów cenowych, które mają być „zgodne z rynkiem i niedyskryminacyjne”, co sugeruje powstanie nowego, regulowanego rynku obrotu danymi wyszukiwania.

    Kalendarz zmian dla sektora Big Tech

    Harmonogram jest napięty i nie pozostawia Google dużego pola manewru. Konsultacje społeczne potrwają do 1 maja, a ostateczna decyzja, która stanie się wiążąca, zapadnie najpóźniej **27 lipca 2026 roku. Dla liderów biznesu i inwestorów przekaz jest czytelny: Bruksela kończy z polityką „laissez-faire” wobec algorytmicznych gigantów. Jeśli propozycja wejdzie w życie, przewaga Google przestanie wynikać z samego posiadania danych, a zacznie zależeć wyłącznie od tego, jak skutecznie potrafi je przetwarzać w starciu z nową, wzmocnioną przez regulatora konkurencją.

  • Kryzys wydajności AI. Dlaczego GitHub blokuje dostęp do nowych kont Copilot?

    Kryzys wydajności AI. Dlaczego GitHub blokuje dostęp do nowych kont Copilot?

    Decyzja GitHub o tymczasowym wstrzymaniu nowych rejestracji w planach Pro, Pro+ oraz subskrypcjach studenckich to rzadki w świecie Big Tech moment, w którym popyt na sztuczną inteligencję brutalnie zderza się z fizycznymi ograniczeniami infrastruktury. Microsoft, właściciel platformy, przyznaje wprost: Copilot stał się ofiarą własnego sukcesu. Narzędzie zużywa zasoby w tempie, którego pierwotny model biznesowy po prostu nie przewidział.

    To, co początkowo wyglądało na problem techniczny, w rzeczywistości obnaża głębszy kryzys „ekonomii tokenów”. Programiści przestali traktować Copilota jak prosty autouzupełniacz kodu, a zaczęli wykorzystywać go do kompleksowych zadań architektonicznych i głębokiego refaktoryzacji. Tak zaawansowane operacje wymagają gigantycznej mocy obliczeniowej i generują koszty, które zaczynają nadwyrężać marże GitHub. Firma przyznała, że obecne obciążenie „znacznie przewyższa” założenia, na których oparto strukturę planów subskrypcyjnych.

    Wprowadzenie blokady dla nowych użytkowników ma chronić doświadczenia tych, którzy już płacą, ale nawet oni muszą przygotować się na zaciskanie pasa. GitHub ogłosił wprowadzenie rygorystycznych limitów sesyjnych i tygodniowych, co de facto kończy erę nielimitowanego wsparcia AI. Najbardziej bolesnym cięciem dla profesjonalistów jest uszczuplenie biblioteki dostępnych modeli. Z subskrypcji Pro i Pro+ zniknęły Claude Opus 4.5 oraz 4.6, pozostawiając jedynie najnowszą wersję 4.7 jako propozycję z najwyższej półki.

    GitHub otwarcie zachęca programistów do „oszczędności” i częstszego korzystania z mniejszych, tańszych modeli, gdy tylko jest to możliwe. To strategiczny zwrot, który wymusi na działach IT nową formę higieny pracy – zarządzanie budżetem tokenów stanie się tak samo istotne, jak zarządzanie budżetem na usługi chmurowe.

    Obecny paraliż rejestracji jest prawdopodobnie tylko chwilową przerwą potrzebną na przeformatowanie oferty. Możemy się spodziewać, że gdy Copilot wróci do sprzedaży, jego cennik będzie znacznie bardziej odzwierciedlał realne koszty procesowe, być może przechodząc na model „pay-as-you-go” dla najbardziej wymagających zadań. Microsoft udowadnia, że nawet przy nieograniczonym kapitale, moce obliczeniowe pozostają zasobem rzadkim, którym trzeba zarządzać z bezwzględną dyscypliną.

  • Komisja Europejska uniezależnia się od Big Tech. Wybrano 4. dostawców kontraktu za 180 mln euro

    Komisja Europejska uniezależnia się od Big Tech. Wybrano 4. dostawców kontraktu za 180 mln euro

    Komisja Europejska przestała jedynie teoretyzować o „cyfrowej suwerenności” i zaczęła za nią płacić. Poprzez rozstrzygnięcie wartego 180 milionów euro przetargu na usługi w chmurze, Bruksela wysyła czytelny sygnał: zależność od technologii z Doliny Krzemowej ma swoje granice, zwłaszcza gdy w grę wchodzą dane krytyczne dla funkcjonowania unijnych instytucji. Wybór czterech europejskich podmiotów to nie tylko ruch administracyjny, ale przede wszystkim strategiczny test dojrzałości kontynentalnego ekosystemu tech.

    W gronie beneficjentów sześcioletniego kontraktu znalazła się ciekawa mozaika biznesowa. Z jednej strony mamy graczy stricte technologicznych, jak francuski Scaleway (część grupy Iliad) czy konsorcjum wokół OVHcloud pod wodzą Post Telecom. Z drugiej – potęgi handlowe, jak niemiecki STACKIT, należący do Grupy Schwarz (właściciela Lidla), co pokazuje, że infrastruktura chmurowa staje się kluczowym aktywem nawet dla gigantów handlu detalicznego. Stawkę zamyka belgijski Proximus, który w ramach partnerstwa S3NS współpracuje z Google Cloud, co dowodzi, że europejska suwerenność nie musi oznaczać całkowitej izolacji, a raczej umiejętne zarządzanie „mostami” z amerykańską technologią

    Kluczem do zrozumienia tego kontraktu jest nowy system certyfikacji SEAL. Komisja odeszła od ogólnikowych deklaracji na rzecz ośmiu mierzalnych kryteriów, oceniających m.in. odporność na obce jurysdykcje i kontrolę nad łańcuchem dostaw. Większość wybranych dostawców osiągnęła poziom SEAL-3, co w praktyce oznacza, że ich usługi są zaprojektowane tak, by uniemożliwić ingerencję podmiotom spoza UE. To próba stworzenia standardu, który mógłby stać się wzorcem dla sektora bankowego czy energetycznego w całej Europie.

    Z biznesowego punktu widzenia kwota 180 milionów euro rozłożona na sześć lat jest skromna w porównaniu z budżetami R&D takich gigantów jak AWS czy Azure. Jednak znaczenie tego kontraktu wykracza poza czysty zysk. Dla wybranych firm to ostateczny „stempelek” wiarygodności, który ułatwi im walkę o klientów korporacyjnych bojących się tzw. vendor lock-in, czyli uzależnienia od jednego dostawcy. 

  • NSA używa Claude Mythos mimo oficjalnego zakazu Pentagonu

    NSA używa Claude Mythos mimo oficjalnego zakazu Pentagonu

    Jak podaje Axios, powołując się na źródła zbliżone do wywiadu, Narodowa Agencja Bezpieczeństwa (NSA) aktywnie korzysta z najnowszego modelu Anthropic – Claude Mythos. Nie byłoby w tym nic nadzwyczajnego, gdyby nie fakt, że ta sama administracja oficjalnie uznała Anthropic za firmę stanowiącą „ryzyko dla łańcucha dostaw”, co teoretycznie powinno zamykać jej drzwi do rządowych kontraktów.

    To pęknięcie wewnątrz amerykańskiego aparatu bezpieczeństwa świadczy o szerszym problemie: napięcie między etyką twórców AI a militarnymi ambicjami państwa. Anthropic trafił na czarną listę nie z powodu technicznych luk czy powiązań z obcym wywiadem, lecz w wyniku ideologicznego starcia. Firma odmówiła Pentagonowi zgody na wykorzystanie swoich modeli do masowej inwigilacji obywateli oraz rozwoju autonomicznych systemów bojowych. W odpowiedzi Sekretarz Obrony Pete Hegseth nadał spółce etykietę ryzyka, zarezerwowaną dotąd dla podmiotów powiązanych z autorytarnymi reżimami.

    Dla biznesu technologicznego ta sytuacja jest lekcją pragmatyzmu. NSA, której statutowym zadaniem jest łamanie szyfrów i ofensywa w cyberprzestrzeni, uznała najwyraźniej, że Claude Mythos jest zbyt potężnym narzędziem, by z niego zrezygnować. Model ten wykazuje nadzwyczajną skuteczność w identyfikowaniu błędów typu zero-day oraz znajdowaniu backdoorów w obcym oprogramowaniu. W obliczu tak unikalnych zdolności, polityczne deklaracje Pentagonu schodzą na dalszy plan.

    Obecny stan rzeczy to klasyczna biurokratyczna farsa o poważnych skutkach rynkowych. Podczas gdy Pentagon publicznie ostrzega przed Anthropic, służby wywiadowcze podpisują z firmą nowe umowy, argumentując to potrzebami bezpieczeństwa państwa. Tworzy to niebezpieczny precedens, w którym etykiety bezpieczeństwa są używane jako narzędzie nacisku w negocjacjach kontraktowych, a nie jako realna ocena zagrożenia.

    Wartość techniczna AI staje się silniejsza niż polityczny arbitraż. Anthropic walczy obecnie o odzyskanie dobrego imienia na drodze prawnej, ale to rzeczywiste zapotrzebowanie ze strony agencji takich jak NSA może okazać się ich najskuteczniejszą linią obrony.

  • Nowa strategia Meta. Pracownicy uczą swoich następców AI

    Nowa strategia Meta. Pracownicy uczą swoich następców AI

    Wewnątrz Menlo Park zachodzi właśnie fundamentalna zmiana w definicji pracy umysłowej. Meta, pod wodzą Marka Zuckerberga, wdraża system, który przekształca codzienne czynności inżynierów i menedżerów w surowiec do budowy autonomicznych agentów AI. Program o nazwie Model Capability Initiative (MCI) to nie tylko nowe narzędzie monitorujące, ale przede wszystkim sygnał, że Dolina Krzemowa wchodzi w nową, agresywną fazę automatyzacji.

    Zgodnie z wewnętrznymi notatkami firmy, MCI rejestruje ruchy myszy, kliknięcia oraz naciśnięcia klawiszy pracowników w USA. Narzędzie wykonuje również okazjonalne migawki ekranu, aby nauczyć modele AI subtelności ludzkiej interakcji z oprogramowaniem – od obsługi skrótów klawiaturowych po nawigację w złożonych menu rozwijanych. To, co dotychczas było intuicyjnym, ludzkim rzemiosłem, staje się zestawem danych treningowych.

    Dyrektor techniczny Meta, Andrew Bosworth, nie pozostawia złudzeń co do celu tej inicjatywy, działającej obecnie w ramach programu Agent Transformation Accelerator (ATA). Wizja firmy zakłada świat, w którym to agenci AI wykonują większość pracy, a rola człowieka zostaje zredukowana do funkcji nadzorcy i korektora. Aby to osiągnąć, Meta musi najpierw „sklonować” behawioralne wzorce swoich najlepszych specjalistów.

    Strategia ta jest nierozerwalnie związana z głęboką przebudową struktury zatrudnienia. Meta nie tylko planuje kolejne redukcje etatów, ale również zaciera granice między tradycyjnymi rolami, wprowadzając uniwersalny tytuł „konstruktora AI”. Powstanie zespołu Applied AI (AAI) ma na celu stworzenie systemów zdolnych do samodzielnego pisania, testowania i wysyłania kodu. W tym modelu inżynier oprogramowania przestaje być twórcą, a staje się nauczycielem algorytmu, który docelowo ma go zastąpić w powtarzalnych procesach.

    Inicjatywa ta budzi jednak poważne pytania o granice nadzoru w sektorze white-collar. O ile śledzenie ruchów w czasie rzeczywistym było dotychczas domeną pracowników logistyki czy kierowców dostawczych, o tyle przeniesienie tych metod do biur inżynierskich stanowi precedens. Eksperci prawni wskazują na głęboki rozdźwięk między liberalnym podejściem w USA a rygorystycznymi przepisami w Europie. Podczas gdy w Stanach Zjednoczonych nadzór ten jest prawnie dopuszczalny, w Unii Europejskiej regulacje GDPR oraz krajowe przepisy o ochronie pracy prawdopodobnie uniemożliwiłyby wdrożenie MCI na taką skalę.

    Rzecznik Meta, Andy Stone, zapewnia, że dane nie służą do oceny wydajności, a firma stosuje zabezpieczenia chroniące wrażliwe treści. Jednak dla rynku biznesowego lekcja jest jasna: Meta stawia wszystko na jedną kartę. Jeśli eksperyment z „Agent Transformation” się powiedzie, firma zyska przewagę efektywnościową, której konkurencja może nie być w stanie nadrobić bez podobnego naruszenia prywatności swoich kadr.

  • AI może zdobyć doktorat z fizyki, ale nie odczyta zegarka

    AI może zdobyć doktorat z fizyki, ale nie odczyta zegarka

    Sztuczna inteligencja AD 2026 przypomina genialnego polimatę, który w poniedziałek broni doktoratu z fizyki kwantowej, by we wtorek oblać test z wiązania sznurowadeł. Według najnowszego raportu Artificial Index Report 2026 Uniwersytetu Stanforda, znaleźliśmy się w punkcie, w którym algorytmy nie tylko dogoniły, ale i przegoniły ludzkich ekspertów w naukach ścisłych oraz rozumowaniu multimodalnym. To już nie jest ewolucja; to cyfrowy blitzkrieg, w którym sektor przemysłowy produkuje ponad 90% czołowych modeli, a cztery na pięć osób na uniwersytetach traktuje AI jak trzecią półkulę mózgu.

    Jednak ten błyskotliwy obraz ma swoją rysę, którą badacze nazywają „poszarpaną granicą” (jagged frontier). To fascynujący paradoks: model, który bez mrugnięcia okiem rozwiązuje zadania z matematyki olimpijskiej, kapituluje przed… tarczą analogowego zegarka. Przykład Gemini Deep Think, który poprawnie odczytuje czas jedynie w 50,1% przypadków, jest równie komiczny, co otrzeźwiający.

    Przywykliśmy do myślenia o postępie jako o wznoszącej się, gładkiej linii. Raport Stanforda brutalnie weryfikuje to przekonanie. Pokazuje technologię o niemal boskich możliwościach analitycznych, która jednocześnie potyka się o progi, przez które przedszkolak przechodzi bez wysiłku. Oznacza to, że wdrażamy systemy, które są jednocześnie nadludzko mądre i boleśnie naiwne. Kluczową kompetencją w IT nie jest już samo „wdrażanie AI”, lecz precyzyjne mapowanie tych niewidzialnych urwisk, na których kończy się logika maszyny, a zaczyna jej cyfrowa krótkowzroczność.

    Szczyty możliwości: Kiedy algorytm zawstydza naukowca

    Kiedy spojrzymy na twarde dane z testu SWE Bench-Verified, można odnieść wrażenie, że programiści powinni powoli rozważać zmianę profesji na hodowlę gęsi. Wynik skaczący z 60% do 100% w ciągu zaledwie dwunastu miesięcy to całkowite przejęcie kontroli nad piaskownicą, w której do niedawna rządzili ludzie. AI osiąga dziś poziom doktorancki w naukach ścisłych i miażdży matematyczną konkurencję, stając się partnerem analitycznym, o jakim marzyliśmy od dekad.

    Problem pojawia się jednak wtedy, gdy ten sam cyfrowy tytan musi spojrzeć na ścianę. Dosłownie. Wspomniany przypadek Gemini Deep Think i jego 50,1-procentowa skuteczność w odczytywaniu zegara analogowego to manifestacja jagged frontier – zjawiska, w którym granica możliwości algorytmu nie jest linią ciągłą, lecz postrzępioną granią. Maszyna rozumuje multimodalnie, operuje na abstrakcjach, których nie ogarniamy, a jednocześnie potyka się o proste mechanizmy percepcji, które my opanowaliśmy w wieku sześciu lat.

    Podobnie rzecz ma się z agentami AI. Ich skuteczność w zadaniach operacyjnych w środowisku OSWorld wzrosła spektakularnie – z niszowych 12% do imponujących 66%. Brzmi to jak sukces, dopóki nie uświadomimy sobie, że w biznesowej praktyce oznacza to błąd w co trzeciej próbie. W ustrukturyzowanym świecie korporacyjnych systemów, margines błędu rzędu 33% to nie „postęp”, lecz potężne ryzyko operacyjne. 

    Ta nieregularność sprawia, że AI jest jak genialny pianista, który potrafi zagrać najtrudniejszą sonatę Liszta, ale nie zawsze trafia w klawisze, gdy ma wykonać „Wlazł kotek na płotek”. To właśnie ta nieprzewidywalność, a nie brak mocy obliczeniowej, jest dziś największym wyzwaniem dla architektów systemów IT. Musimy nauczyć się zarządzać technologią, która jest jednocześnie wszechwiedząca i… rozbrajająco nieuważna.

    Ściana, której nie widać: Gemini i nieszczęsny zegarek

    Wdrażanie sztucznej inteligencji w organizacjach osiągnęło w 2026 roku oszałamiający poziom 88%. W świecie biznesu to wynik bliski plebiscytowi na oddychanie – niemal wszyscy to robią, bo nikt nie chce zostać w cyfrowym skansenie. Jednak ta masowa ucieczka do przodu odbywa się przy akompaniamencie niepokojącego zgrzytu hamulców, a raczej ich chronicznego braku. Raport Stanforda bije na alarm: odpowiedzialna AI nie rozwija się w tym samym tempie co jej surowe możliwości.

    W ostatnim roku liczba udokumentowanych incydentów związanych z AI wzrosła do 362, co przy 233 przypadkach rok wcześniej powinno dać decydentom do myślenia. To już nie są teoretyczne błędy w sterylnych laboratoriach, ale realne potknięcia na styku technologii i rynku. Co gorsza, inżynierowie stają przed innowacyjnym paragrafem 22: bezpieczeństwo kontra precyzja. Badania wykazują, że próby „okiełznania” modeli i nałożenia na nie etycznych kagańców często skutkują spadkiem ich skuteczności. Chcemy, by AI była bezpieczna, ale gdy staje się zbyt ostrożna, przestaje dostarczać te genialne wyniki, dla których ją zatrudniliśmy.

    To klasyczny pat technologiczny. Prawie wszyscy twórcy topowych modeli chętnie chwalą się rekordami wydajności, ale gdy przychodzi do raportowania testów odpowiedzialności, w branży nagle zapada znacząca cisza. Sektor IT pędzi w stronę horyzontu bolidem, w którym pasy bezpieczeństwa wciąż są w fazie koncepcyjnej. 

    Biznes na krawędzi: 88% adopcji i brak hamulców

    Geopolityczna szachownica AI w 2026 roku przypomina partię, w której dotychczasowy arcymistrz, USA, zaczyna nerwowo spoglądać na zegar – i to nie tylko dlatego, że Gemini ma problem z jego odczytaniem. Choć amerykańskie dolary wciąż płyną szerokim strumieniem, przewaga technologiczna nad Chinami niemal całkowicie stopniała. Co gorsza, najcenniejsza amunicja w tym wyścigu – ludzki geniusz – zaczyna wyparowywać z Doliny Krzemowej.

    Dramatyczny, 89-procentowy spadek liczby badaczy AI przenoszących się do Stanów Zjednoczonych od 2017 roku (z czego aż 80% przypada na ostatni rok!) to bolesny efekt uboczny polityki migracyjnej i rosnących kosztów wiz H-1B. Podczas gdy USA stawiają na potężne centra danych, Chiny przejmują prym w patentach, robotyce przemysłowej i liczbie publikacji naukowych. Na mapie innowacji rozbłyskują też nowe punkty: Korea Południowa dominuje w gęstości patentowej, a Singapur i Zjednoczone Emiraty Arabskie stają się poligonami najszybszej adopcji technologii na świecie, zostawiając gigantów w tyle.

    W tym nowym rozdaniu kluczową rolę odgrywa ruch open source, który skutecznie demokratyzuje dostęp do AI, oraz kwestia zaufania społecznego. Istnieje tu gigantyczny rozdźwięk: 73% ekspertów widzi w AI świetlaną przyszłość, ale tylko 23% opinii publicznej podziela ten entuzjazm. Wygrają te regiony, które potrafią ten lęk oswoić. Europejski model regulacji, choć często krytykowany za powolność, buduje fundament zaufania, którego w USA – przy rekordowo niskim poziomie wiary w rząd – dramatycznie brakuje.

    Konkluzja? Sukces w IT nie polega już tylko na posiadaniu najmocniejszego modelu, ale na nawigowaniu w geopolitycznej i ludzkiej tkance, w której ten model funkcjonuje. AI to nowa forma narodowej suwerenności – a tej nie buduje się wyłącznie na krzemie, lecz przede wszystkim na otwartych drzwiach dla talentów i mądrym, godnym zaufania prawie.

  • Gigantyczna inwestycja w Anthropic. Amazon cementuje dominację AWS

    Gigantyczna inwestycja w Anthropic. Amazon cementuje dominację AWS

    Amazon ogłosił rozszerzenie inwestycji w Anthropic o kolejne 25 miliardów dolarów, co w połączeniu z wcześniejszymi nakładami czyni ten startup centralnym punktem strategii AWS. Nie jest to jednak jednostronny przepływ kapitału. W ramach wzajemnego zobowiązania Anthropic wyda w ciągu najbliższej dekady ponad 100 miliardów dolarów na infrastrukturę chmurową Amazona, co de facto cementuje najpotężniejszy sojusz technologiczny tej dekady.

    Dla Andy’ego Jassy’ego, dyrektora generalnego Amazon, umowa ta jest kluczowym elementem walki o uniezależnienie się od zewnętrznych dostawców procesorów. Kluczowym punktem porozumienia nie są same dolary, lecz „niestandardowy krzem”. Anthropic zobowiązał się do wykorzystania chipów Trainium2 i Trainium3 do trenowania swoich najbardziej zaawansowanych modeli Claude. Do końca roku startup planuje zagospodarować 1 gigawat mocy obliczeniowej opartej na autorskich rozwiązaniach Amazona, docelowo celując w pięciokrotnie wyższą wartość. To jasny sygnał dla rynku: Amazon nie chce być jedynie pośrednikiem w sprzedaży mocy obliczeniowej opartej na układach Nvidia, ale dąży do stworzenia pełnego, pionowo zintegrowanego stosu technologicznego.

    Strategia Amazona wydaje się być wyjątkowo pragmatyczna i wielotorowa. Podczas gdy Microsoft postawił niemal wszystko na jedną kartę w postaci OpenAI, Amazon dywersyfikuje ryzyko. Niedawna deklaracja o zainwestowaniu 50 miliardów dolarów w OpenAI, zestawiona z obecnym ruchem wobec Anthropic, pozycjonuje AWS jako „neutralną fabrykę” dla największych graczy AI. Amazon akceptuje fakt, że jego własne modele, jak Nova, mogą nie zawsze znajdować się w ścisłej czołówce, dopóki to właśnie na jego infrastrukturze powstają fundamenty nowej gospodarki.

    Rynek AI wchodzi w fazę dojrzałej konsolidacji opartej na gigantycznych wydatkach kapitałowych. Przy przewidywanych 200 miliardach dolarów wydatków kapitałowych Amazona w tym roku, bariera wejścia dla potencjalnych konkurentów chmurowych staje się niemal nie do pokonania. Prawdziwa walka nie toczy się już tylko o to, kto stworzy inteligentniejszy model, ale o to, kto posiada fizyczną kontrolę nad energią i krzemem, na których ta inteligencja operuje. Kurs akcji Amazona, rosnący po ogłoszeniu nowiny, sugeruje, że inwestorzy doceniają tę wizję bezpiecznej, dochodowej infrastruktury, która zarabia niezależnie od tego, który model AI ostatecznie wygra walkę o użytkownika końcowego.

  • Kim jest nowy CEO Apple?

    Kim jest nowy CEO Apple?

    Kiedy 1 września John Ternus oficjalnie przejmie stery w Cupertino, Apple nie tylko zyska nowego dyrektora generalnego, ale też jasno zadeklaruje swoją strategię na najbardziej niepewną dekadę w historii Doliny Krzemowej. Nominacja 50-letniego weterana inżynierii sprzętowej na następcę Tima Cooka to sygnał, że w świecie zachłyśniętym czystym oprogramowaniem AI, Apple zamierza bronić swojej pozycji za pomocą fizycznego produktu.

    Ternus przejmuje stery w momencie symbolicznym. Apple, długo piastujące miano najcenniejszej firmy świata, musiało ustąpić pola Nvidii – gigantowi napędzającemu infrastrukturę sztucznej inteligencji. Podczas gdy Microsoft i Google wydają miliardy na integrację modeli językowych z każdym aspektem swoich ekosystemów, Ternus wnosi do gabinetu CEO filozofię, którą można określić jako uparty pragmatyzm. Jego podejście, streszczone w haśle, że Apple „nie wysyła technologii, lecz produkty”, sugeruje, że firma nie zamierza ścigać się na liczbę parametrów w modelach AI, lecz na to, jak ta technologia zmieni codzienne interakcje z iPhonem czy komputerem Mac.

    Jego dotychczasowe osiągnięcia budują obraz lidera, który potrafi podejmować ryzyko tam, gdzie inni szukają bezpiecznych rozwiązań. To Ternus stał za przejściem linii Mac na autorskie procesory Apple Silicon, co zakończyło wieloletnią zależność od Intela i tchnęło nowe życie w segment komputerów osobistych. To on również nadzorował premierę iPhone’a Air oraz MacBooka Neo – urządzenia, które dzięki wykorzystaniu chipów z iPhone’a 16 Pro, agresywnie walczy o rynek ceną 599 dolarów.

    Wewnątrz firmy Ternus cieszy się opinią perfekcjonisty, co budzi skojarzenia z etosem pracy Steve’a Jobsa. Anegdoty o kłótniach z dostawcami o liczbę rowków na niewidocznej dla użytkownika śrubie monitora krążą po korytarzach Cupertino jako dowód na to, że Apple pod jego wodzą nie zamierza rezygnować z obsesji na punkcie detali. Analitycy podkreślają, że Ternus jest powszechnie lubiany i szanowany przez kadrę kierowniczą, co może ułatwić mu przeprowadzenie firmy przez trudny proces transformacji Siri i integracji z zewnętrznymi modelami, takimi jak te od Google czy OpenAI.

    Pytanie, przed którym stoi nowy CEO, wykracza jednak poza inżynierię sprzętową. Rywale, od Samsunga po Meta z jej okularami Ray-Ban AI, liczą na to, że skupienie Apple na urządzeniach okaże się ich piętą achillesową w erze, w której system operacyjny może zostać zastąpiony przez inteligentnego asystenta.

    Wyzwanie dla Ternusa jest jasne: musi udowodnić, że budowa świetnego sprzętu wciąż jest najlepszą formą ochrony platformy, a sztuczna inteligencja to jedynie kolejne narzędzie w rękach inżyniera, a nie cel sam w sobie. 1 września Apple pod wodzą Ternusa wejdzie w nową erę, w której pragmatyzm zostanie poddany ostatecznemu testowi rynkowemu.

  • Anthropic Mythos: Dlaczego Bundesbank ostrzega przed nowym modelem AI?

    Anthropic Mythos: Dlaczego Bundesbank ostrzega przed nowym modelem AI?

    Według Joachima Nagela, prezesa Bundesbanku, branża finansowa stanęła przed dylematem, w którym zaawansowana sztuczna inteligencja przestaje być asystentem, a staje się autonomicznym narzędziem zdolnym do destabilizacji globalnej infrastruktury.

    Obawy szefa niemieckiego banku centralnego koncentrują się na bezprecedensowych zdolnościach Mythos w zakresie kodowania i identyfikacji luk w zabezpieczeniach. Model ten wykazuje niemal instynktowną biegłość w znajdowaniu błędów w oprogramowaniu, co w rękach cyberprzestępców może oznaczać koniec bezpieczeństwa opartego na „legacy systems”. Wiele instytucji finansowych wciąż operuje na architekturze IT budowanej dekady temu, która choć stabilna, nie była projektowana z myślą o odpieraniu ataków generowanych przez maszynę myślącą szybciej niż jakikolwiek zespół ekspertów od cyberbezpieczeństwa.

    Nagel argumentuje, że obecna strategia Anthropic, polegająca na udostępnianiu Mythos jedynie wąskiej, wyselekcjonowanej grupie firm i organizacji, tworzy niebezpieczną asymetrię. Zamiast chronić rynek, ograniczony dostęp może pogłębić ryzyko systemowe. Jeśli tylko nieliczni posiadają tarczę o skuteczności Mythos, reszta sektora pozostaje wystawiona na strzał, co z perspektywy nadzorcy bankowego jest niedopuszczalnym zakłóceniem konkurencji. Postulat jest jasny: wszystkie istotne instytucje muszą mieć dostęp do tych samych narzędzi obronnych, aby uniknąć technologicznego rozwarstwienia, które mogłoby doprowadzić do efektu domina w przypadku udanego ataku na słabsze ogniwo.

    Perspektywa Bundesbanku wykracza jednak poza samo cyberbezpieczeństwo, uderzając w fundamenty polityki monetarnej. Nagel podważa powszechny optymizm, jakoby sztuczna inteligencja miała być lekiem na inflację poprzez wzrost produktywności. Wręcz przeciwnie, ostrzega przed presją cenową wynikającą z ogromnego zapotrzebowania na inwestycje w infrastrukturę AI oraz drastycznego wzrostu kosztów energii elektrycznej niezbędnej do zasilania centrów danych. 

    Najbardziej intrygujące jest jednak ostrzeżenie przed „milczącą zmową algorytmów”. Istnieją dowody sugerujące, że zaawansowane modele potrafią autonomicznie uczyć się optymalizacji zysków poprzez utrzymywanie cen powyżej poziomów konkurencyjnych, robiąc to bez bezpośredniej komunikacji między firmami.

    Dla banków centralnych, których zadaniem jest utrzymanie stabilności cen, ta nowa forma algorytmicznego ustalania stawek stanowi wyzwanie, które wymagać będzie zupełnie nowych narzędzi regulacyjnych. W świecie zdominowanym przez modele takie jak Mythos, czujność bankierów centralnych musi teraz obejmować nie tylko arkusze kalkulacyjne, ale i same linie kodu.

  • Wycena SpaceX może sięgnąć 1,75 bln dolarów. Rekordowe IPO na horyzoncie

    Wycena SpaceX może sięgnąć 1,75 bln dolarów. Rekordowe IPO na horyzoncie

    Kiedy SpaceX złożyło poufny prospekt emisyjny, rynek spodziewał się liczb wykraczających poza ziemską atmosferę. Jednak najnowsze szczegóły operacji, do których dotarły media, sugerują, że Elon Musk nie planuje jedynie debiutu giełdowego, lecz budowę najbardziej scentralizowanego i ambitnego konglomeratu technologicznego w historii. Z wyceną celującą w 1,75 biliona dolarów, SpaceX przestaje być postrzegane wyłącznie jako firma transportowa, stając się fundamentem pod infrastrukturę sztucznej inteligencji nowej generacji.

    Fundamentem tej transformacji jest zacieśnienie kontroli przez założyciela. W ubiegłym roku Musk wykupił od obecnych i byłych pracowników akcje o wartości 1,4 miliarda dolarów, co było sygnałem pewności siebie wysłanym do wewnętrznych interesariuszy tuż przed publicznym otwarciem. Model ładu korporacyjnego przewidziany po IPO nie pozostawia złudzeń co do tego, kto będzie trzymał stery. Dzięki dwuklasowej strukturze kapitałowej, akcje klasy B przyznają Muskowi i wąskiej grupie powierników dziesięciokrotnie większą siłę głosu niż standardowe udziały oferowane inwestorom publicznym. Takie rozwiązanie, choć znane z Doliny Krzemowej, w tym przypadku cementuje władzę Muska jako CEO, dyrektora technicznego i przewodniczącego rady nadzorczej w sposób niemal absolutny.

    Finanse firmy ujawniają jednak pewne napięcie między rentownym biznesem satelitarnym a ogromnymi apetytami inwestycyjnymi. Starlink, generujący 4,42 miliarda dolarów zysku operacyjnego, stał się „dojną krową”, która finansuje integrację z xAI – firmą Muska zajmującą się sztuczną inteligencją. Mimo że SpaceX odnotowało skonsolidowaną stratę w wysokości blisko 5 miliardów dolarów w 2025 roku, wynika ona głównie z agresywnego pivotu w stronę AI. Wydatki kapitałowe wzrosły pięciokrotnie w ciągu dwóch lat, osiągając poziom 20,7 miliarda dolarów, z czego ponad połowa została przeznaczona na infrastrukturę obliczeniową.

    To właśnie w tym miejscu pojawia się najbardziej futurystyczny element strategii: budowa centrów danych w kosmosie. Plan ten nie jest jedynie technologiczną ciekawostką, ale warunkiem aktywacji gigantycznego pakietu motywacyjnego dla Muska. Miliarder może otrzymać dodatkowe 60 milionów akcji, jeśli kapitalizacja firmy wzrośnie do niewyobrażalnych 6,6 biliona dolarów, a projekt kosmicznych serwerów dla programistów AI zostanie zrealizowany.

    Dla inwestorów z Wall Street, którzy wkrótce spotkają się z kadrą zarządzającą w Teksasie, SpaceX staje się więc unikalną hybrydą. Z jednej strony oferuje stabilne przychody z dominacji na rynku wynoszenia ładunków i internetu satelitarnego, z drugiej zaś – jest ogromnym lewarem na rozwój AI. Musk najwyraźniej zakłada, że skoro udało mu się zmonopolizować dostęp do orbity, to kolejnym krokiem musi być przeniesienie tam mózgu globalnej gospodarki cyfrowej. Choć struktura IPO ogranicza wpływ akcjonariuszy na strategię, skala potencjalnych zysków sprawia, że kolejka chętnych po akcje klasy A prawdopodobnie pobije wszelkie rekordy.