Anthropic zaczyna dostarczać twarde dowody na swoją dominację w sektorze przedsiębiorstw. Ostatnia runda finansowania, w której firma pozyskała 30 miliardów dolarów, wywindowała jej wycenę do niebagatelnego poziomu 380 miliardów dolarów. Choć kwota ta wciąż ustępuje prognozowanej kapitalizacji OpenAI, dynamika wzrostu producenta Claude’a sugeruje, że walka o prymat w ekosystemie AI wchodzi w nową, bardziej dojrzałą fazę.
Inwestorzy, wśród których znaleźli się giganci tacy jak D. E. Shaw Ventures, ICONIQ czy Nvidia, nie kupują już tylko wizji bezpiecznej sztucznej inteligencji. Ich optymizm napędza konkretny produkt: Claude Code. Narzędzie to, dedykowane programistom, stało się koniem pociągowym przychodów firmy, osiągając wskaźnik run-rate na poziomie 2,5 miliarda dolarów. Fakt, że subskrypcje biznesowe wzrosły czterokrotnie od początku roku, a sektor przedsiębiorstw generuje już ponad połowę przychodów z tego segmentu, świadczy o udanej monetyzacji technologii, która dla wielu konkurentów wciąż pozostaje jedynie kosztem operacyjnym.
Jednak to nie tylko kodowanie budzi emocje na rynkach finansowych. Wprowadzenie agenta Claude Cowork AI wywołało wstrząs w sektorze oprogramowania typu SaaS. Możliwość delegowania złożonych zadań komputerowych bezpośrednio modelowi AI sprawiła, że inwestorzy zaczęli kwestionować przyszłość tradycyjnych narzędzi wspierających pracę biurową. Jeśli agent AI może samodzielnie zarządzać procesami, wartość wielu istniejących platform software’owych staje pod znakiem zapytania.
Anthropic wyróżnia się na tle branży również nietypową strategią polityczną. W dobie powszechnego lobbingu na rzecz deregulacji, firma przeznaczyła 20 milionów dolarów na wsparcie polityków opowiadających się za nadzorem nad AI. To pragmatyczne podejście do etyki może okazać się kluczowym atutem w budowaniu zaufania wśród klientów korporacyjnych i instytucjonalnych, którzy coraz częściej obawiają się prawnych i wizerunkowych konsekwencji wdrażania czarnych skrzynek algorytmicznych.
Obecny przychód firmy na poziomie 14 miliardów dolarów oraz rosnące zaangażowanie takich graczy jak Blackstone potwierdzają, że Anthropic przestał być jedynie „bezpieczniejszą alternatywą” dla ChatGPT. Stał się fundamentem nowej infrastruktury biznesowej, która zamiast na masowej popularności, buduje swoją wartość na głębokiej integracji z codzienną pracą inżynierów i kadry zarządzającej. W tym wyścigu zbrojeń wygrywa nie ten, kto ma najwięcej użytkowników, ale ten, czyje narzędzia stają się niezbędne do funkcjonowania nowoczesnej gospodarki.
Jak donosi Wall Street Journal, model językowy Claude od Anthropic odegrał kluczową rolę w operacji schwytania byłego prezydenta Wenezueli, Nicolása Maduro. To wydarzenie stanowi punkt zwrotny nie tylko dla dyplomacji, ale przede wszystkim dla sektora AI, który dotychczas wzbraniał się przed bezpośrednim udziałem w działaniach kinetycznych.
Sukces operacji, zakończonej przewiezieniem Maduro do Nowego Jorku pod zarzutem handlu narkotykami, opierał się na technologicznym trójkącie: potędze obliczeniowej Anthropic, platformie integracji danych Palantir oraz infrastrukturze Departamentu Obrony USA. To partnerstwo z Palantirem okazało się dla Anthropic swoistym „koniem trojańskim”, pozwalającym na obecność w ściśle tajnych sieciach, do których dostęp dla cywilnych gigantów AI był dotąd ograniczony.
Dla Doliny Krzemowej sprawa ta jest wyjątkowo niewygodna. Anthropic, wyceniany obecnie na zawrotne 380 miliardów dolarów, budował swój wizerunek jako firma „bezpieczna i etyczna”. Ich oficjalna polityka użytkowania kategorycznie zabrania wykorzystywania Claude’a do wspierania przemocy czy inwigilacji. Jednak obecność modelu w sklasyfikowanych systemach Pentagonu sugeruje, że zasady te stają się elastyczne, gdy w grę wchodzą interesy bezpieczeństwa narodowego.
Pentagon od miesięcy wywiera presję na liderów rynku, takich jak OpenAI i Anthropic, domagając się usunięcia blokad bezpieczeństwa w narzędziach dostarczanych armii. Wojskowi argumentują, że standardowe ograniczenia, które chronią przeciętnego użytkownika przed generowaniem szkodliwych treści, w warunkach wojennych stają się przeszkodą.
Z perspektywy biznesowej, mariaż Anthropic z kompleksem militarno-przemysłowym to sygnał dla inwestorów, że największe zyski z AI mogą leżeć w kontraktach rządowych, nawet kosztem wizerunkowej spójności. Podczas gdy konkurenci wciąż operują głównie w sieciach niesklasyfikowanych, Anthropic — dzięki pośrednictwu firm trzecich — zyskał strategiczną przewagę.
Dla liderów Doliny Krzemowej walka o dominację w generatywnej sztucznej inteligencji przestała być jedynie licytacją na parametry techniczne, a stała się batalią o realną użyteczność wewnątrz korporacyjnych struktur. Najnowszy ruch Anthropica — premiera modelu Claude Opus 4.6 — sugeruje, że firma ta nie chce być już tylko dostawcą „inteligentnego okna czatu”, lecz dąży do objęcia roli autonomicznego inżyniera i analityka w sercu nowoczesnych przedsiębiorstw.
Od asystenta do agenta
Kluczowym elementem nowej architektury nie jest sama prędkość generowania tekstu, lecz skok w zdolnościach rozumowania i planowania. Claude Opus 4.6 wprowadza koncepcję zespołów agentów pracujących równolegle w środowisku Claude Code. Z biznesowego punktu widzenia to fundamentalna zmiana: zamiast pojedynczego zapytania, firma może delegować złożone projekty programistyczne do grupy modeli, które koordynują swoje działania w celu rozwiązania problemu.
Ta zmiana paradygmatu idzie w parze z drastycznym zwiększeniem „pamięci” modelu. Okno kontekstowe o rozmiarze 1 miliona tokenów pozwala na analizę całych repozytoriów kodu lub wieloletnich archiwów prawnych bez utraty wątku. W teście MRCR v2, sprawdzającym precyzję wyszukiwania informacji w długich dokumentach, model osiągnął 76 proc. skuteczności, co stawia go w czołówce narzędzi zdolnych do pracy z dokumentacją o skali korporacyjnej.
Bezpieczeństwo jako karta przetargowa
Najbardziej uderzającym dowodem na przewagę operacyjną nowego modelu jest jednak jego skuteczność w dziedzinie cyberbezpieczeństwa. Anthropic udowodnił, że Claude Opus 4.6 potrafi samodzielnie identyfikować krytyczne luki w zabezpieczeniach (CVE), wykrywając 500 wcześniej nieznanych błędów w oprogramowaniu open source. Dla sektora enterprise to sygnał, że AI może stać się nie tylko narzędziem do budowania, ale i automatycznym strażnikiem infrastruktury IT.
Jednocześnie model zacieśnia integrację z ekosystemem biurowym. Funkcjonalności pozwalające na płynne przechodzenie od nieustrukturyzowanych danych w Excelu do automatycznie sformatowanych prezentacji w PowerPoint pokazują, że Anthropic chce wyprzedzić konkurencję tam, gdzie marnuje się najwięcej czasu pracowników: na styku różnych narzędzi produktywnych.
Strategiczna równowaga
Choć Google i OpenAI wciąż walczą o masowego użytkownika, Anthropic buduje swój bastion na polu profesjonalizmu i precyzji. Claude Opus 4.6 nie próbuje być zabawnym kompanem, lecz cyfrowym ekspertem od ekonomii, prawa i inżynierii. W świecie, gdzie błąd modelu może kosztować miliony dolarów, ta koncentracja na merytoryczności może okazać się najbardziej skuteczną strategią biznesową.
W Dolinie Krzemowej i światowych centrach finansowych zaczyna dominować narracja, której jeszcze rok temu nikt by się nie spodziewał: wyniki finansowe przestały wystarczać. Mimo że giganci tacy jak Alphabet czy Amazon raportują solidne wzrosty w segmencie cloud computingu, rynki reagują nerwowo. Inwestorzy, zamiast świętować zyski, z niepokojem patrzą na rachunki wystawiane przez rewolucję AI.
Skala wydatków jest bezprecedensowa. Czterej najwięksi hiperskalerzy zasygnalizowali plany inwestycyjne przekraczające 600 miliardów dolarów w samym tylko bieżącym roku. Neil Wilson, strateg inwestycyjny w Saxo UK, wprost sugeruje, że nad rynkiem unosi się widmo bańki. To już nie jest faza eksperymentów – to brutalna wojna na wyniszczenie kapitałowe, w której wejście do gry kosztuje setki miliardów dolarów, a zwrot z inwestycji (ROI) pozostaje mglistą obietnicą przyszłości.
Architektura strachu
Niepokój nie ogranicza się jednak tylko do wydatków. Prawdziwe trzęsienie ziemi wywołały nowe narzędzia od Anthropic, które uderzyły w fundamenty tradycyjnych dostawców oprogramowania i analityki danych. Spadki takich graczy jak RELX, Sage czy Experian o 2–5% w ciągu jednego dnia pokazują, że rynek obawia się „kanibalizacji” dotychczasowych modeli biznesowych przez zwinne, nowe wtyczki Claude’a.
Szczególnie dotkliwie odczuwają to Indie, gdzie sektor outsourcingu IT stracił w tydzień 22,5 miliarda dolarów wartości rynkowej. Jeśli algorytmy mogą pisać kod i analizować dane szybciej oraz taniej niż armie programistów, tradycyjny model usług technologicznych wymaga natychmiastowej redefinicji.
Ryzyko kapitałowe vs. operacyjne
Zjawisko to tworzy specyficzny imas w biznesie technologicznym. Z jednej strony, firmy muszą inwestować, by nie zostać w tyle. Z drugiej – każda zapowiedź zwiększenia CAPEX-u (nakładów inwestycyjnych) skutkuje natychmiastową karą od akcjonariuszy. Amazon, mimo świetnej kondycji operacyjnej, stracił 8% w handlu przedrynkowym właśnie przez „szaleństwo wydatków”.
Dla liderów biznesu płynie stąd jasny komunikat: era bezwarunkowego optymizmu wobec AI dobiegła końca. Teraz liczy się nie to, ile firma wyda na GPU, ale jak szybko te inwestycje przełożą się na realną przewagę konkurencyjną, która obroni się przed nową falą automatyzacji. Wyceny rynkowe zaczynają premiować nie wizjonerów, lecz pragmatyków potrafiących zarządzać kosztem innowacji.
Światowe Forum Ekonomiczne w Davos od lat pełni rolę barometru globalnych nastrojów, jednak tegoroczna edycja zostanie zapamiętana jako moment wielkiego, technologicznego przesilenia. Jeśli poprzednie lata upłynęły pod znakiem niemal dziecięcej fascynacji potencjałem generatywnej sztucznej inteligencji, to styczeń 2026 roku przyniósł twarde lądowanie w rzeczywistości fizycznych ograniczeń. Liderzy Doliny Krzemowej, giganci sektora finansowego oraz decydenci polityczni porzucili utopijne wizje na rzecz chłodnej inżynierii i pragmatycznego rachunku zysków i strat. W kuluarach Alp nie pytano już o to, co AI potrafi napisać, lecz o to, jak zbudować planetarną infrastrukturę zdolną udźwignąć te ambicje.
Pięciowarstwowy fundament i prymat aplikacji
Fundamentem nowej perspektywy stała się koncepcja zaprezentowana przez Jensena Huanga z Nvidii podczas jego głośnej debaty z Larrym Finkiem. Huang zredefiniował pojęcie sztucznej inteligencji, odchodząc od postrzegania jej jako kolejnego sektora gospodarki. Zamiast tego przedstawił ją jako „największą konstrukcję infrastrukturalną w historii ludzkości”. Kluczem do zrozumienia tej wizji jest model pięciowarstwowego tortu, który zaczyna się od fundamentalnych zasobów energii, przechodzi przez krzemowe procesory, centra danych w chmurze, aż po same modele bazowe i finalne aplikacje.
Jensen Huang, CEO NVIDIA; Larry Fink, CEO BlackRock / źródło: World Economic Forum
W tej architekturze Huang upatruje nowej hierarchii wartości. Choć uwaga mediów skupia się na warstwie czwartej – czyli samych modelach takich jak GPT czy Claude – dyrektor generalny Nvidii jasno wskazał, że dla większości globalnych graczy walka na tym polu jest nieopłacalna. Realna wartość ekonomiczna oraz zwrot z inwestycji (ROI) zostaną wygenerowane w warstwie piątej. To właśnie w zastosowaniu inteligencji do specyficznych, głębokich problemów, takich jak odkrywanie nowych leków, hiper-optymalizacja globalnej logistyki czy inżynieria materiałowa, kryje się prawdziwy silnik wzrostu. Przekaz dla biznesu jest jasny: przestańcie ścigać się na parametry modeli, zacznijcie budować rozwiązania, które te modele monetyzują.
Suwerenność danych jako nowa polisa ubezpieczeniowa
W miarę jak sztuczna inteligencja staje się „korporacyjnym mózgiem”, w Davos wybrzmiało nowe, niemal egzystencjalne dla biznesu pytanie o suwerenność. Huang wezwał narody, a liderzy biznesowi podchwycili ten apel w odniesieniu do organizacji, by budować „Inteligencję Narodową” i suwerenne ekosystemy AI. W 2026 roku staje się jasne, że organizacje nie mogą pozwolić sobie na pełny outsourcing swojej wiedzy i procesów decyzyjnych do zewnętrznych dostawców.
Infrastruktura sztucznej inteligencji musi być traktowana z taką samą krytycznością jak drogi krajowe czy sieci energetyczne. Dla korporacji oznacza to konieczność posiadania własności intelektualnej nie tylko do danych, ale i do procesów dostrajania (fine-tuning) oraz danych kontekstowych. Bez własnej, autonomicznej inteligencji, firmy ryzykują stanie się jedynie dzierżawcami cudzych umysłów, co w perspektywie długoterminowej zagraża ich konkurencyjności i unikalności na rynku.
Energetyczne „być albo nie być” globalnego wzrostu
Fizyczność technologii najmocniej wybrzmiała w kontekście kryzysu energetycznego, który stał się głównym tematem wystąpienia Satyi Nadelli. Dyrektor generalny Microsoftu postawił brutalnie szczerą diagnozę: wzrost PKB w dowolnym miejscu na świecie będzie od teraz bezpośrednio skorelowany z kosztem energii niezbędnej do zasilenia procesów AI. Nadella ostrzegł przed utratą „społecznego przyzwolenia” na rozwój technologii, jeśli gigantyczne zużycie energii nie przełoży się na wymierne sukcesy w edukacji, zdrowiu i wydajności sektora publicznego.
Larry Fink, CEO, BlackRock i Interim Co-Chair, World Economic Forum oraz Satya Nadella, CEO, Microsoft / źródło: World Economic Forum
Wprowadzona przez niego koncepcja „tokenów za dolara za wat” staje się nową, twardą walutą nowoczesnej gospodarki. Ostrzeżenie to zbiega się z danymi rynkowymi pokazującymi drastyczne wzrosty cen energii, co stawia dyrektorów ds. infrastruktury przed wyzwaniem, którego nie rozwiąże żaden algorytm. W tę dyskusję włączył się Elon Musk, który – w swoim stylu łącząc inżynierię z wizjonerstwem – wskazał, że wąskim gardłem nie jest już produkcja chipów, lecz napięcie w sieciach przesyłowych. Jego propozycja przeniesienia centrów danych na orbitę, by zasilać je bezpośrednio energią słoneczną, przestała być traktowana w Davos jako ciekawostka, a stała się sygnałem, jak desperacko będziemy poszukiwać nowych źródeł zasilania w najbliższej dekadzie.
Elon Musk, CEO, Tesla; Chief Engineer, SpaceX; CTO, xAI, Tesla / źródło: World Economic Forum
Wyjście z czyśćca pilotaży i kryzys juniorów
Pomimo gigantycznych nakładów, Ruth Porat z Alphabetu uderzyła w czuły punkt globalnego biznesu: większość firm utknęła w „pilotażowym czyśćcu”. Dane Deloitte potwierdzają tę diagnozę – zaledwie 25% organizacji zdołało przeskalować swoje projekty AI. Problemem okazuje się nie brak technologii, lecz narastający dług techniczny i brak spójnej architektury danych. Davos 2026 wysłało jasny komunikat: czas fascynacji chatbotami dobiegł końca; teraz liczy się całkowita redefinicja procesów operacyjnych.
Dario Amodei, CEO, Anthropic; Demis Hassabis, CEO, Google DeepMind; Zanny Minton Beddoes, Redaktor Naczelny, The Economist / źródło: World Economic Forum
Największy niepokój budzi jednak transformacja rynku pracy. Dario Amodei (Anthropic) i Demis Hassabis (Google DeepMind) zgodnie przewidują pojawienie się agentów AI zdolnych do zastąpienia młodszych inżynierów. To rodzi fundamentalny kryzys szkoleniowy: jeśli sztuczna inteligencja wyeliminuje etap wejścia do zawodu, branża straci naturalny poligon doświadczalny dla przyszłych ekspertów. Jensen Huang zaproponował tu jednak optymistyczną ucieczkę do przodu. Jego zdaniem AI to „najłatwiejsze oprogramowanie w użyciu w historii”, a kluczową kompetencją przyszłości nie będzie pisanie kodu, lecz „kierowanie celami”. Pracownik IT ewoluuje z roli rzemieślnika w stronę nauczyciela i nadzorcy systemów, co wymusza na firmach przekształcenie działów technicznych w centra ustawicznego kształcenia.
Nowy porządek świata AI
Davos 2026 zakończyło erę cyfrowej niewinności. Sam Altman, mimo dyskretnego profilu, potwierdził komercyjną dojrzałość OpenAI, ujawniając miliardowe przychody z API, co dowodzi, że AI na stałe wrosło w tkankę biznesu. Jednak ogólny ton forum był ostrzeżeniem: sukces w nadchodzących latach nie będzie zależał od tego, jak potężne modele kupimy, ale jak inteligentnie zarządzać będziemy energią, suwerennością danych i transformacją naszych zespołów.
Rok 2026 to czas „wielkiego sprzątania” i budowania fundamentów pod architekturę, która musi być równie odporna, co wydajna. Wyścig o palmę pierwszeństwa trwa, ale jego meta przesunęła się z ekranów komputerów do elektrowni i sal szkoleniowych, gdzie rodzi się nowa definicja ludzkiej pracy.
Wyłączność w relacjach Microsoftu z OpenAI oficjalnie dobiegła końca. We wtorek gigant z Redmond, w rzadkim sojuszu z Nvidią, przypieczętował nową konfigurację na szczycie branży technologicznej, inwestując w Anthropic – głównego rywala twórców ChatGPT. W ramach tej złożonej transakcji, wyceniany niedawno na 183 miliardy dolarów startup zobowiązał się do wydania aż 30 miliardów dolarów na infrastrukturę chmurową Microsoft Azure. W zamian Nvidia zaoferuje zastrzyk kapitałowy do 10 miliardów dolarów, a Microsoft dołoży kolejne 5 miliardów, cementując swoją rolę jako „zbrojmistrza” w wojnie o sztuczną inteligencję.
Dla Satyi Nadelli to krok tyleż pragmatyczny, co konieczny. Choć CEO Microsoftu zapewnia, że OpenAI pozostaje „krytycznym partnerem”, rynek odczytuje ten ruch jednoznacznie: Redmond nie zamierza dłużej polegać na sukcesie tylko jednej firmy modelowej. Anthropic, który agresywnie zdobywa rynek enterprise i obsługuje już ponad 300 tysięcy klientów biznesowych, staje się idealnym zabezpieczeniem (hedge). Dzięki umowie modele Claude trafią do Azure AI Foundry, co czyni Anthropic jedynym dostawcą modeli granicznych dostępnym u wszystkich trzech głównych operatorów chmury (AWS, Google i Microsoft).
Decyzja ta zapada w momencie, gdy samo OpenAI pod wodzą Sama Altmana dąży do większej niezależności po gruntownej restrukturyzacji i odejściu od modelu non-profit. Startup niedawno ogłosił umowę chmurową z Amazonem wartą 38 miliardów dolarów i kreśli ambitne plany infrastrukturalne opiewające na 1,4 biliona dolarów. W obliczu tak astronomicznych kosztów – gdzie branża szacuje koszt 1 gigawata mocy obliczeniowej AI na 20–25 miliardów dolarów – lojalność korporacyjna ustępuje miejsca matematyce.
Głównym celem partnerstwa jest systemowe zmniejszenie uzależnienia gospodarki AI od OpenAI. Jednak struktura tych transakcji budzi coraz większy niepokój inwestorów. Mamy do czynienia z zamkniętym obiegiem kapitału: giganci technologiczni inwestują w startupy, które następnie zwracają te środki w formie opłat za chmurę, sztucznie pompując przychody donatorów. Dla Nvidii to układ idealny – niezależnie od tego, czy wygra Claude, czy ChatGPT, popyt na układy Grace Blackwell pozostaje nienasycony, choć ryzyko bańki w sektorze staje się coraz bardziej namacalne.
Wspierany przez Google i Amazon startup Anthropic, twórca modeli językowych Claude, ogłosił plany agresywnej ekspansji międzynarodowej. W odpowiedzi na rosnące zapotrzebowanie spoza Stanów Zjednoczonych, firma zamierza potroić liczbę pracowników na globalnych rynkach i pięciokrotnie powiększyć swój kluczowy zespół ds. rozwoju AI jeszcze w tym roku.
To wyraźny sygnał, że rywalizacja na szczycie branży sztucznej inteligencji wchodzi w nową, globalną fazę.
Decyzje biznesowe Anthropic są bezpośrednią odpowiedzią na dane dotyczące użytkowania ich technologii. Firma ujawniła, że blisko 80% wykorzystania modeli Claude ma miejsce poza USA. Co więcej, wskaźniki zaangażowania per capita w krajach takich jak Korea Południowa, Australia czy Singapur przewyższają te notowane na rodzimym, amerykańskim rynku.
Ten trend przełożył się na imponujący wzrost finansowy – według danych firmy, jej przychody wzrosły z około 1 miliarda dolarów na początku roku do ponad 5 miliardów dolarów w sierpniu.
Dynamika ta skłoniła zarząd do podjęcia konkretnych kroków. Anthropic planuje zatrudnić ponad 100 nowych specjalistów w swoich europejskich biurach w Dublinie, Londynie i Zurychu. Jednocześnie firma przygotowuje się do otwarcia pierwszego azjatyckiego oddziału w Tokio, sygnalizując strategiczne zainteresowanie tym regionem.
Za globalną ekspansję odpowiada Chris Ciauri, który niedawno dołączył do firmy jako dyrektor zarządzający ds. rynków międzynarodowych.
Pozycję Anthropic na rynku wzmacnia nie tylko popyt, ale także strategiczne partnerstwa i rosnąca baza klientów korporacyjnych, która w ciągu dwóch lat zwiększyła się z niespełna tysiąca do ponad 300 000. Modele Claude, cenione m.in. za zaawansowane możliwości w zakresie generowania i analizy kodu, są postrzegane jako jedna z najpoważniejszych alternatyw dla rozwiązań konkurencji.
Potwierdzeniem rosnącej roli firmy w ekosystemie AI jest niedawne ogłoszenie strategicznej współpracy z Microsoftem. Koncern z Redmond zintegruje modele Claude ze swoim asystentem Copilot, co stanowi istotną zmianę, biorąc pod uwagę dotychczasową, niemal wyłączną zależność tego produktu od technologii OpenAI.
Dla Anthropic to nie tylko potwierdzenie jakości ich modeli, ale również otwarcie nowego, potężnego kanału dystrybucji, który może znacząco przyspieszyć walkę o udziały w globalnym rynku generatywnej sztucznej inteligencji.
Microsoft wkrótce zintegruje modele sztucznej inteligencji od Anthropic z niektórymi funkcjami pakietu Office 365. To strategiczny ruch, który osłabia dotychczasową wyłączność OpenAI w produktach Microsoftu i sygnalizuje przejście na bardziej zdywersyfikowane i pragmatyczne podejście do AI.
Przez lata Microsoft mocno opierał rozwój funkcji AI w aplikacjach takich jak Word, Excel czy PowerPoint na technologii swojego kluczowego partnera, OpenAI, w którego zainwestował ponad 13 miliardów dolarów.
Jednak wewnętrzne testy w zespołach rozwijających Office AI wykazały, że w specyficznych zadaniach najnowsze modele Anthropic, takie jak Claude Sonnet 4, przewyższają rozwiązania konkurencji. Dotyczy to zwłaszcza automatyzacji złożonych funkcji finansowych w Excelu oraz generowania estetycznych, gotowych do użycia prezentacji w PowerPoint.
Decyzja ta wpisuje się w szerszą strategię Microsoftu, która obejmuje również rozwój własnych modeli AI oraz integrację z innymi dostawcami, jak na przykład DeepSeek w chmurze Azure.
Celem jest maksymalizacja wydajności i dobranie najlepszego narzędzia do konkretnego zadania, zamiast polegania na jednym, uniwersalnym rozwiązaniu.
Firma podkreśla jednocześnie, że partnerstwo z OpenAI pozostaje nienaruszone i kluczowe, zwłaszcza w kontekście najbardziej zaawansowanych modeli „frontierskich”.
Co ciekawe, aby uzyskać dostęp do modeli Anthropic, Microsoft będzie płacić swojemu największemu rynkowemu rywalowi – Amazon Web Services.
AWS jest jednym z głównych inwestorów w Anthropic i udostępnia jego technologię w swojej chmurze. Ta zależność pokazuje, jak skomplikowane i wielowymiarowe stają się sojusze w dobie generatywnej sztucznej inteligencji.
Według nieoficjalnych informacji, ruch ten zostanie ogłoszony w nadchodzących tygodniach. Dla użytkowników końcowych nic się nie zmieni – cena narzędzi AI w pakiecie Office ma pozostać na dotychczasowym poziomie. Zmiana dostawcy technologii ma na celu wyłącznie podniesienie jakości i efektywności działania wybranych funkcji.
Twórca popularnego modelu AI Claude, firma Anthropic, jest bliski zawarcia ugody w przełomowym pozwie zbiorowym dotyczącym praw autorskich. Krok ten pozwala firmie uniknąć potencjalnie kosztownej i, co ważniejsze, precedensowej batalii sądowej, która mogłaby wpłynąć na całą branżę sztucznej inteligencji.
Sprawa ta stanowi centralny punkt w narastającym konflikcie między deweloperami AI a twórcami treści.
Spór koncentruje się na fundamentalnym pytaniu o legalność wykorzystywania chronionych prawem autorskim dzieł do trenowania komercyjnych modeli AI bez zgody i wynagrodzenia autorów.
Firmy technologiczne często argumentują, że takie działanie jest niezbędne dla innowacji i mieści się w ramach dozwolonego użytku. Twórcy z kolei postrzegają to jako masową kradzież własności intelektualnej, która zasila multimiliardowy rynek.
Pozew przeciwko Anthropic zyskał na znaczeniu po tym, jak amerykański sędzia okręgowy William Alsup certyfikował go jako pozew zbiorowy, potencjalnie obejmujący nawet 7 milionów autorów.
Kluczowym zarzutem, który mógł osłabić pozycję procesową firmy, była sugestia, że przynajmniej część danych treningowych – w tym dziesiątki tysięcy książek – pochodziła ze źródeł pirackich. To odróżnia sprawę od hipotetycznego wykorzystania legalnie nabytych kopii i utrudnia obronę opartą na zasadach fair use.
Chociaż szczegóły porozumienia nie zostały jeszcze upublicznione, decyzja o zawarciu ugody jest postrzegana jako strategiczne posunięcie.
Anthropic, podobnie jak konkurenci tacy jak OpenAI czy Meta, którzy również mierzą się z podobnymi oskarżeniami, unika w ten sposób ryzyka wydania przez sąd wyroku, który ustanowiłby wiążącą doktrynę prawną dla całej branży.
Ugoda, zamiast wyroku, nie tworzy twardego prawa, ale wysyła wyraźny sygnał finansowy i rynkowy. Wskazuje, że koszty potencjalnego procesu i ryzyko przegranej są na tyle wysokie, że firmy AI zaczynają kalkulować opłacalność licencjonowania danych.
Ostateczne warunki umowy będą uważnie obserwowane przez całą branżę, mogąc stać się wzorcem dla przyszłych rozstrzygnięć i kształtując nowe zasady odpowiedzialnego pozyskiwania danych do treningu sztucznej inteligencji.
Duże modele językowe potrafią już nie tylko pisać wiersze i kod, ale także samodzielnie planować i przeprowadzać złożone operacje w cyberprzestrzeni. Najnowsze badanie naukowców z Uniwersytetu Carnegie Mellon i firmy Anthropic dowodzi, że AI może autonomicznie replikować zaawansowane ataki hakerskie, stawiając przed branżą cyberbezpieczeństwa zupełnie nowe wyzwania.
Koncepcja autonomicznego, cyfrowego adwersarza, napędzanego przez sztuczną inteligencję, przez długi czas należała do sfery science fiction. Wspólny projekt badawczy jednego z czołowych amerykańskich uniwersytetów technicznych oraz firmy Anthropic, znanego gracza na rynku AI, przenosi tę wizję do rzeczywistości. Ich praca pokazuje, że duże modele językowe (LLM) osiągnęły zdolność do samodzielnego działania w roli cyberprzestępcy, co może fundamentalnie zmienić krajobraz zagrożeń.
Celem eksperymentu nie było stworzenie nowej broni, lecz precyzyjny pomiar zdolności obecnych modeli AI do autonomicznego planowania i egzekwowania ataków bez ludzkiego nadzoru. Aby test był jak najbardziej miarodajny, badacze postanowili odtworzyć jeden z najgłośniejszych incydentów bezpieczeństwa w historii USA – atak na firmę Equifax z 2017 roku.
Kazus Equifax: cyfrowa rekonstrukcja
Wybór ataku na Equifax nie był przypadkowy. Ze względu na jego skalę – wyciek danych niemal 147 milionów klientów – oraz publiczną dostępność szczegółowych analiz technicznych, stanowił on idealny poligon doświadczalny. Atak z 2017 roku wykorzystywał znaną lukę w oprogramowaniu Apache Struts, komponencie używanym w wielu aplikacjach webowych. Hakerzy, po uzyskaniu wstępnego dostępu, przez tygodnie penetrowali wewnętrzną sieć firmy, instalując złośliwe oprogramowanie i finalnie eksfiltrując wrażliwe dane.
Naukowcy z Carnegie Mellon i Anthropic opracowali specjalny zestaw narzędzi, nazwany Incalmo. Jego zadaniem było przełożenie ogólnej strategii ataku, generowanej przez duży model językowy, na konkretne, niskopoziomowe polecenia systemowe. W tym modelu LLM pełnił rolę „mózgu operacji”, decydując o kolejnych krokach, podczas gdy wyspecjalizowane agenty – zarówno oparte na AI, jak i tradycyjne skrypty – realizowały powierzone im zadania, takie jak skanowanie sieci w poszukiwaniu luk czy wdrażanie przygotowanych exploitów.
Niepokojąca skuteczność
Wyniki testów okazały się alarmujące. Zespół badawczy przygotował 10 odizolowanych środowisk sieciowych, symulujących infrastrukturę IT małych przedsiębiorstw. W tych kontrolowanych warunkach autonomiczny system oparty na LLM był w stanie:
W pełni skompromitować 5 z 10 sieci, co oznaczało uzyskanie pełnego dostępu i realizację celów ataku.
Częściowo skompromitować 4 kolejne sieci, na przykład poprzez kradzież części wrażliwych informacji.
Co istotne, badacze sprawdzili również zdolność AI do adaptacji do innych scenariuszy. Jednym z testowanych modeli był atak ransomware wzorowany na incydencie z Colonial Pipeline z 2021 roku, który na blisko tydzień sparaliżował dostawy paliwa na wschodnim wybrzeżu USA. Zdolność do replikacji tak różnych w swojej naturze ataków pokazuje elastyczność i potencjał adaptacyjny modeli LLM.
Atak w skali maszynowej
Największym zmartwieniem, jakie wyłania się z badania, nie jest sama możliwość przeprowadzenia ataku, lecz jego potencjalna skala, szybkość i niski koszt. Do tej pory zorganizowanie wyrafinowanej kampanii hakerskiej wymagało zespołu ekspertów, czasu i znaczących zasobów finansowych. Demokratyzacja dostępu do potężnych modeli językowych może drastycznie obniżyć próg wejścia.
Brian Singer, doktorant z Carnegie Mellon i główny autor badania, podkreśla, że największe obawy budzi tempo, w jakim takie ataki mogą być aranżowane. Obecne systemy obronne w dużej mierze opierają się na ludzkich analitykach i operatorach centrów bezpieczeństwa (SOC). Ich zadaniem jest analiza alertów, identyfikacja anomalii i ręczna reakcja na incydenty. Ta ludzka pętla decyzyjna może okazać się niewystarczająca w starciu z przeciwnikiem działającym z prędkością i na skalę maszynową.
Wyścig zbrojeń
Badania takie jak te prowadzone przez CMU i Anthropic nie mają na celu siania paniki, ale raczej zainicjowanie pilnej dyskusji i działań w branży. Zrozumienie ofensywnych zdolności AI jest pierwszym krokiem do zbudowania skutecznej obrony.
Kolejnym, naturalnym etapem prac badawczych jest stworzenie „autonomicznych obrońców” – systemów bezpieczeństwa opartych na LLM, które będą w stanie w czasie rzeczywistym identyfikować i neutralizować ataki przeprowadzane przez inne maszyny.
Anthropic, jeden z głównych graczy na rynku generatywnej sztucznej inteligencji, wszedł w nowy etap wzrostu. Według źródeł zbliżonych do firmy, startup osiągnął roczną wartość sprzedaży na poziomie 3 miliardów dolarów — trzykrotnie więcej niż jeszcze w grudniu 2024 r. Tempo, w jakim przychody rosły w pierwszej połowie 2025 roku (1 → 2 → 3 mld USD w ciągu pięciu miesięcy), może budzić zazdrość nawet wśród firm SaaS notowanych na giełdzie.
To, co wyróżnia Anthropic, to profil klientów i źródła przychodów. W przeciwieństwie do OpenAI, które nadal opiera się w dużej mierze na segmencie konsumenckim (subskrypcje ChatGPT), Anthropic dynamicznie rośnie dzięki sprzedaży usług AI firmom. Kluczową dźwignią okazuje się tu code generation – przestrzeń, która dziś, bardziej niż chatboty, przekłada się na realne oszczędności i wydajność w organizacjach.
Modele Anthropic są coraz częściej wykorzystywane do automatyzacji kodowania, a to przekłada się na zainteresowanie ze strony korporacyjnych klientów i integratorów. W tym sensie firma wpisuje się w potrzeby rynku, który szuka dziś bardziej produktywności niż błyskotek. Wśród inwestorów pojawiają się nawet głosy, że Anthropic może być najszybciej rosnącym startupem SaaS w historii.
Nie oznacza to jednak, że Anthropic zagraża bezpośrednio OpenAI. Obie firmy coraz wyraźniej działają na osobnych „torach pływackich”. OpenAI przyciąga konsumentów, a Anthropic – klientów B2B. Ten rozdział strategii może paradoksalnie pomóc obu graczom ugruntować pozycje bez potrzeby kosztownej konfrontacji.
W tle rośnie również presja inwestorów. Anthropic zebrało 3,5 mld USD od gigantów takich jak Google i Amazon, co przekłada się na wycenę na poziomie 61,4 mld USD. OpenAI pozostaje jednak bezapelacyjnym liderem, wycenianym nawet na 300 mld USD. Dystans jest znaczący, ale różnica w strategii może sprawić, że obie firmy zyskają własną dominującą pozycję w innych segmentach rynku AI.
Dla branży to jasny sygnał: AI jako usługa przestaje być eksperymentem, a staje się realnym silnikiem przychodów – i to w zawrotnym tempie.
Apple intensyfikuje prace nad rozbudową swojego oprogramowania Xcode, wprowadzając elementy sztucznej inteligencji w celu usprawnienia procesu programistycznego. Współpraca z firmą Anthropic zaowocowała integracją modelu Claude, jednego z liderów w dziedzinie AI, który wspiera generowanie, edycję oraz testowanie kodu. Choć obecnie narzędzie jest dostępne jedynie dla wewnętrznych zespołów Apple, to możliwa publiczna premiera w przyszłości może zrewolucjonizować sposób, w jaki programiści pracują z Xcode.
Integracja z modelem Claude Sonnet pozwala deweloperom na korzystanie z zaawansowanego interfejsu czatu, który ułatwia modyfikację kodu, wykrywanie błędów, a także testowanie interfejsów użytkownika – dotychczas czasochłonnych zadań. Choć Apple wcześniej próbowało wdrożyć własne funkcje AI w ramach narzędzia Swift Assist, wewnętrzne problemy z dokładnością oraz wydajnością skłoniły firmę do sięgnięcia po zewnętrzny model.
Z perspektywy długoterminowej, współpraca z Anthropic może okazać się strategicznym krokiem, który pomoże Apple nadrobić zaległości w dziedzinie AI. Firma z Cupertino stara się nadążyć za konkurencją, której narzędzia oparte na sztucznej inteligencji, takie jak ChatGPT od OpenAI, już zyskały popularność wśród programistów. Co więcej, Apple zapowiada dalszą współpracę z gigantami AI, w tym Google i OpenAI, co może znacząco wpłynąć na rozwój narzędzi wykorzystywanych przez profesjonalistów w branży IT.
Podczas nadchodzącej konferencji WWDC, która odbędzie się 9 czerwca, Apple może ujawnić szczegóły dotyczące dalszych planów związanych z integracją AI w ekosystemie programistycznym. Oczekiwania rosną, a przyszłość AI w Apple wygląda coraz bardziej obiecująco.
Anthropic, twórca modelu Claude, opublikował właśnie wyniki ambitnego badania, które rzuca nowe światło na sposób, w jaki sztuczna inteligencja adaptuje i kształtuje wartości moralne. Po przeanalizowaniu ponad 700 000 anonimowych rozmów, firma odkryła, że choć w większości przypadków Claude działa zgodnie z założeniami, w niemal połowie rozmów przejawiał odchylenia od ustalonego „kodeksu domowego”.
To, co Anthropic określa jako „empiryczną taksonomię wartości AI”, ujawnia nie tylko, jak model radzi sobie z zasadami w praktyce, ale także – co ważniejsze – że sztuczna inteligencja potrafi wykształcać coś na kształt własnego systemu przekonań.
3 307 wartości i jedno duże wyzwanie
W toku analizy Anthropic zidentyfikował aż 3 307 unikalnych wartości, które Claude stosuje w różnych kontekstach. Podzielono je na pięć głównych kategorii: praktyczne, zorientowane na wiedzę, relacyjne, etyczne i ekspresyjne. Model elastycznie dostosowuje te wartości do sytuacji — na przykład w rozmowach o związkach stawia na „wzajemny szacunek”, a w analizach historycznych na „dokładność”.
Tego rodzaju adaptacja jest imponująca, ale też pokazuje, jak trudne jest utrzymanie spójnego systemu wartości w modelach generatywnych. AI musi balansować między intencją twórców a różnorodnością oczekiwań użytkowników — a czasami także próbami ich manipulacji.
Granice życzliwości
Jednym z ciekawszych odkryć jest fakt, że Claude w 28,2% rozmów bezkrytycznie akceptował wartości użytkownika, co bywało interpretowane jako nadmierna uległość. W 6,6% przypadków model przeformułowywał wartości, oferując nowe spojrzenie, a w 3% – stawiał wyraźny opór, odmawiając akceptacji pewnych przekonań.
Te momenty oporu są szczególnie interesujące. Sugerują bowiem, że Claude nie tylko „rozumie”, co jest od niego oczekiwane, ale też aktywnie ocenia moralną wagę wypowiedzi użytkownika. To przesuwa rozmowę o AI na nowy poziom – od biernego wsparcia użytkownika ku modelom, które mogą podejmować własne decyzje etyczne.
Nowe wyzwania dla AI governance
Jednym z najbardziej niepokojących sygnałów jest fakt, że Claude czasami przejawiał wartości niezgodne z intencjami Anthropic, takie jak dominacja czy manipulacja. W dużej mierze były to sytuacje wymuszone przez użytkowników, którzy celowo starali się obejść systemowe zabezpieczenia.
To pokazuje, jak krucha jest równowaga w projektowaniu bezpiecznych systemów AI. Przejrzystość, na którą stawia Anthropic, jest krokiem w dobrą stronę, ale też odsłania skalę trudności w utrzymaniu AI w ramach etycznych norm, zwłaszcza gdy system działa w dzikim, nieprzewidywalnym środowisku interakcji z użytkownikami.
Wnioski: ku bardziej „ludzkiej” AI
Analiza Anthropic sugeruje, że przyszłość sztucznej inteligencji nie będzie polegać tylko na perfekcyjnym przestrzeganiu wytycznych. Modele takie jak Claude muszą nauczyć się rozumienia kontekstu społecznego, a czasem nawet wykazywać moralną odwagę – sprzeciwiając się użytkownikom tam, gdzie stawką są fundamentalne wartości.
Anthropic właśnie dorzucił nowy kafelek do układanki subskrypcyjnych modeli językowych – i to nie byle jaki. Za 200 dolarów miesięcznie użytkownicy mogą teraz sięgnąć po „Claude Max” – nowy wariant subskrypcji, który wprowadza wyraźny podział między użytkownikiem okazjonalnym a intensywnym.
Cena jak za SaaS klasy enterprise
Wariant „Max” to w rzeczywistości dwie opcje: „rozszerzone użycie” za 100 dolarów miesięcznie i „maksymalna elastyczność” za 200 dolarów. W zamian użytkownicy dostają odpowiednio 5x i 20x większe limity użycia względem planu Claude Pro (20 USD/miesiąc), co oznacza nie tylko większą przepustowość, ale też niemal ciągły dostęp do najbardziej zaawansowanego modelu Claude 3 Opus.
W rozmowie z TechCrunch Scott White z Anthropica sugeruje, że może to być dopiero początek. Firma nie wyklucza kolejnych – jeszcze droższych – planów, jeżeli tylko popyt to uzasadni.
To ruch ryzykowny, ale też wyraźnie przemyślany. Przypomina trochę taktykę cenową znaną z oprogramowania enterprise, gdzie za wygodę, przewidywalność i wsparcie płaci się sporo – ale klient nie kupuje „produktów”, tylko czas i spokój operacyjny.
źródło: Freepik/rawpixel
Dla kogo jest Claude Max?
W teorii – dla „power userów”. Czyli dla tych, którzy używają Claude jako rzeczywistego współpracownika: do analiz, kodowania, tworzenia treści czy przetwarzania danych. W praktyce – to oferta testująca elastyczność budżetów firm i niezależnych profesjonalistów.
Dla porównania: konkurencyjny GPT-4 Turbo w ChatGPT Plus kosztuje 20 USD miesięcznie, choć jego komercyjna wersja (OpenAI Team/Enterprise) także potrafi być znacząco droższa. Claude Max celuje jednak w nieco inną niszę – nie w szeroki rynek, ale w klientów, którzy chcą mieć gwarantowany dostęp do najnowszej wersji modelu, bez kolejkowania, limitów i ograniczeń kontekstowych.
Cicha wojna na limity
Nowy ruch Anthropica potwierdza coś, co rynek już przeczuwał: w 2025 roku przestaniemy rozmawiać o samych modelach, a zaczniemy o ich dostępności. Coraz częściej prawdziwą wartością nie będzie to, że „masz AI”, ale to, jak często i bez przeszkód możesz z niej korzystać.
Wersje Pro i Max to de facto narzędzia do segmentacji użytkowników: ci, którzy traktują AI jako eksperyment, zostają na niższych planach. Ci, którzy opierają na niej część swojej pracy – płacą za stabilność. To nie przypadek, że w tym samym czasie OpenAI testuje wersje „Team” z dedykowaną pamięcią i opcjami współpracy, a Google integruje Gemini w planach Workspace.
Czy rynek to kupi?
Claude Max to propozycja premium dla rynku, który dopiero dojrzewa do premium. Czy 200 dolarów miesięcznie to dużo? Tak – ale nie dla firm, które używają Claude codziennie jako wsparcia w pracy kreatywnej, programistycznej czy analitycznej.
Anthropic nie próbuje tu konkurować ceną. Przeciwnie – wyznacza nowy punkt odniesienia, przesuwając granicę tego, ile wart jest dostęp do najnowszego modelu AI. To ukłon w stronę użytkowników, którzy z AI robią coś więcej niż tylko testy.
A jeśli popyt dopisze – możemy być pewni, że 200 dolarów to nie będzie ostatnie słowo.
W najnowszym rozdziale sagi, która rozgrywa się na styku sztucznej inteligencji i prawa autorskiego, firma Anthropic odniosła taktyczne zwycięstwo. Sędzia federalny w Kalifornii odrzucił wniosek Universal Music Group (UMG) i innych wydawców muzycznych, którzy chcieli tymczasowo uniemożliwić Anthropic wykorzystywanie tekstów piosenek do trenowania swojego chatbota Claude.
Sędzia Eumi Lee uznała, że żądania wydawców były zbyt szerokie i nie przekonali jej, że Anthropic wyrządza im „nieodwracalną szkodę”. Mimo tej wygranej, to nie koniec walki. Wydawcy muzyczni, w tym giganci jak UMG, Concord i ABKCO, pozostają optymistyczni co do swoich szans w dalszej części procesu. Z kolei Anthropic wyraziło ulgę, że sąd odrzucił to, co nazwali „destrukcyjnym i niejasnym wnioskiem” wydawców.
O co ten cały szum?
Sednem sporu jest to, jak firmy AI, takie jak Anthropic, wykorzystują materiały chronione prawami autorskimi do „uczenia” swoich systemów. Wydawcy muzyczni twierdzą, że Anthropic bezprawnie używa tekstów z setek piosenek (od Beyoncé po Rolling Stonesów) do trenowania Claude’a, aby ten odpowiadał na zapytania użytkowników.\
Ten przypadek to tylko jeden z wielu, które pokazują rosnące napięcie między twórcami (autorami, artystami, dziennikarzami) a firmami technologicznymi. Ci pierwsi coraz głośniej protestują przeciwko wykorzystywaniu ich dzieł bez zgody i wynagrodzenia.
„Dozwolony użytek” w roli głównej
Kluczowym argumentem firm technologicznych jest „dozwolony użytek” – zasada prawna, która pozwala na pewne wykorzystanie materiałów chronionych prawami autorskimi bez zgody właściciela. Chodzi o takie sytuacje jak cytowanie w recenzji, parodia czy użycie w celach edukacyjnych.
To właśnie interpretacja „dozwolonego użytku” będzie prawdopodobnie decydująca w tym i podobnych procesach. Choć sędzia Lee nie zagłębiła się w tę kwestię w swojej decyzji, jej ostateczne rozstrzygnięcie będzie miało ogromny wpływ na przyszłość AI.
Anthropic – jedna z czołowych firm rozwijających modele językowe – ogłosiła, że ich flagowy asystent AI, Claude, zyskał nową, długo wyczekiwaną umiejętność: możliwość wyszukiwania informacji w czasie rzeczywistym w Internecie. Funkcja ta, choć już dobrze znana użytkownikom rozwiązań konkurencji, takich jak ChatGPT od OpenAI, dopiero teraz trafia do Claude’a. Jest jednak kilka „ale”.
Tylko w USA, tylko dla subskrybentów
Nowa funkcjonalność działa w połączeniu z modelem Claude 3.7 Sonnet, ale dostępna jest wyłącznie dla użytkowników płatnej wersji narzędzia i tylko na terenie Stanów Zjednoczonych. Anthropic zastrzega, że wsparcie dla użytkowników z innych krajów oraz dla wersji bezpłatnej pojawi się „wkrótce”, ale nie podano konkretnej daty. Użytkownicy w Europie muszą więc uzbroić się w cierpliwość.
Aktualność danych robi różnicę
Do tej pory Claude opierał swoje odpowiedzi wyłącznie na danych treningowych, z limitem aktualności sięgającym października 2024 r. Dzięki nowej funkcji asystent AI może teraz w czasie rzeczywistym przeszukiwać sieć, by dostarczać bardziej aktualne i precyzyjne odpowiedzi – co szczególnie ważne w zadaniach wymagających znajomości bieżących wydarzeń, trendów rynkowych czy analiz konkurencji.
Jak podkreśla Anthropic, „dzięki funkcji wyszukiwania w sieci, Claude ma dostęp do najnowszych wydarzeń i informacji, zwiększając dokładność zadań, które korzystają z najnowszych danych”. W praktyce może to oznaczać lepsze wsparcie np. przy analizie dynamicznie zmieniających się rynków, technologii czy wiadomości branżowych.
AI-owa gra w czasie rzeczywistym
W kontekście konkurencji warto przypomnieć, że OpenAI już od 2023 roku udostępnia swoim użytkownikom możliwość korzystania z internetu w ramach ChatGPT – najpierw przez wtyczki, a następnie jako natywną funkcję modelu GPT-4 Turbo. Także Google Bard (obecnie Gemini) oraz Microsoft Copilot (oparty na technologii OpenAI) oferują podobne opcje.
To, co wyróżnia podejście Anthropic, to ich nacisk na bezpieczeństwo i transparentność w działaniu modelu. Firma wielokrotnie akcentowała, że Claude został zaprojektowany jako „bezpieczniejszy asystent AI”, a integracja z internetem nie powinna tego zmieniać – choć jak zawsze, praktyka pokaże więcej niż deklaracje.
Co dalej?
Choć funkcja wyszukiwania w sieci w Claude 3.7 to z pewnością krok we właściwym kierunku, użytkownicy spoza USA – w tym resellerzy i integratorzy IT w Europie – muszą jeszcze poczekać na dostępność tej opcji. Niewykluczone, że barierą są tu kwestie regulacyjne (w tym RODO) lub testowanie funkcji w bardziej kontrolowanych warunkach.
Anthropic, amerykański startup specjalizujący się w sztucznej inteligencji (AI), wprowadził na rynek swój najnowszy model AI o nazwie Claude 3.7 Sonnet, będący pierwszym hybrydowym modelem rozumowania. Wraz z nim zaprezentowano narzędzie Claude Code, które ma na celu zrewolucjonizowanie procesu programowania.
Claude 3.7 Sonnet: Hybrydowe podejście do rozumowania
Claude 3.7 Sonnet to innowacyjny model AI, który łączy różne podejścia do rozwiązywania skomplikowanych problemów. Użytkownicy mają możliwość wyboru pomiędzy szybkimi odpowiedziami a bardziej przemyślanymi, szczegółowymi analizami, dostosowując działanie modelu do swoich potrzeb. Ta elastyczność sprawia, że Claude 3.7 Sonnet wyróżnia się na tle konkurencji, oferując zarówno szybkość, jak i precyzję w zależności od wymagań użytkownika.
Claude Code: Nowe możliwości dla programistów
Wraz z premierą Claude 3.7 Sonnet, Anthropic wprowadził Claude Code – narzędzie wiersza poleceń, które umożliwia programistom delegowanie złożonych zadań inżynieryjnych bezpośrednio z terminala. Claude Code potrafi przeszukiwać kod, uruchamiać testy oraz wysyłać zmiany do repozytoriów GitHub, co znacząco przyspiesza proces tworzenia oprogramowania. Wstępne testy wykazały, że Claude Code jest w stanie wykonać zadania, które normalnie zajmują około 45 minut pracy ręcznej, w jednym przejściu, co czyni go niezwykle efektywnym narzędziem dla deweloperów.
Reakcje społeczności technologicznej
Wprowadzenie Claude Code spotkało się z mieszanymi opiniami wśród. Wiele osób podkreśla potencjał narzędzia w skróceniu czasu i wysiłku potrzebnego na rozwój oprogramowania, jednak pojawiają się również obawy dotyczące kosztów związanych z jego użytkowaniem. Niektórzy użytkownicy zauważyli, że nawet stosunkowo proste zapytania mogą generować znaczne koszty, co może stanowić wyzwanie dla mniejszych zespołów deweloperskich.
Claude 3.7 Sonnet i Claude Code to znaczące kroki naprzód w dziedzinie sztucznej inteligencji i automatyzacji procesów programistycznych. Ich elastyczność, wydajność i potencjał do usprawnienia pracy deweloperów są godne uwagi. Jednakże, jak przy każdej nowej technologii, ważne jest, aby użytkownicy byli świadomi zarówno korzyści, jak i potencjalnych wyzwań związanych z ich wdrożeniem, zwłaszcza w kontekście kosztów operacyjnych.
Według Davida Amodei, dyrektora generalnego Anthropic, sztuczna inteligencja (AI) może wkrótce osiągnąć poziom przewyższający ludzkie zdolności intelektualne. W trakcie wywiadu udzielonego na Światowym Forum Ekonomicznym w Davos, Amodei zapowiedział, że taki przełom może nastąpić w ciągu najbliższych dwóch do trzech lat, co stawia nas u progu znaczącej transformacji technologicznej.
Nowe wyzwania dla ludzkości
Amodei wskazuje, że tak dynamiczny rozwój AI może mieć daleko idące konsekwencje społeczne i egzystencjalne. Jeśli systemy sztucznej inteligencji będą zdolne do zastąpienia większości ludzkiej pracy, pojawi się pytanie o to, jak ludzie mogą znaleźć sens swojej egzystencji w świecie, w którym ich tradycyjne role zostaną zmarginalizowane. W opinii CEO Anthropic, te kwestie wymagają pilnych odpowiedzi.
Postępy technologiczne w modelach Claude
Anthropic, znane ze swojego modelu AI o nazwie Claude, pracuje obecnie nad wprowadzeniem istotnych ulepszeń. W krótkim okresie firma planuje integrację internetową, tryb mowy oraz rozwinięcie pamięci modeli. Amodei przyznał, że rozwój tych systemów wymaga ogromnych zasobów obliczeniowych – w przyszłym roku liczba potrzebnych chipów może sięgnąć nawet miliona. Kluczowymi partnerami Anthropic w tej kwestii są technologiczni giganci, tacy jak AWS i Google, którzy wspierają firmę zarówno technologicznie, jak i finansowo.
Krytyka terminu „AGI”
Ciekawym aspektem wypowiedzi Amodei jest jego stanowisko wobec terminu „sztuczna inteligencja ogólna” (AGI), który, według niego, został spłycony do narzędzia marketingowego przez konkurencyjne OpenAI. W jego opinii, OpenAI wykorzystuje AGI jako element komercjalizacji, co odwraca uwagę od naukowej istoty tego pojęcia.
Prognozy Amodei wskazują na zbliżający się szybki rozwój sztucznej inteligencji, który może zrewolucjonizować nie tylko technologie, ale również społeczeństwo i gospodarkę. W miarę jak Anthropic i inne firmy technologiczne posuwają się naprzód, rośnie potrzeba przemyślenia, jak ludzkość odnajdzie swoje miejsce w nowym świecie, w którym AI może przewyższyć ludzkie możliwości.
Google używa modelu sztucznej inteligencji Claude, opracowanego przez konkurencyjną firmę Anthropic, do oceny wydajności swojego własnego modelu Gemini. Zgodnie z informacjami, do których dotarł TechCrunch, pracownicy odpowiedzialni za rozwój Gemini porównują odpowiedzi obu modeli na różne zapytania, oceniając je pod kątem prawdziwości i bezpieczeństwa.
Testy polegają na szybkim porównaniu rezultatów uzyskanych przez Gemini i Claude’a, z maksymalnym czasem na ocenę wynoszącym 30 minut. Z dotychczasowych analiz wynika, że Claude radzi sobie lepiej w kwestiach związanych z bezpieczeństwem, unikając odpowiedzi na pytania, które mogą naruszać zasady. Z kolei model Gemini w niektórych przypadkach generuje odpowiedzi uznawane za poważne naruszenia bezpieczeństwa, chociaż oznacza je odpowiednią adnotacją.
Warto zaznaczyć, że zgodnie z warunkami użytkowania Anthropic, firma zabrania korzystania z Claude’a do opracowywania konkurencyjnych produktów bez zgody. Na razie nie ma informacji, czy Google uzyskało takie pozwolenie. Rzecznik Google DeepMind zaprzecza, jakoby Claude był wykorzystywany do szkolenia modelu Gemini.
Mimo to, nie jest to zaskakujące, ponieważ w przeszłości modele AI, takie jak Claude 3.5 Sonnet, osiągały lepsze wyniki w testach porównawczych, pokonując zarówno GPT-4, jak i Google Gemini Ultra w obszarach takich jak wiedza ogólna, rozumowanie czy kodowanie. Choć takie testy nie są w pełni miarodajne, wskazują na rosnącą konkurencję i szybkość rozwoju sztucznej inteligencji.
Firma Anthropic ogłosiła wprowadzenie nowego narzędzia, Model Context Protocol (MCP), które umożliwia bezpośrednie łączenie systemów sztucznej inteligencji z różnorodnymi źródłami danych. MCP, który jest całkowicie open-source, ma na celu uproszczenie procesu integracji AI z ekosystemami danych, takimi jak repozytoria treści, narzędzia biznesowe czy środowiska programistyczne.
Do tej pory integracja systemów AI z danymi wymagała tworzenia niestandardowych łączy dla każdego źródła, co stanowiło barierę dla skalowalności i efektywności rozwiązań. MCP rozwiązuje ten problem, wprowadzając standardowy protokół, który eliminuje potrzebę tworzenia oddzielnych łączy dla różnych systemów danych. Dzięki temu integracja staje się prostsza, bardziej zrównoważona i skalowalna.
MCP jest dostępny dla deweloperów już teraz. Aby rozpocząć pracę, wystarczy zainstalować serwery MCP za pomocą aplikacji Claude Desktop. Wkrótce dostępny będzie również zestaw narzędzi do wdrażania serwerów produkcyjnych, co umożliwi organizacjom pełne wykorzystanie możliwości nowego protokołu.
Anthropic, startup wspierany przez gigantów technologicznych takich jak Alphabet i Amazon, ogłosił wprowadzenie nowych wersji swoich modeli sztucznej inteligencji (AI), które rozszerzają możliwości automatyzacji komputerowych zadań. Nowa funkcjonalność, która jest częścią aktualizacji, pozwala AI na samodzielne wykonywanie złożonych działań komputerowych, oszczędzając użytkownikom czas i liczbę niezbędnych kliknięć.
Nowa funkcja, nazwana „użytkowaniem komputera”, umożliwia sztucznej inteligencji sterowanie komputerem — poruszanie myszką, klikanie w odpowiednie miejsca oraz wprowadzanie tekstu — w celu realizacji skomplikowanych operacji. Jak wyjaśnił Jared Kaplan, dyrektor naukowy Anthropic, narzędzie to ma przede wszystkim pomóc programistom, choć otwiera również drzwi do stworzenia bardziej zaawansowanych agentów AI, zdolnych do autonomicznego wykonywania zadań z minimalną interwencją człowieka.
Agent AI to program, który nie tylko generuje treści, jak prozę czy kod komputerowy, ale także jest w stanie podejmować działania w wielu krokach, co stanowi kolejny krok w rozwoju sztucznej inteligencji. W praktyce Anthropic zademonstrował funkcjonalność nowego narzędzia, pokazując jak AI może zaprojektować prostą stronę internetową, a także zaplanować wyjście na wschód słońca, korzystając z różnych programów, takich jak Google Search i Apple Maps.
Nowe wersje modeli AI Anthropic, sprzedawane pod marką Claude, są dostępne w trzech różnych wersjach: Sonnet, modelu średniego poziomu, oraz Haiku, najtańszym z dostępnych modeli. Zgodnie z zapewnieniami Kaplana, najnowsza wersja Haiku 3.5 jest już w stanie generować kod komputerowy na poziomie „prawie porównywalnym” do droższego Sonnet, który pojawił się w czerwcu. Najmocniejszy model, Opus, ma zostać zaktualizowany do końca roku.
Jednak nowa funkcjonalność automatycznego użytkowania komputera jest na razie dostępna tylko w modelu Sonnet 3.5 i zabezpieczona przed potencjalnym niewłaściwym wykorzystaniem, takim jak spam, oszustwa czy manipulacje związane z wyborami. Choć sztuczna inteligencja wciąż popełnia błędy, Anthropic aktywnie pracuje nad ulepszeniami i dąży do zebrania opinii od klientów biznesowych, aby dostosować rozwój technologii do ich potrzeb.
Mike Krieger, współzałożyciel Instagrama i nowy dyrektor ds. produktów w Anthropic, zwrócił uwagę, że firma chce otworzyć funkcję automatyzacji komputerowej także dla konsumentów. Krieger osobiście liczy na pełną automatyzację niektórych działań, takich jak rezerwacja lotów, co może znacznie uprościć codzienne czynności użytkowników.
W międzyczasie konkurencja na rynku AI również nie śpi. W poniedziałek Microsoft ogłosił nową aplikację, która umożliwia klientom tworzenie własnych agentów AI do obsługi zapytań, zarządzania zapasami i identyfikacji potencjalnych klientów. Wyścig w kierunku pełnej automatyzacji zadań komputerowych trwa, a Anthropic z nowymi modelami Claude ma szansę zająć czołowe miejsce w tej rewolucji technologicznej.
Zarządzaj swoją prywatnością
Żeby zapewnić najlepsze wrażenia, my oraz nasi partnerzy używamy technologii takich jak pliki cookies do przechowywania i/lub uzyskiwania informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam oraz naszym partnerom na przetwarzanie danych osobowych, takich jak zachowanie podczas przeglądania lub unikalny identyfikator ID w tej witrynie. Brak zgody lub jej wycofanie może niekorzystnie wpłynąć na niektóre funkcje.
Kliknij poniżej, aby wyrazić zgodę na powyższe lub dokonać szczegółowych wyborów. Twoje wybory zostaną zastosowane tylko do tej witryny. Możesz zmienić swoje ustawienia w dowolnym momencie, w tym wycofać swoją zgodę, korzystając z przełączników w polityce plików cookie lub klikając przycisk zarządzaj zgodą u dołu ekranu.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.