Tag: Google

  • W Google znów zwolnienia. Restrukturyzacja sięga zespołów Androida i Chrome

    W Google znów zwolnienia. Restrukturyzacja sięga zespołów Androida i Chrome

    Google przeprowadzi kolejną rundę zwolnień, obejmującą setki pracowników w ramach działu Platforms & Devices, odpowiedzialnego za rozwój Androida, urządzeń Pixel oraz przeglądarki Chrome – czytamy w The Information. To kontynuacja procesu restrukturyzacji zapoczątkowanego w 2023 roku, kiedy to firma ogłosiła redukcję 12 000 etatów, co stanowiło około 6% globalnej siły roboczej. ​

    Konsolidacja i dążenie do efektywności

    W 2024 roku Google połączyło zespoły odpowiedzialne za platformy i urządzenia, tworząc dział Platforms & Devices pod kierownictwem Ricka Osterloha. Celem tej konsolidacji było zwiększenie efektywności i szybsze wdrażanie innowacji, zwłaszcza w obszarze sztucznej inteligencji. W styczniu 2025 roku firma zaoferowała pracownikom tego działu program dobrowolnych odejść, który miał na celu zminimalizowanie konieczności przymusowych zwolnień. ​

    Presja konkurencji i inwestycje w AI

    Dyrektor generalny Google, Sundar Pichai, podkreślił, że rok 2025 jest kluczowy dla firmy, która musi szybko adaptować się do dynamicznych zmian na rynku technologii i rosnącej konkurencji w obszarze sztucznej inteligencji. Google intensyfikuje inwestycje w AI, co wymusza przegląd priorytetów i alokację zasobów na najbardziej perspektywiczne projekty.​

    Reakcje pracowników i związku zawodowego

    W odpowiedzi na niepewność związaną z zatrudnieniem, Alphabet Workers Union zainicjował petycję, w której domaga się od Google oferowania programów dobrowolnych odejść przed przystąpieniem do przymusowych zwolnień oraz zapewnienia uczciwych warunków odpraw. 

    Petycja zyskała ponad 1 300 podpisów, odzwierciedlając rosnące obawy pracowników o stabilność zatrudnienia.​

  • Google uderza własnym chipem. Ironwood to alternatywa dla Nvidia

    Google uderza własnym chipem. Ironwood to alternatywa dla Nvidia

    Podczas tegorocznego Google Cloud Next gigant z Mountain View zaprezentował Ironwood – najnowszy, samodzielnie zaprojektowany chip z rodziny TPU (Tensor Processing Unit), zaprojektowany z myślą o wnioskowaniu AI w centrach danych. To już siódma generacja tych układów i kolejny dowód na to, że największe firmy chmurowe nie chcą już tylko optymalizować cudzego sprzętu – chcą mieć własny.

    TPU wraca do gry – i to z przytupem

    Ironwood to pierwszy tak wyraźny sygnał od Google, że chipy dla sztucznej inteligencji nie muszą być synonimem produktów Nvidii. Nowy układ został zoptymalizowany wyłącznie pod kątem wnioskowania, co odróżnia go od wcześniejszych TPU, które często były projektowane uniwersalnie – z myślą o treningu i inferencji.

    Specyfikacja mówi sama za siebie: 192 GB pamięci HBM, sześciokrotnie więcej niż w poprzedniku Trillium, oraz niemal dwukrotnie wyższa przepustowość – 7,2 TB/s. To parametry, które pozwalają nie tylko na uruchamianie dużych modeli LLM, ale też na błyskawiczną reakcję systemów rekomendacyjnych czy silników predykcyjnych w czasie rzeczywistym.

    Warto zauważyć także poprawę efektywności energetycznej: 29,3 flopów na wat – to więcej niż dwukrotna poprawa względem Trillium (14,6). W czasach, gdy każdy wat w serwerowni jest liczony, to przewaga trudna do przecenienia.

    Chmurowy hardware jako nowy wyróżnik

    Ironwood nie trafi na półki sklepowe. Podobnie jak poprzednie TPU, chip będzie dostępny wyłącznie w Google Cloud, gdzie użytkownicy mogą korzystać z dwóch rozmiarów klastrów: od 256-chipowych jednostek HPC po tzw. „pody” złożone z 9216 chipów, osiągające według Google aż 42,5 eksaflopsa w FP8. W teorii – szybciej niż superkomputer El Capitan, choć realnie porównania te budzą wątpliwości ze względu na różnice w architekturze i zastosowaniach.

    Ale nie o benchmarki tu chodzi. Ironwood to przede wszystkim argument strategiczny: Google dołącza do AWS i Microsoftu w wyścigu na własne układy krzemowe, próbując zredukować zależność od Nvidii – firmy, której GPU są dziś drogie, trudno dostępne i… często za uniwersalne.

    AWS już od lat rozwija linie Trainium i Inferentia, Microsoft pracuje nad chipami Maia, a teraz Google pokazuje, że może nie tylko projektować hardware, ale też dostarczać go w skali, która ma znaczenie dla największych klientów.

    Ironwood jako narzędzie i jako ubezpieczenie

    Warto spojrzeć na Ironwood nie tylko jak na chip, ale jak na strategiczny asset. Własna architektura to większa kontrola nad kosztami, dostępnością, optymalizacją software’u i – co coraz ważniejsze – śladem węglowym. To także sposób na budowanie unikalnej oferty w chmurze, z wyraźnie odróżniającym się zapleczem technologicznym.

    Nieprzypadkowo w Ironwood znalazł się dedykowany akcelerator SparseCore, zoptymalizowany pod klasyczne zadania AI, takie jak systemy rekomendacji. W połączeniu z modelem dostępnym wyłącznie w chmurze, Google zyskuje silny atut w rozmowach z firmami z branż takich jak e-commerce, fintech czy media.

    Nowa normalność w AI

    Ironwood wpisuje się w szerszy trend: chmura staje się nie tylko platformą, ale też producentem hardware’u. Klienci nie chcą już tylko skalowalnych zasobów – chcą zoptymalizowanych rozwiązań, które pozwolą uruchomić AI szybciej, taniej i bardziej niezawodnie. Dla dostawców chmurowych oznacza to jedno: własny chip przestaje być ciekawostką, a staje się koniecznością.

    Google zrobiło kolejny krok. Teraz pytanie brzmi: czy klienci będą gotowi na większe zaufanie do zamkniętych, firmowych ekosystemów AI? Jeśli Ironwood rzeczywiście będzie tak wydajny, jak twierdzi Google – odpowiedź może być twierdząca.

  • Google Cloud przyspiesza z AI. 75 mld dolarów na infrastrukturę do 2025 roku

    Google Cloud przyspiesza z AI. 75 mld dolarów na infrastrukturę do 2025 roku

    Na dorocznej konferencji Google Cloud w Las Vegas, Alphabet postawił sprawę jasno: mimo rosnących napięć celnych i makroekonomicznej niepewności, firma nie zamierza ograniczać inwestycji w infrastrukturę. Wręcz przeciwnie – planuje w 2025 roku wydać aż 75 miliardów dolarów na rozbudowę centrów danych, które stanowią fundament pod rozwój sztucznej inteligencji.

    Wiceprezes Google Cloud, Sachin Gupta, przyznał w rozmowie z Reutersem, że wzrost kosztów importu sprzętu IT, wywołany m.in. nowymi cłami zapowiedzianymi przez Donalda Trumpa, nie pozostanie bez wpływu na realizację inwestycji. Ale jak zaznaczył – popyt ze strony klientów rośnie tak szybko, że firma nie może sobie pozwolić na wstrzymanie budowy nowych mocy obliczeniowych.

    Zresztą Alphabet nie jest w tym samotny. Microsoft zadeklarował już ponad 80 miliardów dolarów inwestycji w infrastrukturę AI na 2025 rok, Meta dołoży kolejne 65 miliardów. Tylko te trzy firmy wyłożą łącznie ponad 220 miliardów dolarów na fundamenty przyszłości, której stery przejmuje sztuczna inteligencja.

    Google
    źródło: Unplash/Pawel Czerwinski

    AI = ROI

    Skąd ta pewność, że to się opłaci? Odpowiedź znajduje się po stronie klientów.

    Intuit, Papa John’s czy Verizon – firmy z bardzo różnych branż – podczas konferencji opowiadały o tym, jak Google Cloud wspiera ich w tworzeniu rozwiązań AI przynoszących wymierne rezultaty. Intuit zapowiada, że „podwaja” integrację AI ze swoimi produktami finansowymi. Papa John’s widzi większy zwrot z inwestycji w AI niż z jakiegokolwiek innego projektu. Verizon notuje skrócenie czasu rozmów z klientami i wzrost sprzedaży dzięki wdrożeniu asystenta AI opartego na modelach Google.

    Rozszerzanie infrastruktury oznacza nowe lokalizacje centrów danych, większy popyt na usługi zarządzane, projekty migracyjne i wdrożenia AI. Dla kanału to konkretne przychody – ale tylko wtedy, gdy uda się złapać właściwą falę technologicznych zmian.

    Z drugiej strony, wzrost kosztów sprzętu z importu, który może dotknąć także kanał, jest sygnałem, że nie wszystko da się planować liniowo. Elastyczność w modelowaniu ofert, gotowość na rosnące koszty operacyjne i większe znaczenie usług (w miejsce marżowych produktów) – to kluczowe wnioski dla partnerów na 2025 rok.

    Czy Alphabet gra va banque?

    Na pierwszy rzut oka decyzja o rekordowych inwestycjach w dobie gospodarczych turbulencji może wyglądać na ryzykowną. Ale Alphabet – podobnie jak Microsoft czy Meta – zdaje się działać według innej logiki. Dla gigantów Big Tech to nie jest już wyścig o rynek – to wyścig o dominację w nowym paradygmacie technologicznym.

    Jeśli AI ma być wszechobecną warstwą pośrednią dla wszystkich usług cyfrowych – od finansów, przez zdrowie, aż po pizzę – to pytanie nie brzmi czy warto inwestować, ale czy można sobie pozwolić na to, żeby nie inwestować.

  • Google for Startups ogłosił uczestników Growth Academy: AI for Health. Wśród nich 3 polskie startupy

    Google for Startups ogłosił uczestników Growth Academy: AI for Health. Wśród nich 3 polskie startupy

    Google for Startups ogłosiło listę firm zakwalifikowanych do trzeciej edycji programu Growth Academy: AI for Health, którego celem jest wsparcie startupów wykorzystujących sztuczną inteligencję w obszarze ochrony zdrowia. Wśród 25 wybranych spółek znalazły się trzy z Polski: Doctor.One, Holi oraz Prosoma. Program obejmuje firmy z Europy, Afryki i Bliskiego Wschodu, a jego celem jest przyspieszenie rozwoju technologii medycznych przy jednoczesnym zachowaniu standardów odpowiedzialnego wdrażania AI.

    Growth Academy: AI for Health – zakres programu i jego cele

    Growth Academy to trzymiesięczne wsparcie mentoringowe i technologiczne dla startupów rozwijających produkty na styku medycyny i sztucznej inteligencji. Uczestnicy mają dostęp do warsztatów z zakresu projektowania produktów, pozyskiwania klientów i użytkowników, rozwoju kompetencji zarządczych oraz wsparcia technicznego ze strony ekspertów Google. Program ma na celu nie tylko rozwój technologii, ale również zwiększenie skalowalności projektów i ich zdolności do wdrożenia na rynkach międzynarodowych.

    Uczestnicy z Polski – obszary działania

    Dr One 245.max 3200x3200.format webp

    Doctor.One opracował aplikację umożliwiającą pacjentom stały kontakt z lekarzem prowadzącym. Rozwiązanie ma na celu poprawę dostępności konsultacji medycznych oraz zmniejszenie obciążenia systemu opieki zdrowotnej. Model zakłada relację długoterminową i asynchroniczną komunikację zamiast tradycyjnych wizyt.

    founders holi.max 1285x1285.format webp

    Holi to platforma wspierająca leczenie otyłości i chorób cywilizacyjnych poprzez długoterminową, cyfrową opiekę. Wykorzystując algorytmy AI, system tworzy spersonalizowane protokoły zdrowotne i wspiera pacjentów w realizacji celów terapeutycznych.

    Copy of 0 8233 DONE 2.max 3200x3200.format webp

    Prosoma rozwija certyfikowaną aplikację medyczną Living Well, przeznaczoną dla pacjentów onkologicznych. Narzędzie łączy elementy terapii poznawczo-behawioralnej z cyfrowym coachingiem i zostało przetestowane w badaniach klinicznych. Celem jest wsparcie psychiczne pacjentów oraz poprawa jakości życia w trakcie i po leczeniu nowotworowym.

    Kontekst rynkowy i znaczenie udziału w programie

    Udział w międzynarodowym programie akceleracyjnym może zwiększyć wiarygodność startupów na rynku medycznym oraz przyspieszyć ich ekspansję zagraniczną. Szczególnie istotne jest to w kontekście wysokich barier regulacyjnych i konieczności współpracy z systemami ochrony zdrowia – zarówno publicznymi, jak i prywatnymi.

    Wybór trzech polskich firm potwierdza, że lokalny sektor healthtech rozwija się nie tylko pod względem technologicznym, ale również w obszarze zgodności z normami klinicznymi i podejściem do personalizacji terapii. Projekty takie jak Prosoma czy Holi wpisują się w światowe trendy digitalizacji medycyny, w tym rosnące zapotrzebowanie na zintegrowane, cyfrowe modele opieki nad pacjentem.

    Google for Startups stawia na AI w ochronie zdrowia

    Sztuczna inteligencja znajduje coraz więcej zastosowań w diagnostyce, personalizacji terapii, predykcji nawrotów chorób i automatyzacji dokumentacji medycznej. Wciąż jednak kluczowe pozostają kwestie interoperacyjności systemów, zabezpieczenia danych pacjentów oraz zgodności z przepisami ochrony zdrowia – zarówno lokalnymi, jak i unijnymi (np. MDR, RODO, AI Act).

    W tym kontekście udział w programach takich jak Growth Academy może pomóc startupom nie tylko technologicznie, ale również organizacyjnie i formalnie – zwiększając ich zdolność do funkcjonowania w środowisku o wysokich wymaganiach regulacyjnych.

  • Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Choć świat chmur publicznych coraz mocniej stawia na nośniki flash, Google nie rezygnuje z dysków twardych. Wręcz przeciwnie – w sercu jego infrastruktury wciąż biją talerzowe napędy, tyle że pod kontrolą wysoce zaawansowanego systemu, który pozwala im działać w tempie zbliżonym do SSD.

    Podstawą niemal wszystkich usług Google – od YouTube’a po Gmaile i Cloud Storage – jest Colossus: zaprojektowany wewnętrznie system zarządzania danymi, który integruje i automatyzuje zarządzanie pamięcią masową w skali eksabajtów – wskazuje Google w poście na swoim blogu. Każde centrum danych Google działa na jednym klastrze Colossusa, który może osiągać prędkości do 50 TB/s przy odczycie i 25 TB/s przy zapisie. Dla porównania – to jak przepuszczenie całej zawartości dysku SSD klasy konsumenckiej w ułamku sekundy.

    Klucz do sukcesu? Połączenie taniej pojemności dysków twardych z inteligencją automatyzacji i precyzją uczenia maszynowego. Choć Google posiada również infrastrukturę opartą o SSD, pełne przejście na nośniki półprzewodnikowe byłoby kosztowne na masową skalę. Stąd hybrydowe podejście – z wyraźnym rozdzieleniem danych „szybkich” od „wolnych”.

    Rolę kuratora pełni tutaj system L4 – zaawansowany mechanizm cache’owania, który w czasie rzeczywistym analizuje wzorce dostępu do danych i decyduje, które z nich powinny trafić na SSD, a które mogą bezpiecznie pozostać na talerzach HDD. Dzięki temu popularne, często odczytywane dane są dostępne błyskawicznie, a mniej aktywne zasoby nie obciążają droższej przestrzeni.

    To podejście nie jest jednak pozbawione ograniczeń. HDD sprawdzają się świetnie przy danych często aktualizowanych, ale tracą przewagę przy plikach, które rosną poprzez liczne, drobne dopiski – np. logi czy dane telemetryczne. W takich przypadkach Google świadomie omija dyski twarde, kierując dane bezpośrednio na SSD.

    Dla reszty rynku IT to cenne case study. Choć producenci infrastruktury kuszą coraz szybszymi macierzami all-flash, przykład Google pokazuje, że inwestycja w inteligentne warstwy oprogramowania potrafi wycisnąć maksimum z konwencjonalnego sprzętu. W dobie optymalizacji kosztów i eksplozji danych, taka strategia może być bardziej atrakcyjna niż pełna migracja do flasha – zwłaszcza w środowiskach hyperscale.

  • Zmiana w rozwoju Androida: Google zamyka drzwi, przyszłość open source pod znakiem zapytania

    Zmiana w rozwoju Androida: Google zamyka drzwi, przyszłość open source pod znakiem zapytania

    Google przenosi znaczną część rozwoju systemu operacyjnego Android za zamknięte drzwi, co rodzi pytania o transparentność i jego długoletnie zaangażowanie w ideę otwartego oprogramowania – potwierdziły źródła serwisu Android Authority. Ta zmiana, choć nie powinna mieć natychmiastowego wpływu na użytkowników czy deweloperów aplikacji, stanowi znaczące odejście od otwartego modelu rozwoju, który charakteryzował Androida od samego początku.

    Przez lata projekt Android Open Source Project (AOSP) pełnił rolę publicznej twarzy rozwoju Androida, umożliwiając deweloperom i entuzjastom śledzenie postępów i wnoszenie wkładu w platformę. Jednak Google stopniowo konsoliduje rozwój wewnętrznie, a kluczowe komponenty Androida są obecnie budowane w ramach prywatnych „wewnętrznych gałęzi”. Jak wskazują źródła, „gałąź AOSP” nie odzwierciedla już pełnego zakresu prac Google nad systemem operacyjnym.

    Ta zmiana oznacza, że zewnętrzni deweloperzy będą musieli czekać na oficjalne wydania, aby zobaczyć najnowsze zmiany, co potencjalnie spowolni tempo wkładu społeczności i niezależnych innowacji. Choć Google zapewnia, że częstotliwość publicznych wydań pozostanie niezmieniona, a Android pozostanie „otwarty”, praktyczne implikacje tej zmiany są znaczące.

    Transparentność pod lupą

    Decyzja o scentralizowaniu rozwoju wewnętrznie rodzi obawy o transparentność i kontrolę. Krytycy mogą argumentować, że daje to Google większą kontrolę nad kierunkiem rozwoju Androida, potencjalnie kosztem wkładu społeczności i niezależnego rozwoju. Może to również prowadzić do bardziej rozdrobnionego ekosystemu, ponieważ deweloperzy spoza Google będą mieli mniejszy wgląd w nadchodzące funkcje i zmiany.

    Chociaż Google nie skomentował oficjalnie przyczyn tej decyzji, spekuluje się, że chodzi o większą kontrolę nad ewolucją platformy, szczególnie w strategicznych obszarach, takich jak bezpieczeństwo, optymalizacja wydajności i integracja nowych funkcji.

    Ograniczony natychmiastowy wpływ, długoterminowe pytania

    W krótkim okresie wpływ na użytkowników końcowych i deweloperów aplikacji będzie prawdopodobnie minimalny. Aktualizacje Androida będą nadal wdrażane, a deweloperzy nadal będą mieli dostęp do niezbędnych narzędzi i interfejsów API. Jednak długoterminowe konsekwencje tej zmiany pozostają niejasne.

    Kanał IT, który od dawna czerpie korzyści z otwartości Androida, będzie musiał uważnie monitorować, jak ta zmiana wpływa na cykle rozwoju, dostęp do informacji i ogólny stan ekosystemu Androida. Pozostają pytania o przyszłość AOSP i zakres, w jakim zewnętrzny wkład będzie ceniony i integrowany.

  • Od chmury do bezpieczeństwa: jak Google, dzięki przejęciu Wiz, szuka nowego języka z rynkiem enterprise

    Od chmury do bezpieczeństwa: jak Google, dzięki przejęciu Wiz, szuka nowego języka z rynkiem enterprise

    Google ogłosiło przejęcie izraelskiego start-upu Wiz za 32 miliardy dolarów – to największy zakup w historii Alphabetu, który sygnalizuje nowe priorytety spółki w obszarze enterprise. Wiz, dostawca platformy do zabezpieczania aplikacji natywnych dla chmury (CNAPP), stał się w ostatnich latach jednym z kluczowych graczy na rynku rozwiązań multicloud security. Jego narzędzia działają zarówno na Google Cloud, jak i na AWS, Azure oraz Oracle Cloud, co sprawia, że transakcja ma wymiar wykraczający poza wzmocnienie własnego ekosystemu Google.

    Do finalizacji porozumienia doszło po tym, jak wcześniejsze rozmowy między firmami – toczone przy wycenie 23 miliardów dolarów – zakończyły się fiaskiem w 2024 roku. Obecna umowa wpisuje się w szerszy trend przyspieszającego wdrażania środowisk wielochmurowych oraz rosnącego zapotrzebowania na rozwiązania bezpieczeństwa, które nadążają za integracją sztucznej inteligencji w procesach firmowych i instytucjonalnych.

    Dla Google to nie tylko rozszerzenie portfolio, ale próba zdefiniowania własnej roli w świecie, gdzie multicloud i AI stają się standardem, a zaufanie do dostawcy rozwiązań bezpieczeństwa ma znaczenie większe niż kiedykolwiek wcześniej.

    Google Cloud i problem z rynkiem enterprise

    Mimo intensywnych inwestycji i szybkiego wzrostu przychodów, Google Cloud od lat pozostaje trzecim graczem na rynku chmurowym – za Amazon Web Services i Microsoft Azure. Problemy z penetracją rynku enterprise wynikały nie tylko z późnego wejścia w segment IaaS i PaaS, ale również z ograniczonego zaufania ze strony dużych organizacji publicznych i prywatnych. Klienci często postrzegali Google jako firmę skoncentrowaną na technologii konsumenckiej, z mniej dojrzałym podejściem do długoterminowego wsparcia, compliance i zarządzania ryzykiem.

    W odróżnieniu od Microsoftu, który od dekad obsługuje sektor publiczny i ma głęboko zakorzenione relacje w korporacjach, Google nie zbudował jeszcze podobnej pozycji jako partner strategiczny w środowisku enterprise. Nawet dynamiczny rozwój Google Workspace nie wystarczył, by przełamać ten wizerunek. Dla wielu klientów bezpieczeństwo i transparentność procesów pozostawały kluczowymi barierami adopcyjnymi.

    Przejęcie Wiz wpisuje się w próbę zmiany tej percepcji. Zamiast budować wszystkie komponenty od podstaw, Google sięga po sprawdzone, niezależne rozwiązanie, które ma już reputację wśród najbardziej wymagających klientów – od startupów po instytucje rządowe. To sygnał, że firma chce być postrzegana nie tylko jako dostawca innowacji, ale także jako partner, który rozumie wyzwania operacyjne i regulacyjne dużych organizacji.

    „Zamiast budować wszystkie komponenty od podstaw, Google sięga po sprawdzone, niezależne rozwiązanie, które ma już reputację wśród najbardziej wymagających klientów.”

    Wiz jako klucz do nowej narracji

    Wiz nie jest kolejnym produktem do włączenia w ofertę Google Cloud. To platforma, która z definicji działa niezależnie od infrastruktury – zaprojektowana z myślą o środowiskach multicloud i hybrydowych, z intuicyjnym interfejsem, który przemawia zarówno do zespołów DevOps, jak i do specjalistów ds. bezpieczeństwa. Jej rola w ekosystemie klientów enterprise polega na tym, że nie wymusza lojalności wobec konkretnego dostawcy chmurowego. To cecha, której Google – jako vendor długo kojarzony z własnym „zamkniętym światem” – do tej pory brakowało.

    Włączenie Wiz do swojego portfolio daje Google unikalny atut: możliwość oferowania rozwiązań bezpieczeństwa nie tylko klientom własnej chmury, ale także tym, którzy korzystają z AWS, Azure czy Oracle Cloud. To odważne odejście od dotychczasowego modelu „Google-first” i otwarcie się na logikę realnego rynku enterprise, który w zdecydowanej większości funkcjonuje w modelu wielochmurowym.

    To także strategiczna zmiana tonu. Zamiast przekonywać klientów do migracji całej infrastruktury do Google Cloud, firma może teraz rozmawiać językiem bezpieczeństwa – neutralnego, mierzalnego i bezpośrednio przekładającego się na ryzyko operacyjne. W tym kontekście Wiz staje się nie tylko produktem, ale kanałem komunikacji z rynkiem, który do tej pory często wybierał konkurencję nie ze względu na technologię, ale z powodu większego zaufania.

    Nowa tożsamość marki Google Cloud?

    Dotychczas Google Cloud był przede wszystkim postrzegany jako platforma inżynierska – szybka, skalowalna, pełna innowacji, ale pozbawiona „miękkich kompetencji” potrzebnych w obsłudze złożonych środowisk korporacyjnych. Przejęcie Wiz może oznaczać przesunięcie tego balansu. Google nie tylko wzmacnia kompetencje w obszarze bezpieczeństwa, ale także sygnalizuje gotowość do przyjęcia roli bardziej doradczej, osadzonej w realiach biznesowych klientów.

    Dzięki Wiz, Google zyskuje coś, czego nie da się szybko zbudować wewnętrznie: zaufanie u klientów, którzy działają w środowiskach regulowanych, złożonych operacyjnie, często sceptycznych wobec nadmiaru vendor lock-in. Platforma CNAPP od Wiz już dziś działa w wielu instytucjach rządowych, firmach z sektora finansowego i dużych korporacjach – a więc dokładnie tam, gdzie Google od lat próbował wzmocnić swoją obecność.

    Dodatkowo, integracja AI z rozwiązaniami bezpieczeństwa – co już teraz testują zarówno Google, jak i Microsoft – zmienia reguły gry. Sztuczna inteligencja nie tylko zwiększa efektywność wykrywania zagrożeń, ale jednocześnie generuje nowe powierzchnie ataku. W tym nowym krajobrazie nie wystarczy być dostawcą technologii – trzeba być partnerem z odpowiedzialnością za cały kontekst działania. To rola, do której Google aspiruje, a przejęcie Wiz może być pierwszym poważnym krokiem w jej kierunku.

    „W tym nowym krajobrazie nie wystarczy być dostawcą technologii – trzeba być partnerem z odpowiedzialnością za cały kontekst działania.”

    Wnioski i implikacje dla kanału partnerskiego

    Dla partnerów Google Cloud przejęcie Wiz może oznaczać początek nowego etapu – zarówno w wymiarze produktowym, jak i strategicznym. Dotychczas wiele firm partnerskich funkcjonowało głównie jako integratorzy infrastruktury GCP lub dostawcy usług opartych na Workspace. Teraz Google otwiera przed nimi dodatkowe pole działania: bezpieczeństwo multicloud w modelu doradczym.

    Rozwiązania Wiz pozwalają partnerom adresować potrzeby klientów działających w złożonych środowiskach – łączących GCP, AWS i Azure – bez konieczności replatformingu. To szansa na rozszerzenie oferty o usługi związane z audytem bezpieczeństwa, wdrażaniem polityk CNAPP czy zarządzaniem ryzykiem w cyklu DevSecOps. Zyskują na tym także dostawcy usług zarządzanych (MSP), którzy mogą budować własne modele biznesowe wokół jednej, zunifikowanej platformy.

    Z drugiej strony, rosnąca obecność Google w przestrzeni regulowanego enterprise oznacza większe oczekiwania wobec partnerów: kompetencje w zakresie compliance, umiejętność operowania w środowiskach wielochmurowych, a także zdolność do budowania zaufania u klientów, którzy przywiązują wagę do długoterminowego wsparcia i odporności operacyjnej.

    W tym sensie Wiz to nie tylko produkt, ale narzędzie zmiany pozycji rynkowej – nie tylko dla Google, ale również dla jego ekosystemu partnerskiego. Dla integratorów i VAR-ów, którzy potrafią szybko zaadaptować nowe kompetencje, może to być moment redefinicji ich roli u klientów – z wykonawcy rozwiązań technicznych na doradcę strategicznego.


    Czytaj więcej o przejęciu Wiz przez Google:
    Google planuje rekordową akwizycję
    Wiz powiedział Google “nie”. Dlaczego startup odrzucił 23 miliardy dolarów?
    Google uparł się na przejęcie Wiz, tym razem za 30 mld dolarów. Dlaczego tak mu zależy?
    Google w końcu przejmuje Wiz – 32 mld dolarów za furtkę do pozycji lidera na rynku chmury

  • KE: Google i Apple muszą otworzyć swoje ekosystemy

    KE: Google i Apple muszą otworzyć swoje ekosystemy

    W ostatnich dniach Komisja Europejska (KE) podjęła zdecydowane działania wobec dwóch gigantów technologicznych – Google i Apple – oskarżając je o praktyki naruszające zasady uczciwej konkurencji na rynku cyfrowym. Te posunięcia są częścią szerszej strategii UE mającej na celu ograniczenie dominacji największych firm technologicznych i zapewnienie równych szans dla wszystkich uczestników rynku.​

    Google: Faworyzowanie własnych usług i ograniczenia dla deweloperów

    KE zarzuciła Google, że wykorzystuje swoją dominującą pozycję na rynku wyszukiwarek internetowych do promowania własnych usług, takich jak Google Shopping, Google Hotels czy Google Flights, kosztem konkurencyjnych serwisów.Według ustaleń Komisji, usługi te są wyświetlane na bardziej eksponowanych pozycjach w wynikach wyszukiwania, co utrudnia użytkownikom dostęp do ofert innych dostawców. ​

    Dodatkowo, Google zostało oskarżone o ograniczanie deweloperom aplikacji możliwości informowania użytkowników o alternatywnych kanałach dystrybucji poza sklepem Google Play. Komisja uznała, że takie praktyki mogą naruszać unijne przepisy zawarte w ustawie o rynkach cyfrowych (DMA), które zakazują platformom cyfrowym faworyzowania własnych usług kosztem konkurencji.

    W odpowiedzi na zarzuty, Google wyraziło obawy, że proponowane przez KE zmiany mogą utrudnić użytkownikom znalezienie poszukiwanych informacji i zmniejszyć ruch na stronach europejskich firm. Firma argumentuje, że takie działania mogą negatywnie wpłynąć na doświadczenia konsumentów oraz na działalność biznesową w Europie. ​

    Apple: Otwarcie ekosystemu dla konkurencji

    Równocześnie, KE nakazała Apple otwarcie swojego zamkniętego ekosystemu, aby umożliwić lepszą współpracę urządzeń innych producentów z iPhone’ami i iPadami. Decyzja ta ma na celu zwiększenie interoperacyjności i zapewnienie konsumentom większego wyboru na rynku urządzeń cyfrowych. 

    Apple zostało zobowiązane do udostępnienia producentom konkurencyjnych urządzeń, takich jak słuchawki, smartwatche czy zestawy VR, dostępu do swojego systemu operacyjnego iOS. Ma to umożliwić bezproblemowe łączenie się tych urządzeń z produktami Apple, co dotychczas było utrudnione ze względu na zamknięty charakter ekosystemu firmy. ​

    W odpowiedzi na decyzję KE, Apple wyraziło swoje niezadowolenie, twierdząc, że takie działania mogą spowolnić innowacyjność firmy i zmusić ją do udostępniania nowych funkcji za darmo konkurentom, którzy nie muszą przestrzegać tych samych zasad. Firma argumentuje, że decyzja KE jest niekorzystna zarówno dla produktów Apple, jak i dla europejskich użytkowników. 

    Konsekwencje dla gigantów technologicznych

    Jeśli zarzuty KE zostaną potwierdzone, zarówno Google, jak i Apple mogą zostać ukarane grzywnami sięgającymi do 10% ich globalnych rocznych przychodów. W przypadku Google, którego przychody w 2024 roku wyniosły 350 miliardów dolarów, kara może wynieść nawet 35 miliardów dolarów. 

    Te działania KE pokazują determinację Unii Europejskiej w egzekwowaniu przepisów mających na celu zapewnienie uczciwej konkurencji na rynku cyfrowym. Wprowadzenie ustawy o rynkach cyfrowych (DMA) ma na celu ograniczenie dominacji największych platform technologicznych i zapewnienie równych szans dla mniejszych graczy, co w efekcie ma przynieść korzyści konsumentom w postaci większego wyboru i lepszych usług.​

  • Gemini z nowymi funkcjami – Google stawia na kreatywność i współpracę

    Gemini z nowymi funkcjami – Google stawia na kreatywność i współpracę

    ​Google wprowadził dwie nowe funkcje do swojego asystenta AI, Gemini: Canvas oraz Podsumowania Audio. Obie mają na celu usprawnienie procesu tworzenia treści i programowania, oferując użytkownikom bardziej interaktywne i efektywne narzędzia.​

    Canvas: Interaktywna przestrzeń do tworzenia i edycji

    Canvas to nowa, interaktywna przestrzeń w Gemini, zaprojektowana, aby ułatwić tworzenie, udoskonalanie i udostępnianie efektów pracy. Użytkownicy mogą w niej pisać i edytować dokumenty lub kod, obserwując wprowadzane zmiany w czasie rzeczywistym. Funkcja ta pozwala na generowanie wysokiej jakości pierwszych szkiców, które można szybko dopracować, korzystając z sugestii oferowanych przez Gemini. Dodatkowo, Canvas umożliwia dostosowanie tonu, długości czy formatowania tekstu za pomocą narzędzi do szybkiej edycji. Na przykład, zaznaczając akapit, można poprosić Gemini o przekształcenie go w bardziej zwięzły, profesjonalny lub nieformalny tekst. Po zakończeniu pracy, treści można jednym kliknięciem wyeksportować do Dokumentów Google, co ułatwia współpracę z innymi.

    Dla programistów Canvas oferuje możliwość szybkiego przekształcania pomysłów w działające prototypy aplikacji internetowych, skryptów w Pythonie, gier czy symulacji. Użytkownicy mogą generować i przeglądać kod HTML/React oraz inne prototypy, aby zobaczyć, jak prezentuje się projekt. Na przykład, chcąc stworzyć formularz subskrypcji mailowej na stronie internetowej, można poprosić Gemini o wygenerowanie odpowiedniego kodu HTML, a następnie zobaczyć, jak będzie wyglądał i działał w aplikacji internetowej. Canvas upraszcza cały proces kodowania, pozwalając skupić się na tworzeniu, edytowaniu i udostępnianiu kodu oraz projektu w jednym miejscu, bez konieczności przełączania się między wieloma aplikacjami.

    Podsumowania Audio: Twoje dokumenty w formie podcastu

    Podsumowania Audio to funkcja, która przekształca dokumenty, slajdy, a nawet szczegółowe raporty badawcze w angażujące dyskusje w stylu podcastów. Gemini tworzy rozmowę między dwoma hostami AI, którzy prowadzą żywiołową rozmowę opartą na przesłanych plikach. Dzięki tej dynamicznej wymianie zdań użytkownicy uzyskują szczegółowe podsumowanie materiału, zauważają powiązania między poszczególnymi tematami i uzyskują różne punkty widzenia. Funkcja ta sprawia, że nauka staje się przyjemniejsza i bardziej wydajna, umożliwiając słuchanie podsumowań audio w dowolnym miejscu, np. podczas podróży. Obecnie podsumowania audio są dostępne w języku angielskim dla subskrybentów Gemini i Gemini Advanced na całym świecie, z planami rozszerzenia na kolejne języki w przyszłości. ​

    Wprowadzenie funkcji Canvas i Podsumowań Audio czyni Gemini jeszcze bardziej wszechstronnym narzędziem, wspierającym użytkowników w realizacji różnorodnych projektów, od tworzenia treści po programowanie i analizę dokumentów.​

  • Dlaczego każdy gigant IT chce mieć swoją AI

    Dlaczego każdy gigant IT chce mieć swoją AI

    Sztuczna inteligencja (AI) przestała być futurystycznym konceptem rodem z filmów science fiction i stała się nieodłącznym elementem strategii największych firm technologicznych. Google, Microsoft, Apple, Amazon, Meta – każdy z tych gigantów IT rozwija własne rozwiązania AI, integrując je z produktami i usługami, które codziennie trafiają do miliardów użytkowników.

    Dlaczego jednak każda duża firma technologiczna chce mieć swoje AI, zamiast polegać na rozwiązaniach dostępnych na rynku? Czy chodzi wyłącznie o przewagę konkurencyjną, czy może o coś więcej? Rozwój własnych modeli AI oznacza nie tylko możliwość dostosowania technologii do specyficznych potrzeb, ale także kontrolę nad danymi, bezpieczeństwo i potencjalnie ogromne zyski. AI nie jest już tylko narzędziem wspierającym rozwój – to kluczowy filar przyszłości technologii.

    Motywacje gigantów IT do rozwijania własnych rozwiązań AI

    Każdy z gigantów IT inwestuje w rozwój własnej sztucznej inteligencji, ponieważ stawką jest nie tylko przewaga konkurencyjna, ale także kontrola nad danymi, koszty operacyjne i przyszłość technologii. AI przestała być jedynie narzędziem wspomagającym – stała się fundamentem innowacji i kluczowym elementem ekosystemów technologicznych. Firmy, które posiadają własne modele AI, mogą w pełni dostosować je do swoich produktów i usług, integrując je w sposób, który daje im unikalne możliwości. Google rozwija Gemini, Microsoft wspiera OpenAI i wdraża AI w swoje oprogramowanie biurowe, Apple implementuje sztuczną inteligencję bezpośrednio w swoich urządzeniach,Amazon wprowadza inteligentne rozwiązania zarówno w e-commerce, jak i w chmurze AWS. 

    Posiadanie własnego modelu AI oznacza również optymalizację operacji i redukcję kosztów. Sztuczna inteligencja może automatyzować procesy biznesowe, usprawniać obsługę klienta, analizować ogromne ilości danych w czasie rzeczywistym i przewidywać trendy rynkowe. Firmy technologiczne, które kontrolują swoje rozwiązania AI, nie tylko zwiększają efektywność wewnętrzną, ale także uniezależniają się od dostawców zewnętrznych, co daje im większą elastyczność i bezpieczeństwo.

    AI to także narzędzie personalizacji doświadczeń użytkowników. Współczesne technologie nie mogą być jedynie funkcjonalne – muszą rozumieć potrzeby użytkownika i dostosowywać się do jego preferencji. Wyszukiwarki internetowe, media społecznościowe, aplikacje zakupowe czy cyfrowi asystenci – wszystkie te narzędzia korzystają z AI do analizy zachowań użytkowników i dostarczania im odpowiednio dopasowanych treści i usług. Firmy inwestujące w własne modele sztucznej inteligencji mogą bardziej precyzyjnie kontrolować ten proces i utrzymywać wysoki poziom zaangażowania klientów.

    Nie mniej istotnym powodem budowania własnych rozwiązań AI jest kwestia prywatności i bezpieczeństwa danych. Dane są dziś jednym z najcenniejszych zasobów, a ich analiza stanowi podstawę nowoczesnego biznesu. Firmy, które rozwijają własne modele sztucznej inteligencji, mogą lepiej zabezpieczać informacje użytkowników i unikać ryzyk związanych z udostępnianiem ich podmiotom trzecim. Apple, które od lat podkreśla swoje podejście do ochrony prywatności, dąży do tego, by coraz więcej procesów AI odbywało się lokalnie na urządzeniach użytkowników, bez konieczności przesyłania danych do chmury.

    Sztuczna inteligencja to nie chwilowy trend, lecz fundament przyszłości technologii. Inwestowanie w AI to strategia długoterminowa, która pozwala firmom technologicznym budować przewagę na lata. Przyszłe rozwiązania, od autonomicznych systemów po inteligentne interfejsy, będą bazować na modelach sztucznej inteligencji rozwijanych już dziś. Każdy gigant IT rozumie, że kontrola nad AI to kontrola nad przyszłością, dlatego wyścig o najbardziej zaawansowane technologie w tej dziedzinie dopiero się rozpoczyna.

    Wyzwania związane z rozwojem własnych rozwiązań AI

    Choć rozwijanie własnej sztucznej inteligencji daje firmom technologicznym ogromne możliwości, jest to jednocześnie proces pełen wyzwań. AI nie jest technologią, którą można wdrożyć z dnia na dzień – wymaga dostępu do ogromnych ilości danych, potężnych zasobów obliczeniowych oraz zespołów wykwalifikowanych specjalistów. Nawet dla gigantów IT, którzy dysponują niemal nieograniczonymi budżetami, stworzenie efektywnego i bezpiecznego modelu AI to skomplikowane przedsięwzięcie.

    Jednym z największych problemów jest dostęp do danych. Sztuczna inteligencja uczy się na podstawie olbrzymich zbiorów informacji, które muszą być aktualne, różnorodne i odpowiednio skategoryzowane. W dobie rosnących regulacji dotyczących ochrony prywatności, takich jak RODO w Europie czy podobne przepisy w innych częściach świata, firmy muszą balansować pomiędzy potrzebą trenowania modeli AI a ograniczeniami dotyczącymi zbierania i wykorzystywania danych użytkowników. To szczególnie trudne w przypadku firm, które nie posiadają własnych ekosystemów danych, takich jak Google czy Facebook, gdzie miliardy użytkowników codziennie generują wartościowe informacje.

    Drugim wyzwaniem są zasoby technologiczne i koszty. Trening zaawansowanych modeli AI wymaga dostępu do potężnych centrów danych i kosztownych procesorów GPU. Firmy takie jak Microsoft czy Amazon mogą sobie na to pozwolić dzięki swoim chmurowym rozwiązaniom, ale nawet one muszą liczyć się z ogromnymi wydatkami. Warto pamiętać, że rozwój AI nie kończy się na jednorazowym trenowaniu modelu – jego ciągłe aktualizowanie, optymalizacja i dostosowywanie do zmieniających się warunków rynkowych to proces wymagający stałych nakładów finansowych.

    Kolejnym istotnym problemem jest etyka i odpowiedzialność. Algorytmy AI nie są wolne od błędów i mogą wzmacniać uprzedzenia, które pojawiają się w danych, na których były trenowane. Modele językowe mogą generować nieprawdziwe lub stronnicze odpowiedzi, a systemy decyzyjne wykorzystywane np. w rekrutacji czy analizie kredytowej mogą faworyzować jedne grupy społeczne kosztem innych. Firmy rozwijające własne AI muszą nie tylko zadbać o sprawiedliwość algorytmów, ale także ponosić odpowiedzialność za ich skutki – zarówno prawne, jak i wizerunkowe.

    Nie można też zapominać o zagrożeniu, jakie AI może stanowić dla samej branży technologicznej. Automatyzacja wielu procesów prowadzi do zmian na rynku pracy – niektóre stanowiska stają się zbędne, inne wymagają zupełnie nowych kompetencji. W miarę jak AI przejmuje coraz więcej zadań, firmy muszą zmierzyć się z pytaniem, jak pogodzić innowacje technologiczne z odpowiedzialnością społeczną.

    Wszystkie te wyzwania sprawiają, że rozwój własnych modeli AI to nie tylko kwestia technologii, ale także strategii, etyki i długoterminowego planowania. Nawet największe firmy nie mogą pozwolić sobie na błędy w tej dziedzinie, bo w świecie sztucznej inteligencji to nie tylko innowacja decyduje o sukcesie, ale także sposób, w jaki jest wdrażana i wykorzystywana.

    Kontrola nad danymi i prywatność

    Dane są paliwem, które napędza sztuczną inteligencję. To na ich podstawie modele AI uczą się rozpoznawać wzorce, podejmować decyzje i dostarczać coraz bardziej precyzyjne rekomendacje. Im więcej i lepszej jakości informacji posiada firma, tym skuteczniejsze może stworzyć algorytmy. Nic więc dziwnego, że kontrola nad danymi stała się jednym z kluczowych powodów, dla których giganci IT rozwijają własne rozwiązania AI.

    Firmy technologiczne, które opierają swoje produkty na AI, nie mogą pozwolić sobie na zależność od zewnętrznych dostawców danych. Po pierwsze, wiąże się to z ograniczeniami dotyczącymi dostępu i elastyczności – firmy korzystające z cudzych rozwiązań muszą liczyć się z tym, że nie zawsze będą mogły wykorzystać AI w sposób, jaki by chciały. Po drugie, w grę wchodzi bezpieczeństwo i prywatność użytkowników. Jeśli dane są przechowywane i przetwarzane przez podmiot trzeci, pojawia się ryzyko naruszenia ochrony prywatności oraz problem zgodności z regulacjami prawnymi, takimi jak RODO w Europie czy CCPA w Kalifornii.

    Dlatego giganci IT dążą do tego, by dane, na których trenują swoje AI, pozostawały w ich ekosystemach. Apple konsekwentnie rozwija technologie przetwarzania lokalnego (on-device AI), co pozwala na analizę danych bez konieczności ich wysyłania na zewnętrzne serwery. Google i Meta, które opierają swoje modele AI na ogromnych zbiorach informacji użytkowników, starają się balansować między wykorzystywaniem tych danych a rosnącymi wymaganiami regulacyjnymi. Microsoft, integrując AI w produkty biznesowe, stawia na przejrzystość i kontrolę danych w ramach chmury Azure, gdzie firmy mogą samodzielnie zarządzać swoją infrastrukturą.

    Kontrola nad danymi to także kluczowy element strategii związanej z monetyzacją AI. Firmy, które posiadają własne modele i infrastrukturę do ich trenowania, mogą nie tylko oferować swoje AI jako usługę (np. API do generowania treści czy analizy), ale także lepiej dostosowywać je do potrzeb biznesowych. Amazon wykorzystuje AI w e-commerce i AWS, zapewniając firmom dostęp do potężnych narzędzi analitycznych bez konieczności dzielenia się wrażliwymi danymi z konkurencją.

    Jednocześnie rośnie presja społeczna i prawna dotycząca odpowiedzialnego wykorzystania danych. Użytkownicy coraz bardziej świadomie podchodzą do kwestii prywatności, a firmy muszą dostosowywać swoje strategie do nowych regulacji. Giganci IT balansują więc między chęcią maksymalnego wykorzystania AI a koniecznością budowania zaufania i przestrzegania zasad etycznych. W przyszłości to właśnie transparentność i odpowiednie zarządzanie danymi mogą stać się kluczowymi czynnikami decydującymi o sukcesie modeli AI na rynku.

    Przyszłość AI w strategiach gigantów IT

    Giganci IT nie tylko intensywnie inwestują w badania i rozwój własnych modeli AI, ale także rywalizują o to, kto pierwszy stworzy rozwiązania, które zmienią sposób, w jaki pracujemy, komunikujemy się i korzystamy z technologii.

    Jednym z kluczowych kierunków rozwoju jest integracja AI na jeszcze głębszym poziomie w codzienne życie użytkowników. Apple rozwija technologie AI działające lokalnie na urządzeniach, dzięki czemu Siri i inne funkcje asystenta głosowego mogą stać się bardziej użyteczne i prywatne. Google stawia na sztuczną inteligencję jako naturalne rozszerzenie wyszukiwarki i ekosystemu Androida, dążąc do stworzenia bardziej inteligentnych i intuicyjnych narzędzi. Microsoft konsekwentnie rozwija Copilot – swojego asystenta AI dla środowiska pracy, który ma na celu zwiększenie produktywności użytkowników pakietu Office i systemu Windows.

    AI będzie też coraz mocniej wpływać na rynek usług chmurowych. Amazon, Google i Microsoft konkurują nie tylko na polu AI, ale także w dostarczaniu infrastruktury chmurowej, która umożliwia firmom trenowanie i wdrażanie własnych modeli sztucznej inteligencji. To właśnie rozwój AI-as-a-Service (AIaaS) może stać się jednym z najbardziej dochodowych segmentów rynku – firmy będą mogły korzystać z gotowych narzędzi AI bez konieczności inwestowania w kosztowną infrastrukturę.

    Kolejną istotną kwestią jest rosnąca rola regulacji i etyki w AI. Wraz z dynamicznym rozwojem tej technologii pojawiają się coraz większe obawy dotyczące jej wpływu na prywatność, bezpieczeństwo i rynek pracy. Giganci IT będą musieli dostosować swoje strategie do zmieniających się przepisów oraz rosnących oczekiwań społecznych. Transparentność działania modeli AI, eliminowanie uprzedzeń algorytmicznych i odpowiedzialność za skutki ich stosowania staną się kluczowymi wyzwaniami, które zadecydują o tym, kto utrzyma przewagę na rynku.

    W najbliższych latach sztuczna inteligencja będzie coraz bardziej wszechobecna – zarówno w naszych codziennych urządzeniach, jak i w zaawansowanych systemach analitycznych wykorzystywanych przez firmy. Niezależnie od tego, czy AI stanie się cichym asystentem wspierającym użytkowników, czy przełomową technologią zmieniającą całe sektory gospodarki, jedno jest pewne – giganci IT zrobią wszystko, by to ich rozwiązania wyznaczały kierunek przyszłości.

  • Google w końcu przejmuje Wiz – 32 mld dolarów za furtkę do pozycji lidera na rynku chmury

    Google w końcu przejmuje Wiz – 32 mld dolarów za furtkę do pozycji lidera na rynku chmury

    Alphabet, spółka macierzysta Google, ogłosiła swoje największe w historii przejęcie, planując zakup izraelskiego startupu cyberbezpieczeństwa Wiz za 32 miliardy dolarów.​

    Dlaczego Wiz?

    Wiz, założony w 2020 roku przez byłych członków elitarnej izraelskiej jednostki cyberwywiadu, szybko stał się liderem w dziedzinie bezpieczeństwa chmurowego. Firma oferuje platformę, która skanuje dane w chmurze, identyfikując potencjalne zagrożenia i luki bezpieczeństwa. Wśród jej klientów znajdują się takie giganty jak BMW, Morgan Stanley czy LVMH, co świadczy o zaufaniu, jakim cieszy się Wiz wśród największych graczy na rynku. ​Financial Times

    Strategiczne posunięcie Google

    Przejęcie Wiz to strategiczny krok Google w umacnianiu swojej pozycji na rynku usług chmurowych, gdzie konkuruje z takimi potentatami jak Amazon Web Services i Microsoft Azure. Integracja zaawansowanych rozwiązań bezpieczeństwa Wiz z infrastrukturą Google Cloud ma na celu nie tylko zwiększenie ochrony danych klientów, ale także przyspieszenie adopcji usług chmurowych w erze sztucznej inteligencji.

    Historia negocjacji

    To nie pierwsza próba przejęcia Wiz przez Google. W ubiegłym roku firma z Mountain View oferowała 23 miliardy dolarów, jednak obawy antymonopolowe oraz chęć Wiz do samodzielnego rozwoju i planowanego wejścia na giełdę spowodowały odrzucenie tej propozycji. Obecna oferta, opiewająca na 32 miliardy dolarów, pokazuje determinację Google w dążeniu do finalizacji tej transakcji. ​

    Wyzwania regulacyjne

    Mimo że administracja prezydenta Trumpa sygnalizuje bardziej liberalne podejście do fuzji i przejęć, tak duża transakcja z pewnością przyciągnie uwagę organów antymonopolowych. Federalna Komisja Handlu (FTC) będzie dokładnie analizować wpływ tego przejęcia na rynek, co może wpłynąć na ostateczny termin finalizacji umowy, planowany na 2026 rok.

    Przejęcie Wiz przez Google to nie tylko największa transakcja w historii firmy, ale także sygnał dla rynku o rosnącym znaczeniu cyberbezpieczeństwa w dobie cyfryzacji. Integracja zaawansowanych technologii ochrony danych z usługami chmurowymi może stać się kluczem do zdobycia przewagi konkurencyjnej w nadchodzących latach.​

  • Google uparł się na przejęcie Wiz, tym razem za 30 mld dolarów. Dlaczego tak mu zależy?

    Google uparł się na przejęcie Wiz, tym razem za 30 mld dolarów. Dlaczego tak mu zależy?

    W IT nie brakuje spektakularnych transakcji, ale najnowsze doniesienia o planach przejęcia firmy Wiz przez Alphabet, spółkę macierzystą Google, za kwotę około 30 miliardów dolarów, przyciągają szczególną uwagę. Jeśli dojdzie do skutku, będzie to największa akwizycja w historii giganta z Mountain View, przewyższająca nawet zakup Motorola Mobility za 12,5 miliarda dolarów w 2012 roku. 

    Wiz?

    Wiz to izraelski startup założony w 2020 roku przez byłych członków elitarnej jednostki wywiadu cybernetycznego Izraela, Jednostki 8200. Firma specjalizuje się w dostarczaniu zaawansowanych rozwiązań z zakresu bezpieczeństwa chmurowego, opartych na sztucznej inteligencji, które pomagają przedsiębiorstwom identyfikować i eliminować krytyczne ryzyka w środowiskach chmurowych. Wiz współpracuje z największymi dostawcami usług chmurowych, takimi jak Amazon Web Services, Microsoft Azure i Google Cloud, a wśród jej klientów znajdują się takie firmy jak Morgan Stanley, DocuSign czy Salesforce . 

    Historia rozmów z Alphabet

    To nie pierwsze podejście Alphabet do przejęcia Wiz. Latem ubiegłego roku firma była bliska zawarcia umowy na kwotę 23 miliardów dolarów, jednak negocjacje zakończyły się niepowodzeniem z powodu obaw związanych z regulacjami antymonopolowymi oraz chęcią Wiz do zachowania niezależności i planów wejścia na giełdę . Obecnie, z ofertą opiewającą na 30 miliardów dolarów, Alphabet ponownie stara się pozyskać Wiz, co świadczy o determinacji firmy w umocnieniu swojej pozycji na rynku usług chmurowych. 

    Dlaczego Wiz jest tak atrakcyjny dla Google?

    Google intensywnie rozwija swoje usługi chmurowe, ale wciąż pozostaje w tyle za Amazon Web Services i Microsoft Azure. Przejęcie Wiz to dla firmy strategiczna okazja, by wzmocnić swoją ofertę w zakresie bezpieczeństwa chmurowego – kluczowego czynnika dla klientów korporacyjnych. W obliczu rosnącej liczby cyberzagrożeń i regulacji dotyczących ochrony danych, firmy coraz częściej wybierają dostawców, którzy mogą zagwarantować najwyższy poziom zabezpieczeń.

    Wiz wyróżnia się na rynku innowacyjnym podejściem, łącząc sztuczną inteligencję z analizą ryzyk w chmurze, co daje klientom pełną widoczność i kontrolę nad ich środowiskami IT. Alphabet nie tylko chce zyskać dostęp do tych technologii, ale także uniemożliwić przejęcie Wiz przez konkurencję, zwłaszcza Microsoft, który ma silną pozycję w obszarze zabezpieczeń.

    Ponadto, Wiz dynamicznie rośnie – w 2023 roku jego przychody wyniosły 350 milionów dolarów, co oznacza trzykrotny wzrost w porównaniu z 2021 rokiem. Google widzi w tym ogromny potencjał, który w dłuższej perspektywie może przynieść miliardowe zyski. W związku z tym firma jest skłonna wyłożyć rekordowe 30 miliardów dolarów, nawet jeśli oznacza to ryzyko kontroli antymonopolowej. W kontekście walki o dominację w chmurze, Wiz może być dla Google kluczowym elementem w dalszej ekspansji.

    Wyzwania regulacyjne

    Jednak tak duża transakcja nie obejdzie się bez uwagi organów regulacyjnych. W obliczu rosnącej kontroli nad gigantami technologicznymi, Alphabet może napotkać wyzwania związane z zatwierdzeniem przejęcia. Poprzednie próby akwizycji były hamowane przez obawy o monopolizację rynku, a obecna administracja prezydenta Donalda Trumpa, choć mniej restrykcyjna niż poprzednia, nadal może przyjrzeć się tej transakcji z dużą uwagą . 

  • Krok wstecz w sprawie Google? DOJ rezygnuje z żądań dotyczących sprzedaży udziałów w AI, ale szykuje inne restrykcje

    Krok wstecz w sprawie Google? DOJ rezygnuje z żądań dotyczących sprzedaży udziałów w AI, ale szykuje inne restrykcje

    ​W ostatnich dniach Departament Sprawiedliwości USA (DOJ) zrezygnował z planu nakazania Google sprzedaży swoich udziałów w firmach zajmujących się sztuczną inteligencją, takich jak Anthropic. Decyzja ta stanowi istotny zwrot w trwającej batalii antymonopolowej przeciwko gigantowi technologicznemu. ​

    Kontekst sprawy

    DOJ, wspólnie z koalicją 38 prokuratorów generalnych stanów, oskarżył Google o utrzymywanie nielegalnego monopolu w obszarze wyszukiwarek internetowych. W ramach działań naprawczych, prokuratorzy domagali się m.in. sprzedaży przeglądarki Chrome oraz ograniczenia inwestycji firmy w sektorze sztucznej inteligencji. Argumentowano, że takie inwestycje mogą ograniczać konkurencję na rynku AI, zwłaszcza gdy dotyczą one firm konkurujących z OpenAI, wspieranym przez Microsoft. ​

    Decyzja DOJ i jej konsekwencje

    Po analizie, DOJ wycofał się z żądania sprzedaży udziałów Google w firmach AI, uznając, że taki krok mógłby przynieść niezamierzone konsekwencje w dynamicznie rozwijającej się branży sztucznej inteligencji. Zamiast tego, zaproponowano, aby Google był zobowiązany do wcześniejszego informowania rządu o planowanych inwestycjach w generatywną AI. Jednocześnie, prokuratorzy nadal naciskają na sprzedaż przeglądarki Chrome, aby przeciwdziałać domniemanemu monopolowi w obszarze wyszukiwarek.

    Inwestycje Google w Anthropic

    Google od pewnego czasu inwestuje w Anthropic, startup AI założony przez byłych pracowników OpenAI. Firma ta rozwija m.in. asystenta AI o nazwie Claude, który konkuruje z ChatGPT od OpenAI. Niedawno Anthropic pozyskał 3,5 miliarda dolarów w rundzie finansowania serii E, co podniosło wycenę spółki do 61,5 miliarda dolarów. Inwestycje te pokazują, że Google stara się umocnić swoją pozycję na rynku AI, rywalizując z takimi gigantami jak Microsoft czy Amazon.​

    Reakcja Google

    Rzecznik Google skrytykował propozycje DOJ, twierdząc, że są one zbyt daleko idące i mogą zaszkodzić konsumentom, gospodarce oraz bezpieczeństwu narodowemu. Firma argumentuje, że jej inwestycje w AI są kluczowe dla utrzymania konkurencyjności i innowacyjności na globalnym rynku technologicznym. ​

    Szerszy kontekst antymonopolowy

    Sprawa przeciwko Google jest jedną z wielu prowadzonych obecnie przeciwko gigantom technologicznym w USA.Firmy takie jak Apple, Meta czy Amazon również stoją w obliczu zarzutów o utrzymywanie nielegalnych monopoli w swoich sektorach. Działania te odzwierciedlają rosnącą determinację władz w regulowaniu działalności największych korporacji technologicznych, aby zapewnić uczciwą konkurencję i chronić konsumentów. ​

    Podsumowując, decyzja DOJ o wycofaniu się z żądania sprzedaży udziałów Google w firmach AI wskazuje na złożoność regulacji w szybko ewoluującym sektorze technologicznym. Jednocześnie podkreśla potrzebę znalezienia równowagi między promowaniem innowacji a zapewnieniem uczciwej konkurencji na rynku.​

  • Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja w rękach Big Tech – kto naprawdę kontroluje przyszłość AI?

    Sztuczna inteligencja jeszcze kilka lat temu była futurystyczną wizją, a dziś stanowi kluczowy element cyfrowej transformacji. Jej rozwój i wdrożenia są w dużej mierze kształtowane przez największe firmy technologiczne – Google, Microsoft, Amazon, Meta czy Apple. To właśnie te korporacje posiadają zarówno kapitał, jak i infrastrukturę, aby trenować i rozwijać zaawansowane modele AI.

    W ostatnich latach wyścig o dominację w dziedzinie AI nabrał tempa. Microsoft strategicznie inwestuje w OpenAI, a ostatnio inwestuje także we własny model, Google rozwija własne modele w ramach DeepMindGemini, a Amazon wzmacnia swoje usługi chmurowe o nowe narzędzia oparte na sztucznej inteligencji, w ostatnim czasie również dołączając do bezpośredniego wyścigu AI dzięki ogłoszeniu Amazon Nova. Z jednej strony oznacza to dynamiczny postęp technologiczny, z drugiej – rodzi pytania o monopolizację tej kluczowej technologii. Czy mniejsze firmy i startupy mają jeszcze szansę na konkurowanie w tej dziedzinie? Jakie są konsekwencje takiego układu sił dla innowacji i dostępności AI?

    Status quo: kto rządzi rynkiem AI?

    Obecny krajobraz sztucznej inteligencji jest zdominowany przez kilka gigantycznych firm technologicznych, które nie tylko posiadają największe zasoby obliczeniowe, ale także inwestują miliardy dolarów w rozwój AI. Google, Microsoft, Amazon, Meta, Apple oraz Nvidia to główni gracze, którzy kontrolują zarówno rozwój modeli AI, jak i infrastrukturę potrzebną do ich działania.

    Najwięksi gracze i ich strategie

    • Microsoft & OpenAI – Microsoft zainwestował już ponad 13 miliardów dolarów w OpenAI i mocno integruje modele AI, takie jak GPT-4, z własnymi produktami (np. Copilot w systemie Windows i pakiecie Office). Ostatnie nieoficjalne doniesienia sugerują, że gigant z Redmond nie poprzestaje na zewnętrzych modelach AI i inwestuje we własne.
    • Google & DeepMind – Google od lat rozwija własne modele AI, a jego jednostka badawcza DeepMind stoi za takimi osiągnięciami jak AlphaFold czy nowa seria modeli Gemini. Firma zintegrowała AI w swoich usługach, od wyszukiwarki po chmurę.
    • Amazon – Jako lider w sektorze chmurowym, Amazon rozwija AI w ramach AWS, oferując własne modele AI, takie jak Bedrock oraz narzędzia do budowy chatbotów i systemów predykcyjnych. Poza tym, w połowie lutego Amazon ogłosił własne modele AI – Amazon Nova.
    • Meta (Facebook) – Meta skupia się na AI generatywnej oraz otwartoźródłowych modelach, jak Llama 2, które mają być alternatywą dla zamkniętych systemów.
    • Apple – Choć Apple wydaje się mniej aktywne w publicznych dyskusjach o AI, to pracuje nad integracją tej technologii w ekosystemie iPhone’ów i Maców, inwestując w rozwój AI-on-device.
    • Nvidia – Nie rozwija własnych modeli, ale ma największy udział w rynku sprzętu dla AI. Jej karty graficzne (GPU) są podstawą dla treningu i działania najnowocześniejszych modeli AI.

    Dominacja Big Tech w AI wynika nie tylko z doświadczenia i zespołów badawczych, ale przede wszystkim z dostępu do gigantycznych zasobów obliczeniowych. Trening zaawansowanego modelu językowego, takiego jak GPT-4 czy Gemini, wymaga tysięcy układów GPU, co sprawia, że tylko najwięksi gracze mogą sobie na to pozwolić.

    Ponadto, wiele startupów AI jest uzależnionych od infrastruktury dostarczanej przez te firmy – od chmury (AWS, Google Cloud, Azure), przez API do modeli AI, aż po narzędzia programistyczne. 

    AI jako nowy monopol – czy grozi nam dominacja kilku firm?

    Coraz częściej pojawiają się obawy, że zamiast szeroko dostępnej technologii, AI staje się domeną kilku gigantycznych firm. Microsoft, Google, Amazon, Meta i Nvidia inwestują miliardy dolarów w rozwój AI i kontrolują kluczowe zasoby: modele, dane i infrastrukturę obliczeniową. Czy grozi nam sytuacja, w której dostęp do najbardziej zaawansowanych systemów AI będzie ściśle kontrolowany przez nielicznych?

    Jednym z największych wyzwań jest to, że startupy i mniejsze firmy są w dużej mierze zależne od infrastruktury dostarczanej przez gigantów. Budowa własnego modelu AI od podstaw wymaga nie tylko ogromnej mocy obliczeniowej, ale także dostępu do wysokiej jakości danych, co często jest poza zasięgiem mniejszych graczy. W rezultacie wiele firm korzysta z gotowych modeli dostarczanych przez OpenAI (GPT-4), Google (Gemini) czy Meta (Llama), co jeszcze bardziej umacnia pozycję tych gigantów.

    Jeśli rozwój sztucznej inteligencji zostanie scentralizowany w rękach kilku firm, mogą pojawić się poważne konsekwencje:

    • Ograniczona konkurencja – mniejsze firmy będą miały utrudniony dostęp do zaawansowanych technologii.
    • Wysokie koszty dostępu – AI może stać się usługą premium, dostępną tylko dla tych, którzy zapłacą.
    • Brak przejrzystości – zamknięte modele AI nie ujawniają, jak są trenowane, co budzi pytania o ich obiektywność i etykę.
    • Potencjalna cenzura i kontrola narracji – AI wykorzystywana w wyszukiwarkach, mediach społecznościowych i generowaniu treści może wpływać na sposób, w jaki konsumujemy informacje.

    Przykładem globalnych napięć jest DeepSeek, chiński projekt AI, który rozwija modele językowe jako alternatywę dla amerykańskich gigantów. DeepSeek AI to open-source’owy model LLM (Large Language Model), który ma uniezależnić Chiny od OpenAI i Google. Rząd w Pekinie od lat inwestuje w sztuczną inteligencję, widząc ją jako kluczowy element przyszłej konkurencyjności. To oznacza, że walka o dominację nad AI nie ogranicza się tylko do korporacji – staje się częścią globalnej rywalizacji gospodarczej.

    Rośnie ruch na rzecz otwartej i zdecentralizowanej sztucznej inteligencji. Inicjatywy takie jak Hugging Face, Stability AI czy Mistral AI rozwijają open-source’owe modele, które mogą być używane bez ograniczeń narzuconych przez Big Tech. Choć modele open-source mają wiele zalet (dostępność, przejrzystość), ich rozwój wciąż wymaga ogromnych zasobów. Kluczowym pytaniem pozostaje, czy rządy i firmy będą wspierać otwarte AI, czy pozwolą na dalszą koncentrację technologii w rękach kilku korporacji.

    Przyszłość AI jeszcze nie jest przesądzona. To, czy stanie się otwartym narzędziem dla wszystkich, czy zamkniętym systemem kontrolowanym przez kilka firm, zależy od decyzji podejmowanych dziś.

    Open-source kontra zamknięte modele – gdzie leży przyszłość?

    Podział na otwarte i zamknięte modele AI nie jest tylko kwestią techniczną – to fundamentalna różnica w podejściu do przyszłości sztucznej inteligencji. Z jednej strony mamy firmy, które traktują AI jako zasób strategiczny, kontrolowany i monetyzowany, z drugiej rosnący ruch open-source, stawiający na dostępność i transparentność. Ta rywalizacja będzie miała kluczowy wpływ na to, kto w przyszłości będzie mógł korzystać z zaawansowanej sztucznej inteligencji i na jakich warunkach.

    Open-source AI zdobywa coraz większą popularność, bo oferuje coś, czego brakuje zamkniętym modelom – elastyczność i niezależność. Deweloperzy mogą dostosowywać modele do własnych potrzeb, bez ograniczeń wynikających z regulaminów OpenAI, Google czy Anthropic. To szczególnie ważne dla sektora naukowego, startupów oraz firm poszukujących tańszych alternatyw.

    Jednak wzrost popularności otwartego AI może zagrozić modelowi biznesowemu Big Tech. Jeśli organizacje będą mogły samodzielnie uruchamiać własne modele, bez potrzeby płacenia za API OpenAI czy Google Cloud, oznacza to mniejsze zyski dla tych firm. W odpowiedzi korporacje próbują balansować między otwartością a kontrolą – Meta udostępniła Llama 2, ale wciąż wymaga zgody na komercyjne użycie, a Google eksperymentuje z częściowo otwartymi modelami.

    Geopolityczny wymiar otwartego AI

    Sztuczna inteligencja staje się też elementem globalnej rywalizacji. Chiny rozwijają alternatywne modele open-source, jak DeepSeek AI, które mają uniezależnić kraj od amerykańskich technologii. DeepSeek jest częścią szerszej strategii Pekinu, zakładającej rozwój suwerennego ekosystemu AI – odpornego na sankcje i kontrolę Zachodu.

    To pokazuje, że otwartość AI to nie tylko kwestia wolności technologicznej, ale też geopolityki i bezpieczeństwa narodowego. Europa również szuka niezależności, wspierając inicjatywy takie jak Mistral AI, ale wciąż jest w tyle za USA i Chinami pod względem inwestycji.

    Nie ma jednoznacznej odpowiedzi, która ścieżka zwycięży. AI rozwija się dynamicznie, na wielu płaszczyznach, pod wpływem różnych czynników, przez co przewidzenie dalszego rozwoju nie jest łatwe. Pewnym jest natomiast, że ktokolwiek może, stara się być jak najbliżej AI, inwestować w nią, rozwijać, ingerować w rozwój, ponieważ w tym momencie jest ona czarnym koniem rozwoju technologicznego. W zależności od ruchów, jakie podejmą firmy tworzące AI, a także od roszad geopolitycznych oraz poziomu regulacji, jakie będą nakładane na AI, możliwe wydają się być trzy scenariusze: wzmocnienie Big Tech – jeśli zamknięte modele okażą się bardziej zaawansowane i kosztowne w utrzymaniu niż ich otwarte odpowiedniki; ekspansja open-source – jeśli rządy i instytucje akademickie zaczną wspierać otwarte AI jako przeciwwagę dla monopolu korporacji lub model hybrydowy – gdzie otwarte modele będą szeroko stosowane, ale najpotężniejsze systemy pozostaną zamknięte.

    Regulacje i polityka – czy rządy mogą ograniczyć wpływ Big Tech na AI?

    Rządy starają się regulować rozwój sztucznej inteligencji, aby ograniczyć monopol Big Tech i zwiększyć kontrolę nad jej wpływem na społeczeństwo. Unia Europejska przyjęła AI Act, który klasyfikuje modele AI według ryzyka i nakłada na firmy obowiązki dotyczące przejrzystości. USA podchodzą ostrożniej, prowadząc rozmowy z technologicznymi gigantami i koncentrując się na rywalizacji z Chinami. Chiny natomiast już teraz wymagają certyfikacji modeli AI i rozwijają własne alternatywy, takie jak DeepSeek AI, by uniezależnić się od amerykańskich firm.

    Choć regulacje mogą zwiększyć nadzór nad AI, mogą też nieoczekiwanie umocnić dominację Big Tech, bo to właśnie największe firmy mają środki na dostosowanie się do nowych wymogów. Aby rzeczywiście zwiększyć konkurencję, konieczne jest wspieranie alternatywnych rozwiązań, takich jak modele open-source i inicjatywy krajowe. Polska, choć nie jest globalnym liderem AI, również rozwija własne technologie, czego przykładem jest PLLuM (Polish Large Language Model), czyli pierwszy duży model językowy stworzony z myślą o języku polskim.

    Przyszłość regulacji AI będzie balansowaniem między kontrolą a innowacją. Zbyt restrykcyjne przepisy mogą spowolnić rozwój technologii, podczas gdy ich brak grozi dominacją kilku korporacji kształtujących AI na własnych zasadach. Wspieranie narodowych inicjatyw, takich jak PLLuM, oraz open-source’owych modeli może stać się kluczowym narzędziem w budowaniu bardziej zdecentralizowanego ekosystemu sztucznej inteligencji.

    Z jednej strony widzimy dynamiczny postęp i integrację AI w codziennym życiu, z drugiej – rosnące obawy o monopolizację i ograniczoną dostępność najpotężniejszych systemów dla mniejszych firm czy niezależnych badaczy.

    Alternatywą dla dominacji Big Tech są modele open-source oraz inicjatywy narodowe, takie jak DeepSeek AI w Chinach czy PLLuM w Polsce. Choć otwarte modele oferują większą przejrzystość i dostępność, ich rozwój jest trudniejszy z powodu ograniczeń sprzętowych i finansowych. Rządy na całym świecie starają się regulować AI, ale ich działania, jak europejski AI Act, mogą paradoksalnie umocnić pozycję największych graczy, jeśli nie zostaną połączone ze wsparciem dla mniejszych podmiotów i inicjatyw open-source.

    Przyszłość sztucznej inteligencji będzie zależała od tego, jak uda się wypracować równowagę między kontrolą a innowacją. Jeśli regulacje i otwarte technologie zostaną odpowiednio rozwinięte, AI może stać się narzędziem dostępnym dla wszystkich, a nie tylko dla kilku globalnych firm.

  • AI myśli jak naukowiec? Google stworzyło wirtualnego badacza

    AI myśli jak naukowiec? Google stworzyło wirtualnego badacza

    Google opracował zaawansowany system sztucznej inteligencji, który ma wspierać badaczy w analizie literatury naukowej, formułowaniu hipotez oraz opracowywaniu planów badawczych. Nowe narzędzie, nazywane Współnaukowcem AI, działa jako wirtualny partner naukowców, umożliwiając efektywniejsze prowadzenie badań biomedycznych.

    System został stworzony przez zespół badaczy Google i jest dostępny dla wybranych użytkowników za pośrednictwem programu Trusted Tester. Jego zadaniem jest analiza ogromnych zbiorów danych naukowych, generowanie nowych hipotez i ich krytyczna ocena w ramach specjalnie zaprojektowanego procesu opartego na sztucznej inteligencji.

    Hipotezy generowane przez AI

    Nowatorskim podejściem, które wyróżnia ten system, jest mechanizm „samodzielnej gry”, w którym różne modele AI z rodziny Gemini wchodzą w dialog, oceniają swoje hipotezy i wzajemnie je krytykują. To pozwala na wygenerowanie bardziej dopracowanych wniosków oraz lepsze dostosowanie hipotez do realnych potrzeb badawczych.

    Dzięki temu rozwiązaniu naukowcy mogą weryfikować sugestie AI, dostarczać informacje zwrotne oraz prowadzić eksperymentalne testy proponowanych hipotez. Pierwsze testy z udziałem wiodących instytucji akademickich wykazały dużą skuteczność systemu.

    Współpraca z uczelniami – pierwsze sukcesy

    Już teraz Współnaukowiec AI wykazał swoją przydatność w kilku przełomowych projektach badawczych. Badacze z Imperial College London wykorzystali system do sformułowania nowej hipotezy dotyczącej mechanizmu transferu genów, co może pomóc w badaniach nad opornością na środki przeciwdrobnoustrojowe.

    Z kolei naukowcy ze Stanforda skorzystali z AI do identyfikacji nowych celów epigenetycznych związanych ze zwłóknieniem wątroby. Propozycje systemu zostały potwierdzone w badaniach eksperymentalnych. Inne przełomowe zastosowanie miało miejsce w Houston Methodist, gdzie AI zasugerowała nowe zastosowanie istniejącego leku w badaniach nad ostrą białaczką szpikową, co również zostało potwierdzone zarówno w analizach komputerowych, jak i eksperymentach laboratoryjnych.

    Trusted Tester – dostęp do innowacji

    Google w dalszym ciągu prowadzi badania walidacyjne, współpracując z partnerami akademickimi i przemysłowymi. System AI jest dostępny dla wybranych badaczy poprzez program Trusted Tester, który zapewnia zarówno intuicyjny interfejs użytkownika, jak i API dla programistów. To rozwiązanie ma umożliwić szerszą implementację AI w badaniach naukowych i potencjalnie przyspieszyć odkrycia w dziedzinie biomedycyny.

     

  • Google potwierdza miliardowe inwestycje w Polsce, jednak nie podaje szczegółów

    Google potwierdza miliardowe inwestycje w Polsce, jednak nie podaje szczegółów

    Google ogłosiło plany inwestycji na poziomie miliardów złotych w Polsce. Informację tę przekazała Ruth Porat, prezydent i Chief Investment Officer Alphabet i Google, podkreślając, że firma widzi ogromny potencjał w dalszym rozwoju swojej działalności nad Wisłą. Oświadczenie to pojawiło się po podpisaniu listu intencyjnego między Google, PFR i Operatorem Chmury Krajowej, którego celem jest strategiczna współpraca w obszarze sztucznej inteligencji.

    Współpraca z PFR i rozwój AI

    Nowa inicjatywa ma skupić się na wdrażaniu zaawansowanych rozwiązań AI w kluczowych sektorach polskiej gospodarki. Szczególny nacisk zostanie położony na cyberbezpieczeństwo, transformację energetyczną oraz usprawnienie systemu opieki zdrowotnej. Sygnatariusze porozumienia zadeklarowali także zaangażowanie w rozwój kompetencji cyfrowych wśród polskich firm, co ma przyczynić się do dalszego wzrostu ekosystemu technologicznego w kraju. Od kontrowersji do miliardowych inwestycji

    Początkowo pojawiły się wątpliwości co do skali inwestycji Google w Polsce, zwłaszcza po doniesieniach, że firma zamierza przeznaczyć zaledwie 5 mln dolarów na pierwsze działania. Informacja ta spotkała się z falą krytyki w mediach społecznościowych, gdzie kwotę uznano za niewspółmiernie niską do wagi projektu. Zapowiedź miliardowych inwestycji rozwiewa jednak wcześniejsze niedopowiedzenia, wskazując na długoterminowe plany Google w Polsce. Poza potwierdzeniem dalszych inwestycji, nie podano dalszych szczegółów dotyczących tego kiedy i ile dokładnie zamierza zainwestować Google w ramach współpracy. 

  • Google, PFR i OChK opracują Plan AI dla Polski. 5 mln $ to nie koniec?

    Google, PFR i OChK opracują Plan AI dla Polski. 5 mln $ to nie koniec?

    Google, Polski Fundusz Rozwoju (PFR) oraz Operator Chmury Krajowej (OChK) nawiązały strategiczne partnerstwo w zakresie rozwoju sztucznej inteligencji w Polsce. Zawarte w czwartek memorandum zakłada współpracę nad planem AI, obejmującym kluczowe obszary: energetykę, ochronę zdrowia oraz cyberbezpieczeństwo. Choć szczegóły porozumienia są objęte tajemnicą, pierwsze efekty działań mają być widoczne w ciągu 3–6 miesięcy.

    Podczas oficjalnej konferencji premier Donald Tusk podkreślił, że współpraca z Google ma na celu modernizację gospodarki i administracji. Jednak spotkanie nie przyniosło wielu konkretów. Jedyną ujawnioną kwotą było 5 mln dolarów, które Google przeznaczy na rozwój kompetencji cyfrowych w Polsce w ciągu pięciu lat.

    Polskie firmy i obawy o konkurencyjność

    Partnerstwo z Google budzi niesamowite emocje wśród ekspertów, dziennikarzy, przedsiębiorców oraz obserwatorów rynku. Ogłoszenie w ten sposób inwestycji w wysokości 5 mln dolarów jest dla wielu szokującym wyolbrzymieniem. Poza tym, brak konkretów, a tym samym niepewność co do przebiegu inwestycji i zakresu wsparcia rządu dla zagranicznego giganta budzi niepokój wśród polskich przedsiębiorców technologicznych, zwłaszcza w sektorze chmurowym.

    Co konkretnie ustalono podczas spotkania premiera Tuska i CEO Google

    • Rozwój sztucznej inteligencji w Polsce
      – Współpraca Google i PFR obejmie sektory: energetyki, ochrony zdrowia i cyberbezpieczeństwa.
      – Google przewiduje miliardowe inwestycje w Polsce w wyniku tej współpracy.
    • Wpływ na gospodarkę i PKB
      – Google zakłada, że dzięki współpracy wzrost polskiego PKB wyniesie 8%.
      – Polska jest postrzegana jako jeden z kluczowych hubów technologicznych w Europie.
    • Szkolenia i rozwój kompetencji cyfrowych
      – Google zobowiązało się do przeszkolenia 1 miliona Polek i Polaków w zakresie nowoczesnych technologii, głównie AI.
      – Wsparcie dla polskich startupów w dostępie do innowacyjnych narzędzi i technologii.
    • Inwestycje infrastrukturalne w AI i technologie cyfrowe
      – W Krakowie powstanie najszybszy superkomputer AI w Polsce (wsparcie rządu: 140 mln zł).
      – W Poznaniu zostanie wybudowana fabryka AI (wsparcie rządu: 200 mln zł).
      – Utworzenie funduszu DeepTech o wartości 300 mln zł na rozwój cyberbezpieczeństwa i sztucznej inteligencji.
    • Wsparcie dla polskiej transformacji energetycznej i cyberbezpieczeństwa
      – Google zadeklarowało współpracę na rzecz poprawy bezpieczeństwa cybernetycznego w Polsce.
      – Partnerstwo obejmie również działania na rzecz transformacji energetycznej.

    Apetyt na miliardowe inwestycje

    PFR zapewnia, że porozumienie nie zamyka drogi do współpracy dla polskich firm. Przedstawiciele instytucji podkreślają, że celem jest stworzenie ekosystemu innowacji wspierającego rozwój AI w Polsce. Władze PFR liczą na miliardowe inwestycje ze strony Google, co zasugerowała również Magdalena Dziewguć, szefowa Google Cloud w Polsce. Na taki scenariusz może wskazywać również fakt, że ogłoszenie inwestycji w wysokości 5 mln $ na 5 lat z pewnością nie jest wydarzeniem, które polski rząd standardowo ogłasza w tak szumny sposób. Dziewguć zwraca uwagę, że kontrowersje wywołane ogłoszeniem inwestycji wynikają z błędów w komunikacji.

    „AI jest na początku drogi. Krajów, które stoją na linii startu jest dużo. Wszystkie chcą ten wyścig wygrać. Czeka nas dużo ciężkiej pracy, ale efekty będą szybko. Hejters always gonna hate, ale wygląda na to, że musimy też nauczyć się lepiej komunikować temat.”

    napisała na LinkedInie Magdalena Dziewguć, Country Director Google Cloud w Polsce

    Otwartym pozostają pytania, dlaczego rząd zdecydował się ogłosić tak niewielką, biorąc pod uwagę skalę biznesu Google, inwestycję, narażając się tym samym na krytykę oraz jakie będą efekty prowadzonych zapewne obecnie rozwmów dotyczących dalszych inwestycji Google. O tym, jak i o rezultatach dla polskiego rynku przekonamy się wkrótce.

  • Google ogłasza partnerstwo na rzecz rozwoju AI w Polsce. Jak zareagował rynek?

    Google ogłasza partnerstwo na rzecz rozwoju AI w Polsce. Jak zareagował rynek?

    Zbigniew Jagiełło, były prezes PKO BP i jeden z inicjatorów Operatora Chmury Krajowej (OChK), z dystansem, ale i optymizmem odnosi się do kontrowersji wokół współpracy Google z Polską. Jego zdaniem, choć niefortunna komunikacja o 5 mln USD wywołała falę krytyki, to dobrze, że temat AI i technologii chmurowych stał się przedmiotem publicznej debaty.

    Jagiełło podkreśla, że Polska ma realną szansę wykorzystać sztuczną inteligencję jako „gamechangera” dla gospodarki i społeczeństwa, ale kluczowe będą konkretne działania, a nie tylko dyskusje. Zwraca również uwagę na rolę OChK w otwarciu polskiego rynku na współpracę z globalnymi dostawcami chmury, takimi jak Google i Microsoft.

    Zastanawia się, czy Operator Chmury Krajowej nie powinien zostać uwspólniony lub nawet wejść na giełdę, by zwiększyć jego znaczenie i skalę działania. Jagiełło podkreśla, że każda transformacja niesie ryzyko błędów, ale tylko aktywne działanie pozwoli Polsce zbudować konkurencyjność w obszarze AI i cloud computingu.

    Zofia Dzik, inwestorka i ekspertka ds. transformacji cyfrowej, krytycznie odnosi się do braku realnej strategii technologicznej Polski, wskazując na ryzyko uzależnienia kraju od globalnych firm technologicznych. Jej zdaniem rząd bezrefleksyjnie otwiera drzwi Big Techom, zamiast wzmacniać lokalne przedsiębiorstwa i infrastrukturę cyfrową.

    Podkreśla, że choć Polska uniezależniła się od Gazpromu, to w kwestii technologii coraz bardziej podporządkowuje się globalnym korporacjom, które były już skazywane za praktyki monopolistyczne. Dzik apeluje o bardziej zdecydowaną strategię, która pozwoli polskim firmom dyktować warunki zamiast być tylko rynkiem zbytu dla zagranicznych koncernów.

    Maciej Kawecki, popularyzator nowych technologii i prezes Instytutu Lema, z jednej strony docenia deklarację inwestycyjną Google w Polsce, ale z drugiej – zwraca uwagę na brak otwartości firmy na rozmowę z polskim środowiskiem eksperckim. Podkreśla, że Google jako jedyna duża firma technologiczna odmawia wywiadów i nie reaguje na zaproszenia do dialogu, w przeciwieństwie do takich gigantów jak NVIDIA, Meta, OpenAI czy Apple.

    Kawecki po raz kolejny zaprasza CEO Google Sundara Pichaia oraz CFO Ruth Porat do otwartej dyskusji, sugerując, że realne zaangażowanie w rozwój Polski powinno iść w parze z transparentnością i gotowością do rozmów z ekspertami, naukowcami oraz liderami rynku. Jego zdaniem, inwestycje technologiczne są istotnym krokiem naprzód, ale nie mogą zastąpić autentycznego dialogu z lokalnym ekosystemem innowacji.

    Google zapowiada miliardowe inwestycje w Polsce, ale na razie bez konkretów. Deklarację złożyła Ruth Porat, prezydent Alphabet i Google, po podpisaniu listu intencyjnego z Polskim Funduszem Rozwoju i Operatorem Chmury Krajowej. Celem współpracy jest rozwój sztucznej inteligencji w kluczowych sektorach, takich jak cyberbezpieczeństwo, energetyka i opieka zdrowotna.

    Artur Kurasiński, przedsiębiorca i analityk technologiczny, ostro skrytykował ogłoszoną przez Google i rząd inwestycję w szkolenia AI o wartości 5 mln USD na pięć lat. Jego zdaniem to symboliczna i niemal bezwartościowa kwota, która w rzeczywistości służy jedynie promocji usług Google, a nie realnemu wsparciu dla polskiej gospodarki cyfrowej.

    Kurasiński zwraca uwagę, że ogłoszenie tej inwestycji jako kluczowego kroku w cyfryzacji Polski jest absurdalne, szczególnie w kontekście deklarowanego przez premiera Donalda Tuska wpływu na wzrost PKB o 8%. Podkreśla również, że Google zarabia prawie 3 tys. dolarów na sekundę, co oznacza, że kwota 5 mln USD to dla giganta równowartość 28 minut działalności.

    Piotr Mieczkowski, Dyrektor zarządzający Fundacji Digital Poland, krytycznie ocenił ogłoszoną przez premiera Donalda Tuska i CEO Google Sundara Pichaia współpracę w zakresie rozwoju AI w Polsce. Jego zdaniem, podpisane memorandum to przede wszystkim element strategii sprzedażowej Google, a nie realne wsparcie dla polskiej gospodarki cyfrowej.

    Mieczkowski wskazuje, że 5 mln USD na szkolenia to jedynie promocja rozwiązań Google, a darmowe kredyty na chmurę mogą uzależnić startupy od technologii bigtech, co w niektórych krajach już jest regulowane. Krytykuje również rolę Operatora Chmury Krajowej, który zamiast rozwijać krajowe kompetencje, pełni funkcję dystrybutora zagranicznych usług.

    Podkreśla, że skala inwestycji Google jest symboliczna w porównaniu do działań polskich firm technologicznych, które rocznie inwestują znacznie więcej. Jego zdaniem, Polska powinna dążyć do budowania własnej suwerenności cyfrowej i aktywnie uczestniczyć w europejskich inicjatywach, takich jak GAIA-X czy IPCEI-CIS, zamiast ograniczać się do roli rynku zbytu dla globalnych gigantów.

    Organizacja Polska Chmura, zrzeszająca krajowych dostawców usług chmurowych, wyraziła obawy dotyczące rosnącej współpracy polskiego rządu z globalnymi gigantami technologicznymi, takimi jak Google, Amazon czy Microsoft. Zdaniem organizacji, preferencyjne traktowanie zagranicznych firm może doprowadzić do marginalizacji polskiego sektora technologicznego, co w dłuższej perspektywie wpłynie negatywnie na bezpieczeństwo danych obywateli i instytucji publicznych.

    Według stanowiska Polskiej Chmury, istnieje realne ryzyko, że strategiczne informacje dotyczące administracji, firm i obywateli będą coraz częściej przetwarzane poza Polską oraz poza europejską jurysdykcją. Może to prowadzić do utraty kontroli nad kluczowymi zasobami danych i osłabienia krajowej niezależności cyfrowej. Organizacja podkreśla, że nadmierne uzależnienie od zagranicznych dostawców technologii chmurowych może podważyć suwerenność gospodarczą kraju i ograniczyć konkurencyjność polskich firm.

    Polska Chmura apeluje do rządu o wprowadzenie działań wspierających krajowy sektor IT, tak aby polskie firmy mogły konkurować na równych warunkach. Organizacja deklaruje gotowość do współpracy i dialogu, aby wspólnie wypracować rozwiązania wzmacniające polską gospodarkę oraz zapewniające bezpieczeństwo danych i rozwój rodzimej branży technologicznej.

  • Google rozszerza rodzinę modeli Gemini – nowe wersje eksperymentalne i większa dostępność

    Google rozszerza rodzinę modeli Gemini – nowe wersje eksperymentalne i większa dostępność

    Google kontynuuje rozwój swojej linii modeli Gemini, wprowadzając dwie nowe wersje eksperymentalne oraz zwiększając dostępność istniejących rozwiązań. Najnowsze zmiany mają na celu poprawę wydajności i wszechstronności modeli AI, oferując użytkownikom bardziej zaawansowane narzędzia do przetwarzania informacji.

    Gemini 2.0 Flash – szerokie wdrożenie

    Jednym z kluczowych ogłoszeń jest upowszechnienie modelu Gemini 2.0 Flash, który jest teraz dostępny w Google AI Studio oraz Vertex AI. Dzięki temu deweloperzy i firmy mogą korzystać z jego możliwości w szerszym zakresie, integrując go z własnymi aplikacjami i usługami. Model ten oferuje szybkie generowanie treści przy jednoczesnym zachowaniu wysokiej efektywności kosztowej.

    Nowe modele eksperymentalne: 2.0 Pro i 2.0 Flash Thinking

    Google wprowadza także dwa eksperymentalne modele o zwiększonych możliwościach. Gemini 2.0 Pro to wariant zoptymalizowany pod kątem złożonych zadań i zaawansowanego przetwarzania języka naturalnego. Dzięki oknu kontekstowemu o pojemności 2 milionów tokenów, model ten może analizować obszerne dokumenty, długie wątki konwersacji oraz treści multimedialne. Dodatkowo obsługuje szyfrowanie i interakcje z zewnętrznymi narzędziami, takimi jak wyszukiwarka Google.

    Drugi eksperymentalny model, Gemini 2.0 Flash Thinking, został zoptymalizowany pod kątem logiki i rozumowania. Wyróżnia się zdolnością do wieloetapowego przetwarzania podpowiedzi, co pozwala lepiej rozumieć kontekst i dostarczać bardziej precyzyjne odpowiedzi. Model ten ma również zapewniać większą przejrzystość procesu generowania treści.

    Gemini 2.0 Flash-Lite – opłacalne rozwiązanie dla biznesu

    Ostatnim nowym modelem w rodzinie Gemini jest Gemini 2.0 Flash-Lite, który łączy niskie koszty operacyjne z wysoką wydajnością. Pod względem szybkości i ceny odpowiada wcześniejszej wersji Gemini 1.5 Flash, ale przewyższa ją w większości testów porównawczych. Dzięki oknu kontekstowemu 1 miliona tokenów i obsłudze wejść multimodalnych, model ten może znaleźć zastosowanie w takich sektorach jak marketing i handel detaliczny. Obecnie Flash-Lite jest dostępny w formie publicznego podglądu poprzez Google AI Studio oraz Vertex AI.

    Sztuczna inteligencja od Google coraz bardziej dostępna

    Dzięki nowym wdrożeniom Google zwiększa dostępność i wszechstronność modeli AI, odpowiadając na potrzeby różnych branż. Modele eksperymentalne mają na celu rozwijanie możliwości w zakresie analizy danych, automatyzacji procesów i interakcji z użytkownikami. Nowe podejście do przetwarzania języka naturalnego i rozumowania może znacząco wpłynąć na przyszłość sztucznej inteligencji w biznesie i technologii.

  • Google zapowiada przełom w obliczeniach kwantowych – sprzeczność z prognozą szefa Nvidia

    Google zapowiada przełom w obliczeniach kwantowych – sprzeczność z prognozą szefa Nvidia

    Google przedstawiło optymistyczną wizję przyszłości obliczeń kwantowych, stojącą w kontrze do ostrożnej prognozy Jensena Huanga, dyrektora generalnego Nvidii. Hartmut Neven, szef Google Quantum AI, zapowiedział, że pierwsze komercyjne aplikacje wykorzystujące moc komputerów kwantowych mogą pojawić się już w ciągu pięciu lat. To znacznie krótszy horyzont czasowy niż sugerowane przez Huanga dwie dekady.

    Wypowiedź dyrektora Nvidii na styczniowych targach CES 2025 w Las Vegas wywołała niepokój na rynku, prowadząc do spadku wartości akcji firm zajmujących się obliczeniami kwantowymi o około 8 miliardów dolarów. Google jednak podkreśla, że ich najnowsze osiągnięcia dowodzą szybszego tempa postępu w tej dziedzinie.

    Przełom dzięki chipowi Willow

    Podstawą optymizmu Google jest przełomowy postęp technologiczny osiągnięty pod koniec 2024 roku. Nowy chip kwantowy o nazwie Willow pozwala na efektywne łączenie kubitów w sposób, który wykładniczo redukuje błędy obliczeniowe – jeden z kluczowych problemów ograniczających rozwój tej technologii.

    Dzięki Willow, procesory kwantowe Google mogą wykonywać obliczenia, które na klasycznych superkomputerach zajęłyby teoretycznie 10 bilionów lat – dłużej niż wiek wszechświata. To sugeruje, że praktyczne zastosowania tej technologii mogą stać się realne znacznie szybciej, niż wcześniej przewidywano.

    Obszary zastosowań

    Google wskazuje na kilka kluczowych obszarów, w których komputery kwantowe mogą zrewolucjonizować obliczenia:

    • Nauka o materiałach – rozwój nowych akumulatorów o większej wydajności dla pojazdów elektrycznych,
    • Farmacja – symulacja złożonych struktur molekularnych w celu przyspieszenia badań nad nowymi lekami,
    • Energetyka – opracowanie nowych, bardziej zrównoważonych alternatyw dla obecnych źródeł energii.

    Dodatkowo, naukowcy Google opublikowali w prestiżowym czasopiśmie Nature nową metodę symulacji kwantowej, co może stanowić kolejny krok w kierunku praktycznych zastosowań.

    Przyspieszony rozwój czy długi horyzont?

    Kontrast między prognozami Google i Nvidii podkreśla niepewność co do przyszłości komputerów kwantowych. Z jednej strony, przełomy technologiczne, takie jak chip Willow, sugerują możliwość przyspieszonego rozwoju tej dziedziny. Z drugiej, sceptycy, w tym Huang, wskazują na trudności w skalowaniu technologii do poziomu przemysłowego.

    Niezależnie od dokładnego terminu, obliczenia kwantowe mają potencjał do zrewolucjonizowania wielu sektorów. Pytanie nie brzmi już „czy”, ale „kiedy” ich komercyjne zastosowania staną się rzeczywistością.

  • Google wprowadza Android 16 w wersji beta – co nowego?

    Google wprowadza Android 16 w wersji beta – co nowego?

    Google zaprezentował pierwszą publiczną wersję beta Androida 16, która wprowadza liczne innowacje technologiczne. System operacyjny oferuje zmiany zarówno dla użytkowników końcowych, jak i deweloperów, umożliwiając jeszcze lepsze wykorzystanie możliwości współczesnych urządzeń.

    Aktualizacje na żywo na ekranie blokady

    Jednym z najważniejszych dodatków w Androidzie 16 są aktualizacje na żywo, które pozwalają śledzić różne zdarzenia w czasie rzeczywistym bez konieczności odblokowywania urządzenia. Funkcja ta, znana już użytkownikom iOS jako Live Activities, umożliwia m.in. monitorowanie statusu przesyłek, aktualizacji sportowych wyników czy procesu przesyłania wideo.

    Zaawansowany kodek wideo i ulepszenia dla deweloperów

    Android 16 wprowadza także nowy kodek wideo – Advanced Professional Video (APV), który zapewnia niemal bezstratną jakość nagrań. Dzięki temu użytkownicy będą mogli uzyskać wideo o jakości zbliżonej do plików RAW znanych z aparatów fotograficznych.

    Deweloperzy zyskają natomiast nowe frameworki, które umożliwią lepsze dostosowanie aplikacji do różnych proporcji ekranu. Otwiera to drogę do większej responsywności aplikacji, szczególnie na tabletach i składanych urządzeniach. Google znosi także ograniczenia dotyczące rozmiaru aplikacji, co pozwoli na bardziej zaawansowane projekty dedykowane większym ekranom.

    Zmiana harmonogramu

    Co ciekawe, Google zmienił harmonogram wdrażania Androida 16. Pierwszy podgląd deweloperski pojawił się już w październiku ubiegłego roku, zamiast tradycyjnie w pierwszym kwartale nowego roku. Pozwala to producentom urządzeń na wcześniejsze testowanie i dostosowywanie aktualizacji, co może przełożyć się na bardziej spójne wdrażanie systemu na różnych urządzeniach.

    Android 16, choć wciąż w fazie beta, wyraźnie wskazuje na ambicje Google, by umocnić swoją pozycję w segmencie urządzeń z dużymi ekranami i zaoferować użytkownikom nowoczesne funkcje, które już teraz zmieniają sposób korzystania z systemu operacyjnego.