Autor: K C

  • OpenAI rzuca wyzwanie konkurencji – GPT-4.1 rewolucjonizuje rynek AI

    OpenAI rzuca wyzwanie konkurencji – GPT-4.1 rewolucjonizuje rynek AI

    OpenAI ponownie zaskakuje branżę technologiczną, wprowadzając na rynek swój najnowszy model AI – GPT-4.1. Wraz z mniejszymi wariantami, GPT-4.1 mini i GPT-4.1 nano, firma obiecuje znaczące ulepszenia w kluczowych obszarach, takich jak kodowanie, precyzja w wykonywaniu instrukcji oraz zdolność do analizowania długich kontekstów. Nowe modele, dostępne wyłącznie poprzez API OpenAI, wyprzedzają dotychczasowy flagowy model, GPT-4o, w niemal każdym aspekcie.

    Skok jakościowy w możliwościach

    GPT-4.1 imponuje przede wszystkim rozszerzonym oknem kontekstowym, obsługującym do 1 miliona tokenów. To znacząca zmiana, otwierająca nowe możliwości w analizie i przetwarzaniu obszernych dokumentów oraz złożonych zbiorów danych. Dodatkowo, model został zaktualizowany o wiedzę do czerwca 2024 roku, co zapewnia mu dostęp do najświeższych informacji. Według OpenAI, GPT-4.1 osiągnął 21% poprawę w kodowaniu w porównaniu do GPT-4o oraz 27% w stosunku do wcześniejszej wersji testowej GPT-4.5. Ulepszenia w zakresie rozumienia kontekstu i wykonywania instrukcji mają kluczowe znaczenie dla rozwoju zaawansowanych agentów AI.

    Sam Altman, OpenAI
    Sam Altman, OpenAI / źródło: IDEAS NCBR

    Praktyczne zastosowanie kluczem do sukcesu

    Sam Altman, dyrektor generalny OpenAI, podkreśla, że firma skupiła się przede wszystkim na użyteczności nowych modeli w realnych zastosowaniach. „Benchmarki są silne, ale skupiliśmy się na użyteczności w świecie rzeczywistym, a deweloperzy wydają się bardzo zadowoleni” – napisał Altman na platformie X. To podejście może wskazywać na rosnące znaczenie praktycznego zastosowania AI w branży technologicznej, gdzie efektywność i realne korzyści stają się kluczowymi czynnikami sukcesu.

    Konkurencyjność i przyszłość rynku AI

    Wprowadzenie GPT-4.1 to nie tylko krok naprzód w rozwoju technologii, ale także sygnał dla konkurencji. OpenAI zaznacza, że nowe modele są dostępne po „znacznie niższych kosztach” w porównaniu do GPT-4.5, co może wpłynąć na dynamikę rynku. Decyzja o wycofaniu wersji GPT-4.5 z API w lipcu, ze względu na „ulepszoną lub podobną wydajność” nowych modeli, podkreśla determinację firmy w dążeniu do doskonałości i optymalizacji kosztów.

    Premiera GPT-4.1 wyznacza nowy standard w dziedzinie sztucznej inteligencji. Zwiększone możliwości w kodowaniu, rozumieniu kontekstu i wykonywaniu instrukcji otwierają drzwi do tworzenia bardziej zaawansowanych i efektywnych aplikacji AI. Skupienie OpenAI na praktycznym zastosowaniu technologii oraz optymalizacja kosztów mogą wpłynąć na kształtowanie przyszłości rynku AI.

    Warto również zwrócić uwagę na rosnącą konkurencję w sektorze AI, gdzie inne firmy technologiczne również intensywnie pracują nad rozwojem swoich modeli. OpenAI, wprowadzając GPT-4.1, umacnia swoją pozycję lidera, ale przyszłość rynku będzie zależeć od dalszych innowacji i adaptacji do zmieniających się potrzeb użytkowników.

  • Metody cyberataków: 5 godzin wystarczy, aby wykraść Twoje dane

    Metody cyberataków: 5 godzin wystarczy, aby wykraść Twoje dane

    Najnowszy raport Palo Alto Networks Unit 42 ujawnia alarmujący zwrot, jeśli chodzi o metody cyberataków. Atakujący odchodzą od tradycyjnej kradzieży danych na rzecz sabotażu operacyjnego, co prowadzi do gwałtownego wzrostu zakłóceń działalności firm i rekordowych żądań okupu. Ta zmiana strategii, w połączeniu z rosnącą szybkością i złożonością ataków, stawia organizacje w obliczu bezprecedensowych wyzwań w zakresie cyberbezpieczeństwa.

    Sabotaż operacyjny nowym standardem

    Dane z raportu „Global Incident Response Report 2025” wskazują na wyraźny trend: cyberprzestępcy coraz częściej koncentrują się na zakłócaniu działalności firm. Aż 86% ataków skutkuje przerwami w operacjach, a atakujący celowo niszczą infrastrukturę IT, blokują dostęp do systemów i usuwają kopie zapasowe. Ta destrukcyjna taktyka wywiera ogromną presję na ofiary, często zmuszając je do szybkiego ugięcia się pod żądaniami okupu.

    Cyberprzestępcy działają coraz sprawniej i coraz lepiej wykorzystują sztuczną inteligencję do automatyzacji swoich działań. W 2024 roku cyberprzestępcy w 25% przypadków wykradali dane w mniej niż 5 godzin. To trzykrotnie szybciej niż jeszcze w 2021 roku. Tempo ataków nadal rośnie – eksperyment Unit 42 wykazał, że AI może skrócić czas kradzieży danych z dwóch dni do zaledwie 25 minut. Jednocześnie metody cyberprzestępców stają się coraz bardziej złożone. W 2024 roku aż 70% incydentów obejmowało atak na co najmniej trzy obszary IT jednocześnie – od sieci i punktów końcowych, po chmurę i infrastrukturę krytycznąkomentuje Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.

    Konsekwencją tego przesunięcia jest dramatyczny wzrost kwot okupu. Średnia wartość wyłudzeń osiągnęła w 2024 roku 1,25 miliona dolarów, co stanowi oszałamiający wzrost o 80% w porównaniu z rokiem poprzednim. Tak wysokie kwoty odzwierciedlają rosnące koszty przestojów i utraty reputacji, z jakimi muszą mierzyć się ofiary. Cyberprzestępcy, świadomi tej presji, bezwzględnie ją wykorzystują.

    Wyścig z czasem i złożoność ataków

    Raport Unit 42 potwierdza, że cyberprzestępcy działają z niespotykaną dotąd szybkością. W 2024 roku w 25% przypadków dane były wykradane w czasie krótszym niż 5 godzin – to trzykrotnie szybciej niż w 2021 roku. Co więcej, eksperymenty Unit 42 sugerują, że sztuczna inteligencja może jeszcze bardziej skrócić ten czas, potencjalnie do zaledwie 25 minut. Ta błyskawiczna prędkość pozostawia organizacjom minimalne okno na wykrycie i powstrzymanie ataku.

    Jednocześnie metody atakujących stają się coraz bardziej wyrafinowane. W 2024 roku aż 70% incydentów obejmowało ataki na co najmniej trzy różne obszary IT jednocześnie, od sieci i punktów końcowych po chmurę i infrastrukturę krytyczną. Ta wielowektorowa strategia utrudnia obronę i zwiększa prawdopodobieństwo sukcesu ataku.

    Phishing i chmura na celowniku

    Raport identyfikuje również kluczowe wektory ataku i obszary podatności. Phishing powrócił na czoło listy, stanowiąc przyczynę 23% ataków. Rozwój generatywnej AI, która umożliwia tworzenie niezwykle przekonujących wiadomości phishingowych, znacząco przyczynia się do tego wzrostu. Ponadto, 44% cyberataków wykorzystywało luki w przeglądarkach internetowych, a chmura stała się kluczowym celem, z 45% przypadków kradzieży danych związanych z usługami chmurowymi. Co niepokojące, 29% wszystkich ataków miało swoje źródło w środowiskach chmurowych, a 21% prowadziło do bezpośrednich strat operacyjnych.

    Zagrożenie wewnętrzne i brak integracji

    Raport Unit 42 zwraca również uwagę na alarmujący wzrost liczby ataków wewnętrznych, które w 2024 roku wzrosły trzykrotnie. Wiele z nich jest powiązanych z działalnością grup hakerskich sponsorowanych przez Koreę Północną, które stosują wyrafinowane techniki inżynierii społecznej, takie jak fałszywe oferty pracy, aby uzyskać dostęp do systemów.

    Co więcej, raport ujawnia poważne niedociągnięcia w obecnych strategiach bezpieczeństwa. Aż 75% ataków można było wykryć wcześniej, ponieważ dowody na włamanie znajdowały się w logach. Problemem jest jednak nadmierne zaufanie i brak integracji narzędzi bezpieczeństwa. Organizacje używają średnio 50 różnych systemów ochrony, które często nie współpracują ze sobą, tworząc luki, które wykorzystują cyberprzestępcy.

    Konieczność proaktywnej obrony

    W obliczu tych rosnących zagrożeń, raport Unit 42 podkreśla pilną potrzebę zmiany podejścia do cyberbezpieczeństwa. Firmy muszą przyspieszyć wdrażanie strategii Zero Trust, ograniczyć domyślne zaufanie w swoich systemach i skuteczniej zabezpieczać aplikacje i środowiska chmurowe. Kluczowe jest również usprawnienie działań zespołów bezpieczeństwa poprzez wdrożenie zintegrowanych systemów monitorowania i automatyzację wykrywania i neutralizacji ataków.

    W obliczu rosnącej liczby cyberataków firmy muszą przyspieszyć wdrażanie strategii Zero Trust, czyli ograniczyć domyślne zaufanie w swoich systemach. Kluczowe jest także skuteczniejsze zabezpieczenie aplikacji i środowisk chmurowych – od etapu ich tworzenia po codzienne działanie – tak, by szybko wykrywać i usuwać luki w zabezpieczeniach. Równie istotne jest usprawnienie działań zespołów bezpieczeństwa, żeby miały pełny obraz sytuacji i mogły szybciej reagować na zagrożenia. Pomogą w tym zintegrowane systemy monitorujące, obejmujące zarówno infrastrukturę lokalną, chmurę, jak i urządzenia końcowe, a także automatyczne wykrywanie i neutralizacja atakówwyjaśnia Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.

    Raport „Global Incident Response 2025” jasno pokazuje, że cyberbezpieczeństwo nie jest już jedynie kwestią ochrony danych. W erze sabotażu operacyjnego, firmy muszą zabezpieczać całą swoją infrastrukturę, a skuteczna obrona wymaga przejścia od reaktywnego do proaktywnego działania. To jedyna droga do zapewnienia stabilności i odporności biznesu w coraz bardziej niebezpiecznym cyfrowym krajobrazie.

  • Irlandzki regulator uderza w X Muska: czy dane z postów służą do trenowania AI Grok?

    Irlandzki regulator uderza w X Muska: czy dane z postów służą do trenowania AI Grok?

    Irlandzka Komisja Ochrony Danych (DPC) rozpoczęła śledztwo w sprawie potencjalnego naruszenia przepisów o ochronie danych przez platformę X, która wykorzystuje dane osobowe mieszkańców Unii Europejskiej do szkolenia swojego zaawansowanego systemu sztucznej inteligencji, Grok. Działanie to stawia pod znakiem zapytania praktyki giganta technologicznego w zakresie wykorzystywania informacji o użytkownikach.

    Europejskie uprawnienia i globalne konsekwencje

    Jako główny organ nadzorczy X w Unii Europejskiej, z racji lokalizacji europejskiej siedziby firmy w Irlandii, DPC ma prawo nakładać surowe kary finansowe. Zgodnie z Ogólnym Rozporządzeniem o Ochronie Danych (RODO), grzywny mogą sięgać nawet do 4% globalnych przychodów przedsiębiorstwa. Ta możliwość stawia X w potencjalnie trudnej sytuacji prawnej i finansowej.

    Analiza danych użytkowników w kontekście rozwoju AI

    Śledztwo DPC skupia się na „przetwarzaniu danych osobowych zawartych w publicznie dostępnych postach publikowanych na platformie mediów społecznościowych X przez użytkowników UE/EOG, w celu szkolenia generatywnych modeli sztucznej inteligencji”. To zagadnienie nabiera szczególnego znaczenia w dobie gwałtownego rozwoju technologii AI i wiążących się z tym obaw o naruszenie prywatności.

    X.com, Twitter
    źródło: Unplash/BoliviaInteligente

    Prawne precedensy i polityczny rezonans

    Decyzja DPC jest kontynuacją zeszłorocznego sporu prawnego, w którym regulator dążył do ograniczenia wykorzystania danych unijnych użytkowników przez X do celów rozwoju sztucznej inteligencji. W wyniku ugody X zgodził się wstrzymać szkolenie swoich systemów AI na danych osobowych użytkowników z UE do momentu, gdy ci będą mogli wycofać swoją zgodę. Dodatkowo spory dotyczące regulacji prawnych UE, do których należą między innymi Donald Trump, i Elon Musk, nadają temu procesowi wymiar polityczny.

    Regulacyjna siła DPC i przyszłość danych w AI

    Działalność irlandzkiego regulatora podkreśla jego determinację w egzekwowaniu przepisów RODO, co widać po wcześniejszych karach nałożonych na inne giganty technologiczne, takie jak Microsoft (LinkedIn), TikTok i Meta. Obecne śledztwo stanowi jasny sygnał, że DPC będzie aktywnie monitorować i regulować wykorzystanie danych osobowych w kontekście rozwoju sztucznej inteligencji. Wyniki tego postępowania mogą mieć znaczący wpływ na przyszłe praktyki X w zakresie wykorzystania danych, a także na ogólne podejście branży technologicznej do kwestii prywatności w dobie AI.

  • Automatyzacja druku – jak polskie firmy adaptują nowe technologie?

    Automatyzacja druku – jak polskie firmy adaptują nowe technologie?

    Automatyzacja druku staje się kluczowym czynnikiem transformującym polski sektor poligraficzny. Nowoczesne technologie nie tylko przyspieszają produkcję, ale także redefiniują oczekiwania klientów i stawiają przed firmami nowe wyzwania.

    Polski sektor druku stoi w obliczu transformacji napędzanej przez automatyzację. Nowe technologie, takie jak systemy zarządzania produkcją, robotyzacja i sztuczna inteligencja, obiecują rewolucję w procesach druku, ale ich wdrażanie rodzi pytania o konkurencyjność i przyszłość branży.

    W najnowszym odcinku podcastu „Rozmowy o druku” realizowanego przez Canon Polska, eksperci i praktycy branży, w tym Marta Naranowicz (Interior Decor), Piotr Janicki (PRINT PROJECT, Drukarnia Wydawnicza im. Władysława Ludwika Anczyca S.A.), Piotr Malicki, Michał Młynarczyk i Tomasz Miękus (Canon Polska), analizują kluczowe trendy i wyzwania stojące przed polskim rynkiem.

    Automatyzacja: od luksusu do konieczności

    Dyskusja koncentruje się na rosnącym znaczeniu automatyzacji. W obliczu niedoboru wykwalifikowanej siły roboczej i rosnących kosztów operacyjnych, automatyzacja przestaje być opcją, a staje się koniecznością. Uczestnicy podcastu podkreślają, że nowoczesne technologie pozwalają na redukcję czasu produkcji, minimalizację odpadów i optymalizację kosztów, co jest kluczowe dla utrzymania rentowności i konkurencyjności.

    „Dzięki nowoczesnym technologiom, możemy redukować czas produkcji, zmniejszać odpady i optymalizować koszty. To kluczowe dla utrzymania konkurencyjności” – zaznaczają eksperci.

    Canon drukarka 1
    źródło: Canon

    Polska na tle globalnym: opóźnienie we wdrażaniu innowacji?

    Choć polski sektor druku wykazuje dynamikę rozwoju, wciąż istnieje dystans do nadrobienia w porównaniu z rynkami zachodnimi. Wiele drukarni inwestuje w cyfryzację, ale wysokie koszty początkowe i ograniczony dostęp do zaawansowanych technologii stanowią istotną barierę.

    „Widzimy coraz większe zainteresowanie automatyzacją i sztuczną inteligencją, ale wciąż wiele firm stoi przed decyzją o ich wdrożeniu” – zauważają eksperci.

    Wnioski i spostrzeżenia

    Rosnące koszty i niedobór pracowników zmuszają polskie drukarnie do poszukiwania oszczędności i zwiększania efektywności. Polski rynek charakteryzuje się dychotomią – obok nowoczesnych, zautomatyzowanych drukarni, funkcjonuje wiele mniejszych firm z trudnościami inwestycyjnymi. Aby przyspieszyć transformację, potrzebne są inicjatywy edukacyjne i wsparcie finansowe. Klienci oczekują szybszej realizacji zleceń, wyższej jakości i personalizacji, co wymusza zmiany technologiczne. Przyszłość druku wiąże się z integracją technologii cyfrowych i fizycznych, a sukces zależy od elastyczności i umiejętności adaptacji do rynku.

    Posłuchaj także odcinka, w którym Bartosz Martyka, Redaktor Naczelny Brandsit oraz Dariusz Szwed, ekspert od urządzeń biurowych i w obszarze bezpieczeństwa danych, Canon Polska rozmawiają o tym, jak w świecie cyfrowym zapewnić firmie odpowiednie bezpieczeństwo oraz co jest groźniejsze dla firm: sama perspektywa włamania hakera, czy wizerunkowa katastrofa związana z informacją o wycieku danych – link do podcastu.

  • AMD przyspiesza symulacje przemysłowe. Padł rekord na superkomputerze Frontier

    AMD przyspiesza symulacje przemysłowe. Padł rekord na superkomputerze Frontier

    Wspólnie z firmą Baker Hughes, specjalizującą się w technologiach energetycznych, AMD ustanowiło nowy rekord prędkości symulacji turbiny gazowej. Używając 1024 akceleratorów graficznych Instinct MI250X na superkomputerze Frontier, zespół ukończył symulację przepływu powietrza przez turbinę osiową zawierającą 2,2 miliarda ogniw w zaledwie 1,5 godziny. Dla porównania: ten sam proces na tradycyjnym sprzęcie zajmuje… ponad 38 godzin.

    AMD Frontier – szybkość, która przekłada się na pieniądze

    To nie tylko technologiczna ciekawostka. W świecie inżynierii precyzyjnej — a szczególnie w przemyśle energetycznym, lotniczym czy motoryzacyjnym — symulacje CFD (Computational Fluid Dynamics) są jednym z kluczowych etapów badań i rozwoju. Skrócenie ich czasu z dwóch dni roboczych do niespełna dwóch godzin może oznaczać radykalne przyspieszenie procesu projektowania i znaczące oszczędności. A w czasach, gdy firmy szukają przewag konkurencyjnych wszędzie tam, gdzie można coś zoptymalizować lub zautomatyzować — czas to nie tylko pieniądz. To również rynek.

    Dla AMD to również demonstracja siły w obszarze, w którym może pokazać swoją przewagę nad Nvidią — czyli w dużych, skalowalnych systemach obliczeniowych dla nauki i przemysłu. Frontier, na którym dokonano przełomowej symulacji, pozostaje jednym z najszybszych superkomputerów na świecie. Co więcej, jego następca — El Capitan — również oparty będzie na platformie AMD.

    Superkomputer Frontier, AMD
    źródło: Oak Ridge National Laboratory

    Technologiczny paradoks: sprzęt jest, ale czy oprogramowanie nadąża?

    Ale sukcesy sprzętowe to tylko połowa układanki. AMD nadal mierzy się z problemami po stronie software’u — przede wszystkim w kontekście stabilności i dojrzałości ekosystemu narzędzi. Przykładem może być Tiny Corp, startup, który testował układy AMD w systemach AI, ale ostatecznie wybrał Nvidię, wskazując na niedojrzałość sterowników AMD. To doświadczenie nie jest odosobnione.

    To klasyczny przykład „konia pociągowego bez uprzęży” — potężny sprzęt, którego pełen potencjał trudno wykorzystać bez odpowiednio dojrzałego środowiska programistycznego. I choć AMD robi postępy w ramach ROCm (Radeon Open Compute), to wciąż daleko mu do CUDA — dopracowanej, wieloletniej platformy Nvidia, która w świecie AI stała się de facto standardem.

    AI to nie wszystko

    Choć sztuczna inteligencja zdominowała dziś technologiczną narrację, rzeczywistość enterprise — szczególnie w sektorze przemysłowym — pozostaje znacznie bardziej zróżnicowana. To właśnie tam wciąż ogromne znaczenie mają superkomputery, HPC i precyzyjne symulacje. A to z kolei może być dla kanału IT jasny sygnał: AI nie wyczerpuje tematu transformacji cyfrowej. Przeciwnie — może być tylko jej częścią.

    AMD pokazało, że potrafi tworzyć technologie, które realnie zmieniają tempo innowacji w inżynierii. Teraz pytanie brzmi: czy nadrobi zaległości programistyczne i zdoła przekuć sukcesy z laboratoriów w przewagę na rynku? Jeśli tak — Nvidia może wkrótce zyskać bardzo realnego konkurenta nie tylko w benchmarkach, ale i na arkuszach zamówień.

  • Orlen otwiera kolejną rundę akceleratora Skylight. Ambitne cele, realna weryfikacja innowacji

    Orlen otwiera kolejną rundę akceleratora Skylight. Ambitne cele, realna weryfikacja innowacji

    Grupa Orlen uruchamia czternastą edycję programu Orlen Skylight Accelerator, zachęcając startupy z całego świata do testowania swoich rozwiązań w realnych warunkach przemysłowych. Choć podobnych inicjatyw na rynku nie brakuje, Skylight wyróżnia się dwoma cechami: szeroką skalą działania oraz pragmatyzmem biznesowym.

    Od pitch decka do rafinerii

    Startupy często poruszają się w świecie slajdów, estymacji i MVP. Tymczasem Orlen otwiera przed nimi dostęp do swojej rzeczywistej infrastruktury – od instalacji petrochemicznych po nowoczesne huby energetyczne. Dla młodych spółek to szansa nie tylko na weryfikację technologii, ale też na „dojrzewanie” w relacji z dużym odbiorcą.

    Program działa w formule non-equity – Orlen nie przejmuje udziałów, ale oferuje know-how, eksperckie wsparcie i finansowanie pilotaży. Co więcej, ścieżka od akceptacji do testów jest uproszczona – co w realiach korporacyjnych wcale nie jest normą.

    Orlen Skylight Accelerator – technologia w służbie transformacji

    Nowa edycja skupia się na 30 konkretnych wyzwaniach zdefiniowanych przez spółki z Grupy Orlen. Na liście priorytetów znajdują się m.in.: cyfrowa organizacja, Przemysł 4.0, OZE, bezpieczeństwo i inteligentna infrastruktura energetyczna. Brzmi szeroko? Tak, ale to świadomy wybór – pokazujący kierunek, w którym zmierza koncern po przejęciach Energi, Lotosu i PGNiG.

    Transformacja Orlenu w koncern multienergetyczny wymaga nie tylko inwestycji kapitałowych, ale też dopływu świeżych pomysłów i zwinności działania. Akcelerator staje się więc nie tylko wehikułem innowacji, ale też narzędziem do kulturowego oswajania nowych modeli współpracy – zarówno wewnątrz, jak i na styku z rynkiem.

    startup, program dla startupów
    źródło: Freepik/rawpixel.com

    Skalowalność zamiast eksperymentów

    Na rynku korporacyjnych akceleratorów łatwo o popadnięcie w PR-owe pułapki: showcase’y bez kontynuacji, „innowacyjność dla innowacyjności”. Orlen, choć operuje na dużą skalę, stawia na konkret – dotychczas przeprowadzono blisko 40 pilotaży, z czego 12 projektów jest obecnie w realizacji, a 3 szykowane do startu. Dla porównania: wiele podobnych programów w Polsce kończy się na etapie prezentacji demo.

    Uwagę zwraca również liczba zgłoszeń – ponad 900 startupów od początku działania programu, a także ponad 300 opublikowanych wyzwań technologicznych. To nie tylko dowód na skuteczne dotarcie do ekosystemu, ale też na realne zapotrzebowanie wewnątrz koncernu.

    Co dalej?

    Zgłoszenia do najnowszej edycji przyjmowane są do 28 kwietnia. Na tle europejskiego rynku, gdzie korporacyjne programy akceleracyjne często borykają się z problemem braku ciągłości i realnych efektów biznesowych, Skylight prezentuje model możliwy do skalowania – zarówno po stronie startupów, jak i Orlenu.

  • NCBR wybrało 10 startupów, które powalczą o sukces w USA

    NCBR wybrało 10 startupów, które powalczą o sukces w USA

    Narodowe Centrum Badań i Rozwoju wyłoniło dziesięć startupów, które wezmą udział w kolejnej edycji programu akceleracyjnego NCBR-NAP. Wyróżnione firmy – wśród których są m.in. Ecobean, Uhura Bionics czy Discover AI Technologies – w nadchodzących miesiącach rozpoczną proces dostosowywania swoich rozwiązań do wymagań rynku amerykańskiego. Akceleracja odbędzie się w Nevadzie i Kalifornii – stanach o zróżnicowanym, ale coraz bardziej spójnym krajobrazie innowacji.

    Program z potencjałem budowania mostów

    NCBR-NAP to wspólna inicjatywa Narodowego Centrum Badań i Rozwoju oraz stanu Nevada, oparta na porozumieniu o współpracy podpisanym kilka lat temu. Celem programu jest nie tylko promocja polskich technologii, ale też tworzenie podstaw do długoterminowej współpracy instytucjonalnej i biznesowej pomiędzy innowatorami z obu krajów.

    Wybrane firmy, wyłonione podczas kilkudniowego Bootcampu w Warszawie, oferują zróżnicowane rozwiązania – od zautomatyzowanego wykrywania zagrożeń w cyberprzestrzeni, przez technologie oparte na recyklingu fusów z kawy, po narzędzia wspierające gospodarkę o obiegu zamkniętym. Wartością programu jest właśnie ta różnorodność – pokazująca, że innowacja nie ogranicza się do jednej branży czy wyłącznie do zaawansowanego software’u.

    Nie tylko innowacja – także gotowość rynkowa

    Uczestnicy programu mieli okazję nie tylko zaprezentować się przed międzynarodowym jury, ale również wziąć udział w warsztatach i konsultacjach, które miały przygotować ich do realiów amerykańskiego rynku. Wyzwanie, przed którym teraz stoją, nie sprowadza się jednak wyłącznie do prezentacji technologii – równie istotna będzie umiejętność komunikacji biznesowej, dostosowania modelu działania i zrozumienia różnic kulturowych.

    Z perspektywy firm biorących udział w akceleracji kluczowe okaże się więc to, czy potrafią przełożyć swoje pomysły na konkretne potrzeby odbiorców w Stanach Zjednoczonych – zarówno partnerów, jak i inwestorów. Program może zadziałać jako katalizator tego procesu, ale jego powodzenie będzie zależało także od gotowości samych zespołów do dynamicznego uczenia się i elastyczności.

    NCBR, startup
    źródło: NCBR

    NCBR – rola instytucji wspierających innowacje

    Dla Narodowego Centrum Badań i Rozwoju NCBR-NAP to kolejna próba odejścia od tradycyjnych, grantowych modeli wsparcia na rzecz bardziej partnerskich, sieciujących mechanizmów. Program koncentruje się na umożliwieniu ekspozycji i współpracy w realnym, a nie wyłącznie deklaratywnym kontekście międzynarodowym.

    Jednocześnie warto pamiętać, że akceleracja zagraniczna – zwłaszcza na tak wymagającym rynku jak USA – nie jest rozwiązaniem dla każdej firmy. Dla niektórych może to być etap przygotowawczy, testujący dojrzałość organizacyjną, a niekoniecznie wstęp do natychmiastowej ekspansji. Kluczowe będzie więc nie tylko to, jak zakończy się udział poszczególnych firm w NCBR-NAP, ale także jak przełożą one zdobyte doświadczenie na dalszy rozwój działalności w Polsce lub innych krajach.

    Ostrożny optymizm, realne szanse

    Polskie startupy, choć często dobrze przygotowane technologicznie, wciąż uczą się funkcjonowania w środowisku globalnym. Programy takie jak NCBR-NAP mogą im w tym pomóc – pod warunkiem, że będą częścią szerszej strategii budowania kompetencji eksportowych, a nie jednorazowym wydarzeniem.

    Inicjatywa pokazuje jednak, że polski ekosystem innowacji dojrzewa i coraz lepiej rozumie, że komercjalizacja technologii wymaga nie tylko finansowania, ale i odpowiednich warunków do wzrostu. Jeśli uda się utrzymać ciągłość takich działań, szansa na bardziej widoczną obecność polskich firm technologicznych na rynkach międzynarodowych staje się znacznie bardziej realna.

    Pełna lista zakwalifikowanych startupów: SP Tech Solutions, Ecobean, Uhura Bionics, Pikralida, Ulan Software, Trashstock, Vercly, Easy OZE, Owl Sentry oraz Discover AI Technologies.

  • Copilot bez iluzji: Microsoft liczy udane sesje, nie kliknięcia

    Copilot bez iluzji: Microsoft liczy udane sesje, nie kliknięcia

    ​W ramach obchodów 50-lecia Microsoftu, Mustafa Suleyman, dyrektor generalny Microsoft AI, przedstawił nową metrykę oceny skuteczności asystenta AI firmy, Copilot. Tradycyjne wskaźniki, takie jak liczba aktywnych użytkowników dziennie czy tygodniowo, choć nadal monitorowane, ustępują miejsca wskaźnikowi Successful Session Rate (SSR), czyli wskaźnikowi udanych sesji. SSR mierzy odsetek interakcji użytkowników z Copilotem, które zakończyły się sukcesem, dostarczając bardziej precyzyjnej oceny jakości i użyteczności narzędzia. ​

    Suleyman podkreślił, że w przeszłości firmy polegały na pośrednich wskaźnikach jakości, takich jak czas spędzony z produktem. Obecnie, dzięki analizie anonimowych dzienników i ocenie sentymentu użytkowników, możliwe jest bezpośrednie mierzenie jakości interakcji. W ciągu ostatnich czterech miesięcy Microsoft odnotował znaczący wzrost SSR, co wskazuje na rosnącą skuteczność Copilota. ​

    Wprowadzenie SSR jako kluczowego wskaźnika efektywności Copilota odzwierciedla szerszy trend w branży IT, polegający na przechodzeniu od ilościowych miar zaangażowania do jakościowych ocen doświadczeń użytkowników. Ta zmiana może sygnalizować nową erę w projektowaniu i ocenie narzędzi AI, gdzie nacisk kładziony jest na realną wartość dostarczaną użytkownikom, a nie tylko na statystyki użytkowania.​

    Dla firm wdrażających rozwiązania AI, takich jak Copilot, kluczowe staje się nie tylko monitorowanie wskaźników adopcji, ale również głębsze zrozumienie, jak te narzędzia wpływają na efektywność i satysfakcję pracowników. Microsoft udostępnił raport adopcji Copilota w Microsoft 365, który pozwala organizacjom śledzić wykorzystanie narzędzia w różnych grupach i aplikacjach, co może wspierać procesy decyzyjne dotyczące dalszego wdrażania i optymalizacji. ​

  • Amazon wchodzi na orbitę. Startuje Project Kuiper, konkurent Starlinka

    Amazon wchodzi na orbitę. Startuje Project Kuiper, konkurent Starlinka

    ​Amazon zbliża się do kluczowego momentu w realizacji swojego ambitnego projektu Kuiper, planując na 9 kwietnia 2025 roku wystrzelenie pierwszych 27 satelitów w ramach misji „Kuiper Atlas 1”. Start odbędzie się z Cape Canaveral na Florydzie przy użyciu rakiety Atlas V dostarczonej przez United Launch Alliance (ULA), wspólne przedsięwzięcie Boeinga i Lockheed Martina. ​

    Projekt Kuiper, ogłoszony w 2019 roku, ma na celu rozmieszczenie konstelacji ponad 3 200 satelitów na niskiej orbicie okołoziemskiej (LEO), aby dostarczać szybki internet na całym świecie, zwłaszcza w regionach niedostatecznie obsługiwanych przez tradycyjne technologie. Jest to bezpośrednia konkurencja dla Starlink, usługi satelitarnej SpaceX, która obecnie dominuje na rynku z ponad 7 000 satelitów na orbicie i bazą użytkowników przekraczającą 5 milionów w 125 krajach. ​

    Amazon planuje rozpocząć świadczenie usług Kuiper w drugiej połowie 2025 roku. Firma zarezerwowała około 80 misji rakietowych od różnych dostawców, w tym Arianespace, Blue Origin oraz SpaceX, co stanowi największą w historii umowę na komercyjne usługi wynoszenia satelitów. ​

    Wprowadzenie przez Amazon projektu Kuiper może znacząco wpłynąć na rynek dostępu do internetu, zwłaszcza w obszarach, gdzie tradycyjna infrastruktura jest niewystarczająca. Konkurencja między Amazon a SpaceX może prowadzić do innowacji technologicznych i potencjalnie obniżenia kosztów dla użytkowników końcowych. Jednak Amazon stoi przed wyzwaniem nadrobienia dystansu do SpaceX, które ma znaczną przewagę czasową i operacyjną. Sukces Kuipera będzie zależał od zdolności Amazon do skutecznego skalowania produkcji satelitów, efektywnego zarządzania logistyką wynoszenia oraz zapewnienia konkurencyjnej oferty usługowej.​

  • Google DeepMind bada wpływ AI na cyberzagrożenia. Wyniki zaskakują

    Google DeepMind bada wpływ AI na cyberzagrożenia. Wyniki zaskakują

    Najnowsze badania Google DeepMind wprowadzają strukturę oceny, która systematycznie analizuje, w jaki sposób AI wpływa na efektywność istniejących technik ataku. Celem jest lepsze przygotowanie zespołów ds. bezpieczeństwa na pojawiające się zagrożenia.​

    Analiza wpływu AI na techniki ataku

    Struktura oceny opracowana przez Google DeepMind składa się z czterech kluczowych etapów:​

    • Wybór reprezentatywnych łańcuchów ataków: Identyfikacja typowych scenariuszy ataków, takich jak phishing, ataki DDoS czy exploity zero-day.​
    • Analiza wąskich gardeł: Określenie, które etapy w łańcuchu ataku mogą zostać usprawnione przez zastosowanie SI, czyniąc je bardziej efektywnymi.​
    • Opracowanie testów porównawczych: Tworzenie benchmarków do mierzenia wydajności SI w zidentyfikowanych fazach ataku.​
    • Ocena wpływu: Szacowanie potencjalnych oszczędności kosztów dla atakujących w całym łańcuchu ataku .​

    Testy przeprowadzone z modelem Gemini 2.0 wykazały, że AI przede wszystkim zwiększa skalę i szybkość ataków. Nowe techniki ataku pojawiają się rzadko, ale istniejące metody stają się bardziej skuteczne dzięki zastosowaniu AI. Szczególnie dobrze AI radzi sobie w zadaniach takich jak eksploracja, unikanie wykrycia oraz utrzymanie dostępu .​

    Implikacje dla obrony cybernetycznej

    Wnioski płynące z tej analizy są kluczowe dla strategii obronnych organizacji:

    • Zwiększona skuteczność AI w fazie instalacji oraz komunikacji dowodzenia i kontroli: Wymaga to wdrożenia bardziej zaawansowanych mechanizmów wykrywania i reagowania na te etapy ataku.​
    • Realistyczne testy penetracyjne z wykorzystaniem AI: Struktura może posłużyć jako podstawa do przeprowadzania symulacji ataków z użyciem SI, co pozwoli na lepsze przygotowanie zespołów ds. bezpieczeństwa .​

    Indeks cyberinflacji jako nowa miara ryzyka

    Jednym z interesujących pomysłów przedstawionych przez Google DeepMind jest koncepcja „indeksu cyberinflacji”. Miałby on ilustrować, w jaki sposób AI obniża ekonomiczne bariery dla przeprowadzania cyberataków, redukując potrzebny czas i specjalistyczną wiedzę. Taka miara mogłaby pomóc w kwantyfikacji ryzyka związanego z rozwojem AI w kontekście cyberbezpieczeństwa .​

    Szerszy kontekst zagrożeń związanych z AI

    Należy również zwrócić uwagę na inne potencjalne zagrożenia wynikające z rozwoju AI:​

    • Wykorzystanie AI do tworzenia broni biologicznych i bomb: Istnieją obawy, że zaawansowane modele generatywne mogą zostać wykorzystane do projektowania niebezpiecznych substancji czy urządzeń.
    • Manipulacja opinią publiczną: AI może być używana do tworzenia zaawansowanych kampanii dezinformacyjnych, co stanowi zagrożenie dla procesów demokratycznych.​

    Rozwój sztucznej inteligencji niesie ze sobą zarówno ogromne możliwości, jak i poważne wyzwania w zakresie cyberbezpieczeństwa. Struktura oceny zaproponowana przez Google DeepMind dostarcza cennych narzędzi do zrozumienia i przeciwdziałania wpływowi AI na techniki ataku. Jednakże, aby skutecznie chronić się przed ewoluującymi zagrożeniami, konieczne jest ciągłe monitorowanie, adaptacja strategii obronnych oraz międzynarodowa współpraca w zakresie regulacji i standardów bezpieczeństwa.​

  • Koniec wyłączności Qualcomm. Microsoft otwiera Copilot+ na Intela i AMD

    Koniec wyłączności Qualcomm. Microsoft otwiera Copilot+ na Intela i AMD

    ​Microsoft ogłosił rozszerzenie dostępności funkcji Copilot+ na laptopy wyposażone w procesory Intel Core Ultra 200V oraz AMD Ryzen AI 300, co oznacza zakończenie dotychczasowej wyłączności dla układów Qualcomm Snapdragon. To posunięcie sygnalizuje istotną zmianę w strategii Microsoftu, otwierając nowe możliwości dla użytkowników i producentów sprzętu.​

    Wśród nowych funkcji dostępnych na urządzeniach z procesorami Intel i AMD znajdują się:​

    • Live Captions: umożliwia tłumaczenie dźwięku na napisy w języku angielskim w czasie rzeczywistym, wspierając wiele języków.
    • Cocreator w Paint: narzędzie AI pozwalające na tworzenie obrazów na podstawie opisów tekstowych oraz aktualnie rysowanych elementów. ​
    • Zaawansowane funkcje edycji w aplikacji Zdjęcia: umożliwiające m.in. skalowanie zdjęć do rozdzielczości 4K za pomocą lokalnych modeli AI. ​

    Wcześniej te funkcje były dostępne wyłącznie na urządzeniach z procesorami Qualcomm Snapdragon. Rozszerzenie wsparcia na układy Intel i AMD jest odpowiedzią na rozwój technologii NPU (Neural Processing Unit) w tych procesorach, które teraz spełniają wymagania Microsoftu dotyczące wydajności na poziomie co najmniej 40 TOPS (trilionów operacji na sekundę). ​

    Wprowadzenie funkcji Copilot+ na szerszą gamę urządzeń może znacząco wpłynąć na rynek PC. Użytkownicy zyskują dostęp do zaawansowanych narzędzi AI, niezależnie od wyboru platformy sprzętowej, co zwiększa konkurencyjność i innowacyjność w sektorze. Dla producentów oznacza to konieczność dostosowania się do nowych standardów i potencjalne inwestycje w rozwój układów NPU.​

    Należy jednak zauważyć, że choć Microsoft otworzył dostęp do funkcji Copilot+ dla procesorów Intel i AMD, niektóre funkcje, takie jak Voice Access, nadal będą najpierw wdrażane na urządzeniach z układami Qualcomm, co może sugerować kontynuację pewnych preferencji w zakresie wdrażania nowych technologii. ​


    Decyzja Microsoftu o rozszerzeniu dostępności funkcji Copilot+ jest krokiem w kierunku bardziej otwartego i zróżnicowanego ekosystemu PC, co może przynieść korzyści zarówno użytkownikom, jak i producentom sprzętu.​

  • Amazon rusza z Nova. Nowa platforma AI tylko dla USA

    Amazon rusza z Nova. Nowa platforma AI tylko dla USA

    ​Amazon wprowadził platformę nova.amazon.com, umożliwiającą programistom eksplorację i testowanie modeli sztucznej inteligencji z rodziny Amazon Nova. W skład tej rodziny wchodzą modele tekstowe: Nova Micro, Lite i Pro, a także modele do generowania obrazów i wideo: Nova Canvas i Reel. Dodatkowo, Amazon udostępnił wczesną wersję SDK Nova Act, pozwalającą na tworzenie agentów AI zdolnych do wykonywania zadań w przeglądarce internetowej. ​

    Nova Act to nowy model z serii Nova, specjalnie wyszkolony do realizacji działań w środowisku przeglądarki. SDK umożliwia programistom automatyzację przepływów pracy poprzez proste polecenia, takie jak „szukaj”, „zapłać” czy „odpowiedz na pytanie na ekranie”. Obsługuje również bardziej złożone zadania, np. pomijanie niektórych ofert czy wywoływanie interfejsów API. ​

    Warto zauważyć, że dostęp do platformy jest obecnie ograniczony do użytkowników w Stanach Zjednoczonych.Europejscy programiści oraz inni międzynarodowi użytkownicy nie mają jeszcze możliwości korzystania z Nova za pośrednictwem nowej strony internetowej. ​

    Amazon Nova została po raz pierwszy zaprezentowana pod koniec 2024 roku podczas konferencji AWS re:Invent.Modele te zostały również zintegrowane z Amazon Bedrock, platformą oferującą wiele modeli AI. Poprzez nova.amazon.com, Amazon chce umożliwić programistom i entuzjastom technologii eksplorację możliwości Nova na małą skalę przed integracją modeli w środowiskach produkcyjnych za pośrednictwem Bedrock. ​

    Wprowadzenie Nova Act przez Amazon AGI Lab w San Francisco stanowi istotny krok w kierunku rozwoju zaawansowanych agentów AI zdolnych do samodzielnego wykonywania zadań w przeglądarce internetowej. Model ten przewyższa konkurencyjne rozwiązania, takie jak Operator od OpenAI czy Claude 3.7 Sonnet od Anthropic, w testach mierzących inteligencję i zdolności agentów AI. ​

    Należy jednak zwrócić uwagę, że Amazon wciąż nadrabia zaległości w wyścigu o dominację w dziedzinie zaawansowanej sztucznej inteligencji, gdzie konkurenci, tacy jak OpenAI czy Anthropic, już wcześniej zaprezentowali swoje rozwiązania. Mimo to, integracja Nova Act z ulepszoną wersją asystenta głosowego Alexa+ oraz możliwość automatyzacji zadań w e-commerce wskazują na ambitne plany Amazona w zakresie AI.

    Ograniczenie dostępu do nova.amazon.com wyłącznie do użytkowników z USA może budzić pewne kontrowersje, zwłaszcza w kontekście globalnego charakteru społeczności deweloperskiej. Brak informacji na temat planowanego rozszerzenia dostępności platformy na inne regiony pozostawia międzynarodowych programistów w niepewności co do możliwości korzystania z tych narzędzi w najbliższej przyszłości.​

    Wprowadzenie przez Amazon platformy nova.amazon.com oraz modelu Nova Act stanowi znaczący krok w kierunku udostępnienia zaawansowanych narzędzi AI dla programistów. Jednak ograniczona dostępność oraz konieczność konkurowania z już ugruntowanymi graczami na rynku AI stawiają przed Amazonem wyzwania, które będą wymagały dalszych działań i inwestycji w celu osiągnięcia sukcesu na tym dynamicznie rozwijającym się rynku.​

     

     

  • Koniec ikony Windows? BSOD w Windows 11 zmienia kolor

    Koniec ikony Windows? BSOD w Windows 11 zmienia kolor

    Microsoft ogłosił plany przeprojektowania znanego „Blue Screen of Death” (BSOD) w systemie Windows 11, rozważając zmianę jego koloru z tradycyjnego niebieskiego na czarny. Nowy design ma na celu uproszczenie interfejsu i lepsze dopasowanie do zasad projektowania Windows 11. Zmiany obejmują usunięcie smutnej buźki oraz kodu QR, zachowując jednocześnie informacje techniczne na ekranie. ​

    W testowych wersjach systemu dla uczestników programu Windows Insider, ekran BSOD będzie tymczasowo wyświetlany na zielono. Finalna decyzja dotycząca koloru nie została jeszcze oficjalnie potwierdzona przez Microsoft. ​

    Historia BSOD sięga Windows 3.0, gdzie pełnił funkcję diagnostyczną dla profesjonalistów IT. Przez lata przeszedł kilka zmian, w tym dodanie smutnej buźki w Windows 8 oraz kodu QR w Windows 10. W 2021 roku Microsoft eksperymentował z czarnym tłem BSOD w testowych wersjach Windows 11, jednak finalnie powrócono do niebieskiego koloru. ​

    Zmiana koloru BSOD może budzić mieszane uczucia wśród użytkowników i specjalistów IT, dla których niebieski ekran stał się rozpoznawalnym symbolem krytycznych błędów systemu. Z jednej strony, nowy design może lepiej komponować się z estetyką Windows 11 i sygnalizować odświeżenie podejścia do komunikacji błędów. Z drugiej strony, istnieje ryzyko, że użytkownicy przyzwyczajeni do tradycyjnego niebieskiego ekranu mogą początkowo odczuwać dezorientację.​

    W kontekście strategii Microsoftu, taka zmiana może sygnalizować dążenie do modernizacji i unifikacji interfejsu użytkownika. Jednak kluczowe będzie zapewnienie, że nowy design BSOD nie wpłynie negatywnie na zdolność użytkowników i administratorów IT do szybkiego diagnozowania i rozwiązywania problemów systemowych.​

    Warto również zauważyć, że zmiany w tak ikonicznych elementach systemu operacyjnego mogą być odbierane jako sygnał większych przemian w filozofii projektowania Microsoftu, co może mieć dalsze implikacje dla przyszłych wersji Windows i innych produktów firmy.​

     

     

  • FBI bada wyciek danych Oracle

    FBI bada wyciek danych Oracle

    Federalne Biuro Śledcze (FBI) prowadzi dochodzenie w sprawie poważnego incydentu, jakim jest wyciek danych Oracle, ujawniający wrażliwe informacje pacjentów. Atak, powiązany z systemami przejętej firmy Cerner, rzuca cień na strategię Oracle w sektorze opieki zdrowotnej.

    Według źródeł zaznajomionych ze sprawą, Oracle poinformował na początku tego miesiąca wybrane placówki medyczne, że nieautoryzowany dostęp do systemów korporacyjnych miał miejsce 22 stycznia. Hakerzy mieli skopiować dane pacjentów na zewnętrzne serwery, a następnie podjąć próby szantażu wobec niektórych dostawców usług zdrowotnych w USA.

    Zarówno Oracle, jak i FBI odmówiły komentarza w sprawie incydentu. Szczegóły dotyczące zakresu naruszenia, w tym liczba dotkniętych pacjentów i konkretne placówki medyczne, pozostają niejasne. Warto podkreślić, że ten incydent wydaje się być odrębny od innych niedawnych doniesień o włamaniach do systemów Oracle.

    Wyciek danych Oracle – przejęcie Cerner w centrum zainteresowania

    Źródła branżowe wskazują, że atak może być bezpośrednio związany z przejęciem przez Oracle firmy Cerner, specjalizującej się w technologiach informatycznych dla służby zdrowia, za 28 miliardów dolarów w 2022 roku. Ta akwizycja stanowiła kluczowy element strategii Oracle mającej na celu umocnienie pozycji w obszarze elektronicznej dokumentacji medycznej (EHR).

    Stare systemy podatne na ataki

    Oracle przyznał, że hakerzy uzyskali dostęp do starszych serwerów Cerner, które przechowywały dane jeszcze nie migrowane do chmury Oracle. W komunikacie skierowanym do dotkniętych klientów firma stwierdziła: „Dostępne dowody wskazują, że atakujący uzyskali nielegalny dostęp do środowiska przy użyciu skradzionych danych dostępowych klientów.”

    Firma poinformowała, że incydent został wykryty 20 lutego. Jednak szczegółowe informacje dotyczące rodzaju naruszonych danych i potencjalnych środków zaradczych dla poszkodowanych pacjentów pozostają nieujawnione.

    Wyciek danych Oracle rodzi poważne pytania dotyczące bezpieczeństwa danych w sektorze opieki zdrowotnej, szczególnie w kontekście migracji do chmury i integracji systemów po przejęciach. Dla klientów Oracle i Cerner, incydent ten stanowi przypomnienie o krytycznym znaczeniu solidnych praktyk bezpieczeństwa cybernetycznego i ciągłego monitorowania potencjalnych zagrożeń.

    Z pewnością branża IT będzie uważnie śledzić dalszy rozwój sytuacji, oczekując na więcej informacji od Oracle i organów ścigania. Transparentność w zakresie zakresu naruszenia, przyczyn i podjętych działań naprawczych będzie kluczowa dla odbudowy zaufania i zapewnienia bezpieczeństwa danych pacjentów w przyszłości.

  • Po fiasku z Crowdstrike, Microsoft testuje narzędzie do automatyzacji naprawy systemu Windows

    Po fiasku z Crowdstrike, Microsoft testuje narzędzie do automatyzacji naprawy systemu Windows

    Microsoft pilotuje nową funkcję, „Szybkie Odzyskiwanie Maszyny” (QRM), mającą na celu automatyzację odzyskiwania systemów Windows, które nie mogą się uruchomić. Ta inicjatywa, będąca częścią szerszego programu „Windows Resilience”, ma na celu złagodzenie skutków powszechnych awarii rozruchu, problemu, który uwypuklił znaczący incydent w zeszłym roku.

    Automatyczne odzyskiwanie w centrum uwagi

    QRM działa poprzez monitorowanie procesu uruchamiania systemu Windows i wykrywanie krytycznych błędów, które uniemożliwiają pomyślny rozruch. Gdy wystąpi taki błąd, system automatycznie uruchamia się ponownie w środowisku odzyskiwania systemu Windows. Tradycyjnie to środowisko często wymaga ręcznej interwencji, co jest uciążliwym procesem, szczególnie w przypadku awarii na dużą skalę.

    Innowacja Microsoftu polega na automatyzacji procesu odzyskiwania w tym środowisku. Dotknięte systemy będą teraz próbowały nawiązać połączenie z serwerami Microsoftu za pośrednictwem Wi-Fi lub Ethernet. To połączenie umożliwia Microsoftowi analizę danych o awariach i identyfikację powtarzających się wzorców. Jeśli zostanie wykryta wspólna przyczyna, Microsoft może opracować i wdrożyć pakiet odzyskiwania. Dotknięte systemy mogą następnie pobrać ten pakiet bezpośrednio ze środowiska odzyskiwania i spróbować samodzielnie się naprawić.

    Reakcja na incydent z Crowdstrike

    Wydaje się, że rozwój QRM jest bezpośrednią odpowiedzią na wyzwania, jakie stwarzają incydenty, takie jak ten, który miał miejsce 19 lipca ubiegłego roku. Wówczas wadliwa aktualizacja oprogramowania z Sensor Tower firmy Crowdstrike uniemożliwiła rozruch około 8,5 milionom komputerów z systemem Windows. Brak zautomatyzowanego mechanizmu odzyskiwania wymusił ręczną interwencję w celu przywrócenia dotkniętych systemów.

    Dzięki QRM Microsoft przewiduje bardziej usprawnioną reakcję na podobne zdarzenia. W scenariuszu z Crowdstrike, dotknięte maszyny automatycznie skontaktowałyby się z Microsoftem, umożliwiając firmie szybkie opracowanie i wdrożenie pakietu odzyskiwania, który wycofałby problematyczną aktualizację. To znacznie skróciłoby czas przestoju i obciążenie administratorów IT.

    Fazowe wdrażanie i kontrola

    Microsoft obecnie testuje QRM z Windows Insiders w kanale Beta Windows 11 24H2. Firma planuje ostatecznie domyślnie włączyć tę funkcję dla użytkowników Windows 11 Home. Co ważne, Microsoft zdaje sobie sprawę z potrzeby kontroli w środowiskach korporacyjnych. Klienci Windows 11 Pro i Enterprise zachowają możliwość włączenia lub wyłączenia QRM, zarówno na poziomie lokalnego administratora, jak i na poziomie organizacji. Ta elastyczność rozwiązuje obawy dotyczące prywatności danych i potrzeby, aby działy IT utrzymywały kontrolę nad procesami odzyskiwania systemu.

    Implikacje i rozważania

    QRM stanowi znaczący krok w kierunku poprawy odporności ekosystemu Windows. Automatyzując proces odzyskiwania, Microsoft ma na celu skrócenie czasu przestoju i zminimalizowanie skutków powszechnych awarii rozruchu.

  • Cyfrowa Polska partnerem projektu Ministerstwa Cyfryzacji – PW eSkills

    Cyfrowa Polska partnerem projektu Ministerstwa Cyfryzacji – PW eSkills

    Związek Cyfrowa Polska zacieśnia współpracę z rządem w kluczowym obszarze rozwoju kompetencji cyfrowych. Podpisane porozumienie z Ministerstwem Cyfryzacji (MC) sygnalizuje wzmocnienie inicjatywy rządowej PW eSkills, platformy mającej na celu koordynację działań różnych interesariuszy w tej dziedzinie.

    Współpraca na wielu frontach

    Umowa formalizuje zaangażowanie Cyfrowej Polski we wsparcie edukacji cyfrowej na poziomie krajowym. PW eSkills, projekt MC, ma ambicję stać się centralnym punktem dla współpracy między sektorem publicznym, organizacjami pozarządowymi, biznesem i środowiskiem akademickim. Partnerstwo z Związkiem, organizacją z silnymi powiązaniami z branżą technologiczną, ma na celu wniesienie dodatkowej dynamiki i zasobów do tej inicjatywy.

    – Rozwój kompetencji cyfrowych to ogromna szansa dla Polski – dla naszej gospodarki, rynku pracy, edukacji i społeczeństwa obywatelskiego. Bez ich podniesienia trudno będzie nam w przyszłości skutecznie rozwijać polską gospodarkę i konkurować na globalnym rynku. Podpisane porozumienie to nie tylko ważny krok, ale również duże zobowiązanie do dalszej pracy na rzecz nowoczesnej, cyfrowej Polski. Jestem przekonany, że w ramach inicjatywy PW eSkills wspólnie zbudujemy silny ekosystem współpracy, który realnie przyczyni się do rozwoju kompetencji cyfrowych w naszym krajumówi Michał Kanownik, prezes Związku Cyfrowa Polska. 

    Rząd dostrzega potrzebę partnerstwa

    Wiceminister cyfryzacji Paweł Olszewski również podkreślił znaczenie współpracy. „Technologie cyfrowe stają się fundamentem naszej codzienności, a Polska musi być gotowa do stawienia czoła wyzwaniom cyfrowej transformacji,” stwierdził. Rządowe uznanie roli partnerów zewnętrznych, takich jak Cyfrowa Polska, wskazuje na pragmatyczne podejście do złożonego problemu luki kompetencji cyfrowych.

    Doświadczenie Cyfrowej Polski

    Cyfrowa Polska nie jest nowicjuszem w dziedzinie edukacji cyfrowej. Organizacja od kilku lat aktywnie angażuje się w projekty mające na celu podnoszenie świadomości i umiejętności cyfrowych. Jednym z kluczowych przedsięwzięć jest IT Fitness Test, sprawdzian umiejętności cyfrowych przeprowadzany w szkołach. Test ten dostarcza cennych danych na temat poziomu kompetencji cyfrowych wśród młodzieży, pomagając w identyfikacji obszarów wymagających interwencji. Co istotne, ten projekt również odbywa się pod patronatem Ministerstwa Cyfryzacji, co pokazuje długotrwałą współpracę między obiema stronami.

  • Red Hat rozbudowuje AI dla chmury hybrydowej. Nowe wersje OpenShift i RHEL

    Red Hat rozbudowuje AI dla chmury hybrydowej. Nowe wersje OpenShift i RHEL

    Red Hat kontynuuje rozbudowę swojego portfolio narzędzi do zarządzania sztuczną inteligencją, koncentrując się na integracji z infrastrukturą chmury hybrydowej i zwiększaniu kontroli nad rozwojem modeli AI. Firma udostępniła właśnie nowe wersje Red Hat OpenShift AI (2.18) oraz Red Hat Enterprise Linux AI (1.4), adresując rosnące zapotrzebowanie na skalowalne, bezpieczne środowiska do pracy z modelami językowymi i uczeniem maszynowym.

    Red Hat wyraźnie stawia na budowanie otwartego, kontrolowanego i zgodnego z regulacjami podejścia do sztucznej inteligencji – zarówno na poziomie technologii, jak i kompetencji użytkowników. W przeciwieństwie do czysto chmurowych platform AI, jego propozycja wyróżnia się elastycznością i naciskiem na adaptację modeli do lokalnych danych i warunków. Dla partnerów kanałowych oznacza to szansę na nowe projekty wdrożeniowe – zwłaszcza w sektorach, które cenią sobie przewidywalność, bezpieczeństwo i pełną kontrolę nad infrastrukturą AI.

    Szybsze, bardziej elastyczne OpenShift AI

    Wersja 2.18 OpenShift AI przynosi kilka usprawnień, które mają uprościć pracę zespołów zajmujących się MLOps i LLMOps. Jedną z ważniejszych nowości jest integracja z serwerem wnioskowania vLLM, co umożliwia rozproszoną obsługę dużych modeli AI. Dzięki wykorzystaniu wielu GPU, przetwarzanie danych i generowanie wyników staje się szybsze i bardziej wydajne – co może mieć znaczenie dla firm planujących wdrożenia generatywnej AI na większą skalę.

    Platforma zyskuje też nowe narzędzia do personalizacji modeli. Moduł InstructLab, zintegrowany z pipeline’ami OpenShift AI, upraszcza proces dostosowywania modeli do specyfiki danych firmowych, bez konieczności budowania wszystkiego od podstaw. Dodatkowo pojawiają się tzw. poręcze AI – mechanizmy ograniczające ryzyko generowania niepożądanych treści lub ujawniania poufnych informacji.

    Organizacje zainteresowane oceną jakości modeli mogą teraz skorzystać z narzędzia lm-eval, które pozwala na ich testowanie pod kątem rozumienia tekstu czy zdolności logicznego wnioskowania.

    RHEL AI z mocniejszym modelem i nowym interfejsem

    Równolegle Red Hat udostępnia aktualizację RHEL AI – lekkiego środowiska AI opartego na CentOS Stream i zoptymalizowanego pod kątem edge computingu oraz lokalnych wdrożeń. Wersja 1.4 wprowadza obsługę nowego modelu Granite 3.1 8B, który oferuje zwiększone okno kontekstowe i obsługę wielu języków. To kolejny krok w stronę bardziej uniwersalnych modeli, lepiej dopasowanych do zróżnicowanych przypadków użycia.

    Nowością jest również graficzny interfejs do eksploracji danych oraz narzędzie DK-bench, służące do porównywania modeli pod kątem wydajności i jakości wyników.

    InstructLab w IBM Cloud i nowa oferta szkoleń

    Wiosną Red Hat udostępni InstructLab także w IBM Cloud, oferując klientom dodatkową przestrzeń do bezpiecznego trenowania i wdrażania modeli. Rozwiązanie ma zapewniać pełną kontrolę nad danymi i być alternatywą dla organizacji, które z różnych względów unikają publicznych środowisk AI-as-a-Service.

    Dla klientów zainteresowanych rozwinięciem kompetencji AI, Red Hat przygotował bezpłatne szkolenie AI Foundations – skierowane zarówno do osób zaczynających pracę z AI, jak i tych, którzy chcą pogłębić wiedzę i poznać najlepsze praktyki wdrożeniowe.

  • Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Nie tylko SSD. Jak Google wyciska z HDD ile się da

    Choć świat chmur publicznych coraz mocniej stawia na nośniki flash, Google nie rezygnuje z dysków twardych. Wręcz przeciwnie – w sercu jego infrastruktury wciąż biją talerzowe napędy, tyle że pod kontrolą wysoce zaawansowanego systemu, który pozwala im działać w tempie zbliżonym do SSD.

    Podstawą niemal wszystkich usług Google – od YouTube’a po Gmaile i Cloud Storage – jest Colossus: zaprojektowany wewnętrznie system zarządzania danymi, który integruje i automatyzuje zarządzanie pamięcią masową w skali eksabajtów – wskazuje Google w poście na swoim blogu. Każde centrum danych Google działa na jednym klastrze Colossusa, który może osiągać prędkości do 50 TB/s przy odczycie i 25 TB/s przy zapisie. Dla porównania – to jak przepuszczenie całej zawartości dysku SSD klasy konsumenckiej w ułamku sekundy.

    Klucz do sukcesu? Połączenie taniej pojemności dysków twardych z inteligencją automatyzacji i precyzją uczenia maszynowego. Choć Google posiada również infrastrukturę opartą o SSD, pełne przejście na nośniki półprzewodnikowe byłoby kosztowne na masową skalę. Stąd hybrydowe podejście – z wyraźnym rozdzieleniem danych „szybkich” od „wolnych”.

    Rolę kuratora pełni tutaj system L4 – zaawansowany mechanizm cache’owania, który w czasie rzeczywistym analizuje wzorce dostępu do danych i decyduje, które z nich powinny trafić na SSD, a które mogą bezpiecznie pozostać na talerzach HDD. Dzięki temu popularne, często odczytywane dane są dostępne błyskawicznie, a mniej aktywne zasoby nie obciążają droższej przestrzeni.

    To podejście nie jest jednak pozbawione ograniczeń. HDD sprawdzają się świetnie przy danych często aktualizowanych, ale tracą przewagę przy plikach, które rosną poprzez liczne, drobne dopiski – np. logi czy dane telemetryczne. W takich przypadkach Google świadomie omija dyski twarde, kierując dane bezpośrednio na SSD.

    Dla reszty rynku IT to cenne case study. Choć producenci infrastruktury kuszą coraz szybszymi macierzami all-flash, przykład Google pokazuje, że inwestycja w inteligentne warstwy oprogramowania potrafi wycisnąć maksimum z konwencjonalnego sprzętu. W dobie optymalizacji kosztów i eksplozji danych, taka strategia może być bardziej atrakcyjna niż pełna migracja do flasha – zwłaszcza w środowiskach hyperscale.

  • Zmiana w rozwoju Androida: Google zamyka drzwi, przyszłość open source pod znakiem zapytania

    Zmiana w rozwoju Androida: Google zamyka drzwi, przyszłość open source pod znakiem zapytania

    Google przenosi znaczną część rozwoju systemu operacyjnego Android za zamknięte drzwi, co rodzi pytania o transparentność i jego długoletnie zaangażowanie w ideę otwartego oprogramowania – potwierdziły źródła serwisu Android Authority. Ta zmiana, choć nie powinna mieć natychmiastowego wpływu na użytkowników czy deweloperów aplikacji, stanowi znaczące odejście od otwartego modelu rozwoju, który charakteryzował Androida od samego początku.

    Przez lata projekt Android Open Source Project (AOSP) pełnił rolę publicznej twarzy rozwoju Androida, umożliwiając deweloperom i entuzjastom śledzenie postępów i wnoszenie wkładu w platformę. Jednak Google stopniowo konsoliduje rozwój wewnętrznie, a kluczowe komponenty Androida są obecnie budowane w ramach prywatnych „wewnętrznych gałęzi”. Jak wskazują źródła, „gałąź AOSP” nie odzwierciedla już pełnego zakresu prac Google nad systemem operacyjnym.

    Ta zmiana oznacza, że zewnętrzni deweloperzy będą musieli czekać na oficjalne wydania, aby zobaczyć najnowsze zmiany, co potencjalnie spowolni tempo wkładu społeczności i niezależnych innowacji. Choć Google zapewnia, że częstotliwość publicznych wydań pozostanie niezmieniona, a Android pozostanie „otwarty”, praktyczne implikacje tej zmiany są znaczące.

    Transparentność pod lupą

    Decyzja o scentralizowaniu rozwoju wewnętrznie rodzi obawy o transparentność i kontrolę. Krytycy mogą argumentować, że daje to Google większą kontrolę nad kierunkiem rozwoju Androida, potencjalnie kosztem wkładu społeczności i niezależnego rozwoju. Może to również prowadzić do bardziej rozdrobnionego ekosystemu, ponieważ deweloperzy spoza Google będą mieli mniejszy wgląd w nadchodzące funkcje i zmiany.

    Chociaż Google nie skomentował oficjalnie przyczyn tej decyzji, spekuluje się, że chodzi o większą kontrolę nad ewolucją platformy, szczególnie w strategicznych obszarach, takich jak bezpieczeństwo, optymalizacja wydajności i integracja nowych funkcji.

    Ograniczony natychmiastowy wpływ, długoterminowe pytania

    W krótkim okresie wpływ na użytkowników końcowych i deweloperów aplikacji będzie prawdopodobnie minimalny. Aktualizacje Androida będą nadal wdrażane, a deweloperzy nadal będą mieli dostęp do niezbędnych narzędzi i interfejsów API. Jednak długoterminowe konsekwencje tej zmiany pozostają niejasne.

    Kanał IT, który od dawna czerpie korzyści z otwartości Androida, będzie musiał uważnie monitorować, jak ta zmiana wpływa na cykle rozwoju, dostęp do informacji i ogólny stan ekosystemu Androida. Pozostają pytania o przyszłość AOSP i zakres, w jakim zewnętrzny wkład będzie ceniony i integrowany.

  • Boeing Starliner – długa droga do certyfikacji po awarii

    Boeing Starliner – długa droga do certyfikacji po awarii

    NASA celuje w certyfikację kapsuły CST-100 Starliner firmy Boeing dla lotów załogowych pod koniec 2025 roku lub na początku 2026 roku, pomimo problematycznego debiutu, który rzucił cień na program. Agencja kosmiczna i Boeing intensyfikują współpracę, aby rozwiązać uporczywe problemy z systemem napędowym statku kosmicznego, które doprowadziły do dramatycznego wydłużenia pierwszej załogowej misji.

    Przypomnijmy, że inauguracyjna misja Starlinera z astronautami NASA, Butchem Wilmore’em i Suni Williams, miała trwać osiem dni. Jednak awaria systemu napędowego spowodowała, że pobyt załogi na Międzynarodowej Stacji Kosmicznej (ISS) przeciągnął się do dziewięciu miesięcy. Ostatecznie, Williams i Wilmore powrócili na Ziemię w kapsule Dragon firmy SpaceX, co stanowiło wyraźny kontrast dla opóźnień i problemów Starlinera

    Obecnie, wspólne zespoły NASA i Boeinga skupiają się na finalizacji zakresu i harmonogramu intensywnych kampanii testowych i analiz systemu napędowego. Według Steve’a Sticha, kierownika programu komercyjnych załóg NASA, te działania mają być realizowane wiosną i latem, przygotowując grunt pod potencjalny lot certyfikacyjny Starlinera.

    Problemy z systemem napędowym Starlinera stanowią poważne wyzwanie dla Boeinga, który zainwestował w rozwój statku kosmicznego ponad 2 miliardy dolarów. Opóźnienia i awarie nie tylko nadszarpnęły reputację firmy, ale również podważyły jej pozycję w wyścigu komercyjnych lotów kosmicznych, w którym SpaceX zyskał znaczącą przewagę.

  • 1,3 mld euro na AI i cyberbezpieczeństwo: Unia walczy o technologiczną przewagę

    1,3 mld euro na AI i cyberbezpieczeństwo: Unia walczy o technologiczną przewagę

    Komisja Europejska ogłosiła w piątkowym oświadczeniu, że przeznaczy 1,3 miliarda euro (1,4 miliarda dolarów) z Programu Cyfrowa Europa na lata 2025–2027 na strategiczne inwestycje w sztuczną inteligencję, cyberbezpieczeństwo i kompetencje cyfrowe. Ta znacząca suma ma na celu wzmocnienie pozycji Unii Europejskiej jako kluczowego gracza na globalnym rynku technologicznym, co jest coraz częściej określane mianem „europejskiej suwerenności technologicznej”.

    Henna Virkkunen, komisarz ds. technologii, podkreśliła strategiczne uzasadnienie tej alokacji środków: „Rozwijanie europejskiej suwerenności technologicznej zaczyna się od inwestowania w najnowocześniejsze technologie i umożliwienia ludziom podnoszenia ich kompetencji cyfrowych”. To oświadczenie wskazuje na podwójne podejście, łączące rozwój technologiczny z inwestycjami w kapitał ludzki.

    Strategiczne priorytety i alokacja środków

    Choć komunikat Komisji Europejskiej podaje główną kwotę, analiza sugeruje, jak fundusze mogą być rozdzielone między te trzy kluczowe obszary:

    1. Sztuczna inteligencja (AI): Inwestycje w AI prawdopodobnie skupią się na rozwoju i wdrażaniu rozwiązań AI w strategicznych sektorach, takich jak opieka zdrowotna, produkcja i usługi publiczne. UE kładzie duży nacisk na „godną zaufania AI”, stawiając na etyczne aspekty i ramy regulacyjne, równolegle z postępem technologicznym. Finansowanie może wspierać badania, projekty pilotażowe oraz tworzenie ośrodków testowania i eksperymentowania z AI.
    2. Cyberbezpieczeństwo: W obliczu rosnącego zagrożenia cybernetycznego znaczna część funduszy zostanie przeznaczona na wzmocnienie zdolności w zakresie cyberbezpieczeństwa. Może to obejmować inwestycje w infrastrukturę cyberbezpieczeństwa, badania i rozwój nowych technologii bezpieczeństwa oraz inicjatywy na rzecz zacieśnienia współpracy w zakresie cyberbezpieczeństwa między państwami członkowskimi. Strategia cyberbezpieczeństwa UE ma na celu zwiększenie odporności na cyberataki i ochronę infrastruktury krytycznej.
    3. Kompetencje cyfrowe: Rozpoznając lukę kompetencyjną jako poważną przeszkodę w transformacji cyfrowej, Komisja priorytetowo traktuje inicjatywy mające na celu podniesienie poziomu umiejętności cyfrowych i specjalistycznych kompetencji cyfrowych. Może to obejmować finansowanie programów szkoleniowych, zasobów edukacyjnych oraz inicjatyw promujących włączenie cyfrowe w różnych grupach społecznych.

    Imperatyw „suwerenności technologicznej”

    Nacisk Komisji na „europejską suwerenność technologiczną” jest powracającym motywem w jej polityce cyfrowej. Koncepcja ta odzwierciedla dążenie do zmniejszenia zależności Europy od zagranicznych dostawców technologii, szczególnie w strategicznych obszarach. Inwestycja 1,3 miliarda euro może być postrzegana jako konkretny krok w kierunku osiągnięcia tego celu poprzez wspieranie rozwoju rodzimych europejskich technologii i wzmacnianie zdolności cyfrowych UE.