Kategoria: Startupy i innowacje

W kategorii Startupy prezentujemy przełomowe pomysły, modele biznesowe, finansowanie, skalowanie oraz współpracę startupów z integratorami, vendorami i korporacjami.

  • Zarządzanie innowacją w cieniu wątpliwości. Sztuka przekuwania chłodnej krytyki w rynkowy sukces

    Zarządzanie innowacją w cieniu wątpliwości. Sztuka przekuwania chłodnej krytyki w rynkowy sukces

    Wystarczy przywołać obraz typowego spotkania zarządu lub sesji pitchingowej przed funduszem inwestycyjnym. Na stole ląduje rewolucyjny pomysł na innowacyjną architekturę systemową lub nowatorski produkt cyfrowy. Po chwili pełnej napięcia ciszy pada kultowe, chłodne stwierdzenie, sugerujące, że projekt jest zbyt ryzykowny, a model biznesowy najzwyczajniej w świecie się nie zeskaluje. W branży technologicznej, która od lat żyje w paradygmacie ciągłej walidacji, metodologii zwinnych i poszukiwania natychmiastowej akceptacji dla każdej iteracji produktu, brak entuzjazmu otoczenia bywa odczytywany jako ostateczna porażka. Tymczasem zderzenie ze ścianą sceptycyzmu może okazać się najbardziej życiodajnym momentem w cyklu życia innowacji. Zjawisko to, choć intuicyjnie znane wielu pionierom biznesu, znalazło właśnie bezsprzeczne potwierdzenie w rygorystycznych badaniach naukowych.

    Współczesne ekosystemy technologiczne i środowiska startupowe nierzadko wpadają w pułapkę tak zwanych komór echa. Przebywanie w otoczeniu, które bezkrytycznie przyklaskuje nowym inicjatywom, buduje fałszywe poczucie rynkowego bezpieczeństwa. Taka dynamika potrafi usypiać czujność i rozleniwiać całe działy badawczo-rozwojowe. Psychologia biznesu wskazuje jednak na zupełnie inny, znacznie potężniejszy mechanizm napędowy. Odrzucenie innowacyjnej koncepcji, w którą twórcy zainwestowali czas oraz intelekt, bywa odbierane na głębokim poziomie niemal jako atak personalny. Wbrew pozorom, konfrontacja tego rodzaju rzadko prowadzi do ostatecznej kapitulacji. Znacznie częściej staje się iskrą zapalną, budzącą przekorną potrzebę udowodnienia światu jego pomyłki.

    „Przebywanie w otoczeniu, które bezkrytycznie przyklaskuje nowym inicjatywom, buduje fałszywe poczucie rynkowego bezpieczeństwa.”

    Intuicyjne przekonanie o sile płynącej z bycia niedocenianym zyskało solidne podstawy dzięki pracom zespołu z North Carolina State University. Badacz Tim Michaelis wraz ze współpracownikami postanowił wziąć pod lupę mechanizm, który trafnie ochrzczono mianem „efektu underdoga”, czyli syndromu słabszego gracza. Analiza tego zjawiska opierała się na trzech niezależnych, uzupełniających się etapach badawczych. W pierwszej fazie naukowcy przeprowadzili pogłębione wywiady z grupą ponad czterystu dwudziestu przedsiębiorców. Blisko trzystu dwudziestu z nich usłyszało na wczesnym etapie swojej działalności jednoznaczną prognozę porażki. Wnioski płynące z tych rozmów okazały się wyjątkowo klarowne, dowodząc, że osoby, którym przepowiadano biznesową klęskę, wykazywały zauważalnie wyższy poziom zaangażowania w realizację swoich wizji. Chłodny sceptycyzm zadziałał na ich determinację niczym defibrylator.

    Drugi etap badań, obejmujący grupę blisko pięciuset osiemdziesięciu uczestników, pozwolił przyjrzeć się samej mechanice motywacji. Eksperyment dowiódł, że już samo przywołanie w pamięci momentu, w którym ktoś wyraził wątpliwość co do powodzenia projektu, prowadziło do natychmiastowego i mierzalnego wzrostu chęci do pracy. Pokazuje to wyraźnie, że pamięć o doznanej krytyce nie jest jedynie przejściowym impulsem, lecz stanowi długoterminowe źródło rynkowej determinacji. Ostatecznego dowodu dostarczyło badanie podłużne, w którym przez trzy miesiące, w regularnych odstępach, monitorowano poczynania ponad czterystu twórców firm. Takie podejście pozwoliło zaobserwować, jak efekt underdoga ewoluuje w czasie. Konkluzja badaczy nie pozostawia złudzeń – ów psychologiczny mechanizm bezpośrednio przekłada się na intensywność pracy, wyjątkowe skupienie na celach operacyjnych i realne, namacalne ugruntowanie firmy na rynku.

    Powyższe odkrycia doskonale rezonują z codziennością branży IT, gdzie nieustannie ścierają się wielkie ambicje oraz bezlitosna weryfikacja technologiczna. Mechanizm chęci udowodnienia racji potrafi skutecznie wyeliminować zjawisko prokrastynacji wśród architektów oprogramowania, inżynierów czy menedżerów produktu. Frustracja wywołana brakiem wiary otoczenia wymusza wejście w stan głębokiej koncentracji na tak zwanym dowożeniu wyników. Zespoły projektowe, które już na samym starcie musiały walczyć o przetrwanie i uzasadniać rację bytu swojej wizji, naturalnie budują odporność. Ta wczesna hartowność staje się nieocenionym kapitałem w późniejszych fazach rozwoju, na przykład podczas rozwiązywania krytycznych incydentów na środowiskach produkcyjnych czy w obliczu nieoczekiwanych zawirowań w branży.

    Należy jednak wyraźnie zaznaczyć, że gloryfikacja syndromu underdoga niesie ze sobą pewne ryzyko analityczne. Istnieje bowiem wyjątkowo cienka granica między odważnym wizjonerstwem a szkodliwą ślepotą na realia makroekonomiczne. Każda organizacja staje przed wyzwaniem uniknięcia pułapki, w której absolutnie każdy głos sprzeciwu zaczyna być traktowany wyłącznie jako bezpodstawny atak, a ignorowanie uwag staje się celem samym w sobie. Umiejętność kalibracji biznesowego kompasu okazuje się w tym kontekście kompetencją absolutnie strategiczną. Z jednej strony warto czerpać siłę z ogólnego powątpiewania, które stanowi niezrównany stymulator do wytężonej pracy. Z drugiej jednak strony pod żadnym pozorem nie wolno zamykać uszu na konstruktywną krytykę dotyczącą błędów w architekturze logiki biznesowej, niedociągnięć w doświadczeniu użytkownika czy luk w prognozach finansowych. Świadome wdrażanie merytorycznych uwag, objawiające się chociażby w postaci zwinnego pivotu, ostatecznie oddziela skutecznych strategów od niepoprawnych fantastów. Zespół profesora Michaelisa zresztą sam wskazuje ten kierunek jako cel przyszłych badań, planując poszukiwania idealnego punktu równowagi między rynkowym wiatrem w żagle a ożywczym oporem materii.

    „Sceptycyzm, odpowiednio wyważony i pozbawiony osobistej zawiści, staje się wysokooktanowym paliwem.”

    Wnioski płynące z przytoczonych analiz rzucają nowe, odświeżające światło na zarządzanie innowacją i budowanie dojrzałych zespołów technologicznych. Z perspektywy nowoczesnych podmiotów gospodarczych warto uświadomić sobie, że całkowity brak sprzeciwu podczas projektowania debiutujących rozwiązań rzadko bywa powodem do optymizmu. W zdrowych strukturach organizacyjnych obecność jednostek pełniących rolę adwokata diabła – kwestionujących status quo i testujących logikę nowych koncepcji – jest zjawiskiem wręcz pożądanym. Sceptycyzm, odpowiednio wyważony i pozbawiony osobistej zawiści, staje się wysokooktanowym paliwem. Brak powszechnego poklasku nie oznacza bowiem sygnału do odwrotu, lecz stanowi darmową dawkę najbardziej skondensowanej energii biznesowej, potrafiącej wyłonić rynkowych liderów nowej generacji.

  • Syzyfowe prace w Dolinie Krzemowej. Fizyka uczy pokory w kwestii AI

    Syzyfowe prace w Dolinie Krzemowej. Fizyka uczy pokory w kwestii AI

    Chmura obliczeniowa przez lata skutecznie ukrywała fizyczny wymiar technologii, tworząc iluzję nieskończonych i bezproblemowo skalowalnych zasobów. Generatywna AI brutalnie zrywa tę kurtynę. Wraz ze wzrostem złożoności modeli i popularnością sztucznej inteligencji, rozwój oprogramowania nieuchronnie zderza się z twardymi prawami fizyki oraz termodynamiki. Dlaczego inżynierowie sprzętu przypominają dziś mitycznego Syzyfa i co nadchodząca wielkimi krokami technologiczna eksplozja tokenów oznacza dla strategii operacyjnych oraz budżetów chmurowych współczesnych przedsiębiorstw?

    Koniec iluzji bezkresnej przestrzeni obliczeniowej

    Wczesna faza popularyzacji generatywnej sztucznej inteligencji ukształtowała w świadomości rynkowej obraz technologii lekkiej, wszechobecnej i niemal darmowej. Konsumenckie chatboty, sprawnie generujące wiersze czy redagujące korespondencję elektroniczną, stanowiły jednak zaledwie efektowne okno wystawowe. Jak wskazują analizy, prawdziwa rewolucja biznesowa, a zarazem jedyna droga do wygenerowania zwrotu z bilionowych inwestycji, leży w zupełnie innym obszarze. Świat technologii nieuchronnie zmierza w kierunku rzeczywistości, w której fundamentem operacyjnym przedsiębiorstw staje się agentyczna sztuczna inteligencja.

    Przejście od prostych asystentów tekstowych do autonomicznych agentów to fundamentalna zmiana paradygmatu. Oznacza ona ewolucję od pojedynczych zapytań użytkownika do ciągłego, wieloetapowego wnioskowania i wykonywania złożonych przepływów pracy w tle. Przedsiębiorstwa wkrótce będą codziennie wykonywać dziesiątki tysięcy wywołań systemowych do dużych modeli językowych. Zjawisko to przestaje być wyłącznie fascynującym eksperymentem naukowym, a staje się procesem o skali i ciężarze typowym dla przemysłu ciężkiego, gdzie optymalizacja procesów gra główną rolę.

    Brutalna matematyka operacji zmiennoprzecinkowych

    Zrozumienie nadchodzących wyzwań wymaga spojrzenia pod maskę potężnych modeli językowych. Każde wygenerowane słowo, a precyzyjniej mówiąc każdy token, niesie za sobą wymierny, fizyczny koszt obliczeniowy. Architektura współczesnych systemów wymaga zazwyczaj wykonania dwóch operacji zmiennoprzecinkowych na sekundę dla każdego parametru modelu w procesie generowania odpowiedzi. Skala tego zjawiska poraża, gdy weźmie się pod uwagę, że najbardziej zaawansowane rynkowe modele operują na jednym do dwóch bilionów parametrów. Oznacza to, że nawet przy zastosowaniu wysoce zaawansowanych technik optymalizacyjnych, wygenerowanie pojedynczego tokena wymusza w czasie rzeczywistym przeliczenie od stu do dwustu miliardów zmiennych.

    Co więcej, branża dynamicznie przesuwa się w stronę modeli opartych na głębokim rozumowaniu, w których okno kontekstowe ulega drastycznemu rozszerzeniu. Agentyczna sztuczna inteligencja analizuje problemy wielowątkowo, poszukując optymalnych ścieżek rozwiązania przed sformułowaniem ostatecznej odpowiedzi i wykonaniem akcji. W rezultacie liczba tokenów przypadających na jedno zapytanie rośnie lawinowo, często dziesięciokrotnie lub więcej. Określenie tego zjawiska mianem eksplozji tokenów nie nosi znamion literackiej przesady, lecz stanowi chłodny opis nadchodzącej, cyfrowej rzeczywistości.

    Zużycie energii jako nowa jednostka rozliczeniowa w biznesie

    Konsekwencją wspomnianego przyrostu danych jest powrót do fundamentów ekonomii, gdzie główną barierą staje się energochłonność. Według analityków rynku, zużycie energii, mierzone w watach na pojedyncze zapytanie, bezpośrednio warunkuje rentowność całego technologicznego sektora. Generatywny model biznesowy sztucznej inteligencji jest pod tym względem wyjątkowy; docelowa marża netto zależy tu w równej mierze od genialnego kodu, co od kosztów chłodzenia serwerowni i stabilnych dostaw prądu.

    Obecnie koszty te są w dużej mierze absorbowane przez twórców modeli, co prowadzi do sytuacji, w której giganci technologiczni nierzadko dotują przetwarzanie zapytań, opierając się na kapitale od inwestorów. Ten model nie ma prawa przetrwać próby czasu na dojrzałym rynku. Prawdziwymi beneficjentami trwającego boomu inwestycyjnego nie są dziś twórcy inteligentnych algorytmów, lecz dostawcy infrastruktury, producenci zaawansowanych układów scalonych i budowniczowie centrów danych. Posiadacze modeli językowych nie dysponują maszyną do generowania zysków, lecz potężnym mechanizmem, w którym kapitał płonie w oczekiwaniu na moment, gdy masowe użycie na poziomie korporacyjnym zrównoważy astronomiczne koszty utrzymania serwerów.

    Mit Syzyfa w nowoczesnej serwerowni

    Sytuacja rynkowa wymusza bezprecedensowy wysiłek po stronie producentów sprzętu. Przemysł półprzewodników działa w stanie ciągłej mobilizacji, dążąc do zwiększenia wydajności kosztowej jednostek przetwarzania grafiki, opracowując pamięci o coraz wyższej przepustowości i optymalizując architekturę sieciową układów klastrowych. Mimo tych kolosalnych wysiłków, inżynierowie pracujący nad rozwojem sprzętu przypominają dziś mitycznego Syzyfa.

    Zjawisko to można przyrównać do swoistego paradoksu Jevonsa przeniesionego do świata cyfrowego. Ilekroć uda się wtoczyć technologiczny głaz na szczyt góry poprzez stworzenie nowej, szybszej i bardziej energooszczędnej generacji procesorów, twórcy oprogramowania natychmiast zwiększają złożoność swoich modeli. Głaz z hukiem spada u podnóża, a praca zaczyna się od nowa. Ponieważ sztuczna inteligencja stale poszerza swoje możliwości analityczne i operacyjne, dążenie do pełnej optymalizacji kosztowej wydaje się horyzontem, który nieustannie się oddala. Wymagania obliczeniowe rosną szybciej niż możliwości ich taniej obsługi, co stanowi bezkompromisowe zderzenie nieograniczonych ambicji z limitami narzucanymi przez fizykę półprzewodników.

    Architektura przetrwania, czyli inżynieria kosztów jako priorytet operacyjny

    Świadomość opisanych uwarunkowań technologicznych i fizycznych ma kluczowe znaczenie dla planowania długoterminowej strategii biznesowej. Koniec ery darmowych eksperymentów oznacza, że docelowe wdrożenia systemów sztucznej inteligencji w środowisku korporacyjnym będą musiały podlegać rygorystycznej ocenie finansowej i architektonicznej. Implementacja agentycznych systemów przyniesie organizacjom skokowy wzrost produktywności poprzez automatyzację skomplikowanych przepływów pracy, jednak korzyści te zostaną zniwelowane w ułamku sekundy, jeśli opłaty za wykorzystanie zasobów obliczeniowych wymkną się spod kontroli.

    Nowoczesne zarządzanie infrastrukturą informatyczną będzie nieodłącznie związane z wdrożeniem zaawansowanej inżynierii kosztów chmurowych. Zamiast kierować każde trywialne zadanie do najbardziej zasobochłonnych modeli o parametrach liczonych w bilionach, organizacje będą zmuszone do projektowania zwinnych architektur hybrydowych. Inteligentne rutowanie procesów polegać będzie na delegowaniu prostych operacji do znacznie mniejszych, wysoce wyspecjalizowanych i energooszczędnych modeli. Kosztowna moc obliczeniowa największych rynkowych systemów będzie z kolei precyzyjnie rezerwowana wyłącznie do zadań wymagających najwyższego poziomu abstrakcyjnego wnioskowania.

    Zrozumienie fizycznych, energetycznych i ekonomicznych granic technologii staje się nowym fundamentem rynkowej przewagi. Sukces w docelowej fazie rozwoju sztucznej inteligencji odniosą wyłącznie te organizacje, które potrafią harmonijnie połączyć śmiałą wizję zaawansowanej automatyzacji z chłodną, rygorystyczną kalkulacją każdego zużytego wata i wygenerowanego w tle tokena.

  • Massmedica kończy prototyp robota. Testy kliniczne już w 2026 roku

    Massmedica kończy prototyp robota. Testy kliniczne już w 2026 roku

    Na nasyconym, ale wciąż dynamicznie rosnącym rynku robotyki medycznej, polska spółka Massmedica wykonała właśnie istotny krok w stronę komercjalizacji własnych rozwiązań. Notowany na NewConnect podmiot ogłosił ukończenie prac nad prototypem URSA Minor. To kluczowy element autorskiego projektu Universal Robotic Surgical Assistant, realizowanego przez spółkę zależną Massmedica Technologie. Informacja ta stanowi sygnał, że polska myśl techniczna aspiruje do odegrania większej roli w sektorze, który do tej pory był zdominowany przez globalnych gigantów.

    Obecna faza projektu skupia się na warstwie software’owej, co w dzisiejszej chirurgii precyzyjnej jest frontem walki o przewagę konkurencyjną. Inżynierowie Massmedica koncentrują się na optymalizacji algorytmów planowania zabiegów oraz zaawansowanej nawigacji zintegrowanej z danymi obrazowymi. Z perspektywy biznesowej, to właśnie jakość interfejsu użytkownika i precyzja przetwarzania danych w czasie rzeczywistym decydują o adopcji technologii przez placówki medyczne. Spółka oczekuje obecnie na dostawę docelowego ramienia robotycznego, które ma zapewnić wyższą precyzję ruchu niż dotychczasowy moduł testowy.

    Harmonogram wdrożenia przewiduje przejście do testów w warunkach zbliżonych do klinicznych już w kwietniu 2026 roku. Badania te, prowadzone w zakładzie anatomii na nieutrwalonych preparatach ludzkich, będą miały kluczowe znaczenie dla weryfikacji ergonomii systemu oraz dokładności działania w sytuacjach operacyjnych. Wyniki tych testów staną się fundamentem procesu certyfikacyjnego, który w branży MedTech pozostaje najbardziej kapitałochłonnym i rygorystycznym etapem wprowadzania produktu na rynek.

    Ukończenie prototypu URSA Minor to dowód na sprawną realizację strategii dywersyfikacji. Firma, znana dotychczas głównie z działalności w obszarach medycyny rekonstrukcyjnej, regeneracyjnej oraz anti-aging, staje przed szansą wejścia do wysokomarżowego segmentu urządzeń medycznych. Sukces projektu URSA zależy teraz od zdolności spółki do sprawnego przejścia przez fazę testów oraz zapewnienia skalowalności produkcji systemu, który ma szansę stać się atrakcyjną alternatywą dla obecnie dostępnych na rynku rozwiązań robotycznych.

  • Genomtec testuje w Azji: Wrocławski deep-tech na ostatniej prostej do fuzji

    Genomtec testuje w Azji: Wrocławski deep-tech na ostatniej prostej do fuzji

    Wrocławski deep-tech, Genomtec, wykonuje właśnie jeden z najbardziej wymagających ruchów w swojej dotychczasowej historii. Spółka specjalizująca się w diagnostyce molekularnej ogłosiła rozpoczęcie przygotowań do testów operacyjnych systemu Genomtec ID na rynkach azjatyckich. Choć komunikat brzmi jak standardowy etap ekspansji, w rzeczywistości stanowi on krytyczny element toczącego się procesu M&A, który może zdefiniować przyszłą wycenę i strukturę własnościową polskiego startupu.

    Azja, będąca obecnie jednym z najbardziej chłonnych rynków dla technologii Point-of-Care (POCT), staje się dla Genomtec poligonem doświadczalnym. Potencjalni partnerzy strategiczni, z którymi spółka prowadzi zaawansowane rozmowy, postawili jasny warunek: technologia SNAAT® musi dowieść swojej skuteczności w lokalnych warunkach. Dla inwestorów to sygnał, że proces sprzedaży spółki lub jej kluczowych aktywów wszedł w fazę „due diligence” produktu, gdzie obietnice o szybkości i mobilności analizatora zostaną skonfrontowane z rzeczywistością operacyjną dalekowschodnich systemów ochrony zdrowia.

    Logistyka tego przedsięwzięcia jest równie skomplikowana, co sama technologia. Zespół Mirona Tokarskiego musi obecnie zarządzać nie tylko produkcją kart reakcyjnych na potrzeby walidacji, ale przede wszystkim gąszczem regulacji dotyczących bezpieczeństwa biologicznego. Każda jurysdykcja w regionie Azji i Pacyfiku posiada specyficzne wymogi, które dla technologii opartej na diagnostyce genetycznej bywają barierą wejścia nie do przebicia dla mniej przygotowanych graczy.

    Sukces tych testów może pozycjonować Genomtec jako łakomy kąsek dla globalnych korporacji medycznych szukających alternatywy dla dominujących, ale często mniej mobilnych systemów PCR. Flagowy produkt z Wrocławia oferuje unikalną kombinację: precyzję badania laboratoryjnego zamkniętą w urządzeniu wielkości biurkowej drukarki, co w gęsto zaludnionych metropoliach Azji jest wartością samą w sobie.

    Dla obserwatorów rynku technologicznego ruch ten jest lekcją z zakresu budowania wartości spółki przed transakcją. Genomtec nie czeka na kupca z gotowym produktem na półce, lecz aktywnie dostosowuje swój proces walidacji do oczekiwań konkretnych partnerów. Jeśli wrocławskie urządzenia przejdą azjatycką próbę ognia, finał procesu M&A może nastąpić szybciej, niż spodziewa się rynek.

  • Creotech i ESA uderzają w zagłuszanie sygnału GNSS nową misją SAFIR-PNT

    Creotech i ESA uderzają w zagłuszanie sygnału GNSS nową misją SAFIR-PNT

    W świecie zdominowanym przez gospodarkę cyfrową, niewidzialna infrastruktura sygnałów satelitarnych stała się kręgosłupem wszystkiego – od logistyki po transakcje finansowe. Jednak ta fundamentowa technologia, znana jako GNSS, jest coraz częściej atakowana. Odpowiedzią na narastający chaos w eterze ma być nowa misja polskiej spółki Creotech Instruments, która we współpracy z Europejską Agencją Kosmiczną (ESA) oraz niemieckim gigantem OHB System AG, rozpoczyna prace nad projektem HyperSat SAFIR-PNT.

    Zjawiska jamminu (zagłuszania) i spoofingu (podszywania się pod sygnał) przestały być domeną teoretycznych rozważań akademickich, a stały się realnym ryzykiem operacyjnym dla sektorów transportu i obronności. Misja SAFIR-PNT ma na celu nie tylko pasywne przyglądanie się tym incydentom, ale przede wszystkim precyzyjną geolokalizację ich źródeł z poziomu orbity. To podejście typu SIGINT (rozpoznanie elektromagnetyczne), które do niedawna było zarezerwowane dla największych mocarstw, teraz schodzi na poziom komercyjnych mikrosatelitów.

    Dla inwestorów i obserwatorów rynku kluczowy jest model „dual-use”. Creotech nie buduje narzędzia wyłącznie dla wojska; buduje system ochrony dla infrastruktury krytycznej, której paraliż może kosztować nowoczesne gospodarki miliardy euro dziennie. Wykorzystanie autorskiej platformy HyperSat jako bazy dla trzech mikrosatelitów demonstracyjnych sugeruje, że spółka celuje w skalowalny produkt, który może stać się standardem w europejskim arsenale bezpieczeństwa technologicznego.

    Strategiczne znaczenie projektu wykracza poza samą technologię. W dobie narastających napięć geopolitycznych, Europa desperacko dąży do autonomii w obszarze PNT (Pozycjonowanie, Nawigacja i Czas). Współpraca Creotech z OHB System przy studium wykonalności faz 0/A to sygnał, że polska myśl technologiczna zostaje włączona w najwęższy krąg europejskiego łańcucha dostaw sektora „Space”.

    Jeśli misja SAFIR-PNT okaże się sukcesem, Creotech może przesunąć się z pozycji dostawcy komponentów do roli architekta systemów bezpieczeństwa orbitalnego. W branży, gdzie zaufanie jest najtwardszą walutą, kontrakt z ESA na wykrywanie zakłóceń to nie tylko zlecenie inżynieryjne, ale przede wszystkim mandat do budowy jednego z najbardziej kluczowych systemów wczesnego ostrzegania dla nowoczesnej gospodarki.

  • 700 mln zł dla technologicznych MŚP. PARP uruchamia nabór w nowej formule FENG

    700 mln zł dla technologicznych MŚP. PARP uruchamia nabór w nowej formule FENG

    Polska Agencja Rozwoju Przedsiębiorczości (PARP) otwiera kolejny rozdział w historii programu Ścieżka SMART, alokując 700 milionów złotych na wsparcie innowacji w sektorze MŚP. Choć kwota robi wrażenie, to nie skala finansowania, lecz fundamentalna zmiana struktury programu przyciąga uwagę analityków rynku. W odpowiedzi na głosy płynące z biznesu, agencja zdecydowała się na odejście od skomplikowanej modułowości na rzecz przejrzystego podziału procesów inwestycyjnych.

    Strategiczna ewolucja zamiast biurokracji

    Dotychczasowa formuła SMART bywała dla przedsiębiorców wyzwaniem logistycznym. Nowa edycja, realizowana w ramach programu FENG 2021–2027, stawia na linearność: obecny nabór koncentruje się wyłącznie na fazie badawczo-rozwojowej (B+R), podczas gdy komercjalizacja wyników zostanie objęta osobnymi konkursami w przyszłości. To strategiczne posunięcie pozwala firmom skupić się na najtrudniejszym etapie – tworzeniu nowej wartości technologicznej – bez konieczności natychmiastowego planowania pełnej linii wdrożeniowej.

    Kluczowym kryterium pozostaje wpisanie się w Krajowe Inteligentne Specjalizacje. PARP szuka projektów, które nie tylko cyfryzują procesy czy automatyzują produkcję, ale wnoszą nową jakość w skali kraju. Finansowanie obejmuje szerokie spektrum kosztów: od wynagrodzeń kadry naukowej, przez amortyzację aparatury, aż po ochronę własności intelektualnej i rozwój kompetencji zespołu.

    Bariera wejścia i premia za ryzyko

    Program jest adresowany do podmiotów o ugruntowanej wizji technologicznej. Minimalny próg wydatków kwalifikowalnych ustalono na poziomie 3 mln zł, co przy górnej granicy 50 mln zł jasno definiuje grupę docelową jako ambitne firmy technologiczne i produkcyjne. Poziom dofinansowania jest elastyczny – bazowe 50% dla badań przemysłowych może wzrosnąć nawet do 80% po spełnieniu określonych warunków, co stanowi istotną osłonę kapitałową dla ryzykownych projektów eksperymentalnych.

    Warto jednak zwrócić uwagę na rygorystyczne definicje prac badawczych. PARP wyraźnie odcina się od finansowania rutynowych prac IT, takich jak tworzenie prostych aplikacji czy debugowanie. Ścieżka SMART w nowym wydaniu to narzędzie dla tych, którzy przesuwają granice technologiczne, a nie powielają sprawdzone schematy.

    Czas na przygotowanie dokumentacji jest krótki. Okno transferowe dla wniosków otwiera się 26 lutego i zamyka już 31 marca 2026 roku.

  • Powstała Rada Przyszłości – w składzie liderzy ElevenLabs, Klarny i ICEYE

    Powstała Rada Przyszłości – w składzie liderzy ElevenLabs, Klarny i ICEYE

    W świecie nowoczesnych technologii, gdzie tempo innowacji często wyprzedza procesy legislacyjne, Polska wykonuje ruch mający na celu zacieśnienie współpracy między rządem a elitą technologiczną. Powołanie Rady Przyszłości, ogłoszone we wtorek w warszawskim biurowcu Skyliner przez premiera Donalda Tuska i ministra finansów Andrzeja Domańskiego, to sygnał, że Warszawa chce przestać być jedynie odbiorcą technologii, a stać się jej aktywnym architektem.

    Inicjatywa ta nie jest jedynie ciałem doradczym o charakterze prestiżowym. Skład osiemnastoosobowego zespołu wskazuje na precyzyjny dobór ekspertów z sektorów, które zdefiniują globalną gospodarkę najbliższej dekady: od sztucznej inteligencji i biotechnologii, po technologie kosmiczne i sektor obronny. Obecność takich postaci jak Mati Staniszewski z ElevenLabs, Rafał Modrzewski z ICEYE czy Sebastian Siemiątkowski z Klarny sugeruje, że rząd szuka bezpośredniego wglądu w mechanizmy skalowania biznesów o globalnym zasięgu.

    Minister Andrzej Domański, który stanie na czele Rady, postawił sprawę jasno: Polska uczestniczy w globalnym wyścigu, w którym głównym aktywem jest kapitał ludzki. Z punktu widzenia biznesu, kluczowym wyzwaniem dla tego organu będzie przełożenie akademickiej wiedzy na realną wartość rynkową. Udział Piotra Sankowskiego z IDEAS NCBR czy prof. Krzysztofa Pyrcia ma zapewnić, że polskie innowacje nie pozostaną zamknięte w laboratoriach, lecz znajdą ujście w komercyjnych wdrożeniach.

    Dla inwestorów i przedsiębiorców powstanie Rady Przyszłości to sygnał stabilizacji priorytetów państwa. Włączenie do rozmów liderów takich jak Piotr Wojciechowski z WB Group czy Jarosław Królewski z Synerise pozwala sądzić, że polityka gospodarcza będzie silniej orientować się na suwerenność technologiczną i wspieranie rodzimych jednorożców.

    Choć szczegółowe kompetencje Rady pozostają jeszcze w fazie doprecyzowania, sam fakt stworzenia tak wysokiej klasy „think-tanku” przy Kancelarii Premiera zmienia narrację o polskim ekosystemie innowacji. Zamiast rozproszonych dotacji, widać próbę stworzenia spójnej strategii, w której państwo pełni rolę partnera dla najszybciej rosnących gałęzi przemysłu. Sukces tej inicjatywy będzie mierzony nie liczbą spotkań, a zdolnością rządu do szybkiego usuwania barier regulacyjnych, które dziś hamują polski sektor DeepTech.

    „Polska jest dziś 20. gospodarką świata – to wielki sukces, ale nie dany raz na zawsze. Dlatego musimy budować nowe przewagi i wygrywać w globalnym wyścigu” – powiedział Minister Andrzej Domański.

    Rada Przyszłość
    źródło: Ministerstwo Finansów

    W skład rady wchodzą:

    • Dominik Batorski, socjolog i ekspert w dziedzinie data science, związany z interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego;
    • Grzegorz Brona, prezes Creotech Instruments;
    • Sebastian Kondracki, Chief Innovation Officer w firmie Devinity, jeden z twórców polskiego modelu AI Bielik;
    • Tomasz Konik, prezes zarządu Deloitte w Europie Centralnej;
    • Jarosław Królewski, prezes zarządu i współzałożyciel Synerise;
    • Rafał Modrzewski, prezes ICEYE;
    • Aleksandra Pędraszewska, przedsiębiorczyni technologiczna;
    • Paweł Przewięźlikowski, prezes zarządu Ryvu Therapeutics;
    • Krzysztof Pyrć, prezes zarządu Fundacji na Rzecz Nauki Polskiej, profesor nauk biologicznych i wirusolog;
    • Mikołaj Raczyński, wiceprezes Polskiego Funduszu Rozwoju ds.Inwestycji;
    • Piotr Sankowski, prezes Instytutu Badawczego IDEAS oraz profesor w Instytucie Informatyki na Uniwersytecie Warszawskim;
    • Mati Staniszewski, prezes ElevenLabs;
    • Sławosz Uznański-Wiśniewski, astronauta Europejskiej Agencji kosmicznej;
    • Marta Winiarska, prezes Zarządu Polskiego Związku Innowacyjnych Firm Biotechnologii Medycznej BioInmed;
    • Piotr Wojciechowski, prezes Zarządu WB Group największej polskiej prywatnej grupy technologiczno-obronnej;
    • Stefan Batory, współzałożyciel Booksy;
    • Aleksandra Przegalińska, rektorka do spraw innowacji w Akademii Leona Koźmińskiego w Warszawskiego;
    • Sebastian Siemiątkowski, współzałożyciel i prezes Klarna Bank.
  • Nie Starlink, a TeraWave. Blue Origin celuje w rządy, nie w konsumentów

    Nie Starlink, a TeraWave. Blue Origin celuje w rządy, nie w konsumentów

    Jeff Bezos nie chce już tylko ścigać się z Elonem Muskiem o indywidualnego klienta; jego ambicje sięgają infrastruktury krytycznej cyfrowej gospodarki. Ogłoszony przez Blue Origin projekt TeraWave to próba przejęcia najbardziej lukratywnego i najtrudniejszego technicznie segmentu rynku kosmicznego: obsługi centrów danych, rządów i wielkoskalowych systemów sztucznej inteligencji. Podczas gdy Starlink zdominował rynek konsumencki, Bezos celuje w „światłowód na orbicie”.

    Nowa konstelacja ma składać się z 5408 satelitów rozmieszczonych na niskiej i średniej orbicie okołoziemskiej. Kluczowym wyróżnikiem nie jest tu jednak skala, lecz wydajność. Dzięki wykorzystaniu komunikacji optycznej (laserowej) między satelitami, sieć ma oferować prędkości transferu do 6 Tbps w dowolnym miejscu na Ziemi. To parametry nieosiągalne dla standardowych usług satelitarnych, dedykowane specyficznej grupie odbiorców. Dave Limp, dyrektor generalny Blue Origin, podkreśla, że TeraWave zaprojektowano od podstaw dla klientów korporacyjnych, a nie dla gospodarstw domowych. Firma szacuje, że sieć obsłuży maksymalnie około 100 000 podmiotów, co stanowi radykalne odejście od modelu Starlinka, walczącego o miliony abonentów.

    Decyzja o budowie TeraWave idealnie wpisuje się w „gorączkę złota” ery AI. Trenowanie i obsługa dużych modeli językowych wymaga ogromnych mocy obliczeniowych i błyskawicznego transferu danych, co na Ziemi wiąże się z gigantycznym zużyciem energii. Przeniesienie części tej infrastruktury w kosmos lub zapewnienie jej ultra-szybkiej łączności orbitalnej to gra, w której Bezos chce rozdać karty. Jest to także strategiczne uzupełnienie dla innej konstelacji powiązanej z miliarderem – sieci Amazon Leo (dawniej Project Kuiper), która wciąż walczy o rynek masowy.

    Realizacja tych ambitnych planów obarczona jest jednak znacznym ryzykiem wykonawczym. Rozpoczęcie rozmieszczania satelitów zaplanowano na ostatni kwartał 2027 roku, co wymaga bezbłędnej pracy rakiety New Glenn. System nośny wielokrotnego użytku Blue Origin musi osiągnąć tempo startów zbliżone do Falcona 9 SpaceX, aby wyniesienie tysięcy jednostek było ekonomicznie uzasadnione. W tle pozostaje również konkurencja geopolityczna – Chiny dynamicznie rozwijają własne rakiety i konstelacje, co sprawia, że walka o dominację na orbicie staje się wyścigiem nie tylko technologicznym, ale i politycznym.

  • Polski deep tech w japońskim łańcuchu dostaw. QNA Technology z szóstym zamówieniem z Japonii

    Polski deep tech w japońskim łańcuchu dostaw. QNA Technology z szóstym zamówieniem z Japonii

    W branży deep tech, a szczególnie w sektorze zaawansowanych materiałów półprzewodnikowych, powtarzalność zamówień jest walutą często cenniejszą niż jednorazowa wartość kontraktu. QNA Technology, wrocławska spółka, która w ubiegłym roku zadebiutowała na głównym parkiecie GPW, właśnie dostarczyła rynkowi dowód na to, że jej technologia niebieskich kropek kwantowych broni się w laboratoriach jednego z najbardziej wymagających rynków świata.

    Spółka poinformowała o realizacji szóstego już zamówienia dla japońskiego koncernu chemicznego, dostarczającego komponenty dla globalnych producentów wyświetlaczy. Choć kwota kontraktu opiewająca na 10 tys. USD netto może wydawać się skromna z perspektywy giełdowej wyceny, w kontekście procesu B+R ma kluczowe znaczenie. Sygnalizuje ona, że polskie PureBlue.dots – kropki kwantowe emitujące niebieskie światło i pozbawione metali ciężkich – pomyślnie przeszły wstępne fazy testów i są wdrażane do coraz bardziej zaawansowanych etapów walidacji u klienta.

    Rynek wyświetlaczy od lat zmaga się z problemem „niebieskiego piksela”. O ile czerwone i zielone kropki kwantowe są już standardem, wydajna i stabilna emisja niebieska bez użycia toksycznego kadmu pozostawała technologicznym świętym graalem. Koncentracja QNA Technology właśnie na tym wycinku spektrum sprawia, że spółka celuje w wąskie gardło całej branży, próbując rozwiązać problem, z którym borykają się najwięksi gracze.

    Regularne powroty japońskiego partnera sugerują, że QNA Technology przesuwa się z fazy eksperymentalnej w stronę realnej alternatywy dla obecnych rozwiązań. Artur Podhorodecki, prezes spółki, podkreśla wprost, że każde kolejne zamówienie od tego samego podmiotu zwiększa prawdopodobieństwo przejścia od sprzedaży pilotażowej do pełnoskalowej komercjalizacji. Dla inwestorów, którzy obserwowali przejście spółki z NewConnect na główny rynek w 2025 roku, jest to sygnał, że technologia ta znajduje zastosowanie w łańcuchu dostaw, który historycznie bywa hermetyczny dla podmiotów spoza Azji.

    Dostawa obejmuje materiał w formie roztworu koloidalnego, co jest standardem w procesach drukowania nowoczesnych matryc. Jeśli japoński partner zdecyduje się na szerszą współpracę, polska spółka może stać się istotnym ogniwem w produkcji wyświetlaczy nowej generacji, walcząc o udziały w rynku zdominowanym dotychczas przez gigantów z Korei i Chin.

  • Inwestycje Insurtech 2025: Polska „powyżej swojej wagi”. Trasti z potężnym zastrzykiem kapitału

    Inwestycje Insurtech 2025: Polska „powyżej swojej wagi”. Trasti z potężnym zastrzykiem kapitału

    Lipcowa runda inwestycyjna polskiego insurtechu Trasti, warta 21 mln euro, uplasowała spółkę w gronie pięciu największych transakcji tego typu w Europie w 2025 roku. Takie wnioski płyną z opublikowanego w połowie stycznia raportu funduszu Astorya.vc. Obecność polskiego podmiotu w tym zestawieniu, obok wsparcia od inwestorów strategicznych takich jak EBOiR czy Grupa Triglav, sygnalizuje fundamentalną zmianę w strategii funduszy venture capital.

    Europejski rynek insurtech przeszedł bolesną, ale konieczną korektę. Po rekordowym 2021 roku, kiedy wartość inwestycji sięgnęła 2,5 mld euro, wolumen kapitału ustabilizował się w latach 2023–2025 na poziomie 600–820 mln euro rocznie. Liczba transakcji nie uległa jednak załamaniu, utrzymując się na poziomie 60–70 rocznie. Oznacza to, że kapitał wciąż jest dostępny, ale trafia do węższego grona podmiotów. Inwestorzy odeszli od finansowania samej wizji szybkiego wzrostu na rzecz modeli charakteryzujących się odpornością operacyjną (resilience) i technologiczną.

    Właśnie w ten nowy paradygmat wpisuje się Trasti, będące jedynym polskim reprezentantem w raporcie. Spółka, której wiodącą linią biznesową są ubezpieczenia komunikacyjne, została doceniona za łączenie technologii z efektywnym underwritingiem i kontrolą ryzyka. Artur Olech, CEO Trasti, podkreśla, że obecna selekcja rynkowa premiuje firmy budujące skalę bez utraty rentowności. To zwrot ku „twardym” wskaźnikom biznesowym, gdzie innowacja musi przekładać się na wynik techniczny ubezpieczyciela.

    Raport Astorya.vc zwraca również uwagę na rosnącą rolę sztucznej inteligencji, która napędzała aż 33 proc. transakcji w sektorze w minionym roku. Co istotne, rozwiązania AI-first koncentrują się obecnie głównie na likwidacji szkód i wsparciu dystrybucji, co bezpośrednio przekłada się na efektywność kosztową. Polska, obok Hiszpanii i Holandii, została w raporcie wskazana jako rynek „grający powyżej swojej kategorii wagowej”. Mimo mniejszego udziału w europejskim PKB, nasz ekosystem insurtechowy wykazuje się dojrzałością, stając się jednym z kluczowych hubów innowacji w regionie CEE i wyprzedzając rynki takie jak Rumunia czy Węgry.

  • Wielka migracja Starlinków. SpaceX obniża orbitę 4400 satelitów

    Wielka migracja Starlinków. SpaceX obniża orbitę 4400 satelitów

    W odpowiedzi na gwałtownie rosnące ryzyko operacyjne na niskiej orbicie okołoziemskiej (LEO), SpaceX podjęło decyzję o znaczącej rekonfiguracji swojej infrastruktury. Firma Elona Muska zapowiedziała masowe przesunięcie części swojej konstelacji na niższy pułap, co ma stanowić odpowiedź na problem kosmicznych śmieci i zagęszczenie ruchu orbitalnego. Operacja zaplanowana na 2026 rok obejmie około 4400 satelitów Starlink.

    Zgodnie z informacjami przekazanymi przez Michaela Nichollsa, dyrektora ds. inżynierii w SpaceX, jednostki krążące obecnie na wysokości 550 kilometrów zostaną sprowadzone na orbitę 480 kilometrów. Choć różnica 70 kilometrów może wydawać się niewielka, w skali mechaniki orbitalnej ma ona kluczowe znaczenie dla bezpieczeństwa. Nicholls argumentuje, że niższa orbita drastycznie, bo aż o ponad 80 procent, skraca czas naturalnej deorbitacji nieaktywnych satelitów. Oznacza to, że w przypadku awarii urządzenia znacznie szybciej spłoną w atmosferze, zwalniając cenną przestrzeń.

    Decyzja ta jest bezpośrednim skutkiem pogarszającej się sytuacji w przestrzeni okołoziemskiej. Europejska Agencja Kosmiczna (ESA) szacuje, że poniżej pułapu 2000 kilometrów krąży obecnie około 40 tysięcy śledzonych obiektów. Zaledwie 11 tysięcy z nich to funkcjonujące satelity, przy czym dominacja SpaceX jest w tym sektorze bezdyskusyjna. Według danych astronoma Jonathana McDowella, do firmy należy ponad 9300 aktywnych urządzeń, co czyni ją największym operatorem na orbicie.

    Przeniesienie satelitów poniżej granicy 500 kilometrów to także taktyczna ucieczka przed kolizjami. Obszar ten jest obecnie mniej zatłoczony, co minimalizuje ryzyko zderzeń z nieskoordynowanymi manewrami innych operatorów oraz drobnymi odłamkami. ESA ostrzega o istnieniu ponad 1,2 miliona obiektów większych niż centymetr, które mogą spowodować katastrofalne uszkodzenia infrastruktury. Ruch SpaceX może zostać odebrany przez rynek nie tylko jako dbałość o własne zasoby, ale także jako próba narzucenia nowych standardów zarządzania ryzykiem w sektorze NewSpace, gdzie „zrównoważony rozwój” zaczyna dotyczyć także przestrzeni pozaziemskiej.

  • Miliardy euro przeciekają przez palce. Europejskie MŚP przesypiają rewolucję energetyczną

    Miliardy euro przeciekają przez palce. Europejskie MŚP przesypiają rewolucję energetyczną

    Choć sektor małych i średnich przedsiębiorstw (MŚP) stanowi fundament europejskiej gospodarki, generując ponad połowę unijnego PKB, jego rola w zielonej rewolucji pozostaje zaskakująco marginalna. Najnowszy raport opublikowany przez Solar Impulse Foundation oraz Schneider Electric, zatytułowany Unlocking SME Competitiveness in Europe, rzuca światło na istotny paradoks. Mimo że firmy te stanowią 99 procent wszystkich podmiotów na rynku, zaledwie 11 procent z nich realizuje znaczące inwestycje w zrównoważony rozwój. Ta opieszałość może kosztować europejską gospodarkę utratę miliardów euro potencjalnej wartości do 2030 roku.

    Autorzy opracowania wskazują, że kluczem do odblokowania tego potencjału jest synergia elektryfikacji i cyfryzacji. Szacunki są obiecujące: wdrożenie odpowiednich technologii pozwoliłoby zmniejszyć zużycie energii w sektorze o 20 do 30 procent, a w niektórych branżach zredukować emisję CO2 nawet o 40 procent. Problem leży jednak w podejściu do strategii. Raport wyraźnie rozróżnia działania doraźne od długofalowych planów. O ile aż 93 procent firm podejmuje pojedyncze środki na rzecz efektywności, takie jak wymiana sprzętu, to zaledwie jedna czwarta opracowała kompleksową strategię dekarbonizacji.

    Rynek potrzebuje rozwiązań systemowych, a nie tylko punktowych wdrożeń. Integracja cyfrowa to obecnie kwestia twardej konkurencyjności i kontroli kosztów, a nie tylko wizerunku. Mniejsze podmioty, ze względu na ograniczoną siłę przetargową, są bowiem wyjątkowo narażone na szoki cenowe energii, co czyni je idealnymi kandydatami do adopcji modeli takich jak Energy-as-a-Service.

    Transformacja ta napotyka jednak bariery infrastrukturalne. Europa, chcąc zwiększyć wskaźnik elektryfikacji do 32 procent do końca dekady, musi zmierzyć się z faktem, że 40 procent sieci elektroenergetycznych ma ponad 40 lat. Modernizacja ta wymaga nakładów rzędu 584 miliardów euro. W tym kontekście raport wzywa decydentów do pilnych działań, w tym uproszczenia procedur pozwoleniowych oraz rewizji dyrektyw podatkowych, co mogłoby obniżyć ryzyko inwestycyjne dla sektora MŚP i przyspieszyć adaptację nowoczesnych technologii energetycznych.

  • Seagate waliduje dyski 69 TB. Kluczowy rekord gęstości zapisu

    Seagate waliduje dyski 69 TB. Kluczowy rekord gęstości zapisu

    Ostatnie osiągnięcia laboratoryjne Seagate’a mogą zmienić trajektorię rynku pamięci masowych szybciej, niż zakładano. Osiągnięcie gęstości zapisu pozwalającej na zmieszczenie 6,9 TB danych na pojedynczym talerzu to techniczny dowód na to, że konstrukcja dysków o pojemności niemal 70 TB w standardowym formacie 3,5 cala jest wykonalna. Biorąc pod uwagę, że współczesne napędy klasy enterprise mieszczą do dziesięciu takich talerzy, wizja skokowego wzrostu pojemności staje się namacalna.

    Dla operatorów centrów danych i dostawców usług chmurowych, gdzie każdy cal przestrzeni w szafie rack ma wymierną wartość finansową, to kluczowy sygnał. W tym segmencie gra toczy się o maksymalizację gęstości upakowania danych, co bezpośrednio przekłada się na obniżenie całkowitego kosztu posiadania (TCO). Fundamentem tego sukcesu jest platforma Mozaic 3+, będąca rynkową implementacją technologii HAMR. Choć obecny flagowiec marki, model Exos 32 TB, już korzysta z zaawansowanego zapisu magnetycznego wspomaganego laserem, laboratoryjne wyniki potwierdzają, że technologia ta posiada wciąż olbrzymi zapas skalowalności.

    Dotychczasowe zapowiedzi dysków o pojemności 50 TB czy 100 TB branża traktowała z pewną rezerwą. Jednak wynik bliski 7 TB na talerz pokazuje, że ambitne harmonogramy Seagate’a opierają się na twardej fizyce, a nie tylko marketingu. Choć na rynkową premierę gotowych jednostek 69 TB przyjdzie nam jeszcze poczekać, udane skalowanie HAMR sugeruje, że wejście w erę dysków 100-terabajtowych jest już tylko kwestią optymalizacji procesów produkcyjnych, a nie odległą teorią.

  • Administracja Trumpa stawia na XLight. 150 mln USD dla startupu byłego CEO Intela

    Administracja Trumpa stawia na XLight. 150 mln USD dla startupu byłego CEO Intela

    Administracja Donalda Trumpa podjęła bezprecedensową decyzję o bezpośrednim wejściu kapitałowym w XLight, startup deep-tech kierowany przez byłego CEO Intela, Pata Gelsingera. Jak donosi Wall Street Journal, powołując się na Departament Handlu, rząd USA zainwestuje w spółkę do 150 milionów dolarów. Ruch ten stanowi istotną korektę amerykańskiej strategii półprzewodnikowej. Waszyngton przestaje ograniczać się do dotowania fabryk, a zaczyna budować aktywny portfel udziałów w technologiach mogących zrewolucjonizować łańcuch dostaw.

    XLight celuje w „święty graal” produkcji czipów – nową generację litografii EUV opartej na akceleratorach cząstek, co ma potencjał przełamania monopolu technologicznego i barier kosztowych obecnych rozwiązań. Dla Pata Gelsingera to „nowa karta” i powrót do gry o najwyższą stawkę zaledwie chwilę po opuszczeniu Intela. Decyzja Białego Domu wysyła wyraźny sygnał do kanału IT: strumień funduszy federalnych przesuwa się z ratowania gigantów „legacy” na wspieranie ryzykownych, ale krytycznych innowacji sprzętowych. Inwestycja ta może w dłuższej perspektywie zmienić układ sił w globalnej produkcji krzemu, uniezależniając USA od zewnętrznych dostawców maszyn litograficznych.

  • TFI PZU wchodzi do gry: 15 mln zł dla Scanway przy wycenie potwierdzającej aspiracje space-techu

    TFI PZU wchodzi do gry: 15 mln zł dla Scanway przy wycenie potwierdzającej aspiracje space-techu

    Polski sektor technologii kosmicznych otrzymał silny sygnał zaufania ze strony kapitału instytucjonalnego. TFI PZU, jeden z największych graczy na rynku, nabył pakiet akcji wrocławskiego Scanway, inwestując w spółkę 15,3 mln zł. Transakcja ta nie tylko zabezpiecza finansowanie nowej strategii rozwoju na lata 2026–2028, ale również wyznacza nową bazę wyceny dla firmy, która przygotowuje się do przejścia na główny parkiet GPW.

    Kluczowym aspektem transakcji jest cena nabycia walorów. TFI PZU objęło 100 tysięcy akcji, stanowiących 6,45% kapitału zakładowego, płacąc 153,00 zł za sztukę. Kwota ta stanowi wprawdzie 9-procentowe dyskonto względem średniej rynkowej z ostatniego miesiąca, jest jednak ponad dwukrotnie wyższa niż wycena z rundy finansowania przeprowadzonej zaledwie w czerwcu tego roku. Taki wzrost w krótkim czasie odzwierciedla dynamiczne zmiany w fundamentach spółki, która w ostatnich kwartałach skokowo zwiększyła skalę działalności.

    Operacja została przeprowadzona przy współudziale głównego akcjonariusza – Fundacji Rodzinnej Jędrzeja Kowalewskiego. Mechanizm polegał na sprzedaży istniejących akcji funduszowi, a następnie objęciu przez Fundację nowej emisji serii H po tej samej cenie. Dzięki temu kapitał trafi bezpośrednio do spółki, a inwestor instytucjonalny mógł natychmiast wejść w posiadanie płynnych walorów. Zarówno prezes Kowalewski, jak i TFI PZU, zgodzili się na lock-up do końca 2025 roku, co stabilizuje akcjonariat w kluczowym okresie wzrostu.

    Zastrzyk gotówki ma konkretny cel strategiczny: przekształcenie Scanway w jednego z czołowych europejskich integratorów ładunków optycznych. Środki te pozwolą spółce na realizację planu przeniesienia notowań z NewConnect na Główny Rynek GPW bez konieczności przeprowadzania kolejnej emisji akcji, co jest dobrą wiadomością dla obecnych akcjonariuszy obawiających się rozwodnienia kapitału.

    Decyzja TFI PZU o przekroczeniu progu 5% w akcjonariacie spółki technologicznej wpisuje się w szerszy trend poszukiwania wartości w innowacyjnych sektorach, zwłaszcza w kontekście rosnących nakładów na europejskie systemy bezpieczeństwa i obserwacji Ziemi. Podstawy do optymizmu daje portfel zamówień (backlog), który na połowę listopada wynosił 58,3 mln zł, rosnąc o 254% r/r. Składają się na niego m.in. rekordowy kontrakt o wartości 9 mln euro dla klienta z Azji oraz udział w projekcie polskiej konstelacji satelitarnej CAMILA. Przy przychodach rzędu 16 mln zł po trzech kwartałach 2025 roku i dodatniej EBITDA, Scanway udowadnia, że deep tech może być rentowny jeszcze na etapie dynamicznego skalowania.

  • Skarbiec otwarty: Waszyngton karmi AI rządowymi danymi w ramach Misji Genesis

    Skarbiec otwarty: Waszyngton karmi AI rządowymi danymi w ramach Misji Genesis

    Biały Dom wykonuje decydujący ruch w kierunku integracji państwowych zasobów cyfrowych z potencjałem obliczeniowym laboratoriów narodowych. Podpisane w poniedziałek przez prezydenta Donalda Trumpa rozporządzenie wykonawcze, inicjujące „Misję Genesis”, sygnalizuje wyraźną zmianę strategii: USA zamierzają wykorzystać swoje federalne archiwa naukowe jako paliwo dla nowej generacji sztucznej inteligencji.

    W centrum tej inicjatywy znajduje się Departament Energii (DOE). Zgodnie z nowymi wytycznymi, resort ma za zadanie stworzyć zintegrowany system współpracy, który połączy najpotężniejsze amerykańskie superkomputery z ogromnymi zbiorami danych będącymi w posiadaniu rządu. Plan zakłada budowę platformy eksperymentalnej działającej w tzw. zamkniętej pętli (closed-loop). Ma ona służyć nie tylko do trenowania fundamentalnych modeli naukowych, ale również do bezpośredniego sterowania zrobotyzowanymi laboratoriami, co pozwoli na automatyzację procesów badawczych na niespotykaną dotąd skalę.

    Sekretarz ds. energii Chris Wright zwraca uwagę na istotne przesunięcie akcentów. Choć sektor prywatny zainwestował miliardy dolarów w komercyjny rozwój AI, administracja chce przekierować tę technologiczną machinę w stronę twardej nauki i inżynierii. Kluczem do sukcesu mają być unikalne zbiory danych, dostępne wyłącznie w laboratoriach krajowych, które do tej pory pozostawały niewykorzystanym atutem w szkoleniu modeli predykcyjnych.

    Ambicją Białego Domu jest radykalne przyspieszenie tempa innowacji. Michael Kratsios, kierujący Biurem Polityki Naukowo-Technologicznej, wskazuje, że celem jest skrócenie cyklu odkryć z lat do dni, a nawet godzin. Nowi agenci AI mają automatyzować projektowanie eksperymentów i symulacje w tak złożonych dziedzinach, jak dynamika plazmy fuzyjnej czy składanie białek.

    Inicjatywa ta jest nierozerwalnie związana z szerszym kontekstem geopolitycznym i rywalizacją technologiczną z Chinami. Od momentu objęcia urzędu administracja Trumpa konsekwentnie dąży do deregulacji sektora, uchylając wcześniejsze obostrzenia dotyczące bezpieczeństwa AI wprowadzone przez poprzedników, aby usunąć bariery dla szybkiej ekspansji. „Misja Genesis” precyzyjnie ukierunkowuje te wysiłki na sektory krytyczne dla bezpieczeństwa narodowego i gospodarczego, w tym biotechnologię, informatykę kwantową oraz energetykę jądrową, traktując suwerenność danych naukowych jako kluczowy element przewagi konkurencyjnej USA.

  • Koniec „garażowych” wdrożeń. OCP standaryzuje infrastrukturę dla komputerów kwantowych

    Koniec „garażowych” wdrożeń. OCP standaryzuje infrastrukturę dla komputerów kwantowych

    Open Compute Project (OCP) otwiera nowy rozdział w projektowaniu centrów danych, podejmując próbę pogodzenia dwóch technologicznych żywiołów: klasycznych obliczeń wielkiej skali (HPC) oraz niezwykle wrażliwej mechaniki kwantowej. Organizacja rozpoczęła prace nad sformułowaniem precyzyjnych wytycznych, które mają umożliwić koegzystencję tych systemów w ramach jednej serwerowni. Choć wizja hybrydowego przetwarzania danych obiecuje skok wydajnościowy, rzeczywistość inżynieryjna stawia przed operatorami obiektów wyzwania, których standardowe procedury nie przewidują.

    Integracja systemów kwantowych to przede wszystkim walka z masą i termodynamiką. Mimo że same procesory kwantowe mogą imponować efektywnością energetyczną, ich infrastruktura towarzysząca jest wymagająca. Kluczowym elementem jest tu kriostat – urządzenie ważące nawet 750 kilogramów – co wymusza na projektantach zapewnienie nośności podłogi na poziomie co najmniej 1000 kg/m².

    Jeszcze większym wyzwaniem okazuje się zarządzanie temperaturą cieczy chłodzącej. Podczas gdy nowoczesne szafy HPC mogą pracować na wodzie o temperaturze dochodzącej do 45°C, systemy kwantowe wymagają zasilania czynnikiem w przedziale 15–25°C. Wymusza to utrzymanie dwóch oddzielnych pętli chłodniczych lub stosowanie zaawansowanych wymienników ciepła. Do tego dochodzi rygorystyczna kontrola wilgotności, która musi oscylować między 25 a 60 procent, aby uniknąć kondensacji pary na elementach chłodniczych, co w środowisku elektroniki precyzyjnej byłoby katastrofalne.

    Jednak to czynniki środowiskowe, często ignorowane w klasycznym IT, mogą przesądzić o sukcesie wdrożenia. Sprzęt kwantowy wykazuje ekstremalną wrażliwość na zakłócenia elektromagnetyczne. Nawet tak prozaiczne elementy jak oświetlenie fluorescencyjne muszą znajdować się w odległości co najmniej dwóch metrów od jednostki obliczeniowej. Pola magnetyczne muszą być ściśle limitowane, a lokalizacja samego centrum danych wymaga nowej analizy urbanistycznej. Obecność linii tramwajowej, trakcji kolejowej czy masztów telefonii komórkowej w promieniu 100 metrów może generować szum uniemożliwiający stabilną pracę kubitów.

    OCP słusznie zauważa, że instalacja komputera kwantowego przestaje być standardową operacją „plug-and-play”. To proces inżynieryjny trwający minimum cztery tygodnie, wymagający zaangażowania wyspecjalizowanych elektryków i techników chłodnictwa, a nie tylko personelu IT. Inicjatywa OCP, mająca na celu stworzenie list kontrolnych i najlepszych praktyk, jest zatem nie tyle ułatwieniem, co koniecznością, by hybrydowe środowiska HPC mogły wyjść z fazy eksperymentalnej i stać się rynkowym standardem.

  • Kryptografia postkwantowa w bankowości i medycynie. Wyzwania, regulacje i wdrożenie

    Kryptografia postkwantowa w bankowości i medycynie. Wyzwania, regulacje i wdrożenie

    Większość dyskusji o komputerach kwantowych wciąż oscyluje wokół futurologii. Mówimy o maszynach, które kiedyś, w bliżej nieokreślonej przyszłości, zmienią oblicze nauki i medycyny. Tymczasem dla dyrektorów do spraw bezpieczeństwa w bankach, szpitalach czy instytucjach rządowych, era kwantowa nie jest odległą wizją, lecz palącym problemem, który zaczął się już wczoraj. W cieniu medialnych doniesień o kolejnych procesorach kwantowych rozgrywa się cichy dramat bezpieczeństwa danych, znany w branży jako strategia „Harvest Now, Decrypt Later”. To proste, lecz brutalne założenie, wedle którego cyberprzestępcy i wrogie podmioty państwowe już dziś masowo kradną i archiwizują zaszyfrowane dane. Obecnie są one dla nich bezużytecznym ciągiem znaków, ale ich cel jest długofalowy: przechować je do momentu, gdy komputery kwantowe osiągną moc obliczeniową wystarczającą do złamania dzisiejszych algorytmów w kilka sekund.

    Dla branż operujących danymi wrażliwymi o długim cyklu życia to scenariusz koszmaru. Sektor finansowy, opierający się na zaufaniu i tajemnicy bankowej, oraz system opieki zdrowotnej, chroniący dane pacjentów często przez całe dekady, znajdują się na pierwszej linii frontu. Jeśli przyjmiemy, że stabilny komputer kwantowy powstanie za dziesięć lat, a dane medyczne lub finansowe muszą pozostać poufne przez lat piętnaście czy dwadzieścia, to matematyka jest nieubłagana. Zabezpieczenia stosowane dzisiaj są już niewystarczające, ponieważ okres koniecznej ochrony danych wykracza poza horyzont czasowy bezpiecznego użytkowania obecnej kryptografii. Z badań opublikowanych przez francuską agencję ANSSI wynika, że połowa ankietowanych organizacji jest już teraz narażona na ryzyko przyszłych ataków kwantowych, szczególnie w kontekście tak powszechnych narzędzi jak VPN czy certyfikaty długoterminowe.

    Odpowiedzią na to niewidzialne zagrożenie nie jest jednak budowa własnych komputerów kwantowych do obrony, lecz matematyka, a konkretnie kryptografia postkwantowa (PQC). Pod tym terminem kryje się nowy zestaw algorytmów szyfrujących, zaprojektowanych specjalnie tak, aby oprzeć się potężnej mocy obliczeniowej przyszłych maszyn. Co kluczowe, technologie te są kompatybilne z naszym obecnym sprzętem. Można, a nawet trzeba, wdrażać je na dzisiejszych serwerach, w chmurze i infrastrukturze sieciowej, nie czekając na rewolucję sprzętową. Wdrażanie to opiera się na dwóch fundamentach, które coraz częściej pojawiają się w strategiach bezpieczeństwa: hybrydyzacji oraz krypto-zwinności.

    Podejście hybrydowe to swoisty pomost bezpieczeństwa. Polega ono na jednoczesnym stosowaniu konwencjonalnych, sprawdzonych przez lata algorytmów oraz nowych rozwiązań postkwantowych. Działa to na zasadzie podwójnego zamka w drzwiach – nawet jeśli jeden zostanie sforsowany, drugi nadal chroni zasoby. Taka strategia pozwala firmom testować nową technologię i budować odporność bez ryzykownego porzucania obecnych standardów z dnia na dzień. Z kolei krypto-zwinność, czyli Crypto-Agility, to zdolność systemu do szybkiej wymiany algorytmu szyfrującego w momencie wykrycia w nim luki. W dynamicznie zmieniającym się świecie zagrożeń systemy IT nie mogą być monolitem; muszą pozwalać na płynną aktualizację swoich kryptograficznych fundamentów bez konieczności przebudowywania całej architektury czy paraliżu operacyjnego przedsiębiorstwa.

    Choć technologiczne rozwiązania są już na stole, to impuls do zmian coraz częściej płynie nie z działów IT, lecz z biur regulatorów. Europa wyraźnie przyspiesza w wyścigu o cyfrową suwerenność, a organy takie jak wspomniane ANSSI czy instytucje unijne, nie traktują już odporności kwantowej jako opcji, lecz jako konieczność. Prace standaryzacyjne, prowadzone globalnie przez amerykański NIST, są bacznie obserwowane i adaptowane do europejskich wymogów. Na Starym Kontynencie kluczową rolę zaczyna odgrywać legislacja, w tym ustawa o cyberodporności (Cyber Resilience Act). Nowe przepisy będą stopniowo wymuszać na dostawcach oprogramowania i sprzętu zgodność z najnowocześniejszymi kryteriami kryptograficznymi. Oznacza to, że wkrótce nawet firmy niezwiązane z infrastrukturą krytyczną będą musiały zweryfikować swoje łańcuchy dostaw, upewniając się, że ich partnerzy technologiczni oferują rozwiązania gotowe na erę postkwantową.

    Obecnie na rynku obserwujemy intrygujący rozdźwięk. Z jednej strony dostawcy technologii wykazują dużą mobilizację, aktywnie śledząc rekomendacje i integrując nowe standardy w swoich produktach, by wyprzedzić regulacje. Z drugiej strony, wielu użytkowników końcowych, w tym duże przedsiębiorstwa, przyjmuje postawę wyczekującą. Część branż wstrzymuje się z decyzjami do momentu pojawienia się sztywnych wytycznych prawnych. Eksperci ostrzegają jednak, że jest to strategia ryzykowna. Migracja kryptograficzna to proces niezwykle złożony, kosztowny i czasochłonny. Organizacje, które zaczną go dopiero w momencie wejścia w życie twardych przepisów, mogą znaleźć się w sytuacji bez wyjścia, zmuszone do chaotycznych i kosztownych modernizacji pod presją czasu.

    Dla sektorów takich jak bankowość czy ochrona zdrowia przewidywanie zagrożenia kwantowego stało się więc strategiczną koniecznością, wykraczającą daleko poza techniczne aspekty działania działu IT. Wymaga to koordynacji na poziomie zarządczym, inwentaryzacji zasobów i zaplanowania wieloletnich budżetów. Pierwszym krokiem dla każdej świadomej organizacji powinno być dokładne zmapowanie miejsc, w których wykorzystywana jest kryptografia, oraz ocena, jak długo chronione dane muszą pozostać poufne. Czasu na przygotowanie jest coraz mniej, a w świecie cyberbezpieczeństwa, gdzie stawką jest zaufanie klientów i stabilność systemu finansowego, zasada „lepiej zapobiegać niż leczyć” nigdy nie była bardziej aktualna. Przejście na kryptografię postkwantową nie jest jedynie aktualizacją oprogramowania – to fundamentalna zmiana w myśleniu o trwałości i bezpieczeństwie informacji w XXI wieku.

  • OVHcloud udostępnia procesory kwantowe Pasqal. Startuje nowa usługa

    OVHcloud udostępnia procesory kwantowe Pasqal. Startuje nowa usługa

    Francuski dostawca chmury, OVHcloud, wykonał właśnie najbardziej zdecydowany ruch w kierunku uniezależnienia Starego Kontynentu od amerykańskiej technologii obliczeniowej. Uruchomienie nowej platformy Quantum-as-a-Service to nie tylko premiera technologiczna, ale przede wszystkim sygnał, że Europa zamierza budować własny, suwerenny ekosystem w rodzącym się sektorze obliczeń kwantowych.

    Firma z Roubaix udostępniła organizacjom dostęp do procesora Orion Beta QPU, dostarczonego przez francuski startup Pasqal. Jest to pierwszy krok w agresywnej strategii, która zakłada integrację co najmniej ośmiu systemów kwantowych do końca 2027 roku. Co istotne z perspektywy geopolitycznej, aż siedem z nich ma pochodzić od dostawców europejskich. Pasqal, jako partner wiodący, postrzega tę współpracę jako fundament pod budowę „cyfrowej autonomii”, w której zarówno sprzęt, jak i infrastruktura chmurowa pozostają w obrębie jurysdykcji UE.

    Z perspektywy biznesowej oferta OVHcloud wyróżnia się pragmatycznym podejściem do wciąż eksperymentalnej technologii. Dostawca łączy dostęp do fizycznego QPU z zestawem dziewięciu emulatorów kwantowych, z których korzysta już blisko tysiąc programistów. Taka hybrydowa architektura pozwala firmom na bezpieczne testowanie algorytmów i walidację przypadków użycia w środowisku chmurowym, bez konieczności inwestowania w kosztowną, własną infrastrukturę laboratoryjną. Choć o „kwantowej supremacji” – momencie, w którym komputery kwantowe trwale prześcigną klasyczne maszyny – nie może być jeszcze mowy, OVHcloud chce być gotowe na ten moment, oferując środowisko do iteracji i nauki już teraz.

    Ruch Francuzów jest bezpośrednią odpowiedzią na dominację amerykańskich hyperscalerów. IBM ze swoim Quantum Cloud, Microsoft Azure z procesorem Majorana 1, AWS Braket czy Google, od lat budują przewagę konkurencyjną za oceanem. OVHcloud wchodzi na ten rynek z opóźnieniem, ale z jasną propozycją wartości: oferuje pierwszą realną alternatywę, która gwarantuje, że wrażliwe badania i dane nie opuszczą europejskiego obszaru gospodarczego. W dobie rosnących napięć regulacyjnych i nacisku na suwerenność danych, może to być kluczowy atut w walce o klientów z sektora publicznego, finansowego i badawczego.

    Wybór między technologią Pasqal a rozwiązaniami IBM to nie tylko kwestia dostawcy, ale decyzja dotycząca fundamentalnej architektury fizycznej. Choć obie firmy dążą do tego samego celu – stabilnych obliczeń kwantowych – podchodzą do problemu od zupełnie innych stron fizyki.

    IBM i podejście nadprzewodzące (Superconducting Qubits)

    IBM, podobnie jak Google, stawia na kubity nadprzewodzące. Są to w istocie makroskopowe obwody elektroniczne, które po schłodzeniu do temperatur bliskich zeru absolutnemu (w wielkich chłodziarkach rozcieńczalnikowych) wykazują właściwości kwantowe. To podejście jest obecnie najbardziej dojrzałe inżynieryjnie. Jego największą zaletą jest szybkość operacji – bramki kwantowe działają tu niezwykle szybko.

    Wadą tego rozwiązania jest jednak krótki czas koherencji (czas, w którym kubit „pamięta” swój stan) oraz trudności ze skalowaniem. Każdy kubit musi być fizycznie połączony z elektroniką sterującą, co przy tysiącach kubitów tworzy „koszmar okablowania” i generuje ciepło, które jest wrogiem stanu kwantowego.

    Pasqal i podejście neutralnych atomów (Neutral Atoms)

    Francuski Pasqal (i pośrednio OVHcloud) wykorzystuje atomy rubidu zawieszone w próżni i przytrzymywane za pomocą wysoce precyzyjnych laserów, zwanych pęsetami optycznymi (optical tweezers). W tym układzie to same atomy są kubitami. Ponieważ atomy są identyczne z natury, eliminuje to błędy wynikające z niedoskonałości produkcji chipów, z czym boryka się IBM.

    Kluczową przewagą technologii Pasqal jest skalowalność i łączność. Lasery mogą układać atomy w dowolne trójwymiarowe kształty, co pozwala na symulowanie złożonych cząsteczek chemicznych lub problemów optymalizacyjnych w sposób niedostępny dla sztywnej architektury chipów IBM. Systemy te mogą działać w temperaturach pokojowych (dla samej aparatury, choć atomy są chłodzone laserem), co drastycznie obniża koszty energetyczne. Wadą jest wolniejszy czas wykonywania operacji w porównaniu do nadprzewodników.

    CechaPasqal (OVHcloud)IBM (IBM Cloud)
    ArchitekturaNeutralne atomy (sterowane światłem/laserem)Nadprzewodniki (obwody elektroniczne na chipie)
    Stabilność (Koherencja)Wysoka. Atomy utrzymują stan kwantowy dłużej (sekundy).Niska. Bardzo krótki czas życia stanu (mikrosekundy).
    Szybkość operacjiWolniejsza. Operacje na atomach trwają dłużej.Bardzo szybka. Błyskawiczne bramki logiczne.
    SkalowalnośćWysoka. Łatwiej dodać więcej atomów i laserów niż kabli.Umiarkowana. Wymaga skomplikowanej inżynierii kriogenicznej.
    Główne zastosowaniaSymulacje materiałowe, optymalizacja logistyki, chemia.Kryptografia, faktoryzacja, uniwersalne algorytmy.

  • HPE Cray łączy AI i HPC. Nowa generacja superkomputerów stawia na chłodzenie cieczą i architekturę wyboru

    HPE Cray łączy AI i HPC. Nowa generacja superkomputerów stawia na chłodzenie cieczą i architekturę wyboru

    Hewlett Packard Enterprise zaprezentowało wczoraj (13 listopada) nową generację swoich rozwiązań superkomputerowych, stawiając wyraźny strategiczny zakład. W czasach zasobożernych modeli AI, które

     redefiniują centra danych, HPE unifikuje swoją architekturę HPE Cray, aby sprostać zarówno nowym obciążeniom, jak i tradycyjnym symulacjom naukowym (HPC). To bezpośrednia odpowiedź na rosnące zapotrzebowanie ze strony laboratoriów badawczych, instytucji rządowych i przedsiębiorstw, które nie chcą już utrzymywać oddzielnych, kosztownych silosów dla obu tych światów.

    Firma ogłosiła, że platforma HPE Cray Supercomputing GX5000, wprowadzona w październiku, zdobyła już kluczowych klientów. Niemieckie centra superkomputerowe, HLRS w Stuttgarcie (system „Herder”) i LRZ w Bawarii (system „Blue Lion”), wybrały ją dla swoich maszyn nowej generacji. Ich motywacje są jasne: potrzebują platformy, która płynnie łączy symulacje z AI i jest przy tym ekstremalnie wydajna energetycznie. Prof. Dieter Kranzlmüller z LRZ podkreśla, że bezpośrednie chłodzenie cieczą (do 40°C) pozwoli na ponowne wykorzystanie ciepła odpadowego w kampusie.

    Trzonem czwartkowego ogłoszenia są trzy nowe, chłodzone cieczą moduły obliczeniowe. HPE stawia tu na elastyczność i partnerstwo, oferując konfiguracje oparte zarówno na przyszłej generacji procesorów graficznych NVIDIA Rubin i CPU Vera (w module GX440n), jak i na konkurencyjnych akceleratorach AMD Instinct MI430X oraz procesorach EPYC „Venice” (w modułach GX350a i GX250). Kluczem jest gęstość obliczeniowa i pełne chłodzenie cieczą, co ma być odpowiedzią na rosnące wyzwania energetyczne.

    Superkomputer to jednak nie tylko moc obliczeniowa. HPE modernizuje całą platformę. Sieć HPE Slingshot 400 ma zapewnić przepustowość 400 Gbps niezbędną do skalowania zadań AI na tysiącach procesorów graficznych. Nowe systemy pamięci masowej HPE Cray K3000, oparte na serwerach ProLiant i oprogramowaniu open-source DAOS (Distributed Asynchronous Object Storage), mają z kolei adresować wąskie gardła w dostępie do danych, co jest krytyczne dla modeli AI.

    Całość spina zaktualizowane oprogramowanie HPE Supercomputing Management Software, kładące nacisk na zarządzanie środowiskami multi-tenant, wirtualizację i szczegółową kontrolę zużycia energii w całym systemie.

    Choć ogłoszenie jest strategicznie istotne i zabezpiecza pozycję HPE w przyszłych, wieloletnich kontraktach, analitycy rynku IT muszą uzbroić się w cierpliwość. Większość zaprezentowanych modułów obliczeniowych (z układami Rubin i MI430X) oraz aktualizacji oprogramowania będzie dostępna dopiero „na początku 2027 roku”. Nieco wcześniej, bo „na początku 2026 roku”, pojawić ma się pamięć masowa K3000. To wyraźny sygnał, że wczorajsze ogłoszenie jest przede wszystkim prezentacją mapy drogowej i odpowiedzią na plany konkurencji, a nie premierą produktów, które przedsiębiorstwa mogą zamówić w najbliższych kwartałach.

  • Wyścig o przewagę kwantową: IBM stawia na Nighthawk i przyspieszenie produkcji

    Wyścig o przewagę kwantową: IBM stawia na Nighthawk i przyspieszenie produkcji

    IBM zintensyfikował swoje działania w wyścigu o budowę użytecznego komputera kwantowego, prezentując nowy procesor Quantum Nighthawk. Cel jest jasno określony i strategicznie odróżnia się od konkurencji: firma chce osiągnąć „wymierną przewagę kwantową” (Quantum Advantage) do końca 2026 roku. W odróżnieniu od czysto teoretycznej „supremacji”, przewaga kwantowa oznacza punkt, w którym systemy kwantowe rozwiązują realne problemy naukowe lub biznesowe szybciej i wydajniej niż najpotężniejsze klasyczne superkomputery.

    Nighthawk, wyposażony w 120 kubitów i 218 łączników, jest ewolucją poprzedniej generacji Heron, która postawiła na jakość ponad ilość. IBM podkreśla, że ulepszona architektura pozwala na uruchamianie obwodów o 30% bardziej złożonych przy zachowaniu niezmiennie niskiego wskaźnika błędów. To właśnie ten wskaźnik, a nie sama liczba kubitów, pozostaje największym wyzwaniem inżynieryjnym. Kubity są skrajnie wrażliwe na zakłócenia (dekoherencję), a błędy sumujące się podczas obliczeń sprawiają, że wyniki stają się bezużyteczne. Nighthawk ma być dostępny dla użytkowników do końca 2025 roku.

    Kluczem do realizacji tej ambitnej mapy drogowej – zakładającej m.in. 15 000 bramek dwukubitowych do 2028 roku – jest skalowanie produkcji. IBM przeniósł wytwarzanie procesorów kwantowych do fabryki płytek 300 mm w Albany NanoTech Complex. Ten ruch, zaczerpnięty wprost z dojrzałej branży półprzewodników, według firmy już podwoił szybkość rozwoju i dziesięciokrotnie zwiększył fizyczną złożoność chipów.

    Równolegle firma pracuje nad fundamentami przyszłości. Eksperymentalny procesor Quantum Loon demonstruje komponenty niezbędne do obliczeń kwantowych odpornych na awarie, co jest celem na 2029 rok. Zgłoszono również przełom w korekcji błędów – nowa metoda dekodowania działa dziesięciokrotnie szybciej niż dotychczasowe, rok przed pierwotnym planem.

    Aby uwiarygodnić swoje postępy i ustalić rynkowy standard, IBM wraz z partnerami, takimi jak Algorithmiq, uruchamia otwarty, społecznościowy Quantum Advantage Tracker. Inicjatywa ma na celu transparentne monitorowanie i weryfikowanie nowych demonstracji realnych korzyści płynących z technologii kwantowej.