Kategoria: Startupy i innowacje

W kategorii Startupy prezentujemy przełomowe pomysły, modele biznesowe, finansowanie, skalowanie oraz współpracę startupów z integratorami, vendorami i korporacjami.

  • Japonia bije rekord Internetu: 125 000 Gb/s przez 1800 km nowym światłowodem

    Japonia bije rekord Internetu: 125 000 Gb/s przez 1800 km nowym światłowodem

    Japońscy naukowcy ustanowili nowy rekord prędkości Internetu: 125 000 gigabitów na sekundę, czyli 125 terabitów. To ponad dwa razy więcej niż poprzedni rekord z 2024 roku, który wynosił 50 250 Gb/s. Takie tempo transferu pozwoliłoby pobrać całe Internet Archive – ponad 40 petabajtów danych – w mniej niż cztery minuty. Jednak istotą tego osiągnięcia nie jest sam wynik, lecz technologia, która może zmienić reguły gry w projektowaniu infrastruktury telekomunikacyjnej.

    Nowy rekord to efekt badań zespołu z Narodowego Instytutu Technologii Informacyjnych i Komunikacyjnych (NICT) w Japonii. Kluczowym elementem ich rozwiązania jest nowy typ światłowodu, który łączy 19 niezależnych kanałów transmisji w jednej wiązce o średnicy zaledwie 0,127 mm – dokładnie tyle, ile mają obecnie stosowane pojedyncze włókna. Mimo wielokanałowości kabel nie wymaga więc zmiany fizycznej infrastruktury. To otwiera możliwość wdrażania superszybkich łączy w ramach istniejącej sieci światłowodowej.

    Osiągnięcie prędkości rzędu 125 Tb/s na dystansie ponad 1800 km – porównywalnym z trasą z Nowego Jorku na Florydę – to także przełom w zakresie długodystansowej transmisji danych. Do tej pory duża przepustowość często oznaczała duże straty sygnału i konieczność gęstego rozmieszczania wzmacniaczy. Japończycy rozwiązali ten problem dzięki nowej konstrukcji włókien, które zachowują stabilne właściwości świetlne na całej długości kabla. Dane były przesyłane przez system aż 21 razy, zanim dotarły do odbiornika – bez istotnej utraty jakości.

    Choć osiągnięcie nie zostało jeszcze niezależnie zweryfikowane, a technologia pozostaje w fazie eksperymentalnej, stanowi istotny sygnał dla rynku telekomunikacyjnego. W ciągu ostatnich kilku lat świat obserwuje wyścig o wydajność w transmisji danych – popyt napędzany jest przez AI, chmurę, wideo 4K/8K i przemysłowy IoT. Z raportów Cisco i Nokia wynika, że globalny ruch IP rośnie średnio o 25–30% rocznie. W takim tempie obecne systemy sieciowe mogą w ciągu dekady osiągnąć granice wydolności.

    Nowe rozwiązanie z Japonii wpisuje się w szerszy trend rozwoju tzw. światłowodów wielordzeniowych (MCF – multicore fiber). Już dziś są one testowane w Europie i USA jako potencjalna alternatywa dla „grubych” wiązek kabli, szczególnie w infrastrukturze szkieletowej. Przewaga japońskiej konstrukcji polega jednak na tym, że może być wdrażana bez przebudowy istniejących kanałów kablowych i instalacji.

    Na komercjalizację tego typu technologii przyjdzie jeszcze poczekać. Historia światłowodów pokazuje jednak, że to, co dziś uchodzi za eksperyment, za dekadę może być standardem. Jeśli tak się stanie, infrastruktura telekomunikacyjna stanie się nie tylko szybsza, ale też bardziej energooszczędna i odporna na przeciążenia. A to kluczowe, jeśli cyfrowa gospodarka ma rosnąć dalej.

  • Europa dławi własne innowacje? Siemens i SAP krytykują unijne regulacje AI

    Europa dławi własne innowacje? Siemens i SAP krytykują unijne regulacje AI

    Wspólny głos dwóch niemieckich gigantów technologicznych – SAP i Siemensa – to sygnał, że Europa stoi na rozdrożu, jeśli chodzi o przyszłość rozwoju sztucznej inteligencji. Ich prezesi wezwali Unię Europejską do rewizji przepisów regulujących AI, argumentując, że obecne ramy prawne nie tylko nie wspierają innowacji, ale wręcz je tłumią.

    Chodzi o unijną ustawę o sztucznej inteligencji, która weszła w życie w 2024 roku. Zakłada ona klasyfikację systemów AI według poziomu ryzyka oraz wymusza spełnianie szczegółowych wymogów w zakresie bezpieczeństwa, przejrzystości i etyki. Bruksela chce w ten sposób zapobiegać nadużyciom, ale – jak podkreślają Christian Klein z SAP i Roland Busch z Siemensa – efektem ubocznym jest spowolnienie europejskiego tempa innowacji.

    Ich zastrzeżenia nie dotyczą wyłącznie przepisów o AI. Krytykują również unijną ustawę o danych, która określa sposób wykorzystania danych konsumenckich i korporacyjnych. Busch określił ją wręcz jako „toksyczną” dla rozwoju cyfrowych modeli biznesowych. Zdaniem obu liderów, zanim Europa zainwestuje miliardy euro w centra danych, powinna najpierw zmienić zasady gry – i odblokować dostęp do już istniejących zasobów danych.

    To głos krytyczny, ale nieodosobniony. W ostatnich miesiącach Alphabet, Meta i inni gracze technologiczni wzywali UE do opóźnienia wdrażania przepisów, obawiając się ich wpływu na konkurencyjność. Paradoksalnie jednak, to właśnie sztywne regulacje mogą być jednym z powodów, dla których Europa nie może nadążyć za USA i Chinami w wyścigu o dominację w AI.

    Z drugiej strony, Bruksela chce uniknąć powtórki z epoki mediów społecznościowych, kiedy regulacje nie nadążały za technologią. W tym kontekście obecne prawo jest próbą prewencji, a nie reakcji. Problem w tym, że może ona przyjść zbyt wcześnie i zbyt restrykcyjnie, blokując lokalnych innowatorów zanim zdążą rozwinąć skrzydła.

    Europa stoi dziś przed wyborem: albo zaryzykuje więcej swobody dla rozwoju AI, albo pogodzi się z byciem konsumentem technologii rozwijanych gdzie indziej. Głos SAP i Siemensa to przypomnienie, że czas na decyzję właśnie się kończy.

  • Google przejmuje talenty z Windsurf – 2,4 mld dol. za licencję na technologię AI

    Google przejmuje talenty z Windsurf – 2,4 mld dol. za licencję na technologię AI

    Google właśnie wykonał kolejny manewr w wyścigu o dominację w dziedzinie sztucznej inteligencji, pozyskując kluczowych pracowników startupu Windsurf oraz licencjonując jego technologię do generowania kodu. Transakcja nie obejmuje przejęcia udziałów, ale opiewa na 2,4 miliarda dolarów opłat licencyjnych – to jeden z największych przykładów tzw. umów „acquihire” w branży AI.

    Windsurf, młody startup specjalizujący się w AI do automatycznego generowania kodu, był niedawno przedmiotem rozmów z OpenAI, które rozważało jego przejęcie za około 3 miliardy dolarów. Finalnie jednak to Google zdołało zabezpieczyć dostęp do jego know-how, nie łamiąc przy tym rygorystycznych przepisów antymonopolowych. W strukturze transakcji nie ma mowy o przejęciu kontroli – Alphabet nie nabywa udziałów, a inwestorzy Windsurf zachowują swoje pakiety i uzyskują płynność finansową dzięki opłacie licencyjnej.

    Do Google DeepMind dołączają m.in. CEO Windsurf Varun Mohan, współzałożyciel Douglas Chen oraz część zespołu R&D. Ich zadaniem będzie rozwijanie tzw. agentów kodujących – komponentów projektu Gemini, flagowego przedsięwzięcia Google w obszarze AI. To kolejny sygnał, że generowanie kodu stało się jedną z najbardziej strategicznych i rosnących gałęzi zastosowań AI, obok modeli językowych i agentów konwersacyjnych.

    To także kolejny przypadek, gdy Big Tech omija pełnoprawne przejęcia. W ciągu ostatniego roku podobne działania podjęli m.in. Microsoft (umowa z Inflection AI na 650 mln USD), Amazon (zespół Adept AI) i Meta (pakiet 49% udziałów w Scale AI). Te nietypowe struktury, często balansujące na granicy przejęć, pozwalają ominąć przeglądy regulacyjne, choć coraz częściej trafiają pod lupę organów antymonopolowych w USA.

    Google swoją decyzją nie tylko wzmacnia pozycję DeepMind, ale również pokazuje, że w wyścigu AI nie chodzi już tylko o dane czy modele – lecz o ludzi, którzy potrafią je tworzyć. Przyszłość należeć będzie do tych, którzy potrafią łączyć talenty z technologią, bez względu na formalną strukturę transakcji.

  • Europa buduje własne porty kosmiczne. Esrange i Andøya chcą uniezależnić się od SpaceX

    Europa buduje własne porty kosmiczne. Esrange i Andøya chcą uniezależnić się od SpaceX

    Europa kontynentalna stawia pierwsze kroki ku niezależności w kosmosie. Dwa niewielkie porty kosmiczne na północy Szwecji i Norwegii – Esrange i Andøya – przygotowują się do wystrzelenia pierwszych satelitów orbitalnych z terytorium UE. Celem jest jedno: uniezależnienie się od amerykańskich gigantów, zdominowanych przez SpaceX Elona Muska.

    Polityka „America First” i trwająca wojna w Ukrainie unaoczniły europejskim decydentom skalę ryzyka związanego z brakiem własnych zdolności startowych. Uzależnienie od amerykańskich systemów – zarówno technologicznie, jak i strategicznie – stało się problemem, którego nie da się dłużej ignorować.

    Na razie Europa pozostaje w tyle. W 2024 roku USA przeprowadziły aż 154 starty rakietowe, Europa – tylko trzy. Z kolei udział UE w globalnych inwestycjach rządowych w sektor kosmiczny wyniósł zaledwie 10% z 143 mld dolarów.

    Mimo tych dysproporcji Esrange i Andøya próbują przełamać impas. Esrange, zarządzane przez Szwedzką Korporację Kosmiczną, ma unikalną przewagę – rozległy, bezludny obszar powyżej koła podbiegunowego, idealny do startów i odzyskiwania części rakiet. Infrastruktura, jak linie kolejowe i lotnisko w pobliskiej Kirunie, zapewnia dobrą logistykę.

    Z kolei Andøya w Norwegii współpracuje z niemieckim startupem ISAR Aerospace i ma już licencję na 30 startów rocznie. Choć pierwszy test zakończył się awaryjnym lądowaniem w morzu, został uznany za sukces i katalizator dalszych inwestycji – zwłaszcza z sektora obronnego.

    Oba ośrodki celują w segment LEO (Low Earth Orbit), gdzie do 2030 roku może trafić aż 70 tys. nowych satelitów. Problemem są jednak ograniczenia technologiczne: brak systemów wielokrotnego użytku, wysokie koszty i ograniczone moce przerobowe nowej rakiety Ariane 6, która – mimo sukcesu debiutu – nie wystarczy, by zabezpieczyć europejskie potrzeby.

    Czas działa na niekorzyść Europy, ale stawka jest wysoka. Jeśli Esrange i Andøya zdołają przeprowadzić pierwsze komercyjne loty w ciągu najbliższych 12–18 miesięcy, mogą stać się fundamentem przyszłej suwerenności technologicznej Unii w kosmosie.

  • Systemy czasu i bezpieczeństwa IT z polskim wkładem – eksperci z odznaczeniami państwowymi od Ministra Cyfryzacji

    Systemy czasu i bezpieczeństwa IT z polskim wkładem – eksperci z odznaczeniami państwowymi od Ministra Cyfryzacji

    W cieniu wielkich premier technologicznych i globalnych konferencji, w Ministerstwie Cyfryzacji odbyła się uroczystość, która przypomina, że fundamentem cyfrowej transformacji są ludzie – eksperci, których praca z pozoru niewidoczna, stanowi podstawę działania nowoczesnego państwa.

    7 lipca Wicepremier Krzysztof Gawkowski wręczył Odznaki Honorowe za Zasługi dla Komunikacji Elektronicznej dwóm postaciom od lat stojącym na straży precyzji i bezpieczeństwa systemów synchronizacji czasu: dr. inż. Włodzimierzowi Lewandowskiemu i Tomaszowi Widomskiemu. To dopiero drugie i trzecie takie wyróżnienie w historii.

    Czas i częstotliwość to pojęcia, które rzadko pojawiają się w debacie publicznej. A jednak od stabilności i bezpieczeństwa ich pomiarów zależy funkcjonowanie systemów finansowych, energetycznych, telekomunikacyjnych, infrastruktury krytycznej oraz – coraz częściej – nowoczesnych systemów obronnych. W świecie, w którym każda milisekunda może mieć znaczenie strategiczne, Polska ma powody do dumy.

    Dr Lewandowski to metrolog z dorobkiem międzynarodowym, jeden z nielicznych Polaków uczestniczących w pracach redakcyjnych sektorów ITU. Jego doświadczenie było kluczowe m.in. dla rozwoju systemu Galileo, europejskiej alternatywy dla GPS, i reformy Głównego Urzędu Miar.

    Z kolei Tomasz Widomski to przykład udanej synergii nauki i przedsiębiorczości. Od lat zajmuje się technikami bezpiecznej synchronizacji w sieciach komputerowych – w tym odpornych na zakłócenia wersjach Galileo – oraz cyberbezpieczeństwem metrologii. W dobie rozproszonej infrastruktury IT/OT, jego prace stają się fundamentem cyfrowej odporności. Przeczytaj wywiad z Tomaszem Widomskim, opublikowany na naszych łamach, na temat synchronizacji.

    Obaj laureaci reprezentują środowisko, które rzadko trafia na pierwsze strony gazet – a jednocześnie odpowiada za precyzję działania systemów, bez których gospodarka cyfrowa nie miałaby racji bytu. Wręczenie im wyróżnień to nie tylko symboliczny gest – to także sygnał, że Polska zaczyna poważnie traktować technologie czasu i synchronizacji jako strategiczne aktywa państwa.

    Uważam, że jest to wyróżnienie dla całego naszego środowiska pracującego nad zagadnieniami związanymi z czasem, a którego przedstawiciele zgromadzili się na dzisiejszej uroczystości. 

    „Chciałbym również podkreślić to, że władze Rzeczypospolitej coraz bardziej doceniają technologię systemów nawigacji satelitarnej. To bardzo ważne, bo to potężna technologia wpływająca na rozwój gospodarczy naszego kraju i jego bezpieczeństwo w tych burzliwych czasach. Mam nadzieję, że będziemy wspólnie szli coraz szybciej drogą większego udziału Polski w wielkim europejskim systemie Galileo.” powiedział Włodzimierz Lewandowski.

    „To odznaczenie traktuję jako wielkie wyróżnienie oraz zobowiązanie dla polskich naukowców i przedsiębiorców. To co wraz z dr. Lewandowskim osiągnęliśmy przez ostatnie dwie dekady nie jest wyłącznie zasługą nas dwóch. To wspólny sukces naszych zespołów, osób które wspierały nas przez ten czas. Porzuciliśmy wszelkie kompleksy i udało nam się dołączyć do elitarnego grona naukowców, którzy reprezentują gospodarki z grupy G7. Na co dzień dyskutujemy o problemach bardzo poważnych, w tym takich, co do których jeszcze 30 lat temu nie wyobrażaliśmy sobie, że mogą decydować o naszym bezpieczeństwie, a zwłaszcza bezpieczeństwie naszej przyszłości w oparciu o transformację cyfrową.”powiedział Tomasz Widomski.

  • Chmura i kwanty: początek rewolucji IT, której nie można przespać

    Chmura i kwanty: początek rewolucji IT, której nie można przespać

    Rok 2025 ogłoszony przez ONZ Międzynarodowym Rokiem Nauki i Technologii Kwantowej przypomina, że sto lat po narodzinach mechaniki kwantowej ludzkość znów staje przed rewolucją. Technologia kwantowa, która przez dekady istniała głównie w teorii, coraz śmielej zagląda do centrów danych, usług cloudowych i strategii IT największych firm. W tle rozgrywa się globalny wyścig o rynek, który będzie wart do 2040 roku – jak przewiduje McKinsey – blisko 200 mld USD.

    Od eksperymentu do przemysłu 

    Z raportu opracowanego przez McKinsey „Quantum Technology Monitor” wynika, że trzy filary rynku QT – obliczenia, komunikacja i sensoryka kwantowa – mogą już w 2035 roku odpowiadać za 97 mld USD globalnych przychodów. Największy udział przypadnie obliczeniom kwantowym – od 4 mld USD obecnie do nawet 72 mld USD za dekadę.

    – Tempo wzrostu rynku kwantowego przypomina dynamikę rozwoju chmury sprzed kilkunastu lat. Dziś jesteśmy świadkami powtórki – ale na poziomie technologii, która zmienia fundamenty przetwarzania danychkomentuje Mateusz Borkowski, z-ca Dyrektora Technicznego DC w Polcom.

    Dla firm kluczowy staje się dostęp do mocy obliczeniowej kwantowej bez konieczności zakupu specjalistycznego sprzętu. Z pomocą przychodzi chmura i edge computing – umożliwiające korzystanie z usług kwantowych przez API, niemal tak samo, jak z klasycznych maszyn wirtualnych.

    – To właśnie chmura umożliwia dziś firmom testowanie algorytmów kwantowych na etapie R&D. Dla liderów innowacji to szansa na wczesne przygotowanie się do nowej ery IT, a tym samym wyprzedzenie konkurencji w wdrażaniu nowych rozwiązań – bez potrzeby budowania własnej, kosztownej infrastrukturyzauważa Mateusz Borkowski.McKinsey podkreśla, że model „quantum-as-a-service” stanie się dla wielu branż – od finansów po produkcję – podstawą wdrażania nowych rozwiązań. Szczególnie że skalowalność chmury pozwala dynamicznie zwiększać zasoby obliczeniowe w miarę dojrzewania technologiidodaje. 

    Polska na starcie, ale z ambicjami

    Choć technologie kwantowe rozwijają się głównie w USA, Kanadzie, Chinach i Europie Zachodniej, Polska nie chce pozostać w tyle. Przykład firm takich jak Polcom pokazuje, że dostawcy infrastruktury już dziś obserwują rozwój QT pod kątem kompatybilności z istniejącymi modelami usługowymi.

    – Widzimy rosnące zainteresowanie ze strony klientów enterprise tematyką quantum-ready. To nie są jeszcze projekty wdrożeniowe, ale wyraźny sygnał, że liderzy IT chcą zrozumieć, kiedy i jak kwantowe algorytmy będą mogły wspomóc ich działalność operacyjną czy analitykę predykcyjnąwskazuje Mateusz Borkowski z Polcom.

    Faza eksperymentalna

    Obliczenia kwantowe w chmurze są już dostępne, ale ich praktyczne zastosowania pozostają wciąż w fazie testów. Algorytmy kwantowe dopiero uczą się współpracować z realnymi problemami biznesowymi i to właśnie stymuluje wzrost inwestycji.

    – Obserwujemy powtórzenie schematu znanego z AI: pierwsze sukcesy eksperymentalne powodują eksplozję zainteresowania i dynamiczne zwiększenie budżetów na prace badawczo-rozwojowe – podkreśla Mateusz Borkowski, z-ca Dyrektora Technicznego DC w Polcom.Dla decydentów – CIO, CTO i CFO – kluczowym zadaniem na najbliższe lata będzie nie tylko śledzenie rozwoju QT, ale też wypracowanie wewnętrznych strategii gotowości kwantowej (quantum readiness). Firmy, które zaczną działać już dziś, mają szansę zyskać przewagę trudną do nadrobienia. Kwantowa transformacja nie zacznie się z dnia na dzień – ale zakończy się tak samo, jak inne przełomy: z ogromną asymetrią między tymi, którzy byli gotowi, a tymi, którzy ją przespali dodaje.

    W obliczu rosnącej złożoności danych, kosztów energii i presji innowacyjnej, firmy na całym świecie szukają nowych rozwiązań infrastrukturalnych. Technologia kwantowa, choć jeszcze niekomercyjna, staje się ważnym punktem na mapie liderów technologicznych. W połączeniu z chmurą może okazać się nowym silnikiem transformacji cyfrowej – takim, który wprawdzie jeszcze nie ruszył z pełną siła, ale którego wpływ na gospodarkę może być większy niż AI czy IoT.

  • OVHcloud Startup Program ma 10 lat – 5000 startupów, 100 000 € wsparcia i nowy Impact 2035 Challenge

    OVHcloud Startup Program ma 10 lat – 5000 startupów, 100 000 € wsparcia i nowy Impact 2035 Challenge

    OVHcloud świętuje 10. rocznicę powstania swojego Startup Programu. Ceniony za skuteczne wsparcie technologiczne i mentorskie, program pomógł od chwili startu w 2015 roku około 5 000 startupom w skali globalnej. Jubileusz połączono z inauguracją Impact 2035 Challenge, zorganizowanego we współpracy z VivaTech, największym europejskim wydarzeniem poświęconym innowacjom.

    14 000 kandydatów, 5 000 wspieranych startupów i ekosystem oparty na solidnym partnerstwie

    Mając na uwadze, że pomoc startującym firmom często ogranicza się do inwestycji ze strony aniołów biznesu i funduszy Venture Capital, OVHcloud opracowało własny model, lepiej dostosowany do potrzeb start-upów lub scale-upów. Uczestnicy OVHcloud Startup Program mogą liczyć na znacznie więcej niż finansowanie – otrzymując dostęp do dedykowanej infrastruktury chmurowej, opiekę ekspertów i mentorów oraz indywidualne doradztwo technologiczne i biznesowe. Dzięki zaangażowaniu inżynierów OVHcloud, program oferuje także kredyty chmurowe o wartości nawet 100 000 euro.

    Ponadto w 2024 roku OVHcloud uruchomił akcelerator Fast Forward skierowany do startupów z różnych sektorów, w tym działających w oparciu o technologie takie jak np. sztuczna inteligencja. Dziesięciotygodniowy program przyspiesza wejście na rynek, umożliwiając dopracowanie strategii rozwoju podczas intensywnych warsztatów tematycznych.

    – OVHcloud Startup Program powstał z idei, według której wielcy założyciele zasługują na narzędzia i wsparcie potrzebne do rozwoju. Przez ostatnie dziesięć lat mieliśmy zaszczyt wspierać niezliczoną liczbę przedsiębiorców w realizacji ich wizji. Dziękujemy wszystkim utalentowanym osobom, zespołom i partnerom, którzy byli częścią tej drogi. To dopiero początek – razem możemy wszystko!powiedział Octave Klaba, założyciel i członek zarządu OVHcloud.

    Od momentu powstania w 2015 roku program przyjął 5 000 startupów wyłonionych spośród 14 000 zgłoszeń, co zostało udokumentowane w opublikowanym raporcie „10 Years Startup Program Global Report 2025”.

    Impact 2035 Challenge: 8 startupów działających na rzecz społeczeństwa i środowiska

    W ramach inicjatywy Impact 2035 Challenge, zorganizowanej wspólnie z VivaTech, OVHcloud po raz kolejny podkreślił swoje zaangażowanie w suwerenność i ochronę danych. Od samego początku firma opiera swoje działania na zrównoważonych technologiach, dążąc do znaczącego ograniczenia wpływu na środowisko. Celem Impact 2035 Challenge było wyróżnienie startupów, które aktywnie podejmują się rozwiązywania kluczowych wyzwań społecznych i ekologicznych.

    W finale zmierzyło się osiem innowacyjnych firm z Europy, Afryki i Ameryki Północnej – od rozwiązań opartych na AI wspierających zdrowie psychiczne, przez technologie przeciwdziałania pożarom lasów, aż po narzędzia służące inkluzywności i gospodarce cyrkularnej.

    Zwyciężył Zeeh Africa, który stworzył infrastrukturę danych kredytowych opartą na AI, wspierającą inkluzyjność finansową w Afryce.

    Wśród finalistów Impact 2035 Challenge znalazły się także:

    • FireTracking (Francja) – modele AI do skuteczniejszego wykrywania i lokalizowania pożarów lasów,
    • Spendbase (USA) – narzędzia do zarządzania aplikacjami SaaS i optymalizacji wydatków,
    • Virtuosis AI (Szwajcaria) – analiza głosu z wykorzystaniem AI w celu poprawy zdrowia psychicznego,
    • Saturnalia (Włochy) – wykorzystanie danych satelitarnych do poprawy jakości upraw,
    • Lizee (Francja) – optymalizacja łańcucha dostaw i redukcja emisji w branży modowej,
    • Signvrse (Kenia) – AI i awatary 3D do tłumaczenia języka migowego w czasie rzeczywistym,
    • NEOBRAIN – rozwiązania oparte na AI do zarządzania talentami i kompetencjami.
  • Fugaku znów na szczycie. Japoński superkomputer liderem w Graph500, ale spada w TOP500

    Fugaku znów na szczycie. Japoński superkomputer liderem w Graph500, ale spada w TOP500

    Japoński superkomputer Fugaku, opracowany przez instytut RIKEN i Fujitsu, po raz jedenasty z rzędu zajął pierwsze miejsce w rankingu Graph500, mierzącym wydajność przetwarzania grafowego – kluczowego w analizie danych powiązań i sieci. To potwierdza jego unikalną architekturę i zdolność do rozwiązywania złożonych problemów obliczeniowych w czasie rzeczywistym, takich jak prognozowanie pogody czy symulacje katastrof naturalnych.

    Graph500 nie jest jednak najczęściej cytowanym benchmarkiem mocy superkomputerów. W bardziej medialnym rankingu TOP500 Fugaku zajął dopiero siódme miejsce, ustępując miejsca nowoczesnym systemom akcelerowanym przez układy GPU, takim jak amerykański Frontier (HPE i AMD) czy europejski LUMI (Atos/Bull z AMD). Wydajność Fugaku wynosi aktualnie 442 petaflopy w teście Linpack, co jest istotnie niższym wynikiem od liderów, zbliżających się do granicy eksaskali.

    Mimo to japoński system utrzymuje się w czołówce pod względem praktycznej użyteczności – jego architektura oparta na procesorach Arm (A64FX) i wysokim stopniu równoległości nadal wygrywa tam, gdzie liczy się nie tylko surowa moc, ale też przepustowość pamięci i elastyczność obliczeniowa. To dzięki temu Fugaku wykorzystywany jest w badaniach klimatycznych, medycynie, energetyce i analizach społeczno-ekonomicznych.

    Warto zauważyć, że technologia stojąca za Fugaku znajduje obecnie zastosowanie komercyjne. Fujitsu rozwija linię procesorów FUJITSU-MONAKA – energooszczędnych, skalowalnych układów Arm, które mają trafić zarówno do rozwiązań HPC, jak i środowisk chmurowych. To wpisuje się w szerszy trend odchodzenia od tradycyjnych architektur x86 w kierunku bardziej efektywnych energetycznie alternatyw – szczególnie istotnych w kontekście rosnących kosztów zasilania centrów danych. Choć Fugaku powoli ustępuje nowym systemom w klasycznym wyścigu wydajności, pozostaje liderem technologicznej transformacji superkomputerów. Jego wpływ wykracza poza benchmarki – to platforma testowa i inspiracja dla kolejnych generacji HPC, które mają sprostać wyzwaniom obliczeniowym XXI wieku.

  • Małe komputery kwantowe pokazują potencjał w uczeniu maszynowym. Ale do przewagi nad klasyką jeszcze daleko

    Małe komputery kwantowe pokazują potencjał w uczeniu maszynowym. Ale do przewagi nad klasyką jeszcze daleko

    Fotoniczny komputer kwantowy opracowany przez naukowców z Wiednia i Mediolanu pokazał, że nawet niewielkie układy mogą przynosić wymierne korzyści w zadaniach związanych z uczeniem maszynowym. Eksperyment przeprowadzony na potrzeby publikacji w Nature Photonics to kolejny krok w kierunku praktycznego zastosowania tzw. quantum machine learning — dyscypliny, która od lat obiecuje przyspieszenie algorytmów AI. Rzeczywistość jest jednak bardziej złożona niż obietnice startupów z Doliny Krzemowej.

    Kwantowy eksperyment w wersji light

    W centrum badania znalazł się fotoniczny procesor kwantowy, czyli układ wykorzystujący światło (a konkretnie: pojedyncze fotony) do przetwarzania informacji. W przeciwieństwie do głośnych eksperymentów z użyciem kriogenicznych kubitów nadprzewodzących — jak te rozwijane przez IBM czy Google — fotonika ma tę zaletę, że działa w temperaturze pokojowej i teoretycznie łatwiej ją skalować.

    Wiedeńscy naukowcy zaprogramowali układ do wykonania zadania klasyfikacji danych — typowego wyzwania dla systemów AI. Wnioski? Ich algorytm działający na kwantowym układzie popełniał mniej błędów niż klasyczny odpowiednik w konkretnych zadaniach. To może wskazywać, że tzw. przewaga kwantowa niekoniecznie wymaga budowania maszyn z setkami kubitów.

    Quantum machine learning: hype czy przyszłość AI?

    Quantum machine learning (QML) to hybrydowa dziedzina badająca, czy algorytmy uczenia maszynowego mogą działać szybciej lub dokładniej na komputerach kwantowych. To atrakcyjna wizja — zwłaszcza w czasach, gdy tradycyjne modele AI wymagają coraz większej mocy obliczeniowej, a centra danych pękają w szwach.

    Ale choć QML budzi zainteresowanie badaczy i inwestorów, na razie pozostaje w fazie laboratoryjnej. Obecne komputery kwantowe — tzw. NISQ (Noisy Intermediate-Scale Quantum) — są małe, podatne na błędy i trudne do programowania. Dlatego każde doświadczenie pokazujące realny przyrost wydajności, nawet przy niewielkich układach, jest warte uwagi.

    W tym przypadku przewaga nie dotyczyła czasu działania, a dokładności klasyfikacji danych. Fotoniczny procesor wykonał zadanie lepiej — co sugeruje, że niektóre cechy układów kwantowych, jak nielokalność czy interferencja, mogą wspierać lepsze generalizowanie danych w uczeniu maszynowym. To jednak nie znaczy, że jesteśmy blisko rewolucji w AI.

    Od demonstracji do przemysłu: długa droga

    Chociaż eksperyment z Wiednia pokazuje, że miniaturowe procesory kwantowe mogą być użyteczne, nie oznacza to, że przemysł AI masowo przerzuci się na fotoniki. Po pierwsze, obecna infrastruktura oparta na GPU (takich jak układy NVIDII H100) jest nieporównywalnie bardziej wydajna w dużych zadaniach produkcyjnych. Po drugie, środowiska programistyczne dla komputerów kwantowych są nadal we wczesnym stadium rozwoju — brakuje stabilnych frameworków, narzędzi testujących i standaryzacji.

    Nie oznacza to jednak, że badania są oderwane od rzeczywistości. Google, IBM, AWS i inne firmy technologiczne aktywnie eksplorują QML. Amazon uruchomił usługę Braket umożliwiającą dostęp do komputerów kwantowych w chmurze, a startupy takie jak Xanadu czy Rigetti rozwijają własne układy kwantowe z myślą o uczeniu maszynowym. Eksperyment wiedeński wpisuje się więc w szerszy trend: testowania, gdzie kwant faktycznie ma sens.

    Co dalej? Mała przewaga w niszowych zastosowaniach

    Jeśli rozwój QML pójdzie zgodnie z oczekiwaniami, pierwsze realne korzyści mogą pojawić się w bardzo konkretnych przypadkach — np. w analizie danych o małej liczbie wymiarów, gdzie klasyczne algorytmy łatwo się „przeuczają”. Alternatywnie, komputery kwantowe mogą znaleźć niszowe zastosowania w obszarach takich jak wykrywanie anomalii, optymalizacja portfela inwestycyjnego czy projektowanie molekuł.

    Ale zanim tak się stanie, przed nami jeszcze dekada pracy. Obecne układy kwantowe to raczej laboratoria demonstracyjne niż maszyny gotowe do komercjalizacji. Wyzwaniem pozostają nie tylko błędy i dekoherencja, ale też brak standardów sprzętowych i trudności ze skalowaniem.

    Dla branży AI to jednak dobra wiadomość. Nawet jeśli kwant nie zastąpi GPU, może stanowić uzupełnienie — zwłaszcza w zadaniach, w których tradycyjne modele dochodzą do ściany. Eksperyment z Wiednia pokazuje, że nie trzeba czekać na „duży przełom”, by wyciągać praktyczne wnioski. Czasem wystarczy dobrze dostrojony, mały układ i inteligentny algorytm.

  • Superkomputer Jupiter: europejski atut w walce o przewagę w AI

    Superkomputer Jupiter: europejski atut w walce o przewagę w AI

    Europa coraz śmielej zaznacza swoją obecność w wyścigu superkomputerów. Najnowszy dowód to niemiecki Jupiter, który zajął czwarte miejsce na opublikowanej właśnie liście Top500 — zestawieniu najszybszych superkomputerów świata. Jupiter osiągnął 793 petaflopy mocy obliczeniowej i zbliża się do symbolicznego progu eksaskali, czyli 1000 petaflopów. Będzie to pierwszy tego typu system „z Europy i dla Europy”.

    Zlokalizowany w Centrum Superkomputerowym Jülich, Jupiter jest wspólnym przedsięwzięciem Unii Europejskiej oraz przemysłu — w tym spółki Eviden (dawny Atos), a także Nvidii, która dostarcza jego serce: 24 tysiące układów GH200 i sieć Infiniband. Choć lista Top500 jest zdominowana przez AMD, to właśnie Jupiter jest dziś najpotężniejszym systemem opartym na technologii Nvidii. To nie tylko prestiż, ale też strategiczna inwestycja — system ma wspierać rozwój sztucznej inteligencji w Europie i stać się fundamentem przyszłych badań w tej dziedzinie.

    Jupiter wyróżnia się nie tylko skalą, ale i efektywnością. Z wydajnością 60 gigaflopów na wat to najbardziej energooszczędny superkomputer w pierwszej piątce zestawienia. W czasach, gdy koszt energii i emisje CO₂ stają się równie istotne co moc obliczeniowa, to znaczący atut — szczególnie z punktu widzenia unijnych celów klimatycznych.

    Mimo awansu Europy, podium nadal należy do Stanów Zjednoczonych. Liderem jest El Capitan (AMD), który przekroczył próg eksaskali, a za nim plasują się Frontier (również AMD) i Aurora (Intel). Japonia wciąż prowadzi w alternatywnym rankingu Graph500 dzięki Fugaku, co pokazuje, że różne typy obciążeń wymagają różnych architektur.

    Europa nie jest już outsiderem w tym wyścigu. Oprócz Jupitera, w pierwszej dziesiątce Top500 znalazły się także: HPC6 z Włoch, Alpy ze Szwajcarii, Lumi z Finlandii i Leonardo z Włoch. To sygnał, że europejska strategia budowy cyfrowej suwerenności — od AI po infrastrukturę HPC — zaczyna przynosić konkretne efekty.

  • Zimna rewolucja – czy obliczenia kriogeniczne staną się odpowiedzią na energetyczny kryzys data center?

    Zimna rewolucja – czy obliczenia kriogeniczne staną się odpowiedzią na energetyczny kryzys data center?

    Gdy sztuczna inteligencja staje się fundamentem cyfrowej gospodarki, a data center pochłaniają coraz więcej energii, branża IT zaczyna szukać sposobów na przebudowanie podstaw swojej efektywności. Jednym z najbardziej zaskakujących kierunków tej transformacji może być… głęboki chłód. Dosłownie.

    Zespół naukowców z Forschungszentrum Jülich, RWTH Aachen, EPFL, TSMC i japońskich uczelni sugeruje, że znane od dziesięcioleci układy CMOS, napędzające praktycznie każdą elektronikę, mogą działać znacznie efektywniej w bardzo niskich temperaturach. Przy zastosowaniu odpowiednich materiałów i architektur, możliwe są – według badaczy – oszczędności energetyczne nawet do 80%.

    To podejście, choć brzmi futurystycznie, wpisuje się w coraz bardziej palącą potrzebę radykalnego zwiększenia wydajności energetycznej w centrach danych.

    Od ciepła do chłodu – zmiana paradygmatu

    Współczesne chipy projektowane są z myślą o pracy w temperaturze pokojowej. Generują one znaczne ilości ciepła, które trzeba skutecznie odprowadzać – co samo w sobie wymaga ogromnych nakładów energii. Według Międzynarodowej Agencji Energetycznej (IEA), zapotrzebowanie data center na energię elektryczną może podwoić się do 2030 roku, głównie za sprawą rozwoju AI i chmury.

    Ale co, jeśli zamiast zarządzać ciepłem, należałoby go po prostu unikać? Obliczenia kriogeniczne, czyli prowadzone w temperaturach bliskich zera absolutnego, mogą umożliwić znaczące zmniejszenie napięcia potrzebnego do przełączania tranzystorów. A niższe napięcie to mniej strat, mniej ciepła i więcej wydajności.

    W teorii, im niższa temperatura, tym bardziej „zdyscyplinowane” zachowanie elektronów i mniejsze napięcie progowe potrzebne do przełączania. W praktyce – przy temperaturze -196°C (77 K, osiąganej przy pomocy ciekłego azotu) można osiągnąć oszczędności rzędu 70%. W skrajnych przypadkach, przy chłodzeniu helem do poziomu 4 K, zyski energetyczne sięgają 80%.

    Fizyczne ograniczenia i materiałowa rewolucja

    Sęk w tym, że tradycyjne układy CMOS nie są zoptymalizowane do pracy w tak niskich temperaturach. Wchodzą tu w grę zjawiska fizyczne, które są pomijalne w warunkach „ciepłych”, ale dominują w chłodzie. Mowa o efektach opasmowego ogona, defektach materiałowych i zjawiskach kwantowych, takich jak tunelowanie elektronów.

    Aby osiągnąć deklarowaną efektywność, konieczna jest więc zmiana nie tylko warunków pracy układów, ale i ich samej budowy. Zespół badawczy wskazuje na konkretne kierunki: wykorzystanie nanoprzewodów, struktur SOI, dielektryków o wysokiej przenikalności elektrycznej czy materiałów z wąską przerwą energetyczną. Wszystko po to, by stworzyć coś, co naukowcy nazywają „supertranzystorem dla zimna”.

    To już nie tylko korekta architektury. To potencjalne otwarcie nowego rozdziału w projektowaniu elektroniki – dostosowanej nie do biurka inżyniera, lecz do wnętrza kriostatu.

    Od komputerów kwantowych po hyperscale

    Choć obliczenia kriogeniczne kojarzą się głównie z komputerami kwantowymi, ich potencjalne zastosowania są znacznie szersze. Chipy zoptymalizowane do pracy w niskich temperaturach mogą znaleźć zastosowanie w obrazowaniu medycznym, misjach kosmicznych i – co najważniejsze – w klasycznych data center. Tam, gdzie instaluje się tysiące procesorów i zużywa megawaty mocy, każda oszczędność energii przekłada się na konkretne miliony dolarów rocznie.

    Warto przy tym podkreślić, że technologia nie jest w fazie czysto akademickiej. W badaniu bierze udział TSMC – największy producent chipów na świecie, dostarczający układy m.in. Apple, AMD i Nvidii. To sygnał, że temat nie jest już tylko naukową ciekawostką, ale realnym kierunkiem rozwoju branży półprzewodników.

    Co to oznacza dla rynku IT?

    Zimne chipy nie trafią jutro na rynek, ale długofalowo mogą okazać się odpowiedzią na kilka jednoczesnych wyzwań: ograniczenia prawa Moore’a, energetyczne potrzeby AI i rosnące koszty operacyjne centrów danych. Ich wdrożenie będzie wymagało nie tylko rewolucji materiałowej, ale i zmiany w projektowaniu infrastruktury IT – od chłodzenia po integrację elektroniki niskotemperaturowej.

    Jednak warto obserwować ten kierunek z bliska. Bo jeśli obecne tempo wzrostu zapotrzebowania na moc obliczeniową się utrzyma, sektor IT będzie musiał sięgnąć po każde dostępne narzędzie, by ograniczyć swoją energochłonność – nawet jeśli oznacza to zejście do temperatur znanych dotąd głównie z laboratoriów fizyki kwantowej.

  • Przetargi publiczne ICT wyhamowały. Co dalej z cyfryzacją Polski?

    Przetargi publiczne ICT wyhamowały. Co dalej z cyfryzacją Polski?

    Rynek zamówień publicznych na technologie informatyczne w Polsce zanotował w 2024 roku istotne spowolnienie. Jak wynika z raportu Związku Cyfrowa Polska i MDP Polska, liczba przetargów ICT spadła o 15% rok do roku, przy czym niektóre segmenty – jak edukacja czy administracja lokalna – skurczyły się wręcz dramatycznie.

    „Przetargi publiczne to dziś jeden z kluczowych obszarów dla rozwoju sektora technologicznego w Polsce. Widzimy coraz większe otwarcie administracji na technologie cyfrowe, od e-usług dla obywateli, przez chmurę obliczeniową, po inteligentne systemy wspierające zarządzanie miastem czy cyberbezpieczeństwo. Jednak ostatni rok był czasem intensywnych zmian i adaptacji do nowych realiów technologicznych i prawnych, co przełożyło się także na mniejszą liczbę zamówień”komentuje Michał Kanownik, prezes Cyfrowej Polski.

    Skala regresu jest niepokojąca: zamówienia na laptopy spadły o 79%, na tablety – o ponad połowę. Największe spadki dotyczyły sektora edukacji (aż -93%) oraz administracji centralnej i samorządowej. Wyjątkiem były obronność i wymiar sprawiedliwości, gdzie liczba zamówień wzrosła, co sugeruje, że to nie brak funduszy, a raczej priorytetyzacja i procedury, decydują o kierunku wydatków.

    „2025 ma szanse być rokiem rekordowym w zakresie zamówień na usługi i produkty ICT w sektorze publicznym na przestrzeni kilkunastu ostatnich lat. Wszystko to dzięki planowanym i obecnie wdrażanym w życie programom rządowym dla polskiej edukacji, takim jak Cyfrowy Uczeń, oraz zakupom takim jak pracownie STEM, pracownie AI, czy zestawy zdalnego nauczania”ocenia Daniel Krajewski, Project Manager w MDP Polska.

    Przyczyn spadku eksperci upatrują w niestabilności regulacyjnej, przeciążonych procedurach przetargowych i zbyt dużym nacisku na kryterium najniższej ceny. W praktyce skutkuje to wyborem przestarzałych rozwiązań i przeciągającymi się wdrożeniami. Małe i średnie firmy technologiczne – mimo wysokiej innowacyjności – pozostają często poza systemem, z uwagi na wygórowane wymagania finansowe i referencyjne.

    „Małe i średnie przedsiębiorstwa mają ograniczone możliwości udziału w przetargach publicznych. Tymczasem to właśnie te firmy często cechują się wysokim poziomem innowacyjności i specjalistyczną wiedzą, a zatem mogą stanowić istotne ogniwo cyfryzacji zwłaszcza w mniejszych miejscowościach”uważa Michał Kanownik.

    Co ciekawe, pomimo negatywnych danych, prognozy na 2025 rok są ostrożnie optymistyczne. Wdrożenie programów takich jak „Cyfrowy Uczeń”, rozwój pracowni STEM czy projekty zdalnej edukacji mogą napędzić nową falę inwestycji w ICT. Jednak, jak zaznacza branża, bez systemowego wsparcia dla samorządów, uproszczenia procedur i wzmocnienia kompetencji urzędników, potencjał ten może pozostać niewykorzystany.

    Raport Cyfrowej Polski wskazuje konkretne rekomendacje: odejście od dominacji ceny jako głównego kryterium, promowanie jakości i innowacyjności, a także lepszy dostęp do danych o zamówieniach publicznych. W tle pojawia się także postulat cyfryzacji krytycznych sektorów, jak zdrowie czy zarządzanie rezerwami strategicznymi, które mogą przynieść nie tylko efektywność, ale i większe bezpieczeństwo operacyjne państwa.

    Rynek ICT w sektorze publicznym potrzebuje nie tylko pieniędzy, ale i inteligentnej reformy. Bez niej cyfryzacja Polski może utknąć w miejscu.

  • Xiaomi przyspiesza z elektromobilnością. Czy zysk z aut przykryje straty z innowacji?

    Xiaomi przyspiesza z elektromobilnością. Czy zysk z aut przykryje straty z innowacji?

    Xiaomi, znane głównie z telefonów i elektroniki użytkowej, stawia na elektryczną motoryzację z ambicją zysków już w drugiej połowie 2025 roku. Po premierze modelu SU7, firma szykuje kolejny krok – debiut nowego samochodu YU7 zapowiedziany na lipiec.

    Na razie biznes automotive pozostaje kosztownym eksperymentem – w pierwszym kwartale br. segment EV, AI i innych nowych inicjatyw przyniósł Xiaomi stratę 0,5 mld juanów (ok. 69,5 mln USD). Jednocześnie sprzedaż samochodów wygenerowała aż 18,1 mld juanów, co oznacza, że projekt SU7 trafił w rynek z dużą siłą – szczególnie jak na nowicjusza w branży.

    Kluczowe pytanie: czy Xiaomi będzie w stanie szybko przejść z fazy inwestycji do fazy rentowności? Dotychczasowy sukces przypomina strategię Tesli z jej początków – agresywne wejście, duże nakłady, ale też szybki wzrost rozpoznawalności i skali.

    W tle pozostaje jednak presja cenowa na chińskim rynku EV i rosnąca konkurencja ze strony takich graczy jak BYD czy Nio. Xiaomi musi zbudować nie tylko markę, ale i łańcuch dostaw, serwis oraz lojalność klientów – zupełnie nową grę w porównaniu do sprzedaży smartfonów.

    Jeśli jednak prognoza Lei Juna się sprawdzi, Xiaomi może w kilka kwartałów awansować z outsidera do pełnoprawnego gracza rynku motoryzacyjnego – i udowodnić, że sprzętowy gigant potrafi myśleć o mobilności równie poważnie, co o smartfonach.

  • Najważniejsze wyzwania cyberbezpieczeństwa firm w Polsce

    Najważniejsze wyzwania cyberbezpieczeństwa firm w Polsce

    W 2024 roku Polska znalazła się na drugim miejscu w Unii Europejskiej pod względem liczby cyberataków na firmy – dotkniętych zostało aż 32% przedsiębiorstw. Co gorsza, ataki coraz częściej nie dotyczą już wyłącznie sfery IT, ale infrastruktury przemysłowej (OT) i krytycznej – wodociągów, sieci energetycznych, szpitali. To zjawisko pokazuje, że cyberbezpieczeństwo przestało być domeną informatyków – stało się sprawą państwowej wagi.

    W ciągu roku liczba potwierdzonych incydentów wzrosła w Polsce o 23%. Eksperci podkreślają, że przy braku wdrożenia dyrektywy NIS2 – wciąż oczekującej na implementację w polskim prawodawstwie – ryzyko dalszej eskalacji jest realne. Nowe przepisy mają objąć nawet 38 tys. podmiotów, co radykalnie rozszerza krąg firm uznanych za istotne z punktu widzenia bezpieczeństwa kraju. Wiele z nich może nie być tego świadoma.

    Niezabezpieczona infrastruktura OT staje się łatwym celem – a przez nią także cała organizacja. Tymczasem wiele firm wciąż nie wie, jakie urządzenia i systemy przemysłowe posiada, kto ma do nich dostęp ani czy są one odpowiednio chronione. Brakuje zintegrowanej architektury bezpieczeństwa, procesów zarządzania incydentami i kompetencji zespołów OT/IoT. To realne luki, które można zidentyfikować i zaadresować, m.in. przy użyciu międzynarodowych standardów (jak NIST) oraz narzędzi CERT.

    Raport EY wskazuje, że firmy muszą odejść od podejścia reaktywnego i wdrożyć kulturę cyberodporności – także poprzez szkolenie pracowników i zarządzanie zmianą. Współpraca z producentami i integratorami technologii oraz podejście „security by design” są dziś koniecznością, nie dodatkiem.

    Wnioski? Polska stoi przed kluczowym momentem: z jednej strony narażona na coraz bardziej zaawansowane ataki, z drugiej – bez pełnych regulacji i przygotowanych struktur obronnych. Przyszłość cyberbezpieczeństwa wymaga nie tylko aktualizacji prawa, ale też zmiany mentalności. Bo w cyfrowej wojnie – to nie mur, a najsłabsze ogniwo decyduje o wyniku.

  • D-Wave uruchamia komputer kwantowy Advantage2

    D-Wave uruchamia komputer kwantowy Advantage2

    Firma D-Wave udostępniła globalnie swój najnowszy komputer kwantowy Advantage2 — system zaprojektowany do rozwiązywania bardzo złożonych problemów optymalizacyjnych. To ruch, który z jednej strony pokazuje dojrzałość technologii wyżarzania kwantowego, a z drugiej — urealnia dyskusję o komercyjnym zastosowaniu komputerów kwantowych.

    Advantage2 oferuje ponad 4400 kubitów, 20-krotnie większą łączność w nowej topologii Zephyr i dwukrotnie wyższą spójność, co przekłada się na lepszą stabilność i wydajność obliczeń. W odróżnieniu od uniwersalnych komputerów kwantowych, które wciąż zmagają się z barierami fizycznymi i skalowalnością, D-Wave koncentruje się na wąskim, ale dziś już praktycznym zastosowaniu: optymalizacji.

    System można uruchamiać zarówno lokalnie, jak i w chmurze Leap, gdzie hybrydowe podejście pozwala przetwarzać problemy o skali nawet dwóch milionów zmiennych. Dla firm działających w obszarach takich jak logistyka, projektowanie materiałów czy sztuczna inteligencja, oznacza to możliwość wdrożenia rzeczywistych rozwiązań kwantowych — tu i teraz.

    Choć Advantage2 nie jest komputerem kwantowym w hollywoodzkim rozumieniu, jego wartość rynkowa tkwi w specjalizacji. D-Wave pokazuje, że nie trzeba czekać dekady na przełom w kryptografii czy modelowaniu molekularnym — można dziś optymalizować floty transportowe czy harmonogramy produkcyjne szybciej i taniej.

    To pragmatyczne podejście może okazać się przewagą w wyścigu kwantowym: zamiast obiecywać wszystko, D-Wave rozwiązuje konkretne problemy — i robi to skutecznie.

  • Pierwszy komputer kwantowy w Polsce. „Odra 5” rusza we Wrocławiu

    Pierwszy komputer kwantowy w Polsce. „Odra 5” rusza we Wrocławiu

    Wrocław, jako pierwszy w Polsce i w Europie Środkowo-Wschodniej, uruchomił komputer kwantowy oparty na technologii nadprzewodzących kubitów. Maszyna „Odra 5” stanęła na Politechnice Wrocławskiej i choć jej możliwości – pięć kubitów – mogą wydawać się symboliczne, to wydarzenie to ma znaczenie wykraczające poza naukę. To krok w kierunku budowy krajowych kompetencji w obszarze, który może zdefiniować kolejne dekady rozwoju technologii obliczeniowych.

    Za dostarczenie systemu odpowiada IQM Quantum Computers – fińska firma, która specjalizuje się w lokalnych, pełnostackowych komputerach kwantowych dla instytucji naukowych. Wrocławska jednostka, model Spark, została dostosowana do pracy w środowisku akademickim, a jej największą wartością może nie być sama moc obliczeniowa, lecz potencjał edukacyjny i badawczy.

    Infrastruktura dopiero się buduje, ale ambicje są duże

    Projekt wpisuje się w szerszy kontekst działań Wrocławskiego Centrum Sieciowo-Superkomputerowego (WCSS), które obchodzi w tym roku 30-lecie istnienia. To właśnie tu pracuje także superkomputer Lem, jeden z najszybszych w Polsce. Połączenie obu maszyn – klasycznej i kwantowej – tworzy podwaliny pod środowisko hybrydowych obliczeń, które mogą znaleźć zastosowanie w takich dziedzinach jak modelowanie pogody, optymalizacja łańcuchów dostaw, symulacje molekularne czy trenowanie dużych modeli językowych.

    Zainstalowanie „Odry 5” to także wyraz rosnącej roli Polski w europejskim ekosystemie badań nad technologiami przełomowymi. Choć pięć kubitów to poziom edukacyjno-eksperymentalny, Politechnika Wrocławska otrzymała również zdalny dostęp do znacznie bardziej zaawansowanych jednostek IQM – 20- i 50-kubitowych – co otwiera drzwi do poważniejszych analiz i współpracy międzynarodowej.

    Kwantowa transformacja czy edukacyjna ciekawostka?

    Kluczowym pytaniem pozostaje, czy zainstalowanie komputera kwantowego stanie się katalizatorem rozwoju kompetencji krajowych, czy pozostanie jednostkowym projektem o ograniczonym wpływie. Sukces zależy od tego, jak skutecznie Politechnika Wrocławska wykorzysta maszynę w dydaktyce i projektach badawczych, i czy powstanie wokół niej trwałe środowisko ekspertów.

    Deklaracje są ambitne: nowa specjalizacja z informatyki kwantowej, prace kół naukowych, włączenie systemu do większych projektów badawczych. Warto jednak pamiętać, że rozwój technologii kwantowych nie sprowadza się tylko do zakupu urządzenia – wymaga długoterminowych inwestycji w kadry, oprogramowanie i aplikacje przemysłowe. W tym kontekście dostęp do środowisk takich jak Qiskit i integracja z językiem Python to właściwy krok, który może ułatwić start i budowanie kompetencji.

    Edukacja, a potem przemysł

    „Odra 5” to bardziej deklaracja niż rewolucja, ale deklaracja istotna. Symbolicznie pokazuje, że Polska nie chce być tylko konsumentem przełomowych technologii, ale także uczestnikiem ich tworzenia. Przyszłość komputerów kwantowych – w tym także internetu kwantowego – zależy w dużej mierze od skali współpracy między nauką a przemysłem. Na razie jesteśmy na etapie edukacji i testowania. Ale to właśnie teraz kształtują się kadry, które za 10–15 lat mogą decydować o tym, kto naprawdę zbuduje przewagę technologiczną w Europie.

  • Czy informacja ma masę? Nowa hipoteza fizyka z Portsmouth stawia pytania o naturę rzeczywistości

    Czy informacja ma masę? Nowa hipoteza fizyka z Portsmouth stawia pytania o naturę rzeczywistości

    Badania Melvina Vopsona z Uniwersytetu w Portsmouth mogą mieć daleko idące konsekwencje dla nauki, filozofii i… technologii. Fizyka, jaką znamy, może właśnie zyskać nową zasadę – „prawo infodynamiki” – które zakłada, że informacja nie tylko wpływa na materię, ale sama ją współtworzy.

    W swojej pracy Vopson sugeruje, że informacja ma masę, a więc wchodzi w skład budulca cząstek elementarnych. Co więcej, ta masa informacyjna może być odpowiedzialna za zjawiska na poziomie genetyki, fizyki cząstek i kosmologii. Jeśli hipoteza się potwierdzi, informacja stanie się nie tylko nośnikiem treści, lecz także realnym składnikiem materii – tak samo „fizycznym” jak energia czy masa klasyczna.

    Równolegle, Vopson wskazuje, że wszechświat wykazuje cechy typowe dla systemów komputerowych: optymalizację, symetrię, kompresję. Te spostrzeżenia wspierają popularną, choć wciąż kontrowersyjną hipotezę symulacji, zgodnie z którą nasza rzeczywistość może być zaawansowaną symulacją komputerową, a prawa fizyki to po prostu kod.

    Z naukowego punktu widzenia to ryzykowna teza, ale niewykluczona. W fizyce coraz częściej pojawiają się modele, w których informacja staje się równie fundamentalna jak czasoprzestrzeń. Pytanie, czy odkrycie Vopsona da się potwierdzić empirycznie, jest kluczowe – jak dotąd teoria opiera się głównie na wywodach matematycznych i analogiach.

    Dla świata technologii – i inwestorów, którzy myślą o przyszłości AI, komputerów kwantowych czy inżynierii biologicznej – to temat wart obserwacji. Jeśli informacja rzeczywiście ma masę, to zmienia to nie tylko nasze pojmowanie rzeczywistości, ale także potencjalne granice obliczeń, pamięci czy interakcji maszyn z materią.

    Na razie to spekulacja, ale z tych właśnie hipotez rodzą się przyszłe paradygmaty.

     

     

     

     

  • Android XR: Google szykuje inteligentne okulary na miarę epoki post-smartfonowej

    Android XR: Google szykuje inteligentne okulary na miarę epoki post-smartfonowej

    Na tegorocznym Google I/O firma z Mountain View postawiła mocny akcent na przyszłość rozszerzonej rzeczywistości. Android XR, czyli nowa platforma łącząca okulary, AI i cały ekosystem usług Google, ma ambicje zastąpić interakcje znane dziś ze smartfonów. Google nie tylko ujawniło więcej szczegółów technicznych, ale też wyraźnie zaznaczyło, że chce być liderem w nowej kategorii urządzeń do noszenia.

    Okulary Android XR będą stale połączone ze smartfonem, a ich największym atutem ma być natywna integracja z Gemini – sztuczną inteligencją Google. To oznacza dostęp do kontekstowych informacji w czasie rzeczywistym – z kalendarza, map, zdjęć, zadań czy tłumacza – bez użycia rąk czy ekranu. Działająca na bieżąco kamera, mikrofony i głośniki pozwolą Gemini nie tylko słuchać użytkownika, ale i widzieć, co robi.

    Strategicznie, Google zmienia zasady gry w segmencie XR. Współpraca z markami modowymi (Gentle Monster, Warby Parker) pokazuje, że firma wyciągnęła wnioski z porażki Google Glass – sprzęt ma być nie tylko funkcjonalny, ale też estetyczny. Kooperacja z Samsungiem i XREAL wzmacnia ambicję stworzenia otwartego, hardware’owo-software’owego ekosystemu – konkurencyjnego wobec planów Apple w obszarze Vision Pro i Meta w Meta Quest.

    Wprowadzenie Android XR SDK Developer Preview 2 i zapowiedź wersji deweloperskiej urządzenia XREAL pokazuje, że Google celuje dziś w twórców, a nie konsumentów. To posunięcie strategiczne: bez aplikacji nie będzie adopcji, a bez adopcji – rynku. Można więc mówić o budowaniu fundamentów.

    Jednak projekt Android XR wciąż stoi przed poważnymi wyzwaniami. Po pierwsze – prywatność. Użytkownicy mogą mieć opory przed urządzeniami, które widzą i słyszą otoczenie. Po drugie – ergonomia i bateria. Google deklaruje, że okulary mają być noszone cały dzień, ale na razie to obietnica bez danych.

    Wnioski? Android XR to najbardziej przekonująca wizja rozszerzonej rzeczywistości od Google od dekady. Widać, że firma uczy się na błędach, inwestuje w partnerstwa i stawia na AI jako główny interfejs przyszłości. Jeśli dostarczy wygodny, estetyczny i bezpieczny produkt, może realnie rozpocząć erę post-smartfonową.

  • Intel porządkuje portfolio. NEX na sprzedaż?

    Intel porządkuje portfolio. NEX na sprzedaż?

    Intel przymierza się do sprzedaży działalności w obszarze sieci i edge computingu (dawniej NEX), co wpisuje się w szerszy plan nowego CEO Lip-Bu Tana. Firma chce skupić się na tym, co historycznie przynosiło jej największe sukcesy: chipach dla komputerów osobistych i centrów danych.

    To nie pierwszy raz, kiedy Intel redukuje zasięg swojej działalności. W kwietniu sprzedał większościowy udział w Altera funduszowi SilverLake za 4,46 mld dolarów. Wcześniej wydzielono Mobileye – dziś notowaną na giełdzie. Teraz przyszła kolej na NEX, choć rozmowy o sprzedaży są jeszcze na wczesnym etapie.

    NEX, który w 2024 roku wygenerował 5,8 mld dolarów przychodu, przestał być raportowany jako osobna jednostka. Został wchłonięty przez inne segmenty, co może sugerować jego stopniowe wygaszanie. Strategicznie – jednostka odpowiedzialna m.in. za chipy do sprzętu sieciowego – przestała pasować do nowej wizji firmy.

    Decyzja ta pokazuje, że Intel przestaje gonić za każdym trendem i wraca do fundamentów. Tan jasno zarysował priorytety: firma ma 68% udziału w rynku chipów PC i 55% w centrach danych – to są filary, na których chce budować przyszłość.

    Z perspektywy rynku to racjonalny, choć defensywny ruch. Edge i sieci to sektory z potencjałem, ale też z silną konkurencją – Broadcom czy Nvidia mają tam ugruntowaną pozycję. Rezygnacja Intela to sygnał, że spółka nie chce tracić energii tam, gdzie nie może szybko zbudować przewagi.

    W dłuższej perspektywie strategia „powrotu do korzeni” może wzmocnić pozycję Intela – o ile firma faktycznie odbuduje dominację w segmencie centrów danych, który w ostatnich latach wyraźnie przegrała z AMD i Nvidią.

  • Movie Games VR zmienia się w Vinci Gen. Nowy kierunek: technologie medyczne i AI

    Movie Games VR zmienia się w Vinci Gen. Nowy kierunek: technologie medyczne i AI

    Transformacja Movie Games VR w Vinci Gen SA to przykład jednego z najbardziej radykalnych zwrotów strategicznych na polskim rynku technologicznym. Spółka, dotąd znana z sektora rozrywki cyfrowej, definiuje się na nowo jako gracz w obszarze nowoczesnej diagnostyki medycznej, genetyki oraz bioinformatyki. Opublikowana strategia na lata 2025–2030 sygnalizuje ambitny plan budowy zintegrowanego ekosystemu usług zdrowotnych z globalnym zasięgiem.

    Vinci Gen celuje w najbardziej perspektywiczne obszary medycyny: nieinwazyjne testy prenatalne (NIPT), onkologiczną diagnostykę genetyczną, AI w obrazowaniu, a także aplikacje mobilne i rozwiązania z zakresu medycyny personalizowanej. Spółka zamierza skalować swoją działalność najpierw w regionie CEE, a następnie wejść na rynki Europy Zachodniej i Azji – wykorzystując model białej etykiety oraz licencjonowanie technologii.

    Na uwagę zasługuje sposób finansowania transformacji: Vinci Gen chce sięgnąć po szeroki wachlarz źródeł – od grantów, przez fundusze VC, po emisję akcji z prawem poboru. To ruch, który może wzbudzić zainteresowanie inwestorów szukających ekspozycji na sektor deep tech i medtech w wydaniu „made in Poland”.

    Choć rynek medycyny spersonalizowanej jest przyszłościowy, konkurencja i bariery regulacyjne są wysokie. Kluczowe będzie tempo komercjalizacji i zdolność spółki do zdobycia zaufania partnerów klinicznych. Rebranding to dopiero początek – prawdziwym testem dla Vinci Gen będzie skuteczne połączenie wizji technologicznej z rzeczywistym wdrożeniem w systemie ochrony zdrowia.

  • E-Doręczenia w iPKO. PKO BP, Poczta i KIR ruszają z pilotażem

    E-Doręczenia w iPKO. PKO BP, Poczta i KIR ruszają z pilotażem

    Poczta Polska, PKO Bank Polski i KIR wspólnie pracują nad wdrożeniem e-Doręczeń w serwisie bankowości internetowej iPKO. Usługa, będąca cyfrowym odpowiednikiem listu poleconego, ma umożliwić obywatelom odbiór urzędowej korespondencji wprost z konta bankowego – szybko, bezpiecznie i bez konieczności logowania się do zewnętrznych portali.

    To kolejny krok w stronę integracji usług publicznych z komercyjną infrastrukturą cyfrową. PKO BP, jako największy bank w Polsce, ma odpowiedni zasięg, by stać się skutecznym kanałem dystrybucji usług państwowych. Poczta Polska zyskuje nowy, wygodny punkt kontaktu z obywatelami – bez kosztów utrzymania placówek i z korzyścią dla własnej cyfrowej transformacji. Z kolei KIR zapewni warstwę integracyjną, która może w przyszłości umożliwić skalowanie usługi na inne instytucje finansowe.

    Jeśli projekt zakończy się sukcesem, e-Doręczenia mogą stać się standardowym elementem bankowości elektronicznej, podobnie jak profil zaufany czy dostęp do PUE ZUS. To zmiana modelu: bank staje się bramą do usług państwa, a państwo – klientem nowoczesnych, komercyjnych platform.

    W dłuższej perspektywie, ta współpraca może przekształcić banki w cyfrowe urzędy pierwszego kontaktu. Pytanie, czy inne instytucje pójdą za przykładem PKO BP – i czy państwo będzie gotowe na realne partnerstwo z sektorem finansowym w obszarze e-usług.