Kategoria: Startupy i innowacje

W kategorii Startupy prezentujemy przełomowe pomysły, modele biznesowe, finansowanie, skalowanie oraz współpracę startupów z integratorami, vendorami i korporacjami.

  • Inwestycje VC w Europie 2025: Analiza trendów w AI, HealthTech i GreenTech

    Inwestycje VC w Europie 2025: Analiza trendów w AI, HealthTech i GreenTech

    Rok 2025 na europejskiej scenie technologicznej to czas pozornych sprzeczności. Z jednej strony, dane wskazują na historycznie niski poziom fundraisingu funduszy Venture Capital – w pierwszym półroczu zebrano zaledwie 5,2 mld euro, co stawia bieżący rok na drodze do najsłabszego wyniku od dekady.

    Z drugiej strony, ten sam rynek jest świadkiem rekordowych, wielomilionowych rund finansowania dla wybranych firm, a wyceny dojrzałych spółek rosną do nienotowanych wcześniej poziomów. Ta dychotomia nie jest oznaką słabości, lecz głębokiej rekalibracji całego ekosystemu.   

    W 2025 roku europejski rynek technologiczny przechodzi od fazy szerokiego, oportunistycznego wzrostu do etapu strategicznej głębi. Kapitał, choć trudniej dostępny, jest lokowany w sposób bardziej skoncentrowany i przemyślany.

    Inwestorzy celują w sektory o kluczowym znaczeniu dla przyszłej konkurencyjności i suwerenności kontynentu: Sztuczną Inteligencję (AI), Deep Tech, HealthTech oraz technologie obronne. To zwrot napędzany zarówno przez pragmatyzm prywatnych inwestorów, jak i świadomą politykę przemysłową funduszy publicznych.

    Globalna arena AI: europejski gambit w wyścigu zdominowanym przez USA

    Dane z pierwszej połowy 2025 roku jednoznacznie pokazują, że globalny krajobraz inwestycji w sztuczną inteligencję jest zdominowany przez Stany Zjednoczone. Skala amerykańskiej dominacji jest przytłaczająca.

    W pierwszym kwartale 2025 roku inwestycje VC w USA osiągnęły wartość 91,5 mld USD, podczas gdy w Europie było to 18 mld USD, a w regionie Azji i Pacyfiku zaledwie 12,9 mld USD. W obszarze generatywnej AI, która przyciąga najwięcej uwagi, przepaść jest jeszcze głębsza – firmy z USA odpowiadały za 97% wartości globalnych transakcji w H1 2025.

    Na europejskim podwórku również dochodzi do przetasowań. Tradycyjnie to Wielka Brytania była niekwestionowanym liderem. Jednak w drugim kwartale 2025 roku Niemcy, po raz pierwszy od ponad dekady, wyprzedziły Zjednoczone Królestwo pod względem wartości pozyskanego finansowania VC.

    Francja, wspierana potężnymi publicznymi deklaracjami inwestycyjnymi – prezydent Emmanuel Macron ogłosił plan o wartości 109 mld euro na rozwój AI – dynamicznie umacnia swoją pozycję.

    Brak możliwości konkurowania z amerykańskimi gigantami w niezwykle kapitałochłonnej „wojnie na modele” fundamentalne zmusił Europę do przyjęcia bardziej pragmatycznej strategii. Zamiast próbować budować od zera własne, konkurencyjne modele językowe (LLM), europejscy inwestorzy i założyciele koncentrują się na tzw. „warstwie aplikacyjnej” AI.

    Podejście to polega na wykorzystaniu istniejących, potężnych modeli do rozwiązywania konkretnych, wertykalnych problemów biznesowych. Przykłady tej strategii w działaniu są liczne. Niemiecki Helsing, który pozyskał 600 mln euro, stosuje AI do analizy danych na polu walki, stając się kluczowym graczem w sektorze obronnym.

    Brytyjska Synthesia, z rundą na 180 mln USD, zdominowała rynek generowania wideo na potrzeby szkoleń korporacyjnych i marketingu.

    Poza hype AI: mapa najgorętszych sektorów inwestycyjnych

    Chociaż sztuczna inteligencja dominuje w nagłówkach, analiza przepływu kapitału w pierwszej połowie 2025 roku ujawnia znacznie bardziej zniuansowany obraz. Inwestorzy dywersyfikują swoje portfele, kierując znaczące środki do sektorów o fundamentalnym znaczeniu dla gospodarki i społeczeństwa.

    Dane z H1 2025 pokazują wyraźną zmianę warty. HealthTech (technologie medyczne) stał się najlepiej finansowanym sektorem, pozyskując imponujące 5,7 mld euro. Tuż za nim uplasowały się Deep Tech (technologie głębokie) i B2B SaaS (oprogramowanie jako usługa dla biznesu), z wynikiem 5,2 mld euro każdy.

    FinTech, niegdyś niekwestionowany lider, spadł na dalszą pozycję z 3,7 mld euro, notując 20% spadek rok do roku. Z kolei GreenTech (określany również jako Climate Tech), mimo globalnego spowolnienia, pozostaje kluczowym filarem europejskich inwestycji, przyciągając w pierwszym półroczu 5,3 mld USD (około 4,9 mld euro).

    HealthTech: nowy lider napędzany demografią i AI

    Wzrost znaczenia sektora HealthTech jest bezdyskusyjny. Europa odnotowała 1,65-krotny wzrost finansowania w tym sektorze rok do roku, osiągając 3,3 mld USD. Ten boom ma solidne fundamenty: starzejące się społeczeństwo Europy i rewolucja AI w diagnostyce oraz odkrywaniu leków. Mega-rundy dla brytyjskiego Verdiva Bio (410 mln USD) czy szwedzkiego Neko Health (260 mln USD) są tego najlepszym dowodem.   

    GreenTech: odporny filar w fazie konsolidacji

    Sektor GreenTech przeżywa okres korekty. Finansowanie w H1 2025 spadło o około 40-50% w porównaniu z rokiem poprzednim. Jednak ten spadek sygnalizuje przejście od finansowania szerokiego rynku do inwestycji w kapitałochłonny i strategicznie ważny Deep Tech.

    Pieniądze płyną do firm pracujących nad energią termojądrową (Proxima Fusion), zrównoważonym paliwem lotniczym (Skynrg) oraz systemami bateryjnymi na dużą skalę (Green Flexibility).   

    FinTech: dojrzały sektor w poszukiwaniu efektywności

    FinTech wchodzi w fazę dojrzałości. Spadek łącznej wartości finansowania do 3,7 mld euro w H1 2025 jest faktem. Jednak w tym samym czasie mediana wielkości rundy wzrosła o 38%, co oznacza, że kapitał koncentruje się w mniejszej liczbie, ale za to bardziej dojrzałych i sprawdzonych firm.

    Cyberbezpieczeństwo i defense tech: wschodzące gwiazdy

    Wzrost tych dwóch sektorów jest bezpośrednio napędzany przez otoczenie geopolityczne. Europejski rynek cyberbezpieczeństwa wzrósł o 13% w H1 2025, stymulowany przez nowe regulacje i zagrożenia związane z AI.

    Jednocześnie sektor Aerospace & Defence przyciągnął rekordowe 1,5 mld euro, co jest konsekwencją rosnących napięć i inicjatyw UE mających na celu wzmocnienie europejskiej obronności.

    Publiczne pieniądze: jak Bruksela buduje technologiczną suwerenność

    W 2025 roku krajobraz inwestycyjny w Europie jest kształtowany nie tylko przez prywatny kapitał, ale w równym stopniu przez strategiczne interwencje funduszy publicznych.

    Program „Horyzont Europa”, dysponujący budżetem 95,5 mld euro na lata 2021-2027, jest głównym narzędziem UE do finansowania badań i innowacji, z czego około 35% przeznaczono na transformację cyfrową.

    Program koncentruje się na strategicznych obszarach, takich jak technologie kwantowe, grafen, zaawansowane obliczenia i AI, wspierając je m.in. poprzez inicjatywy flagowe o budżecie 1 mld euro każda.

    Z kolei Krajowe Plany Odbudowy (KPO) to bezprecedensowy zastrzyk finansowy dla gospodarek państw członkowskich. Każdy kraj był zobowiązany do przeznaczenia co najmniej 20% środków na cele cyfrowe i 37% na cele klimatyczne.

    Przykładowo, Francja przeznacza ok. 8,5 mld euro na transformację cyfrową, w tym 1,8 mld euro na technologie takie jak cyberbezpieczeństwo i chmura. Niemcy przeznaczyły na cyfryzację ponad 52% swojego planu (ok. 14,5 mld euro) , a Włochy 25,6% (ok. 49,8 mld euro).

    Te działania pokazują, że fundusze publiczne nie są jedynie formą dotacji, ale narzędziem świadomej polityki przemysłowej. Celem jest budowanie „suwerenności technologicznej” , czyli uniezależnienie Europy od kluczowych technologii z USA i Chin.

    Równanie wyjścia: dojrzały ekosystem szuka płynności

    W 2025 roku europejski ekosystem technologiczny stoi przed poważnym wyzwaniem: jak zapewnić zwrot z inwestycji w środowisku, w którym tradycyjne ścieżki wyjścia kapitałowego są ograniczone.

    Rynek pierwszych ofert publicznych (IPO) pozostaje w stagnacji, z dramatycznym spadkiem o 65% w porównaniu z H1 2024. W odpowiedzi gwałtownie rośnie znaczenie fuzji i przejęć (M&A) – w samej Wielkiej Brytanii w H1 2025 odnotowano najwyższą od 15 lat liczbę ofert przejęć.

    Mimo ogólnego spowolnienia, rynek jest silnie spolaryzowany. Mediana wyceny pre-money w Europie osiągnęła w czerwcu 2025 roku dekadowy szczyt na poziomie 8,6 mln euro.

    Świadczy to o zjawisku „ucieczki do jakości”, w ramach którego inwestorzy koncentrują kapitał na najbardziej obiecujących, sprawdzonych spółkach. Najlepszym wskaźnikiem tego trendu są największe rundy finansowania, które doskonale ilustrują kluczowe trendy: dominację AI, strategiczne znaczenie Defense Tech i HealthTech oraz kapitałochłonność GreenTech.

    Polski wzrost: Dynamo z Europy Środkowo-Wschodniej

    W krajobrazie europejskiego rynku VC, charakteryzującym się ostrożnością, Polska wyróżnia się jako jeden z najdynamiczniej rozwijających się ekosystemów. Polski rynek VC odnotował w pierwszym kwartale 2025 roku spektakularny wzrost wartości transakcji o 155% rok do roku, osiągając poziom 444 mln PLN (około 106 mln EUR).

    Ten imponujący wzrost jest napędzany przez kilka fundamentalnych zmian świadczących o dojrzewaniu polskiego ekosystemu:

    • Przejście do późniejszych rund: Prawie połowa (48%) transakcji w Q1 2025 to rundy Serii A lub późniejsze, co pokazuje, że polski rynek jest już w stanie nie tylko tworzyć, ale także skalować innowacyjne firmy.
    • Internacjonalizacja kapitału: Aż 42% kapitału zainwestowanego w polskich startupach w Q1 2025 pochodziło od funduszy zagranicznych, w tym z USA, Niemiec i Wielkiej Brytanii.
    • Flagowe sukcesy: Runda finansowania dla ElevenLabs, przekraczająca 700 mln PLN i przyciągająca czołowe amerykańskie fundusze, takie jak Andreessen Horowitz (a16z) i Sequoia Capital, jest wydarzeniem bezprecedensowym. Podobnie jak inwestycja w firmę Nomagic (ok. 140 mln PLN). Te transakcje definitywnie umieszczają Polskę na globalnej mapie innowacji.

    Analiza europejskiego rynku technologicznego w 2025 roku prowadzi do jednoznacznego wniosku: mamy do czynienia z rynkiem dojrzalszym, bardziej selektywnym i strategicznie ukierunkowanym.

    Czas łatwego pieniądza i finansowania wzrostu za wszelką cenę minął. Zastąpiła go era mniejszej liczby transakcji, które są jednak większe, mądrzejsze i skoncentrowane w sektorach o fundamentalnym znaczeniu dla przyszłości kontynentu.

    Dla inwestorów największe możliwości leżą na przecięciu globalnych trendów technologicznych (przede wszystkim AI) i strategicznych priorytetów Europy (suwerenność, transformacja energetyczna, bezpieczeństwo).

    Dla założycieli sukces w obecnym klimacie wymaga czegoś więcej niż tylko innowacyjnej technologii – inwestorzy oczekują wyraźnego dopasowania produktu do rynku i wiarygodnej ścieżki do rentowności.

    Rok 2025 to test dojrzałości dla europejskiego ekosystemu technologicznego. To czas, w którym Europa, być może z konieczności, uczy się inwestować nie tylko szeroko, ale przede wszystkim mądrze, budując fundamenty pod swoją długoterminową konkurencyjność na globalnej scenie.

  • HealthTech liderem inwestycji w Polsce – analiza rynku, który przyciąga rekordowy kapitał

    HealthTech liderem inwestycji w Polsce – analiza rynku, który przyciąga rekordowy kapitał

    W krajobrazie polskiej gospodarki technologicznej od kilku lat rozgrywa się cicha rewolucja. Pozbawiona globalnego rozgłosu, który towarzyszy największym hubom technologicznym, transformacja sektora HealthTech w fundamentalny sposób zmienia oblicze krajowej opieki zdrowotnej, a jednocześnie przyciąga rekordowe strumienie kapitału.

    To, co jeszcze dekadę temu było niszą dla pasjonatów, dziś staje się jednym z najgorętszych i najbardziej stabilnych segmentów rynku inwestycyjnego. Polska, napędzana przez rosnącą dojrzałość ekosystemu i cyfryzację, której katalizatorem stała się pandemia, ugruntowuje swoją pozycję jako wiodący hub HealthTech w Europie Środkowo-Wschodniej.

    Teza ta znajduje mocne oparcie w danych. Sektor zdrowia od czterech lat niezmiennie utrzymuje pozycję lidera pod względem liczby transakcji Venture Capital (VC) w Polsce, odpowiadając w 2023 roku za 15,8% wszystkich rund finansowania.

    To sygnał, że inwestorzy nie tylko dostrzegli potencjał, ale traktują HealthTech jako strategiczny i odporny na wahania koniunktury obszar lokowania kapitału. Symbolem dojrzałości rynku stał się globalny sukces Docplanner (w Polsce znanego jako ZnanyLekarz), pierwszego polskiego jednorożca z tej branży, którego wycena przekroczyła miliard euro.

    Ta cicha rewolucja nabiera tempa, przekształcając Polskę z kraju adoptującego technologie w państwo, które je tworzy i eksportuje.

    Kapitał płynie do zdrowia szerokim strumieniem

    Analiza danych z polskiego rynku Venture Capital nie pozostawia złudzeń – sektor zdrowia stał się jego niekwestionowanym liderem. Raporty Polskiego Funduszu Rozwoju (PFR) i PFR Ventures konsekwentnie wskazują, że od 2020 roku startupy z obszaru HealthTech, MedTech i BioTech przyciągają największą liczbę rund inwestycyjnych.

    W samym 2023 roku zgarnęły one aż 15,8% wszystkich transakcji na rynku, deklasując inne popularne branże.   

    Skala tego wzrostu jest imponująca. Jeszcze w 2019 roku fundusze VC sfinansowały zaledwie 17 projektów z obszaru zdrowia. W 2023 roku liczba ta wzrosła do blisko 70. Ta ponad czterokrotna dynamika w liczbie transakcji przełożyła się również na ogromny wzrost wartości kapitału.

    W ciągu ostatnich pięciu lat lokalne i międzynarodowe fundusze VC zainwestowały w polskie innowacje medyczne około 1,3 miliarda złotych.   

    Co szczególnie wymowne, boom na HealthTech ma miejsce w kontekście globalnego i lokalnego spowolnienia na rynku VC. W 2023 roku ogólna wartość polskiego rynku VC skurczyła się aż o 42% w porównaniu z rekordowym rokiem 2022. W tych niepewnych czasach HealthTech okazał się inwestycyjną „bezpieczną przystanią”.

    Jego odporność wynika z faktu, że opieka zdrowotna opiera się na fundamentalnych, niecyklicznych potrzebach, a strukturalne problemy systemu, takie jak rosnące koszty i braki kadrowe, tworzą ogromny potencjał dla rozwiązań technologicznych.

    Rozwój rynku wspierają również inicjatywy instytucjonalne, takie jak Healthcare Investment Hub stworzony przez PFR, który buduje mosty między polskimi spółkami a wyspecjalizowanymi, europejskimi funduszami VC.

    Ekosystem zbudowany na fundamencie jednorożca

    Polski ekosystem HealthTech osiągnął masę krytyczną, licząc według różnych szacunków od 100 do ponad 300 działających startupów medycznych. Geograficznie scena jest silnie skoncentrowana w dwóch ośrodkach: Warszawie (woj. mazowieckie) i Wrocławiu (woj. dolnośląskie), gdzie działa odpowiednio 50% i 46% firm z tego sektora.

    Nie można jednak w pełni zrozumieć dojrzałości rynku bez analizy fenomenu Docplannera. Ta założona w Polsce firma stała się nieoficjalnym pierwszym jednorożcem wspieranym przez VC w historii kraju.

    Jej sukces, oparty na modelu łączącym darmową dla pacjentów platformę rezerwacji wizyt (B2C) z oprogramowaniem SaaS dla lekarzy i klinik (B2B), stał się potężnym katalizatorem dla całego ekosystemu.

    Globalny sukces Docplannera udowodnił międzynarodowym inwestorom, że polski startup jest w stanie zbudować rentowny, globalny biznes. Co więcej, firma wyszkoliła setki menedżerów i specjalistów, którzy, zdobywszy unikalne doświadczenie, założyli własne startupy lub zasilili szeregi innych, tworząc nową falę innowatorów i aniołów biznesu.

    Dzięki temu rynek dojrzał, przechodząc od rozwiązywania problemów „pierwszego rzędu” (jak umówić wizytę) do wyzwań znacznie bardziej złożonych. Dziś ekosystem jest zróżnicowany, a jego liderami są firmy takie jak Infermedica, pionier w wykorzystaniu AI do wstępnej oceny objawów, Jutro Medical, łączące telemedycynę z siecią fizycznych placówek POZ, czy StethoMe, twórca inteligentnego stetoskopu do użytku domowego, który wykorzystuje AI do analizy osłuchu płuc i serca.   

    HealthTech – 3 fale technologicznej rewolucji

    Ewolucja polskiego rynku HealthTech przebiega w trzech wyraźnych fazach technologicznych, które budują na sobie nawzajem.

    Faza I – Normalizacja Telemedycyny: Pandemia COVID-19 zadziałała jak potężny akcelerator. Tylko w 2020 roku w ramach podstawowej opieki zdrowotnej udzielono w Polsce aż 56,8 miliona teleporad, co stanowiło 36,4% wszystkich konsultacji. W szczytowym okresie pandemii udział telekonsultacji w Polsce sięgnął 62%, co było jednym z najwyższych wskaźników w Europie. Zdalna konsultacja przestała być ciekawostką, a stała się standardem, tworząc cyfrowy fundament pod dalszą rewolucję.   

    Faza II – Era Sztucznej Inteligencji w Diagnostyce: Gdy zdalna komunikacja stała się normą, rynek zaczął przechodzić od prostych konsultacji wideo do zaawansowanych systemów wspierających procesy decyzyjne. Sztuczna inteligencja (AI) znalazła zastosowanie w analizie danych medycznych i wstępnej ocenie stanu zdrowia pacjenta. Przykładem jest wspomniana Infermedica, której platforma przeprowadza z pacjentem wstępny wywiad i na podstawie analizy objawów rekomenduje najbardziej odpowiednią formę pomocy.   

    Faza III (Przyszłość) – Internet Rzeczy (IoT) i Medycyna Proaktywna: Kolejnym etapem jest Internet Rzeczy (IoT) w medycynie, który umożliwia przejście od medycyny reaktywnej do proaktywnej i predykcyjnej. Urządzenia noszone (wearables) i inteligentne sensory mogą zbierać dane o parametrach życiowych w czasie rzeczywistym, pozwalając na wczesne wykrywanie problemów zdrowotnych. Globalne prognozy wskazują na roczną stopę wzrostu (CAGR) dla tego rynku na poziomie około 21%. Dla Polski przewiduje się stabilny wzrost na poziomie 10,79% rocznie, co czyni ten segment bardzo perspektywicznym obszarem rozwoju.

    Wyzwania na horyzoncie: od laboratorium do rynku

    Pomimo dynamicznego rozwoju, polski ekosystem HealthTech stoi przed poważnymi wyzwaniami. Najważniejszym z nich jest tzw. „luka w komercjalizacji” – bariera pomiędzy ogromnym potencjałem naukowym a jego rynkowym wykorzystaniem.

    Polskie uniwersytety i instytuty badawcze prowadzą zaawansowane badania, jednak wciąż brakuje skutecznych mechanizmów, aby przekuwać odkrycia naukowe w skalowalne produkty, zwłaszcza w kapitałochłonnych segmentach MedTech i BioTech.

    Świadomość tych barier rośnie, a wraz z nią pojawiają się inicjatywy mające na celu budowanie mostów między światem nauki i biznesu.

    Przykładem jest POLMED Health Hub, platforma ułatwiająca współpracę między startupami a dojrzałymi firmami medycznymi, czy Forum MedTech stworzone przez koncern AstraZeneca, gdzie naukowcy mogą spotykać się z przedsiębiorcami i zdobywać praktyczną wiedzę o biznesie.   

    Jaka przyszłość czeka polski healthtech?

    Polski sektor HealthTech bez wątpienia zakończył fazę „cyfrowego zrywu” i wchodzi w okres dojrzałości. „Cicha rewolucja” staje się coraz głośniejsza, a jej dalsze losy będą zależeć od zdolności ekosystemu do pokonania kluczowych wyzwań.

    Przyszły wzrost będzie determinowany przez dalszy napływ kapitału, sukces w komercjalizacji zaawansowanych technologii (deep-tech) oraz skuteczną integrację innowacyjnych rozwiązań z publicznym systemem opieki zdrowotnej.

    Polska ma unikalną szansę, by z regionalnego lidera adopcji technologii stać się znaczącym europejskim centrum tworzenia i eksportu innowacji medycznych. Jeśli uda się pokonać istniejące bariery, „cicha rewolucja” ma wszelkie predyspozycje, by stać się głośnym, globalnym sukcesem polskiej gospodarki.

  • Nowe granty na cyfryzację dla produkcji. ARP uruchamia program Dig.IT

    Nowe granty na cyfryzację dla produkcji. ARP uruchamia program Dig.IT

    Agencja Rozwoju Przemysłu (ARP) zapowiada nowy program dotacyjny Dig.IT, skierowany do mikro, małych i średnich przedsiębiorstw z sektora produkcyjnego.

    Firmy będą mogły ubiegać się o dofinansowanie w wysokości do 850 tys. zł na projekty związane z transformacją cyfrową. Nabór wniosków ma ruszyć jeszcze w tym roku.

    Program ma na celu wsparcie MŚP w unowocześnianiu procesów produkcyjnych i operacyjnych. W przeciwieństwie do wielu dotacji regionalnych, Dig.IT wyróżnia się bardzo szerokim katalogiem kosztów kwalifikowanych.

    Dofinansowanie będzie można przeznaczyć nie tylko na zakup i wdrożenie gotowych systemów informatycznych, jak ERP, ale również na tworzenie oprogramowania na zamówienie. Granty pokryją także zakup środków trwałych (np. serwerów czy elementów linii produkcyjnej), a nawet koszty szkoleń dla pracowników.

    Wsparcie obejmie kluczowe obszary cyfryzacji, takie jak:

    • Automatyzacja i robotyzacja procesów
    • Wdrożenia rozwiązań chmurowych i systemów do zarządzania zasobami
    • Wykorzystanie sztucznej inteligencji i analityki danych
    • Cyberbezpieczeństwo
    • Cyfrowa obsługa klienta i sprzedaż

    Kluczowym warunkiem programu jest wymóg 50% wkładu własnego, co oznacza, że grant pokryje połowę wartości netto inwestycji. Minimalna kwota dotacji to 150 tys. zł, co implikuje, że całkowita wartość projektu musi wynieść co najmniej 300 tys. zł.

    Choć poziom dofinansowania jest niższy niż w niektórych programach, elastyczność w wydatkowaniu środków ma być główną zachętą dla firm gotowych na znaczącą inwestycję we własny rozwój technologiczny.

    Rynek już reaguje na zapowiedzi ARP. Najwięksi dostawcy oprogramowania, np. Comarch, organizują webinary dla przedsiębiorców, podczas których omawiane są możliwości dopasowania systemów ERP do wymogów dotacji oraz zasady przygotowania wniosków.

    Mimo że szczegółowy regulamin konkursu nie został jeszcze opublikowany, zainteresowane firmy już teraz powinny analizować swoje potrzeby i przygotowywać zarysy projektów, aby zmaksymalizować swoje szanse w momencie uruchomienia naboru.

  • Polski FinTech: europejski lider innowacji płatniczych w liczbach

    Polski FinTech: europejski lider innowacji płatniczych w liczbach

    W globalnej dyskusji o centrach finansowych rzadko pojawia się Warszawa. Dominują Londyn, Frankfurt czy Zurych. A jednak to w Polsce, z dala od tradycyjnych bastionów bankowości, rozgrywa się cicha rewolucja. Kraj, który nie jest globalną stolicą finansową, zbudował jeden z najbardziej dynamicznych i innowacyjnych ekosystemów FinTech w Europie. To nie publicystyczna teza, lecz rzeczywistość, którą można zmierzyć i policzyć.

    Pozycja Polski jako lidera innowacji płatniczych opiera się na trzech solidnych filarach: zaskakująco dojrzałym i rentownym sektorze krajowych firm technologiczno-finansowych, bezprecedensowym sukcesie narodowego standardu płatności BLIK oraz błyskawicznej adaptacji usług „Kup Teraz, Zapłać Później” (BNPL). Analiza twardych danych pokazuje, jak Polska metodycznie wyznacza standardy dla całego kontynentu.

    Fundament sukcesu: zdrowy i dojrzały ekosystem

    Siła polskiego sektora FinTech nie jest dziełem przypadku. To efekt lat budowania głębokiego i, co najważniejsze, finansowo zdrowego ekosystemu. Dane jednoznacznie wskazują na trwały i dynamiczny wzrost. Zgodnie z raportem „Mapa polskiego fintechu”, liczba firm w sektorze wzrosła z zaledwie 167 w 2018 roku do rekordowych 383 w roku 2025. To nie jest już garstka obiecujących start-upów, ale w pełni ukształtowana gałąź gospodarki cyfrowej, której centrum z 45% firm zlokalizowanych w stolicy jest Warszawa.

    Struktura rynku świadczy o jego dojrzałości. Obok zwinnych, małych podmiotów zatrudniających do 10 osób (31% firm), funkcjonują duże, ugruntowane przedsiębiorstwa z ponad 100 pracownikami (30% firm). Podobnie wygląda rozkład przychodów – aż 34% podmiotów to rynkowi liderzy generujący ponad 100 milionów PLN rocznie.

    Jednak najbardziej wymownym wskaźnikiem, który odróżnia Polskę od wielu globalnych hubów technologicznych, jest rentowność. W środowisku, gdzie start-upy często priorytetyzują wzrost kosztem zysku, polski FinTech stoi na solidnych fundamentach. Aż 86% firm z tego sektora może pochwalić się zyskiem, a tylko 14% zakończyło ubiegły rok na minusie. To dowód na zdrowe modele biznesowe, które od początku generują realną wartość. Ten silny, rentowny rynek krajowy posłużył jako idealny inkubator dla światowej klasy rozwiązań, gotowych do międzynarodowej ekspansji.

    BLIK – jak Polska zdefiniowała płatności mobilne na nowo

    Jeśli polski ekosystem FinTech jest fundamentem, to BLIK jest perłą w jego koronie. Jego sukces to wynik unikalnej w skali światowej współpracy konkurencyjnych banków, które w ramach spółki Polski Standard Płatności (PSP) stworzyły jeden, wspólny standard narodowy. Ta strategiczna decyzja pozwoliła uniknąć rynkowej fragmentacji i od pierwszego dnia zapewniła BLIKOWI dostęp do milionów klientów.

    Liczby mówią same za siebie. W pierwszym półroczu 2025 roku użytkownicy zrealizowali 1,39 miliarda transakcji o łącznej wartości 207,3 miliarda PLN . Oznacza to wzrost wartości o niemal jedną trzecią rok do roku. Baza aktywnych użytkowników sięgnęła 19,4 miliona, rosnąc o 2,5 miliona w ciągu zaledwie roku . Skala operacji jest ogromna – średnio każdego dnia Polacy realizują 7,4 miliona transakcji BLIKIEM.

    Początkowo siłą BLIKA był e-commerce, gdzie do dziś pozostaje niekwestionowanym liderem, odpowiadając za blisko połowę wszystkich operacji. Jednak system ewoluował w prawdziwie wszechstronne narzędzie. Przelewy na telefon (P2P) stały się codziennym nawykiem dla ponad 18,7 miliona zarejestrowanych użytkowników. Prawdziwą rewolucją okazały się jednak płatności zbliżeniowe w terminalach stacjonarnych (POS), które notują astronomiczną dynamikę wzrostu na poziomie 86% rok do roku. Ten ruch przekształca BLIKA w bezpośredniego konkurenta dla globalnych gigantów kartowych w świecie fizycznego handlu.

    W skali Europy BLIK jest absolutnym liderem. W 2023 roku przetworzył ponad 1,7 miliarda transakcji, co czyni go największym systemem płatności mobilnych na kontynencie pod względem wolumenu . Jego sukces to wzorcowy przykład synergii między sektorem bankowym a technologicznym, który stał się inspiracją dla innych rynków.

    „Kup teraz, zapłać później” (BNPL) – druga fala innowacji

    Dynamiczny rozwój sektora „Kup Teraz, Zapłać Później” (BNPL) jest świadectwem nieustającej innowacyjności polskiego rynku. Polska nie tylko zaadaptowała ten globalny trend, ale stała się jednym z liderów jego wdrożenia. Wartość rynku płatności odroczonych w Polsce ma osiągnąć 1,74 miliarda dolarów w 2025 roku, a prognozy przewidują dalszy wzrost do 2,80 miliarda dolarów do 2030 roku.

    Co istotne, polscy konsumenci wykazują wyjątkowy entuzjazm dla tej formy płatności. Już w 2021 roku odsetek Polaków, którzy skorzystali z usług BNPL (62%), był wyższy niż w Szwecji (58%) – kraju uznawanym za kolebkę tego typu usług . Powszechna adopcja postępuje – odsetek użytkowników wzrósł z 15% na koniec 2023 roku do 21% w lipcu 2024 roku . Dla sprzedawców e-commerce BNPL stało się potężnym narzędziem, które może podnieść konwersję nawet o 20%.

    Strategicznym ruchem, który dodatkowo napędza rynek, jest wejście BLIKA z usługą BLIK Płacę Później. Wykorzystuje ona ogromną bazę użytkowników i zaufanie do marki, aby przyspieszyć adopcję BNPL na masową skalę. Dane pokazują, że średnia wartość transakcji w tej usłudze (321 PLN) jest ponad dwukrotnie wyższa niż w przypadku standardowych płatności BLIK (155 PLN), co dowodzi, że Polacy chętnie finansują w ten sposób większe zakupy .

    Perspektywy: od lokalnego lidera do globalnego gracza

    Sukces polskiego FinTechu opiera się na unikalnej synergii banków i firm technologicznych, wymagającym rynku wewnętrznym oraz silnym zapleczu technologicznym. W przeciwieństwie do konfrontacyjnego modelu z Doliny Krzemowej, w Polsce dominuje współpraca. Banki, takie jak PKO BP, Alior Bank czy Santander, prowadzą własne programy akceleracyjne, aktywnie wdrażając rozwiązania tworzone przez start-upy .

    Po ugruntowaniu pozycji w kraju, naturalnym krokiem staje się ekspansja międzynarodowa. BLIK realizuje już swoją strategię, wdrażając system na Słowacji i przygotowując się do wejścia na rynek w Rumunii . Nie jest to odosobniony przypadek. Polskie firmy, takie jak Verestro (działające na 5 kontynentach), Authologic (zintegrowane ze źródłami w blisko 200 krajach) czy PayU (globalny gracz o polskich korzeniach), już odniosły znaczący sukces na arenie międzynarodowej.

    Przyszłość polskiego FinTechu będzie kształtowana przez globalne trendy, takie jak sztuczna inteligencja i finanse wbudowane, ale także przez nowe regulacje unijne i rosnącą konkurencję ze strony globalnych gigantów technologicznych .

    Analiza liczb nie pozostawia jednak wątpliwości. Dojrzały, rentowny ekosystem, fenomen BLIKA i boom na rynku BNPL jednoznacznie potwierdzają, że Polska jest dziś jednym z najważniejszych centrów innowacji płatniczych w Europie. To lider, który nie tylko nadąża za trendami, ale coraz częściej je wyznacza.

  • Polski fundusz stawia na kosmos. Vinci inwestuje w satelitarnego lidera ICEYE

    Polski fundusz stawia na kosmos. Vinci inwestuje w satelitarnego lidera ICEYE

    Fundusz Vinci, należący do grupy Banku Gospodarstwa Krajowego, zainwestował ponad 40 milionów złotych w ICEYE, polsko-fińską spółkę będącą globalnym liderem w dziedzinie radarowej obserwacji Ziemi.

    Inwestycja ta wprowadza Polskę na dynamicznie rosnący, wart miliardy dolarów rynek danych satelitarnych, otwierając nowy rozdział w zaangażowaniu kraju w sektorze New Space.

    ICEYE, działające od 2015 roku, jest operatorem największej na świecie konstelacji mikrosatelitów wyposażonych w radar z syntetyczną aperturą (SAR). Ta zaawansowana technologia umożliwia pozyskiwanie zobrazowań powierzchni Ziemi w wysokiej rozdzielczości o każdej porze doby i niezależnie od warunków pogodowych, co stanowi przewagę nad tradycyjnymi satelitami optycznymi.

    Od 2018 roku firma umieściła na orbicie 54 satelity, budując system zdolny do monitorowania wybranego obszaru nawet co 90 minut.

    Rynek obserwacji Ziemi rośnie w tempie około 2 miliardów dolarów rocznie, napędzany przez zamówienia z sektora publicznego i prywatnego. Technologia ICEYE ma charakter *dual-use*, co oznacza, że znajduje zastosowanie zarówno w obszarze obronności i wywiadu, jak i w sektorze komercyjnym.

    Z jej danych korzystają już rządy takich państw jak USA, Japonia czy Brazylia, a także siły zbrojne Ukrainy. W ostatnim czasie do grona klientów dołączyły Polska, Holandia i Portugalia.

    Rozwiązania firmy są również kluczowe dla branży ubezpieczeniowej przy ocenie skutków katastrof naturalnych, takich jak powodzie, pożary czy trzęsienia ziemi.

    Inwestycja Vinci wpisuje się w strategię BGK wspierania polskich innowacyjnych technologii o znaczeniu strategicznym. Umacnia ona również pozycję Polski w strukturach ICEYE – w Warszawie mieści się Centrum Operacji Satelitarnych firmy oraz kluczowe zaplecze badawczo-rozwojowe.

    Transakcja zbiega się w czasie z realizacją kontraktu dla polskiego Ministerstwa Obrony Narodowej, które zamówiło trzy satelity z opcją na kolejne.

    Pierwsze z urządzeń ma trafić na orbitę jeszcze w tym roku, a ICEYE planuje dalsze zwiększanie mocy produkcyjnych, aby sprostać globalnemu popytowi.

    „Nasza inwestycje w ICEYE oznacza, że Polska na wczesnym etapie wkracza w zupełnie nowych segment branży satelitarnej. Wysokiej jakości dane satelitarne mają zastosowanie zarówno w działaniach obronnych i wywiadowczych, jak i w zapobieganiu oraz usuwaniu skutków katastrof naturalnych. Rynek monitoringu Ziemi z kosmosu rośnie w tempie 2 mld dolarów rocznie, na które składają się zamówienia ze strony państw oraz sektora prywatnego” – informuje Bartosz Drabikowski, prezes Vinci, funduszu z grupy BGK, wspierającego rozwój innowacyjnych technologii. – „Wchodzimy na ten perspektywiczny rynek z dużym apetytem, widząc w nim szansę rozwoju dla Polski, ale też okazję do pomnożenia posiadanego przez Vinci kapitału. Tuż po drugim w historii locie Polaka w kosmos, ogłaszamy naszą pierwszą inwestycję w technologie kosmiczne” – dodaje.  

  • Nowa technologia Fujitsu: Obliczenia kwantowe o 43% poprawiają precyzję robotów

    Nowa technologia Fujitsu: Obliczenia kwantowe o 43% poprawiają precyzję robotów

    Hybrydowe podejście Fujitsu i czołowych uniwersytetów o 43% redukuje błędy w obliczeniach postawy, otwierając drogę do bardziej złożonych maszyn humanoidalnych.

    Konsorcjum z udziałem Fujitsu, Shibaura Institute of Technology i Uniwersytetu Waseda opracowało nowatorską, hybrydową metodę do sterowania postawą robotów wielostawowych. Wykorzystując moc obliczeń kwantowych, naukowcy rozwiązali jeden z klasycznych problemów robotyki – wysoką złożoność obliczeniową kinematyki odwrotnej.

    Kluczowym wyzwaniem w zaawansowanej robotyce jest kinematyka odwrotna, czyli proces obliczania kątów w poszczególnych stawach robota, aby jego końcówka (np. chwytak) znalazła się w precyzyjnie określonym punkcie. W przypadku maszyn o dużej liczbie stopni swobody, naśladujących ludzkie ciało (np. 17 stawów), liczba możliwych kombinacji staje się tak ogromna, że klasyczne komputery nie radzą sobie z obliczeniami w czasie rzeczywistym. Prowadzi to do uproszczeń, ograniczających płynność i zakres ruchów robota.

    Nowe podejście polega na reprezentacji orientacji i pozycji każdej części robota za pomocą kubitów. Co kluczowe, technika wykorzystuje splątanie kwantowe do odtworzenia fizycznych zależności między stawami – ruch jednego segmentu natychmiastowo wpływa na segmenty z nim połączone. Obliczenia kinematyki prostej (pozycja końcówki na podstawie kątów) odbywają się w obwodzie kwantowym, podczas gdy zadanie kinematyki odwrotnej pozostaje po stronie komputera klasycznego.

    Weryfikacja na symulatorze kwantowym Fujitsu wykazała redukcję błędu pozycjonowania nawet o 43% przy mniejszej liczbie obliczeń w porównaniu do metod konwencjonalnych. Skuteczność splątania potwierdzono również w eksperymencie na 64-kubitowym komputerze kwantowym zbudowanym przez Fujitsu i instytut RIKEN. Próbne obliczenia dla złożonego, 17-stawowego modelu udało się zrealizować w około 30 minut.

    Metoda jest na tyle efektywna, że może być implementowana na istniejących, wciąż zaszumionych komputerach kwantowych ery NISQ (Noisy Intermediate-Scale Quantum). W przyszłości technologia ta może znaleźć zastosowanie w sterowaniu w czasie rzeczywistym robotami humanoidalnymi i manipulatorami, optymalizacji ich zużycia energii czy zaawansowanym omijaniu przeszkód.

  • Roboty humanoidalne: USA vs Chiny vs Japonia vs Europa. Analiza strategii 2025

    Roboty humanoidalne: USA vs Chiny vs Japonia vs Europa. Analiza strategii 2025

    Wyścig o stworzenie pierwszego prawdziwie użytecznego robota humanoidalnego to coś więcej niż technologiczna rywalizacja. To cicha wojna o przyszłość przemysłu, rynku pracy i prestiżu narodowego.

    Podczas gdy amerykańskie Big Techy liczą zwrot z inwestycji, Chiny realizują państwową strategię, Japonia próbuje rozwiązać kryzys demograficzny, a Europa debatuje nad etyką.

    To starcie czterech fundamentalnie różnych doktryn, od którego zależeć będzie kształt rynku wartego miliardy dolarów i to, jak będzie wyglądała nasza praca za dekadę.

    Doktryna Doliny Krzemowej: robot jako narzędzie ROI

    W Stanach Zjednoczonych humanoidy to przede wszystkim kapitał. Ich rozwój jest napędzany przez rynek i motywowany obietnicą radykalnego wzrostu wydajności.

    Pytanie nie brzmi „czy to możliwe?”, ale „jak szybko się to zwróci?”. Prywatny kapitał i giganci technologiczni, tacy jak Tesla, Amazon czy NVIDIA, widzą w dwunożnych maszynach kolejne narzędzie do optymalizacji.

    Mają one zapełnić luki kadrowe w logistyce, przejąć monotonne zadania na liniach montażowych i działać w środowiskach zaprojektowanych dla ludzi, ale dla nich zbyt uciążliwych.Amerykańska doktryna jest prosta: robot humanoidalny to produkt, którego wartość mierzy się zwrotem z inwestycji (ROI).

    Rząd, zwłaszcza poprzez finansowanie wojskowe, był historycznie katalizatorem innowacji, ale dziś to rynek dyktuje warunki.

    Aspekty społeczne czy etyczne są drugorzędne wobec funkcji i efektywności. Pragmatyzm w czystej postaci – maszyna ma pracować, zarabiać i dawać przewagę konkurencyjną.

    Chińska strategia: Technologia jako manifestacja siły

    Podczas gdy w Ameryce rynek dyktuje warunki, po drugiej stronie Pacyfiku reguły gry pisze państwo. Dla Pekinu humanoidy to element geopolitycznej układanki i klucz do technologicznej niezależności.

    To odgórnie sterowany, narodowy projekt, którego celem jest nie tylko budowa robotów, ale stworzenie od podstaw całego, samowystarczalnego ekosystemu. Ministerstwo Przemysłu i Technologii Informacyjnych już w 2023 roku przedstawiło ambitny plan osiągnięcia masowej produkcji do 2025 roku.

    Chińskie podejście jest holistyczne. Równolegle do prac nad samymi maszynami, Pekin inwestuje w rozwój i produkcję kluczowych komponentów: serwomechanizmów, sensorów i chipów AI. Celem jest uniezależnienie się od zachodnich dostawców i zdominowanie globalnego łańcucha wartości.

    Humanoidy mają być wizytówką chińskiej potęgi technologicznej, wdrażaną masowo w sektorze usług, opiece zdrowotnej i inteligentnej produkcji. Słowem kluczowym jest tu strategia.

    Japońska konieczność: Społeczny inżynier w metalowej skórze

    Japonia, historyczny pionier robotyki, nie rozwija humanoidów z wyboru, lecz z konieczności. Maszyny mają być odpowiedzią na najpoważniejszy problem kraju: postępującą zapaść demograficzną.

    W starzejącym się społeczeństwie, gdzie brakuje rąk do pracy w opiece, usługach czy nawet handlu, roboty przestają być technologiczną ciekawostką, a stają się elementem strategii przetrwania.

    To jedyny region, gdzie „towarzysz” jest równie ważny co „pracownik”. Doświadczenia z takimi maszynami jak „Asimo” Hondy czy „Pepper” od SoftBanku pokazały, że priorytetem jest funkcja społeczna.

    Humanoidy mają asystować osobom starszym, edukować dzieci i wspierać klientów w sklepach. Mają wypełnić luki w tkance społecznej, które powstały w wyniku demografii. Japońskie podejście definiuje konieczność rozwiązania palącego problemu społecznego.

    Europejski hamulec: Etyka przed efektywnością

    Europa podchodzi do rewolucji humanoidalnej z charakterystyczną dla siebie ostrożnością. Zamiast szybkiego wdrożenia, stawia na ewolucję, w której priorytetem jest bezpieczeństwo człowieka, etyka i model współpracy.

    Kontynent, który jest liderem w dziedzinie „kobotów” (robotów współpracujących), przenosi tę filozofię na bardziej zaawansowane maszyny. Celem nie jest zastąpienie pracownika, ale uczynienie jego pracy lżejszą, bezpieczniejszą i bardziej ergonomiczną.

    To podejście humanocentryczne, silnie zakorzenione w regulacjach i debacie publicznej. Zanim humanoidy pojawią się na szeroką skalę w europejskich fabrykach czy domach, muszą przejść długą drogę testów, certyfikacji i społecznej akceptacji.

    Pytania o wpływ na rynek pracy, bezpieczeństwo danych i odpowiedzialność prawną są tu stawiane na równi z kwestiami technicznymi. Kluczowym słowem jest współpraca, a co za tym idzie – rozwaga.

    Nieuniknione zderzenie doktryn

    Te cztery filozofie wkrótce zaczną konkurować na globalnym rynku. Czy amerykański, napędzany zyskiem pragmatyzm okaże się najszybszą drogą do celu? Czy chińska, państwowa strategia pozwoli zbudować niedoścignioną przewagę w skali i kosztach produkcji?

    Czy japońskie roboty społeczne znajdą niszę w innych starzejących się społeczeństwach Zachodu? I wreszcie, czy europejska ostrożność okaże się mądrą, długoterminową grą, która zaowocuje najbardziej zrównoważonymi rozwiązaniami, czy przepisem na technologiczne zapóźnienie?

    Zwycięzca tego wyścigu niekoniecznie będzie dysponował najbardziej zaawansowaną maszyną. Wygra ten, którego filozofia i model biznesowy najlepiej odpowiedzą na ekonomiczne i społeczne wyzwania nadchodzącej dekady.

  • Byli managerowie firmy Nokia wzmacniają fiński startup kwantowy QMill

    Byli managerowie firmy Nokia wzmacniają fiński startup kwantowy QMill

    Pekka Lundmark, były dyrektor generalny Nokia, oraz Antti Vasara, do niedawna szef fińskiego centrum badań technicznych VTT, dołączają do zarządu startupu QMill. Lundmark obejmie również rolę inwestora, sygnalizując rosnące zainteresowanie technologiami kwantowymi wśród doświadczonych liderów branży technologicznej.

    QMill to startup z Espoo, który koncentruje się na rozwoju algorytmów kwantowych. Firma, która rozpoczęła działalność w ubiegłym roku, pozyskała już finansowanie zalążkowe od funduszy takich jak Antler, Maki.vc i Kvanted.

    Dołączenie do jej struktur dwóch tak znaczących postaci z fińskiego ekosystemu technologicznego jest wyraźnym sygnałem ambicji i potencjału spółki.

    Pekka Lundmark jest znany z udanej restrukturyzacji Nokii, którą przeprowadził w latach 2020-2024, przekształcając firmę w stabilnego gracza na rynku sprzętu telekomunikacyjnego.

    Z kolei Antti Vasara, również z przeszłością w Nokii, przez ostatnią dekadę kierował VTT, kluczowym ośrodkiem innowacji w Finlandii, mocno zaangażowanym w badania nad obliczeniami kwantowymi. Vasara obejmie stanowisko prezesa rady nadzorczej QMill.

    Ich zaangażowanie wpisuje się w globalny trend, w którym technologie kwantowe przyciągają coraz większy kapitał i talenty. Startupy z tego sektora często współpracują z gigantami technologicznymi, takimi jak Microsoft czy Nvidia, w celu budowy maszyn zdolnych rozwiązywać problemy niedostępne dla klasycznych komputerów.

    Decyzja Lundmarka i Vasary o wsparciu QMill podkreśla strategiczne znaczenie oprogramowania i algorytmów, które będą kluczowe dla wykorzystania mocy obliczeniowej przyszłych komputerów kwantowych. To również ważny krok dla Finlandii w umacnianiu jej pozycji jako jednego z europejskich liderów w tej dziedzinie.

  • Japoński startup JPYC wprowadzi pierwszego regulowanego stablecoina jenowego jesienią

    Japoński startup JPYC wprowadzi pierwszego regulowanego stablecoina jenowego jesienią

    Japoński startup fintechowy JPYC przygotowuje się do uruchomienia pierwszego w kraju w pełni regulowanego stablecoina powiązanego z jenem. Emisja tokena o nazwie „JPYC” planowana jest na jesień tego roku, po tym jak firma w tym tygodniu uzyskała kluczową licencję na przekazy pieniężne od japońskiej Agencji Usług Finansowych (FSA).

    Nowy gracz na globalnej scenie

    JPYC ma ambicje stać się dla jena tym, czym Tether (USDT) i USDC są dla dolara amerykańskiego, ale z kluczową różnicą w podejściu do przejrzystości i modelu biznesowego. Stablecoin będzie w pełni zabezpieczony rezerwami w postaci depozytów krajowych oraz japońskich obligacji rządowych (JGB).

    To posunięcie wpisuje się w nowe ramy prawne w Japonii, które weszły w życie w zeszłym roku, formalnie uznając stablecoiny zabezpieczone fiducjarnie i określając wymogi dla ich emitentów.

    Dyrektor generalny firmy, Noritaka Okabe, początkowo celuje w inwestorów instytucjonalnych, fundusze hedgingowe i biura rodzinne w Japonii. Ostatecznym celem jest jednak globalna dystrybucja JPYC i jego wykorzystanie jako cyfrowego jena na całym świecie.

    W ciągu najbliższych trzech lat firma planuje wyemitować tokeny o wartości biliona jenów (około 6.8 miliarda dolarów).

    Innowacyjny model biznesowy

    Tym, co wyróżnia JPYC na tle konkurencji, jest nietypowy model przychodów. Firma ogłosiła, że nie będzie pobierać żadnych opłat transakcyjnych. Zamiast tego jej zysk będzie pochodził z odsetek generowanych przez posiadane obligacje rządowe.

    Im większa będzie emisja i adopcja stablecoina, tym większy portfel JGB zgromadzi firma, co ma zapewnić jej rentowność. Taka strategia może okazać się przełomowa i wpłynąć na standardy w całej branży.

    Wejście JPYC na rynek odbywa się w momencie rosnącego globalnego zainteresowania stablecoinami, co potwierdzają ruchy takich gigantów jak PayPal czy Visa, integrujących płatności oparte na tokenach. Jednocześnie światowi regulatorzy prezentują różne podejścia – od dążących do uregulowania rynku Stanów Zjednoczonych po Chiny, które zakazują handlu kryptowalutami i ograniczają badania nad stablecoinami. Uruchomienie JPYC będzie ważnym testem dla japońskiego rynku i może pozycjonować Japonię jako kluczowego gracza w azjatyckiej gospodarce cyfrowych aktywów.

  • Dlaczego europejskie startupy rosną inaczej – i dlaczego globalny kapitał tego nie rozumie

    Dlaczego europejskie startupy rosną inaczej – i dlaczego globalny kapitał tego nie rozumie

    Świat Venture Capital to w dużej mierze sztuka odczytywania sygnałów. W gąszczu tysięcy firm inwestorzy poszukują wzorców, które zwiastują przyszły sukces. Problem w tym, że wzorce te nie są uniwersalne.

    Globalny rynek kapitału, ukształtowany w dużej mierze przez Dolinę Krzemowej, posługuje się językiem, który nie zawsze jest w stanie opisać rzeczywistość europejskich innowacji. Nie jest to kwestia winy, lecz zderzenia dwóch odmiennych, lecz równie potężnych filozofii budowania wartości.

    Pierwsza z nich to amerykańska filozofia napędzana przez momentum. W jej ramach startup jest systemem zaprojektowanym do jak najszybszego zdobycia uwagi, kapitału i talentu.

    Agresywny storytelling i budowanie narracji rynkowej na bardzo wczesnym etapie nie są tu postrzegane jako próżność, ale jako kluczowy element infrastruktury wzrostu. Założyciel w roli charyzmatycznego wizjonera i strategia „blitzscalingu” to kolejne elementy tej układanki.

    W hiperkonkurencyjnym środowisku Stanów Zjednoczonych, gdzie dziesiątki firm walczą o ten sam rynek, zdolność do stworzenia wrażenia nieuchronnego sukcesu staje się przewagą samą w sobie. Percepcja kształtuje rzeczywistość, przyciągając zasoby, które faktycznie ten sukces umożliwiają.

    Po drugiej stronie stoi europejska filozofia, której fundamentem jest produkt. Jest ona głęboko zakorzeniona w kulturze inżynierskiej, gdzie najwyższą wartością jest technologiczna doskonałość i zrównoważony model biznesowy. Europejscy założyciele często wyznają zasadę, że najlepszy produkt obroni się sam.

    Zamiast inwestować wczesny kapitał w medialny rozgłos, przeznaczają go na dodatkowe iteracje, badania i rozwój. Wzrost jest tu postrzegany bardziej jako proces organiczny, napędzany przez realną trakcję i pozytywne *unit economics*, a nie przez zewnętrzny szum.

    Ten model również dowiódł swojej skuteczności, regularnie tworząc globalnych liderów technologicznych o niezwykle solidnych fundamentach.

    Do prawdziwego zderzenia dochodzi, gdy globalny kapitał, posługujący się językiem momentum, próbuje ocenić firmę zbudowaną w oparciu o filozofię produktu. Wtedy te same fakty może interpretować w zupełnie inny sposób.

    Tam, gdzie amerykański inwestor, przyzwyczajony do medialnej aktywności jako dowodu na zainteresowanie rynku, widzi brak publikacji i wywiadów, w europejskiej rzeczywistości może kryć się startup, który w ciszy zdobywa kluczowych klientów korporacyjnych i dopracowuje technologię z dala od publicznego oka.

    Podobnie, introwertyczny założyciel o głębokiej wiedzy technicznej może nie zdać testu na „charyzmatycznego wizjonera”, choć to właśnie jego ekspertyza stanowi najtrudniejszą do skopiowania przewagę konkurencyjną firmy.

    Powolne, przemyślane budowanie zespołu, zamiast gwałtownego podwajania zatrudnienia, może zostać odczytane jako brak ambicji, podczas gdy w rzeczywistości jest świadectwem dbałości o kulturę organizacyjną i kapitałową efektywność.

    Ta różnica w interpretacji nie jest niczyją winą – to naturalna konsekwencja odmiennych doświadczeń rynkowych. Prowadzi ona jednak do powstania rynkowej nieefektywności.

    Z jednej strony wartościowe europejskie firmy z solidnymi fundamentami mogą mieć trudności z pozyskaniem kapitału na globalną ekspansję, ponieważ nie wysyłają sygnałów, których oczekuje rynek.

    Z drugiej, inwestorzy trzymający się sztywno jednego modelu oceny, ryzykują przeoczenie niedowartościowanych pereł, których prawdziwy potencjał kryje się w kodzie i bilansie, a nie w nagłówkach prasowych.

    Kluczem do przyszłości nie jest udowodnienie wyższości jednej filozofii nad drugą, ale budowanie mostów między nimi. Europejscy założyciele muszą nauczyć się tłumaczyć swoje osiągnięcia produktowe na język momentum, który rozumie globalny kapitał.

    Nie chodzi o porzucenie swojej tożsamości, ale o uzupełnienie jej o umiejętność komunikowania wartości w skali światowej. Z kolei najbardziej perspektywiczni inwestorzy to ci, którzy staną się „dwujęzyczni” – zdolni docenić zarówno głośne sygnały amerykańskiego rozmachu, jak i ciche sygnały fundamentalnej siły, charakterystyczne dla Europy.

    W globalnej grze o innowacje wygrają bowiem nie ci, którzy najgłośniej krzyczą, ale ci, którzy potrafią najlepiej słuchać.

  • Creotech Instruments z pierwszym kontraktem na kamerę. Polska technologia ma chronić satelity

    Creotech Instruments z pierwszym kontraktem na kamerę. Polska technologia ma chronić satelity

    Notowany na giełdzie Creotech Instruments, największy polski producent technologii satelitarnych, rozpoczyna komercjalizację nowej linii produktowej.

    Firma podpisała swój pierwszy zagraniczny kontrakt na sprzedaż zaawansowanej kamery CreoSky 6000. Urządzenie o wartości 196 tys. euro trafi do czeskiego obserwatorium i będzie wykorzystywane do monitorowania obiektów na orbicie Ziemi.

    Kontrakt z Obserwatorium i Planetarium w Teplicach to dla polskiej spółki ważny krok w kierunku dywersyfikacji przychodów.

    Do tej pory Creotech był kojarzony głównie z produkcją satelitów i ich komponentów. Teraz firma wchodzi na rynek zaawansowanej aparatury naziemnej, odpowiadając na rosnące zapotrzebowanie w Europie.

    Kamera CreoSky 6000 została zaprojektowana do rozwiązania konkretnego problemu – monitorowania i śledzenia obiektów na niskiej orbicie okołoziemskiej.

    Jest to kluczowe w kontekście rosnącej liczby tzw. kosmicznych śmieci. Szacuje się, że wokół Ziemi krąży ponad 900 tysięcy fragmentów o wielkości od 1 do 10 cm. Mimo niewielkich rozmiarów, poruszają się one z ogromną prędkością i stanowią śmiertelne zagrożenie dla działających satelitów i infrastruktury kosmicznej.

    Inicjatywy takie jak europejski program EU SST (Space Surveillance and Tracking) mają na celu stworzenie systemu wczesnego ostrzegania przed tego typu zagrożeniami.

    Produkt Creotech Instruments wpisuje się w te działania, oferując jedno z niewielu tak zaawansowanych urządzeń produkowanych w Unii Europejskiej.

    Sercem kamery jest sensor sCMOS o rozdzielczości 37 megapikseli i bardzo niskim poziomie szumów, co pozwala na wykrywanie bardzo słabo świecących obiektów.

    Duża prędkość odczytu (do 22 klatek na sekundę) umożliwia precyzyjne śledzenie szybko poruszających się fragmentów. Co istotne, urządzenie działa autonomicznie dzięki wbudowanemu procesorowi, który przetwarza dane w czasie rzeczywistym.

    Sprzedaż kamery do Czech to pierwszy etap w strategii komercjalizacji nowej linii produktowej.

    Creotech Instruments planuje dalszą ekspansję na rynki zagraniczne, w tym w Europie i Stanach Zjednoczonych. Umacnia to pozycję firmy jako dostawcy kompleksowych rozwiązań dla sektora kosmicznego, zarówno w segmencie orbitalnym, jak i naziemnym.

  • ASBIS inwestuje w RobotiFAI – AI automatyzuje finanse firm na globalną skalę

    ASBIS inwestuje w RobotiFAI – AI automatyzuje finanse firm na globalną skalę

    W jednym z najbardziej strategicznych posunięć w segmencie technologii finansowej, Grupa ASBIS – kluczowy dystrybutor i integrator w regionie EMEA – zawarła dwuletnią umowę inwestycyjną sięgającą do 2 mln EUR ze szwajcarsko-amerykańskim startupem RobotiFAI.

    Startup ten opracowuje systemy AI umożliwiające pełną automatyzację procesów finansowych – od obiegu faktur po zamknięcia miesiąca.

    Popularna u ASBISa umowa SAFE (Simple Agreement for Future Equity) zabezpiecza inwestorowi przyszły udział w kapitale firmy, nieprzekraczający 20%. Finansowanie będzie zrealizowane etapami, uzależnionymi od osiągnięcia kolejnych kamieni milowych projektu.

    RobotiFAI, powstały w maju 2024 r., skupia się na usprawnieniu kluczowych funkcji finansowych — rozliczeń, analizy, raportowania — dzięki modelowi natywnemu dla chmury, autonomicznemu i zaprojektowanemu w celu redukcji manualnych błędów i zwiększenia efektywności.

    Już teraz działa moduł Purchase to Pay (PtP), który obsługuje cały proces automatycznie, przez całą dobę.

    Co istotne, w przeciwieństwie do typowych inwestycji finansowych, ASBIS jest jednocześnie pierwszym klientem referencyjnym RobotiFAI.

    Wdrożenie modułu PtP w strukturach ASBIS – w modelu pilotażowym – przyniosło wymierne oszczędności setek roboczogodzin i wzrost niezawodności procesów, co stanowi praktyczną weryfikację technologii.

    Z perspektywy ASBISa, takie podejście – inwestycja plus pilotaż – wpisuje się w strategię „innowacji w DNA”.

    Dzięki własnemu użyciu rozwiązania ASBIS nie tylko waliduje RobotiFAI w realnym środowisku, ale również zdobywa przewagę konkurencyjną poprzez wczesny dostęp do epokowej automatyzacji — a także stworzenie fundamentu dla ekspansji startupu na rynki, gdzie Grupa ma silną obecność.

    RobotiFAI reprezentuje odpowiedź na utrzymujące się globalne wyzwania związane z obciążeniem zespołów finansowych pracą ręczną i przestarzałymi systemami.

    Automatyzacja zamknięcia miesiąca, kontrola zobowiązań i należności, raportowanie — wszystko to w modelu AI — pozwala nie tylko uwolnić talenty od rutyny, lecz także podnosi jakość danych i szybkość działania.

    W praktyce ta inwestycja może stać się kamieniem milowym: Grupa ASBIS rozszerza swoje portfolio nie tylko o tradycyjne rozwiązania ICT i IoT, ale także o technologiczny venture, który może zrewolucjonizować automatyzację finansową.

    „RobotiFAI reprezentuje przyszłość zarządzania finansami, czego doświadczyliśmy na własnej skórze. To nie jest kolejna obiecująca koncepcja — to sprawdzone rozwiązanie. Jako klient pilotażowy zaobserwowaliśmy już znaczną oszczędność czasu i poprawę dokładności w procesach finansowych. Dlatego inwestycja była dla nas naturalnym kolejnym krokiem. ASBIS ma innowację w swoim DNA, co wielokrotnie już udowodniliśmy. Ta inwestycja idealnie wpisuje się w naszą wizję innowacji oraz dalszego rozwoju ASBIS. Poza samą inwestycją wesprzemy też spółkę w rozwoju, rozszerzając działalność RobotiFAI na nasze rynki regionalne” powiedział Serhei Kostevitch, Prezes Grupy ASBIS.

    „Cieszymy się, że ASBIS jest nie tylko inwestorem, ale także jednym z pierwszych użytkowników naszego rozwiązania – to istotne potwierdzenie skuteczności naszej technologii. Zasięg rynkowy ASBIS, doświadczenie techniczne oraz dogłębna znajomość potrzeb klientów korporacyjnych umożliwią nam szybszą ekspansję i realizację celu, jakim jest rewolucja w finansach dzięki wykorzystaniu sztucznej inteligencji”powiedział Yuriy Gushchenskov, Założyciel oraz CEO spółki RobotiFAI.

  • Polsko-brytyjski Tracelight integruje AI z Excelem. Na rozwój ma 3,6 mln USD od globalnych graczy

    Polsko-brytyjski Tracelight integruje AI z Excelem. Na rozwój ma 3,6 mln USD od globalnych graczy

    Polsko-brytyjski startup Tracelight pozyskał 14 mln zł (3,6 mln USD) w rundzie seed na rozwój narzędzia, które ma zautomatyzować najbardziej czasochłonne zadania w Excelu. Rundzie przewodził polski fundusz Inovo.vc, a wsparli ją doświadczeni aniołowie biznesu z Wielkiej Brytanii i USA, w tym byli menedżerowie z Microsoftu.

    Pieniądze posłużą do rozwoju agenta AI, który działa bezpośrednio wewnątrz arkusza kalkulacyjnego.

    Excel od dekad jest fundamentem pracy analityków finansowych, konsultantów i zespołów M&A.

    Mimo ewolucji programu, praca w nim wciąż w dużej mierze polega na ręcznym tworzeniu skomplikowanych formuł, szukaniu błędów i formatowaniu danych. To procesy podatne na błędy i niezwykle czasochłonne, które odciągają specjalistów od kluczowego zadania – analizy danych i wyciągania wniosków.

    Na rynku od dawna istnieje zapotrzebowanie na narzędzie, które usprawniłoby te procesy bez konieczności rezygnacji ze znanego i powszechnie używanego środowiska.

    Podejście Tracelight wyróżnia się na tle konkurencyjnych rozwiązań. Zamiast tworzyć kolejną zewnętrzną aplikację czy prostego „copilota”, startup stworzył agenta AI, który integruje się bezpośrednio z Excelem jako oficjalny dodatek Microsoft.

    Narzędzie rozumie strukturę i logikę arkusza, dzięki czemu może automatyzować pisanie formuł, walidować modele finansowe i wykrywać błędy w czasie rzeczywistym.

    Jak twierdzą twórcy, rozwiązanie pozwala skrócić czas pracy nawet dziesięciokrotnie. Pierwsi użytkownicy z banków inwestycyjnych i firm doradczych raportują ponad 90% oszczędności czasu przy najbardziej żmudnych czynnościach. To pozwala im skupić się na strategicznej analizie, a nie na mechanicznych, powtarzalnych zadaniach.

    Założycielami Tracelight są absolwenci Uniwersytetu Cambridge, Aleksander Misztal i Jan Zimoch.

    Połączyli oni doświadczenie z elitarnych firm technologicznych i tradingowych (Jane Street) oraz zaawansowanych badań nad uczeniem maszynowym.

    Wśród inwestorów, obok Inovo.vc, znaleźli się m.in. Charlie Songhurst (były szef strategii w Microsofcie), Mike Chalfen (wczesny inwestor w King.com, twórcę Candy Crush Saga) oraz fundusz Acecap, założony przez byłych dyrektorów Microsoftu.

    Co istotne, wielu z nich to zaawansowani użytkownicy Excela, którzy dostrzegli praktyczną wartość w usprawnianiu narzędzia od wewnątrz, zamiast zastępowania go nowym systemem.

  • Fujitsu przyspiesza w wyścigu kwantowym. Cel: 10 000 kubitów do 2030 roku

    Fujitsu przyspiesza w wyścigu kwantowym. Cel: 10 000 kubitów do 2030 roku

    W globalnym wyścigu o budowę użytecznego komputera kwantowego, gdzie prym wiodą amerykańscy i chińscy giganci, Fujitsu przedstawia konkretny i ambitny plan rozwoju. Japońska firma ogłosiła rozpoczęcie prac nad maszyną, która do 2030 roku ma osiągnąć moc ponad 10 000 kubitów nadprzewodzących. To krok, który ma przybliżyć firmę do praktycznych zastosowań technologii kwantowej, omijając część szumu marketingowego typowego dla tej branży.

    Strategia oparta na inżynierii

    Plan Fujitsu wyróżnia się pragmatyzmem. Zamiast skupiać się wyłącznie na liczbie kubitów fizycznych, firma kładzie nacisk na architekturę i korekcję błędów. Nowy komputer ma dostarczyć około 250 kubitów logicznych – czyli takich, które są już chronione przed szumem i błędami, co stanowi realne wąskie gardło w obecnych systemach. To właśnie stosunek kubitów fizycznych do logicznych jest dziś kluczowym wskaźnikiem dojrzałości technologii.

    Fundamentem dla tych założeń jest autorska architektura STAR, opracowana we współpracy z Uniwersytetem w Osace. Ma ona efektywnie zarządzać bramkami kwantowymi i minimalizować błędy, co jest niezbędne do skalowania mocy obliczeniowej. Rozwój ten bazuje na wcześniejszych osiągnięciach, w tym na 64-kubitowym komputerze z 2023 roku i 256-kubitowym systemie uruchomionym w kwietniu 2025 roku w ramach współpracy z instytutem RIKEN.

    Wyzwania technologiczne i dalsze plany

    Fujitsu precyzyjnie określiło obszary, na których skoncentruje swoje wysiłki badawczo-rozwojowe. Kluczowe wyzwania to:

    • Precyzja produkcji: Zwiększenie dokładności wykonania złączy Josephsona w kubitach w celu minimalizacji wahań ich częstotliwości.
    • Połączenia między chipami: Opracowanie technologii pakowania i okablowania pozwalających łączyć wiele układów kwantowych w jeden, większy procesor.
    • Systemy kriogeniczne Miniaturyzacja i optymalizacja układów chłodzenia i sterowania w celu ograniczenia kosztów i rozpraszania ciepła.
    • Korekcja błędów (QEC): Rozwój wydajnych algorytmów dekodujących, które w czasie rzeczywistym będą korygować błędy obliczeniowe.

    Długoterminowym celem firmy jest stworzenie w pełni odpornego na błędy komputera kwantowego (FTQC) o mocy miliona kubitów. Po osiągnięciu progu 10 000 kubitów, od 2030 roku Fujitsu planuje badać integrację kubitów nadprzewodzących z kubitami diamentowymi opartymi na spinach. Taka hybrydowa architektura ma do 2035 roku pozwolić na budowę maszyny o mocy 1000 kubitów logicznych, co otworzyłoby drogę do rozwiązywania problemów obliczeniowych niedostępnych dziś nawet dla najszybszych superkomputerów, zwłaszcza w obszarze materiałoznawstwa i chemii.

  • Terahercowe 6G bez kabla. Czy nowy chip z EPFL i Harvardu przełamie barierę przepustowości?

    Terahercowe 6G bez kabla. Czy nowy chip z EPFL i Harvardu przełamie barierę przepustowości?

    Na początku każdej dekady pojawia się technologia, która obiecuje zrewolucjonizować sposób, w jaki łączymy się ze światem. Tym razem to nie blockchain ani sztuczna inteligencja, ale coś znacznie mniej medialnego: fale terahercowe (THz).

    Nowatorski chip opracowany przez zespoły z EPFL i Uniwersytetu Harvarda pokazuje, że ta obietnica może być bliżej realizacji niż się wydaje. Jeśli koncepcja się sprawdzi, komunikacja szóstej generacji – 6G – może osiągnąć przepustowości i precyzję, o których dzisiejsze systemy mogą tylko pomarzyć.

    Teraherce – nowy standard dla 6G?

    Fale terahercowe to obszar widma elektromagnetycznego między mikrofalami a światłem podczerwonym. W teorii są idealne do ultraszybkiego przesyłania danych – przenoszą nawet stukrotnie więcej informacji niż fale milimetrowe, na których bazuje obecne 5G.

    Ich problemem była jednak dotąd praktyczna nieprzydatność: brakowało wydajnych układów zdolnych do sprawnej konwersji tych sygnałów do formy, z którą mogą pracować obecne urządzenia cyfrowe – głównie optyczne.

    Ten impas może właśnie się skończył.

    Chip z dwóch światów

    Naukowcy ze Szwajcarskiego Federalnego Instytutu Technologii w Lozannie (EPFL) oraz Uniwersytetu Harvarda zaprezentowali chip, który potrafi przekształcać fale terahercowe w sygnały optyczne i odwrotnie – i robi to w czasie rzeczywistym, praktycznie bez strat energii.

    Na czym polega innowacja? Miniaturowe struktury zwane liniami przesyłowymi, wykonane z niobianu litu, osadzono w chipie fotonicznym. Te linie przewodzą fale THz, a równolegle do nich poprowadzono strukturę optyczną.

    Interakcja między obiema ścieżkami odbywa się bezpośrednio w chipie, bez potrzeby konwersji na poziomie osobnych komponentów. Efekt: kompaktowa platforma, która łączy świat elektroniki i fotoniki z niespotykaną dotąd wydajnością.

    W praktyce oznacza to, że ten sam chip może zarówno odbierać, jak i nadawać dane w postaci fal THz i zamieniać je na sygnały świetlne – np. do przesłania przez światłowód.

    6G: przyszłość, która już się skaluje

    Wizja 6G nie ogranicza się do szybszego internetu w telefonie. Chodzi o zupełnie nowy model transmisji danych, oparty na ogromnych przepustowościach, bardzo niskim opóźnieniu i precyzyjnym pozycjonowaniu.

    Chipy takie jak ten z EPFL mogą odegrać kluczową rolę w budowie zdecentralizowanej infrastruktury komunikacyjnej, gdzie urządzenia będą wymieniały dane lokalnie, bez konieczności przechodzenia przez rdzeń sieci.

    Zastosowania? Od błyskawicznego transferu danych między urządzeniami edge w zakładach produkcyjnych, przez komunikację między autonomicznymi pojazdami, aż po miniaturowe radary wykrywające ruch i odległość z dokładnością do milimetra.

    Na tym tle operatorzy telekomunikacyjni, producenci sprzętu sieciowego i twórcy infrastruktury centrów danych mogą dostrzec więcej niż tylko technologiczną ciekawostkę.

    Chip zdolny do konwersji THz ↔ optyka może znacząco uprościć i przyspieszyć transmisję danych między lokalnymi węzłami – i zmniejszyć zapotrzebowanie na energochłonną konwersję analogowo-cyfrową w wielu warstwach sieci.

    Szansa i zagrożenie dla dotychczasowych graczy

    Wprowadzenie takiej technologii do łańcucha dostaw może oznaczać istotne przetasowania. Dzisiejsi liderzy rynku komponentów dla telekomunikacji – tacy jak Qualcomm, Ericsson czy Nokia – opierają się na klasycznej architekturze: falach milimetrowych, modulacji elektronicznej i transmisji optycznej przez osobne układy. Chip EPFL/Harvard eliminuje konieczność tej separacji, łącząc wszystko na jednej platformie.

    Dla firm z sektora optoelektroniki i fotoniki to szansa na zdobycie przewagi. Jednocześnie pojawia się pytanie: czy giganci chipowi zdążą z adopcją tej technologii, zanim na rynku pojawią się startupy z własnymi, dedykowanymi rozwiązaniami?

    Bariera komercjalizacji

    W tym entuzjazmie nie można jednak zapominać, że technologia jest wciąż na wczesnym etapie. Prototyp został zaprezentowany na łamach „Nature Communications”, ale nie ma jeszcze ani działającego demo, ani planów wdrożeń komercyjnych. Kluczowe wyzwania to:

    • standaryzacja platformy THz–optyka,
    • skalowalność produkcji w fabach półprzewodnikowych,
    • integracja z istniejącymi systemami modulacji i transmisji.

    Scenariusz, w którym chipy tego typu trafią najpierw do sektora przemysłowego, militarnego lub autonomicznych pojazdów, wydaje się najbardziej prawdopodobny. Dopiero później mogą pojawić się w urządzeniach konsumenckich, takich jak telefony 6G czy sieci domowe.

    Historia lubi się powtarzać

    Wystarczy przypomnieć sobie historię technologii LiDAR czy grafenu – przez lata obiecywały rewolucję, ale ich adopcja rynkowa była powolna, kosztowna i selektywna. Nawet 5G, które miało odmienić świat komunikacji, w wielu krajach wciąż funkcjonuje w okrojonej wersji, bez wykorzystania pasm mmWave.

    Dlatego euforia związana z chipami terahercowymi powinna iść w parze z chłodną kalkulacją – nie tyle tego, *czy* technologia zadziała, ale *dla kogo i kiedy* będzie opłacalna.

    Kto rozdaje karty?

    Jeśli chip EPFL i Harvarda trafi do produkcji w ciągu najbliższych 5 lat, najwięcej zyskają ci, którzy dziś inwestują w fotonikę zintegrowaną, niskopoziomowe sterowanie sygnałem i lokalną infrastrukturę sieciową.

    Stracą ci, którzy zbyt długo pozostaną przy architekturze 5G z rozproszonymi modułami optycznymi i klasycznymi układami radiowymi.

  • AI buduje nową elitę startupów. Ośmiu liderów wartych ponad 500 mld USD

    AI buduje nową elitę startupów. Ośmiu liderów wartych ponad 500 mld USD

    Ekosystem startupów technologicznych przechodzi gruntowną transformację. Nowym wyznacznikiem wartości nie jest już wyłącznie tempo wzrostu czy udział w rynku, lecz zdolność do komercyjnego wykorzystania sztucznej inteligencji. Z danych zebranych przez Stocklytics.com na podstawie CB Insights wynika, że 40% z dziesięciu najcenniejszych jednorożców na świecie działa właśnie w obszarze AI.

    Wartość ośmiu największych z nich przekroczyła już 543 miliardy dolarów. Dla porównania – więcej niż wynosi obecna kapitalizacja całego sektora energetycznego w Niemczech. Co więcej, tylko w 2025 roku na listę jednorożców trafiło już 28 startupów AI. To ponad połowa wszystkich nowo wycenionych firm technologicznych z tego roku.

    OpenAI liderem nowego rozdania

    Liderem pozostaje OpenAI, którego wartość po rundzie finansowania prowadzonej przez SoftBank w marcu 2025 r. wzrosła do rekordowych 300 miliardów dolarów. To druga najwyższa wycena prywatnej spółki technologicznej na świecie – tuż po SpaceX. Za OpenAI plasują się Databricks (62 mld USD), Anthropic (61,5 mld USD) i xAI – startup Elona Muska wyceniany na 50 mld USD.

    Zestawienie uzupełniają takie firmy jak Safe Superintelligence (30 mld USD), Scale AI (13,8 mld USD), Celonis (13 mld USD) i Grammarly (13 mld USD). Łącznie zebrały one od inwestorów już ponad 147 mld dolarów. Warto dodać, że większość z tych rund to nie tyle typowe inwestycje VC, ile strategiczne partnerstwa z największymi firmami infrastrukturalnymi, jak Microsoft, AWS czy Nvidia.

    USA na pozycji dominującej

    Siedem z ośmiu najcenniejszych jednorożców AI ma siedzibę w Stanach Zjednoczonych, głównie w Kalifornii. Jedynym wyjątkiem jest Celonis – niemiecki startup specjalizujący się w tzw. process mining, który mimo europejskich korzeni, większość klientów i rozwój prowadzi dziś za oceanem.

    Dominacja USA w obszarze AI nie wynika wyłącznie z przewagi technologicznej. To także efekt zbudowanego wcześniej ekosystemu: infrastruktury chmurowej, kapitału VC i otwartych regulacji. Dla porównania – w Europie jednorożce AI można policzyć na palcach jednej ręki, a ich wyceny rzadko przekraczają 5 miliardów dolarów.

    Boom mimo ostrożnego rynku VC

    Zaskakujący jest fakt, że sektor AI rośnie dynamicznie mimo wyraźnego ochłodzenia na rynku venture capital. Po rekordowych latach 2021–2022 finansowanie startupów ogółem znacząco spadło. Jednak AI wyłamało się z tego trendu – zarówno pod względem liczby rund, jak i wycen.

    Obecnie na świecie działa już 273 jednorożców AI – o 11% więcej niż rok temu i prawie cztery razy więcej niż w 2020 roku. Oznacza to, że sektor ten jest dziś największym generatorem nowych spółek technologicznych o miliardowych wycenach. Skalowalność, efektywność i potencjał wdrożeń AI w wielu branżach sprawiają, że inwestorzy traktują ją jako technologię o znaczeniu systemowym – podobnie jak kiedyś chmurę czy internet mobilny.

    Rynki pionowe i infrastruktura dominują

    Największe wyceny osiągają firmy z dwóch kategorii: AI infrastrukturalnej (jak OpenAI czy Anthropic) oraz wyspecjalizowanej AI dla rynków pionowych (np. Celonis, Scale AI czy Grammarly). To potwierdza, że największy potencjał inwestycyjny drzemie w tych obszarach, gdzie AI może albo skalować rozwiązania horyzontalnie, albo radykalnie poprawić produktywność w wąskich domenach.

    Brakuje natomiast jednorożców w segmentach AI konsumenckiej poza obszarem LLM-ów i chatbotów. Paradoksalnie – mimo że to ChatGPT stał się twarzą rewolucji, większość kapitału płynie do modeli bazowych i narzędzi wspierających developerów, a nie do aplikacji końcowych.

    Z perspektywy rynku B2B i kanału sprzedaży technologii, wzrost jednorożców AI to sygnał o przemianie strukturalnej. Partnerzy technologiczni, integratorzy i dystrybutorzy powinni obserwować nie tylko znane marki, ale także szybko rosnące firmy infrastrukturalne i wyspecjalizowane startupy AI, które mogą wkrótce stać się kluczowymi graczami na rynku enterprise.

    Jednocześnie coraz bardziej prawdopodobny wydaje się scenariusz, w którym największe firmy AI nie trafią na giełdę, lecz zostaną wchłonięte przez gigantów technologicznych. Już dziś Alphabet, Microsoft i Amazon są strategicznymi inwestorami w większości z nich. W rezultacie AI może nie tylko zdominować rynek technologiczny, ale również zabetonować dominację dotychczasowych liderów.

    AI jako silnik nowego paradygmatu

    Rewolucja AI to zmiana paradygmatu, która wpływa na sposób tworzenia wartości, wycenę firm, relacje z inwestorami i definicję innowacji. W takim otoczeniu przewagę zyskają nie tylko ci, którzy pierwsi wdrożą nowe technologie, ale też ci, którzy potrafią zbudować wokół nich trwały, skalowalny model biznesowy.

  • Kryptografia Post-Kwantowa: Biznesowe implikacje wyboru algorytmu

    Kryptografia Post-Kwantowa: Biznesowe implikacje wyboru algorytmu

    Współczesna gospodarka cyfrowa opiera się na niewidzialnym, lecz fundamentalnym filarze: kryptografii klucza publicznego. Algorytmy takie jak RSA i ECC stały się synonimem cyfrowego zaufania, jednak ten fundament stoi w obliczu egzystencjalnego zagrożenia. Pojawienie się komputerów kwantowych zdolnych do złamania obecnych standardów szyfrowania nie jest kolejnym ewolucyjnym krokiem w cyberbezpieczeństwie; to rewolucja, która wymusza na liderach technologicznych fundamentalną zmianę myślenia o ochronie danych.

    Zagrożenie kwantowe nie jest odległą, teoretyczną możliwością. Materializuje się już dziś poprzez strategię znaną jako „Harvest Now, Decrypt Later” (HNDL), czyli „Zbierz teraz, odszyfruj później”. Adwersarze, w tym podmioty państwowe, aktywnie przechwytują i magazynują ogromne ilości zaszyfrowanych danych, cierpliwie czekając na moment, w którym kryptograficznie relewantny komputer kwantowy (CRQC) stanie się operacyjny. W tym momencie dane, które dziś uważamy za bezpieczne, zostaną retrospektywnie złamane. To fundamentalnie zmienia model ryzyka, przesuwając odpowiedzialność z wyłącznie operacyjnej na strategiczną, związaną z ochroną długoterminowej wartości firmy. Każda informacja, której cykl życia poufności wykracza poza przewidywany moment pojawienia się CRQC, jest już zagrożona.

    Argumenty za odkładaniem migracji do kryptografii postkwantowej (PQC) wyczerpały się. W sierpniu 2024 roku amerykański Narodowy Instytut Standardów i Technologii (NIST) opublikował pierwsze sfinalizowane standardy PQC: FIPS 203 (ML-KEM), FIPS 204 (ML-DSA) oraz FIPS 205 (SLH-DSA). To wydarzenie stanowi kluczowy sygnał dla rynku globalnego: faza badań dobiegła końca, a standardy oczekują na wdrożenie.

    Koniec ery „jednego słusznego szyfrowania”

    Przez ostatnie dekady decyzje dotyczące kryptografii klucza publicznego były stosunkowo proste, sprowadzając się najczęściej do wyboru między RSA a ECC. Era postkwantowa definitywnie kończy z tym paradygmatem. Wkraczamy w świat, w którym nie ma i nie będzie jednego, uniwersalnego algorytmu PQC. Wybór odpowiedniego rozwiązania staje się świadomą decyzją strategiczną, która musi być precyzyjnie dopasowana do konkretnego przypadku użycia.

    Świat PQC jest z natury heterogeniczny. NIST celowo standaryzuje algorytmy pochodzące z różnych rodzin matematycznych, ponieważ każda z nich oferuje unikalny zestaw kompromisów między wydajnością obliczeniową, rozmiarem danych, wykorzystaniem zasobów a poziomem bezpieczeństwa. Wybór algorytmu przestaje być wyłącznie domeną kryptografów, a staje się decyzją architektoniczną i produktową. Różnice w charakterystyce poszczególnych algorytmów prowadzą do drastycznie odmiennych konsekwencji w zależności od scenariusza wdrożenia.

    Dla wysokowydajnych serwerów TLS, obsługujących na przykład front-end e-commerce, priorytetem jest minimalne opóźnienie. Dane z benchmarków jednoznacznie wskazują, że CRYSTALS-Kyber (ML-KEM) jest liderem, oferując znikomy narzut wydajnościowy. Z kolei w sieciach VPN, gdzie kluczowa jest maksymalna przepustowość, problemem mogą stać się algorytmy z bardzo dużymi kluczami, takie jak BIKE, które mogą powodować masową fragmentację pakietów IP i degradację wydajności sieci. W świecie urządzeń IoT, gdzie zasoby są skrajnie ograniczone, algorytmy o wysokich wymaganiach pamięciowych mogą być całkowicie niepraktyczne, bezpośrednio wpływając na koszt komponentów.

    Dane mówią same za siebie

    Abstrakcyjne dyskusje nabierają realnego kształtu, gdy przeanalizuje się twarde dane. Przełożenie milisekund opóźnień i kilobajtów danych na konkretne implikacje biznesowe jest kluczowe dla podejmowania świadomych decyzji. Analiza oparta na kompleksowych benchmarkach pokazuje, że wybór algorytmu PQC to nie tylko kwestia bezpieczeństwa, ale również realnych kosztów operacyjnych.

    Liderem wydajności jest bezsprzecznie CRYSTALS-Kyber, który w testach serwerowych wykazuje znikomy narzut obliczeniowy. Jego klucze publiczne i szyfrogramy są kompaktowe, zajmując łącznie nieco ponad 2 KB, a szczytowe zużycie pamięci RAM jest minimalne, co czyni go idealnym kandydatem do szerokiego spektrum zastosowań. Na drugim biegunie znajduje się BIKE, algorytm oparty na kodach. Mimo swoich zalet, jego wdrożenie wiąże się z konkretnymi kosztami: suma danych wymienianych podczas uzgadniania połączenia przekracza 10 KB, co jest ponad czterokrotnie więcej niż w przypadku Kybera. Taki rozmiar nie tylko zwiększa koszty transferu danych, ale przede wszystkim grozi fragmentacją pakietów sieciowych.

    Jeszcze bardziej uderzający jest przykład algorytmu podpisu Falcon. Oferuje on niezwykle małe podpisy, co jest ogromną zaletą w zastosowaniach IoT, gdzie pasmo jest na wagę złota. Jednak jego szczytowe zużycie pamięci jest ponad 26-krotnie wyższe niż w przypadku konkurencyjnego Dilithium. Dla inżyniera projektującego urządzenie medyczne oznacza to, że może być zmuszony do wyboru droższego mikrokontrolera, co podnosi koszt jednostkowy całego produktu.

    Ukryte ryzyka i rekomendacje dla CISO

    Osiągnięcie zgodności ze standardami PQC to zaledwie pierwszy krok. Największe ryzyka nie leżą w teorii algorytmów, ale w ich praktycznej implementacji. Matematyczna odporność jest bezwartościowa, jeśli fizyczna implementacja na procesorze „przecieka” informacje o tajnym kluczu poprzez ataki kanałem bocznym (side-channel attacks). Badania pokazały już skuteczne ataki na implementacje Kybera i Dilithium, wykorzystujące analizę poboru mocy lub emisji elektromagnetycznych.

    Kluczową implikacją dla CISO jest ukryty koszt bezpieczeństwa. Zabezpieczenie implementacji wymaga zastosowania specjalistycznych kontrśrodków, takich jak maskowanie, które wprowadzają znaczący narzut na wydajność. Przedstawiciele NIST przyznali, że dobrze zabezpieczona implementacja Kybera może być nawet dwukrotnie wolniejsza niż jej podstawowa wersja. Oznacza to, że budżety na infrastrukturę, oparte na benchmarkach niezabezpieczonych implementacji, są fundamentalnie błędne.

    Kolejnym obszarem ryzyka jest łańcuch dostaw. Bezpieczeństwo systemu PQC jest tak silne, jak jego najsłabsze ogniwo, a te często znajdują się poza kontrolą firmy – w bibliotekach open-source czy u dostawców chmury. CISO musi zacząć zadawać dostawcom trudne pytania o ich roadmapę wdrożenia standardów NIST, wsparcie dla trybów hybrydowych oraz udokumentowaną odporność na ataki fizyczne.

    Rozwiązaniem tych wyzwań jest krypto-zwinność (crypto-agility) – zdolność architektury do łatwej i szybkiej wymiany algorytmów kryptograficznych bez fundamentalnych zmian w infrastrukturze. W dynamicznym świecie PQC, gdzie nowe standardy już się pojawiają, takie podejście jest receptą na uniknięcie kosztownych i ryzykownych migracji w przyszłości. Inwestycja w architekturę krypto-zwinną teraz, w ramach pierwszego projektu PQC, jest strategiczną decyzją, która drastycznie obniży całkowity koszt posiadania bezpieczeństwa w nadchodzącej dekadzie.

    Migracja do PQC to nie jednorazowy projekt, lecz strategiczny program transformacji. Powinien on przebiegać w sposób metodyczny i fazowy. Pierwszym, fundamentalnym etapem jest dogłębne przygotowanie i inwentaryzacja. Kluczowe jest tu stworzenie szczegółowego inwentarza kryptograficznego, który zmapuje wszystkie systemy wykorzystujące podatną kryptografię. Następnie, na podstawie analizy ryzyka, należy ustalić priorytety migracji, koncentrując się na zasobach o najdłuższym wymaganym cyklu życia poufności. Druga faza to budowanie zdolności technicznych, w tym projektowanie systemów pod kątem wspomnianej krypto-zwinności oraz uruchomienie kontrolowanych projektów pilotażowych w trybach hybrydowych. Takie podejście pozwala zebrać realne dane na temat wpływu PQC na specyficzne środowisko firmy. Ostatnia faza to właściwa, stopniowa migracja systemów produkcyjnych i ustanowienie procesów ciągłego monitorowania.

    Przejście na kryptografię postkwantową to ewolucja w zarządzaniu ryzykiem technologicznym. Kluczową, długoterminową inwestycją nie jest wdrożenie konkretnego algorytmu, ale budowa krypto-zwinnej architektury. To właśnie ta zwinność pozwoli firmie na szybką i efektywną adaptację do nieuniknionych zmian w krajobrazie cyberbezpieczeństwa, zapewniając odporność i chroniąc jej przyszłość.

  • Komputery kwantowe tworzą nowe miejsca pracy. Oto najważniejsza rola na styku IT i nauki

    Komputery kwantowe tworzą nowe miejsca pracy. Oto najważniejsza rola na styku IT i nauki

    Komputery kwantowe, długo postrzegane jako domena laboratoriów fizycznych, zaczynają znajdować praktyczne zastosowanie w biznesie. Wraz z rosnącą dostępnością sprzętu przez chmurę, pojawia się zapotrzebowanie na nowy typ specjalisty – hybrydę data scientista i fizyka, która potrafi przełożyć problemy biznesowe na język kubitów.

    Przez dekady komputery kwantowe były technologiczną obietnicą, odległą wizją o mocy obliczeniowej zdolnej do łamania współczesnej kryptografii i symulowania molekuł z niewyobrażalną precyzją. Ta wizja powoli staje się rzeczywistością, choć w formie bardziej stonowanej i pragmatycznej. Dyskusja w branży IT cicho przesuwa się z pytania „czy” na „jak i kiedy” możemy wykorzystać te maszyny do rozwiązywania realnych problemów.

    Fundamentalna zmiana, która napędza tę transformację, to dostępność. Giganci technologiczni udostępniają swoje, na razie niedoskonałe i „zaszumione” (NISQ – Noisy Intermediate-Scale Quantum), procesory kwantowe za pośrednictwem platform chmurowych. Równolegle powstają biblioteki programistyczne, takie jak Qiskit czy Cirq, które abstrahują znaczną część złożoności fizyki kwantowej. Pozwalają one programistom i analitykom skupić się na logice algorytmu, a nie na bezpośredniej manipulacji stanami pojedynczych cząstek.

    To otwiera drzwi dla ewolucji w świecie analizy danych i sztucznej inteligencji. I tworzy lukę, którą musi wypełnić nowy profil zawodowy: naukowiec zajmujący się danymi kwantowymi (Quantum Data Scientist).

    Kim jest naukowiec danych kwantowych?

    To nie jest fizyk teoretyczny zamknięty w akademickiej wieży z kości słoniowej. Nie jest to też klasyczny data scientist, który jedynie zamienia bibliotekę `scikit-learn` na `qiskit-machine-learning`. Naukowiec danych kwantowych to specjalista-most, który stoi na styku trzech światów:

    1.  Głębokiego rozumienia problemów biznesowych w sektorach takich jak finanse, farmacja, logistyka czy energetyka.

    2.  Biegłości w modelowaniu danych i klasycznych technikach sztucznej inteligencji.

    3.  Praktycznej znajomości architektur kwantowych i algorytmów, które mogą na nich działać.

    Jego kluczowym zadaniem jest identyfikacja problemów, które mają potencjał do „kwantowej przewagi” – czyli takich, gdzie nawet wczesne komputery kwantowe mogą zaoferować lepsze, szybsze lub dokładniejsze wyniki niż najpotężniejsze superkomputery klasyczne. Następnie musi on potrafić przełożyć ten problem na język algorytmów kwantowych, zintegrować je z klasycznymi przepływami danych i zinterpretować probabilistyczne wyniki, które generują kubity.

    Gdzie leży potencjał?

    Choć uniwersalny, odporny na błędy komputer kwantowy to wciąż odległa przyszłość, już dziś eksperymentuje się z zastosowaniami w kilku kluczowych obszarach:

    • Optymalizacja: Problemy logistyczne (np. optymalizacja tras dla floty pojazdów), finansowe (np. optymalizacja portfela inwestycyjnego) czy produkcyjne to wyzwania, w których liczba możliwych kombinacji rośnie wykładniczo. Algorytmy kwantowe, takie jak QAOA (Quantum Approximate Optimization Algorithm), są projektowane do efektywniejszego przeszukiwania tej ogromnej przestrzeni rozwiązań.
    • Symulacje: Przemysł chemiczny i farmaceutyczny mogą zyskać najwięcej w najbliższej perspektywie. Symulowanie zachowania molekuł w celu projektowania nowych leków lub materiałów (np. bardziej wydajnych baterii) jest niezwykle trudne dla komputerów klasycznych. Ponieważ natura u podstaw jest kwantowa, symulowanie jej na komputerze kwantowym jest bardziej naturalne i potencjalnie znacznie wydajniejsze.
    • Sztuczna inteligencja: Badany jest również obszar kwantowego uczenia maszynowego (Quantum Machine Learning). Chodzi tu o wykorzystanie zjawisk kwantowych do ulepszenia modeli predykcyjnych, systemów rekomendacyjnych czy silników wnioskowania, zwłaszcza przy pracy na złożonych, wielowymiarowych zbiorach danych.

    Ekosystem oparty na współpracy

    Stworzenie wartościowych aplikacji kwantowych nie jest zadaniem dla jednego człowieka. To sport zespołowy, wymagający interdyscyplinarnej współpracy. Naukowiec danych kwantowych będzie pracował ramię w ramię z:

    • Ekspertami dziedzinowymi (chemikami, inżynierami, analitykami finansowymi), którzy rozumieją fizyczny lub biznesowy grunt, na którym operują.
    • Informatykami i inżynierami oprogramowania, którzy potrafią budować solidne, skalowalne potoki danych integrujące systemy klasyczne i kwantowe.
    • Fizykami i matematykami, którzy pomagają w tworzeniu nowych algorytmów i rozumieniu ograniczeń obecnego sprzętu.

    Dynamikę napędza także globalna społeczność open source, która wspólnie rozwija algorytmy, frameworki i platformy, tworząc bezprecedensowe tempo innowacji.

    Stoimy u progu nowej ery w technologii. Podobnie jak wczesne dni internetu czy rewolucja Big Data, faza kwantowa będzie tworzyć nowe role i wymagać nowych umiejętności. Firmy, które już dziś zaczną eksplorować ten obszar i inwestować w rozwój talentów zdolnych do myślenia w kategoriach kwantowych, zyskają strategiczną przewagę. Wyścig o sprzęt trwa, ale prawdziwym polem bitwy w nadchodzących latach może okazać się walka o ludzi, którzy będą potrafili go użyć. Naukowiec danych kwantowych będzie jednym z kluczowych protagonistów tej zmiany.

  • Wi-Fi jako narzędzie biometryczne: potencjał i kontrowersje technologii WhoFi

    Wi-Fi jako narzędzie biometryczne: potencjał i kontrowersje technologii WhoFi

    Wszechobecny nadzór wizyjny, kamery obecne w niemal każdej przestrzeni publicznej – to nasza dzisiejsza rzeczywistość, dla której zespół włoskich badaczy proponuje nieoczywistą alternatywę: identyfikację ludzi nie przez obraz, lecz przez sygnał Wi-Fi. Ich projekt, nazwany WhoFi, może stać się przełomem w dziedzinie biometrii bezwizualnej — obiecując bardziej dyskretny monitoring, ale jednocześnie rodząc pytania o granice prywatności.

    Biometria bez obrazu – jak działa WhoFi?

    Technologia opracowana przez naukowców opiera się na analizie informacji o stanie kanału Wi-Fi (ang. Channel State Information, CSI). Każda transmisja Wi-Fi jest podatna na zakłócenia, które powstają, gdy sygnał napotyka na fizyczne przeszkody — w tym ludzkie ciała. Kształt sylwetki, masa, struktura kości, a nawet sposób poruszania się wpływają na sposób, w jaki sygnał radiowy się odbija i załamuje.

    WhoFi wykorzystuje te zniekształcenia jako biometryczny podpis użytkownika. Model analizuje dynamiczne zmiany CSI, które zachodzą, gdy człowiek przemieszcza się w zasięgu nadajnika Wi-Fi. W odróżnieniu od tradycyjnych systemów nadzoru, WhoFi nie wymaga kamery, światła, ani bezpośredniej widoczności – sygnały radiowe mogą bowiem przenikać przez ściany i inne przeszkody fizyczne.

    W sercu systemu – sieci neuronowe

    Podstawą działania WhoFi jest modułowy model głębokiego uczenia. Badacze przetestowali kilka architektur sieci neuronowych do przetwarzania szeregów czasowych CSI: m.in. LSTM (Long Short-Term Memory), Bi-LSTM (bidirectional LSTM), a także Transformer – architekturę znaną głównie z przetwarzania języka naturalnego, ale coraz częściej stosowaną w analizie danych sekwencyjnych.

    Kluczową innowacją było zastosowanie techniki zwanej batch-wise negative loss. Umożliwia ona modelowi samodzielne wyodrębnianie charakterystycznych cech użytkowników bez potrzeby ręcznego etykietowania danych. Dzięki temu WhoFi potrafi nauczyć się odróżniać poszczególne osoby na podstawie ich unikalnego „wpływu” na sygnał Wi-Fi.

    Wyniki, które dorównują kamerom

    Technologię przetestowano na otwartym zbiorze danych NTU-Fi, wykorzystywanym w badaniach nad bezprzewodową identyfikacją. Eksperymenty wykazały, że skuteczność WhoFi w rozpoznawaniu osób była porównywalna z wynikami uzyskiwanymi przez systemy oparte na obrazach z kamer. Co więcej, system zachowywał wysoką efektywność nawet w złożonych warunkach środowiskowych — przy ograniczonym świetle czy obecności fizycznych przeszkód.

    Zespół badawczy przeanalizował również wpływ różnych czynników na wydajność modelu, takich jak długość analizowanej sekwencji danych, głębokość sieci neuronowej czy poziom augmentacji danych. Wyniki sugerują, że technologia ma potencjał do skalowania – zarówno w dużych przestrzeniach publicznych, jak i mniejszych, prywatnych środowiskach.

    Możliwe zastosowania

    Z punktu widzenia rynku technologicznego, WhoFi otwiera nowe możliwości w dziedzinach, gdzie monitoring optyczny jest utrudniony, nieefektywny lub niepożądany. Przykładowe scenariusze zastosowań to:

    • Domy opieki i szpitale, gdzie istotne jest monitorowanie obecności i ruchu pacjentów bez naruszania ich prywatności.
    • Budynki inteligentne, w których WhoFi może działać jako dyskretny system kontroli dostępu lub obecności.
    • Sytuacje kryzysowe, np. wykrywanie obecności osób za ścianami w czasie akcji ratunkowych.
    • Środowiska regulowane przepisami prywatności, takie jak pomieszczenia objęte RODO lub infrastruktura rządowa.

    Zaletą tej technologii jest także jej kompatybilność z istniejącą infrastrukturą — większość budynków już posiada sieć Wi-Fi, co oznacza, że WhoFi mógłby zostać wdrożony bez konieczności instalacji dodatkowych sensorów.

    Nowy wymiar prywatności?

    Mimo obiecujących wyników, WhoFi rodzi istotne pytania natury etycznej i prawnej. Z perspektywy użytkownika końcowego, brak kamer może stwarzać iluzję prywatności – podczas gdy system nadal identyfikuje i śledzi ludzi na podstawie ich cech fizycznych.

    Również transparentność działania jest ograniczona – w przeciwieństwie do kamer, które są łatwo zauważalne, monitoring oparty na sygnale Wi-Fi może być niemal całkowicie niewidoczny. To z kolei może prowadzić do niezamierzonego lub nieświadomego nadzoru, co stanowi wyzwanie dla zgodności z przepisami o ochronie danych osobowych.

    Wreszcie, jak w przypadku każdej technologii biometrycznej, pojawiają się pytania o możliwość spoofingu, błędnej identyfikacji czy nieuprawnionego użycia danych biometrycznych — nawet jeśli pochodzą one nie z obrazu, a z zakłóceń fal radiowych.

    Krok w przyszłość – z zastrzeżeniami

    WhoFi to przykład technologii, która redefiniuje granice biometrii. Pokazuje, że do identyfikacji osób nie są potrzebne ani twarze, ani głosy, ani odciski palców – wystarczy sposób, w jaki wpływamy na przestrzeń wokół siebie. To fascynujący, ale i niepokojący kierunek rozwoju.

    Z technicznego punktu widzenia WhoFi może stać się realną alternatywą dla systemów nadzoru wizyjnego, szczególnie w środowiskach, gdzie obraz nie jest dostępny lub pożądany. Z biznesowego – otwiera nowe segmenty rynku dla rozwiązań z zakresu AI i monitoringu. Ale z etycznego – wymaga jasnych zasad, przejrzystych ram regulacyjnych i świadomego użytkowania.

  • Działa w -273°C i może zniszczyć globalne finanse. To właśnie potrafi kwantowa AI

    Działa w -273°C i może zniszczyć globalne finanse. To właśnie potrafi kwantowa AI

    Na styku dwóch najbardziej przełomowych technologii naszych czasów – sztucznej inteligencjiobliczeń kwantowych – rodzi się nowa dziedzina: kwantowa AI (Quantum AI). To koncepcja, która obiecuje rozwiązywanie problemów o skali złożoności przekraczającej możliwości nawet najpotężniejszych superkomputerów. Choć jej praktyczne zastosowania na szeroką skalę to wciąż perspektywa przyszłości, już dziś zmusza do weryfikacji strategii biznesowych i technologicznych w kluczowych sektorach gospodarki.

    Kwantowa AI nie jest po prostu szybszą wersją znanych nam modeli uczenia maszynowego. To fundamentalna zmiana paradygmatu, która zamiast na klasycznych bitach, operujących w systemie binarnym (0 lub 1), bazuje na kubitach. To właśnie kubit, podstawowa jednostka informacji kwantowej, stanowi o jej rewolucyjnym potencjale.

    Fundamenty nowej ery obliczeń

    U jej podstaw leżą dwie fundamentalne zasady mechaniki kwantowej: superpozycja i splątanie. Superpozycja pozwala kubitowi istnieć w wielu stanach jednocześnie – być kombinacją 0 i 1, a nie tylko jedną z tych wartości. Splątanie z kolei powoduje, że dwa lub więcej kubitów stają się ze sobą nierozerwalnie połączone. Zmiana stanu jednego z nich natychmiastowo wpływa na stan drugiego, niezależnie od dzielącej je odległości.

    Te dwie właściwości dają komputerom kwantowym zdolność do równoległego przetwarzania niewyobrażalnej liczby kombinacji. Tam, gdzie klasyczny komputer musi sekwencyjnie analizować każdą możliwość, maszyna kwantowa może badać całą przestrzeń potencjalnych rozwiązań jednocześnie. W połączeniu z algorytmami AI, otwiera to drogę do rozwiązywania problemów optymalizacyjnych, symulacyjnych i kryptograficznych, które do tej pory pozostawały poza naszym zasięgiem.

    Algorytmy, które tworzą i łamią zabezpieczenia

    Choć rozmowy o informatyce kwantowej toczą się od lat 80., kiedy David Deutsch przedstawił teoretyczny model „kwantowej maszyny Turinga”, to lata 90. przyniosły dwa algorytmy, które zdefiniowały potencjał i zagrożenia tej technologii.

    Pierwszy to algorytm Shora, opracowany przez Petera Shora w 1994 roku. Jego zdolność do efektywnego rozkładania dużych liczb na czynniki pierwsze stanowi egzystencjalne zagrożenie dla większości współczesnych systemów kryptograficznych, takich jak RSA, które chronią globalną komunikację i finanse. Skuteczna implementacja tego algorytmu na odpowiednio potężnym komputerze kwantowym mogłaby złamać obecne zabezpieczenia w czasie nieporównywalnie krótszym niż jakakolwiek maszyna klasyczna.

    Drugi to algorytm Grovera, który kwadratowo przyspiesza przeszukiwanie nieuporządkowanych baz danych. Choć jego implikacje są mniej dramatyczne niż w przypadku algorytmu Shora, ma on ogromne znaczenie dla optymalizacji, analizy danych i kryptoanalizy.

    Te dwa przykłady pokazują dwoistą naturę kwantowej AI: z jednej strony może ona stworzyć nowe, praktycznie niełamalne systemy bezpieczeństwa (kryptografia postkwantowa), z drugiej – zniszczyć te, na których opiera się dzisiejszy cyfrowy świat.

    Z laboratorium do biznesu

    Potencjał kwantowej AI wykracza daleko poza kryptografię. Już dziś firmy i instytucje badawcze eksplorują jej zastosowania w wielu dziedzinach:

    • Medycyna i farmacja: Symulowanie interakcji molekularnych w celu projektowania nowych leków i terapii spersonalizowanych. Złożoność tych systemów jest tak duża, że ich dokładne modelowanie na klasycznych komputerach jest niemożliwe. Kwantowa AI mogłaby drastycznie skrócić czas i obniżyć koszty badań nad nowymi substancjami.
    • Finanse: Tworzenie znacznie bardziej zaawansowanych modeli oceny ryzyka, optymalizacji portfeli inwestycyjnych i prognozowania rynkowego. Zdolność do analizy ogromnych, wielowymiarowych zbiorów danych w czasie rzeczywistym mogłaby zrewolucjonizować handel i zarządzanie aktywami.
    • Logistyka i optymalizacja: Rozwiązywanie ekstremalnie złożonych problemów logistycznych, takich jak optymalizacja globalnych łańcuchów dostaw (tzw. problem komiwojażera dla tysięcy miast), co przełożyłoby się na gigantyczne oszczędności czasu i zasobów.
    • Nauka o materiałach: Projektowanie nowych materiałów o unikalnych właściwościach (np. nadprzewodników działających w temperaturze pokojowej) poprzez symulowanie ich zachowania na poziomie kwantowym.

    Zimny prysznic

    Mimo obiecujących perspektyw, droga do praktycznej i powszechnej kwantowej AI jest najeżona wyzwaniami. Największym z nich jest sama fizyczna natura komputerów kwantowych. Kubity są niezwykle wrażliwe na wszelkie zakłócenia z otoczenia, takie jak wahania temperatury, ciśnienia czy pola magnetyczne. To zjawisko, znane jako dekoherencja, powoduje utratę delikatnego stanu kwantowego i prowadzi do błędów w obliczeniach.

    Aby temu zapobiec, procesory kwantowe muszą pracować w ekstremalnych warunkach: w temperaturach bliskich zera absolutnego (-273°C) i w niemal idealnej próżni, odizolowane od zewnętrznych pól elektromagnetycznych. Budowa i utrzymanie takich maszyn jest niezwykle kosztowne i skomplikowane.

    Inne wyzwania to konieczność opracowania nowych, odpornych na błędy algorytmów, a także brak wykwalifikowanych specjalistów zdolnych do pracy na styku informatyki, fizyki kwantowej i sztucznej inteligencji.

    Stan gry i perspektywy

    Wyścig technologiczny już trwa. Giganci tacy jak Google (TensorFlow Quantum), IBM (Qiskit) i Amazon (Braket) udostępniają platformy chmurowe, które pozwalają deweloperom i naukowcom eksperymentować z algorytmami kwantowymi na prawdziwym sprzęcie lub w zaawansowanych symulatorach. Inicjatywy takie jak europejski projekt Quantum Spain pokazują, że rządy również dostrzegają strategiczne znaczenie tej technologii.

    Dla branży IT oznacza to konieczność przygotowania się na hybrydową przyszłość, w której systemy klasyczne będą współpracować z kwantowymi, przekazując im zadania, z którymi same nie są w stanie sobie poradzić. Już teraz kluczowym trendem staje się rozwój kryptografii postkwantowej (PQC), czyli algorytmów odpornych na ataki zarówno ze strony komputerów klasycznych, jak i kwantowych.

    Kwantowa AI nie zastąpi tradycyjnej sztucznej inteligencji w zadaniach takich jak rozpoznawanie obrazów czy przetwarzanie języka naturalnego. Jest raczej wyspecjalizowanym narzędziem, które pozwoli na skokowy postęp w rozwiązywaniu specyficznej, ale niezwykle istotnej klasy problemów.

  • Amazon inwestuje w wearables AI – kupuje startup Bee z San Francisco

    Amazon inwestuje w wearables AI – kupuje startup Bee z San Francisco

    Amazon przejmie startup Bee z San Francisco – producenta bransoletki wykorzystującej sztuczną inteligencję do transkrypcji i analizy rozmów. To kolejna próba firmy z Seattle wejścia na rynek urządzeń ubieralnych z technologią AI, po nieudanym projekcie opasek zdrowotnych Halo, który zakończył się w 2023 roku.

    Opaska Bee, wyceniana na 50 dolarów, to dyskretne urządzenie AI, które potrafi rejestrować rozmowy użytkownika, tworzyć z nich podsumowania, listy zadań i inne elementy przydatne w codziennym funkcjonowaniu. Choć umowa nie została jeszcze formalnie zamknięta, Amazon potwierdził transakcję i zapowiada współpracę z Bee nad rozwojem urządzeń zapewniających użytkownikom większą kontrolę nad transkrypcją dźwięku – w tym możliwość łatwego wyciszania.

    Zakup Bee to ruch wpisujący się w szerszą strategię gigantów technologicznych, którzy coraz częściej próbują połączyć AI z fizycznymi produktami konsumenckimi. Kilka tygodni temu OpenAI zainwestowało miliardy w projekt Jony’ego Ive’a – byłego projektanta Apple – nad osobistym urządzeniem AI. Inne startupy, takie jak Humane czy Rewind, także eksperymentują z podobnymi formami – choć z mieszanym skutkiem.

    Dla Amazona to potencjalna droga powrotu do segmentu, w którym wcześniej nie osiągnął sukcesu. Projekt Halo został wygaszony, a inteligentne okulary Echo Frames nie przebiły się poza niszę. Tym razem jednak Amazon może zagrać kartą rosnącej popularności AI asystentów oraz doświadczeniem swojego działu Amazon Devices, którym kieruje Panos Panay – wcześniej związany z Microsoftem i linią Surface.

    Co istotne, Bee zostało założone dopiero w 2022 roku, co oznacza, że Amazon pozyskuje nie tylko technologię, ale też zespół gotowy do szybkiego rozwoju produktu. W tle pozostaje Amazon Web Services, gdzie prowadzony jest kluczowy rozwój AI firmy – niewykluczone więc, że bransoletka Bee stanie się w przyszłości interfejsem dla usług chmurowych Amazona.

    Nowe podejście do AI „noszonej” może pomóc Amazonowi nadrobić dystans do konkurencji i ponownie zaistnieć w przestrzeni konsumenckiej z rozwiązaniami, które mają szansę stać się bardziej osobiste niż głośniki Echo czy chatboty w aplikacjach.