Kategoria: Opinie

Opinie to przestrzeń ekspertów, liderów branży i redakcji, którzy komentują najważniejsze zjawiska i trendy w sektorze IT i kanale sprzedaży. Publikujemy felietony, analizy i wywiady dotyczące technologii, rynku, regulacji oraz strategii vendorów, integratorów i dystrybutorów.

  • Dlaczego układy PCHE są kluczowe dla kolejnego etapu rozwoju sztucznej inteligencji

    Dlaczego układy PCHE są kluczowe dla kolejnego etapu rozwoju sztucznej inteligencji

    Jeśli wydaje się, że rynek półprzewodników znów znalazł się w centrum uwagi, to dlatego, że rzeczywiście tak właśnie jest. ASML, wiodący światowy dostawca systemów fotolitograficznych, poinformował niedawno, że w ciągu ostatnich sześciu miesięcy wartość akcji firmy wzrosła o około 97%, co odzwierciedla ponowny wzrost inwestycji w produkcję chipów. Jednak za nagłówkami gazet kryje się mniej głośna, a być może równie istotna kwestia związana z zarządzaniem ciepłem generowanym zarówno podczas produkcji chipów, jak i przez sprzęt AI, który jest od nich zależny — wyjaśnia Ben Kitson, dyrektor ds. rozwoju biznesu w firmie Precision Micro, zajmującej się produkcją w technologii trawienia chemicznego. 

    Obecny cykl jest nietypowy. Giganci technologiczni przeznaczają ogromne środki na centra danych AI, generując bezprecedensowy popyt na sprzęt o wysokiej wydajności. Co więcej, znaczna część tego sprzętu obliczeniowego została już zakontraktowana, jak podaje serwis Simply Wall St.

    Takie połączenie stanowi prawdziwe wyzwanie dla planowania infrastruktury, gdyż operatorzy systemów AI muszą zmierzyć się z wysoką gęstością mocy i niespotykanymi dotąd wymaganiami w zakresie chłodzenia w swoich centrach danych. 

    Tradycyjne centra danych projektowano z myślą o szafach o poborze mocy rzędu 5–10 kW, jednak obecnie klastry AI zużywają 30–50 kW na szafę. Co więcej, zaawansowane platformy GPU i akceleratorów osiągają teraz poziom 100–120 kW na szafę, co oznacza, że samo chłodzenie powietrzem już nie wystarcza. 

    Zarządzanie termiczne na pierwszym planie

    Ograniczenia termiczne zaczynają w końcu przyciągać uwagę. W maju 2025 roku gigant branży półprzewodników Nvidia poinformował, że operatorzy hiperskalowi instalują co tydzień dziesiątki tysięcy jego najnowszych układów GPU, a tempo wdrażania ma jeszcze przyspieszyć wraz z wprowadzeniem platformy „Blackwell Ultra”. 

    Zgodnie z publicznym planem rozwoju firmy jej kolejna architektura „Rubin Ultra” pozwoli na umieszczenie ponad 500 układów GPU w jednej szafie serwerowej o poborze mocy do 600 kW, co podkreśla skalę wyzwań związanych z chłodzeniem, przed jakimi stoi obecnie infrastruktura sztucznej inteligencji.

    W całym sektorze infrastruktury AI stabilność termiczna stała się kluczowym ograniczeniem nie tylko w projektowaniu układów scalonych, ale także w zakresie infrastruktury niezbędnej do zasilania i chłodzenia środowisk obliczeniowych o wysokiej gęstości. 

    Wysokowydajne układy chłodzenia cieczą oraz mikrokanałowe wymienniki ciepła przestały być rozwiązaniami niszowymi, stając się niezbędnym komponentem. Te same zasady inżynieryjne — precyzyjna kontrola przepływu płynu, maksymalizacja wymiany ciepła oraz produkcja kompaktowych elementów o wąskich tolerancjach — obowiązują dziś w wielu zastosowaniach. 

    Wiedza inżynieryjna zdobyta w środowiskach półprzewodnikowych o wysokiej precyzji znajduje obecnie zastosowanie w technologii wymienników ciepła z obwodami drukowanymi (PCHE) przeznaczonych dla centrów danych AI, co stanowi punkt styku między produkcją elektroniki a infrastrukturą energetyczną.

    Dlaczego układy PCHE mają znaczenie

    Układy PCHE nie są jedynie bardziej zaawansowaną wersją konwencjonalnych konstrukcji, takich jak wymienniki płaszczowo-rurowe czy płytowo-ramowe. Są mniejsze, lżejsze i bardziej wydajne, dzięki czemu idealnie sprawdzają się w instalacjach o ograniczonej przestrzeni i dużej gęstości.

    W centrach danych przekłada się to na większą liczbę szaf na metr kwadratowy bez pogorszenia niezawodności, przy jednoczesnym zmniejszeniu zużycia energii potrzebnej do chłodzenia sprzętu obliczeniowego.

    Kolejnym czynnikiem jest efektywność energetyczna, ponieważ przewiduje się, że obciążenia związane ze sztuczną inteligencją spowodują znaczny wzrost globalnego zapotrzebowania na energię elektryczną. Goldman Sachs prognozuje wzrost nawet o 165% do roku 2030, co oznacza, że liczy się każdy wat energii zużywanej na chłodzenie. 

    Kompaktowe, wysokowydajne układy PCHE nie tylko pozwalają zaoszczędzić powierzchnię instalacyjną, ale także pomagają kontrolować koszty energii i poprawiają ogólny wskaźnik efektywności energetycznej (PUE), stając się kluczowym elementem infrastruktury AI o dużej gęstości w środowiskach hiperskalowych.

    Skalowanie trawienia chemicznego

    Właśnie te cechy, które sprawiają, że PCHE są tak skuteczne — mikrokanały, duża powierzchnia wymiany ciepła oraz wąskie tolerancje — jednocześnie utrudniają ich produkcję. Konwencjonalna obróbka skrawaniem umożliwia tworzenie prototypów, lecz jest powolna, powoduje powstawanie zadziorów i nie jest opłacalna przy produkcji seryjnej. 

    Trawienie chemiczne natomiast eliminuje te problemy, tworząc wszystkie kanały jednocześnie na całej powierzchni płyty. W ten sposób uzyskuje się precyzyjne struktury bez naprężeń, a następnie poprzez spawanie dyfuzyjne powstaje gotowa płyta wymiennika ciepła.

    Firma Precision Micro, zajmująca się trawieniem chemicznym, produkuje płyty PCHE od czasu wprowadzenia tej technologii na rynek w latach 90. XX wieku. Dysponuje ona specjalistycznym zakładem o powierzchni 4100 m², który jest w stanie przetwarzać co tydzień tysiące płyt o długości do 1,5 metra i grubości do 2 mm. Umożliwia to produkcję seryjną płyt trawionych i czyni zakład jednym z największych ośrodków trawienia blach tego typu na świecie.

    Wynika to z faktu, że skalowanie produkcji do tysięcy płyt wymaga ściśle kontrolowanych procesów chemicznych oraz rygorystycznej kontroli jakości. Niewielu dostawców na świecie dysponuje wiedzą specjalistyczną, możliwościami produkcyjnymi i systemem kontroli procesów niezbędnymi do seryjnej produkcji trawionych płyt PCHE.

    Presja na łańcuch dostaw 

    Produkcja płyt PCHE w dużych wolumenach wymaga znacznych nakładów kapitałowych i zaawansowanych procesów technologicznych. Choć na rynkach azjatyckich pojawiają się nowe moce produkcyjne, wielu producentów OEM w Europie i Ameryce Północnej nadal kładzie nacisk na niezawodność, powtarzalność procesów i jakość jako kluczowe kryteria przy pozyskiwaniu precyzyjnych komponentów.

    Współpraca z uznanymi partnerami regionalnymi może zmniejszyć złożoność logistyczną, poprawić ochronę własności intelektualnej oraz zapewnić jednolitą jakość, zwłaszcza w sytuacji, gdy łańcuchy dostaw szukają lokalnych dostawców kluczowych kompetencji.

    Trawione płyty przepływowe i wysokowydajne wymienniki ciepła stanowią istotny, choć często niewidoczny element ekosystemu sztucznej inteligencji. Dzięki precyzyjnej regulacji temperatury pomagają one centrom danych w utrzymaniu szaf obliczeniowych o wysokiej gęstości bez ryzyka przegrzania oraz umożliwiają niezawodną i wydajną skalowalność infrastruktury AI. 

    To właśnie jest ukryta rzeczywistość stojąca za ponownym wzrostem inwestycji w produkcję chipów. Innowacje nie wynikają wyłącznie z mniejszych tranzystorów, nowych geometrii węzłów czy wydajniejszych układów GPU. Zależą również od fizycznej infrastruktury, która umożliwia niezawodne działanie tych technologii w skali przemysłowej.

    Układy PCHE mogą nie przyciągać takiej uwagi jak chipy czy modele sztucznej inteligencji, ale to one stanowią podstawę wydajności, efektywności i skalowalności obu tych obszarów. Tam, gdzie liczy się każdy wat energii i każdy ułamek stopnia temperatury, precyzyjny sprzęt termiczny po cichu umożliwia postęp jednego z najszybciej rozwijających się cykli technologicznych ostatniej dekady.

    źródło: Precision Micro

  • Między stabilizacją a niepewnością. Polski biznes w cieniu globalnych napięć i decyzji RPP

    Między stabilizacją a niepewnością. Polski biznes w cieniu globalnych napięć i decyzji RPP

    Polski biznes funkcjonuje dziś w rzeczywistości, którą najlepiej opisuje jednoczesna stabilizacja i niepewność. Z jednej strony decyzja Rady Polityki Pieniężnej o utrzymaniu stóp procentowych daje przewidywalność w obszarze kosztu pieniądza, z drugiej, rosnące napięcia geopolityczne i zmienność otoczenia gospodarczego zwiększają ryzyko prowadzenia działalności. W tej układance istotne znaczenie mają narzędzia wspierające płynność finansową. Potwierdzają to dane Polskiego Związku Faktorów. W I kwartale 2026 r. firmy faktoringowe sfinansowały wierzytelności o wartości ok. 131 mld zł, co oznacza wzrost o blisko 10% rok do roku, a z usługi korzysta już ok. 27 tys. przedsiębiorstw.

    Decyzja Rady Polityki Pieniężnej o utrzymaniu stóp procentowych na niezmienionym poziomie wpisuje się w szerszy obraz ostrożności, jaki obecnie dominuje w polityce gospodarczej i finansowej. W warunkach podwyższonej niepewności geopolitycznej, związanej m.in. z napięciami wokół Zatoki Perskiej oraz sytuacją w relacjach między Iranem a Stanami Zjednoczonymi, banki centralne coraz częściej wybierają strategię wyczekiwania zamiast szybkich reakcji. Taki kierunek sygnalizuje również Narodowy Bank Polski, podkreślając znaczenie napływających danych i zmienności otoczenia zewnętrznego.

    Ryzyko nagłych zmian

    Dla polskiego biznesu oznacza to funkcjonowanie w środowisku, w którym kluczowe parametry ekonomiczne pozostają relatywnie stabilne, ale jednocześnie obarczone są istotnym ryzykiem nagłych zmian. Szczególne znaczenie ma tutaj rynek surowców energetycznych, którego wrażliwość na wydarzenia na Bliskim Wschodzie pozostaje wysoka. Ewentualne zakłócenia w dostawach ropy czy gazu mogą szybko przełożyć się na koszty działalności przedsiębiorstw, wpływając zarówno na ceny produkcji, jak i poziom inflacji. Z tego punktu widzenia decyzja o wstrzymaniu się z dalszymi zmianami stóp procentowych może być odczytywana jako próba utrzymania równowagi pomiędzy kontrolą inflacji a wsparciem aktywności gospodarczej.

    W takim otoczeniu rosnąca skala wykorzystania faktoringu nie jest przypadkiem. Dane Polskiego Związku Faktorów pokazują, że przedsiębiorstwa coraz częściej traktują go nie tylko jako źródło finansowania, ale jako element zarządzania ryzykiem i płynnością. Ponad 7 mln sfinansowanych faktur w pierwszym kwartale roku to wyraźny sygnał, że firmy aktywnie skracają cykl rotacji gotówki i zabezpieczają się przed opóźnieniami w płatnościach.

    Jednocześnie stabilizacja stóp nie oznacza powrotu do przewidywalności znanej z wcześniejszych lat. Przedsiębiorstwa działające w Polsce nadal muszą brać pod uwagę scenariusze, w których czynniki zewnętrzne w krótkim czasie zmieniają warunki prowadzenia biznesu. Dotyczy to nie tylko kosztów finansowania, ale również kursów walutowych, dostępności kapitału czy płynności w łańcuchach dostaw. W sytuacji, gdy globalne napięcia mogą wpływać na ceny transportu i surowców, rośnie znaczenie elastycznego zarządzania finansami oraz bieżącej kontroli przepływów pieniężnych.

    Zapotrzebowanie na kapitał obrotowy

    Nieprzypadkowo więc dynamiczny rozwój faktoringu koncentruje się w sektorach produkcyjnym i dystrybucyjnym, gdzie wzrost sprzedaży oznacza jednocześnie większe zapotrzebowanie na kapitał obrotowy. Możliwość natychmiastowego uwolnienia środków z wystawionych faktur pozwala firmom terminowo regulować własne zobowiązania i bezpiecznie rozwijać działalność, nawet w warunkach podwyższonej zmienności.

    Wydaje się, że scenariusz dalszego łagodzenia polityki pieniężnej został odsunięty w czasie, a ewentualne decyzje będą uzależnione od ścieżki inflacji. Oznacza to, że firmy nie powinny zakładać szybkiego spadku kosztu pieniądza jako czynnika poprawiającego ich sytuację finansową. Zamiast tego większego znaczenia nabiera zdolność do adaptacji w warunkach utrzymującej się niepewności oraz umiejętność zabezpieczania się przed ryzykiem wynikającym z globalnych zależności również poprzez wykorzystanie instrumentów takich jak faktoring.

    W szerszym ujęciu obecna sytuacja pokazuje, jak silnie polska gospodarka jest powiązana z procesami zachodzącymi poza Europą. Nawet ograniczone napięcia w regionach kluczowych dla globalnego handlu i energetyki mogą wpływać na decyzje krajowych instytucji i kondycję przedsiębiorstw. W tym kontekście rośnie znaczenie narzędzi i strategii, które pozwalają firmom zachować stabilność operacyjną mimo zmiennego otoczenia, a także budować odporność na wstrząsy o charakterze zewnętrznym.

  • Wojciech Janusz, Dell Technologies: Rok 2026 to czas rozliczenia efektów AI, a nie kupowania obietnic

    Wojciech Janusz, Dell Technologies: Rok 2026 to czas rozliczenia efektów AI, a nie kupowania obietnic

    Sztuczna inteligencja przestaje być tylko narzędziem do rozmowy, a staje się technologią, która ma realnie wyręczać nas w pracy i domykać procesy biznesowe. O tym, jak mądrze inwestować w infrastrukturę AI, obniżać koszty i liczyć realny zysk z wdrożeń, w rozmowie z Wojciechem Januszem, EMEA Data Science & AI Horizontal Lead w Dell Technologies.

    Klaudia Ciesielska, Brandsit: Przez ostatni rok rynek zachłysnął się Generatywną AI, a teraz Dell zaczyna mówić o Agentic AI – autonomicznych agentach wykonujących zadania. Jednak wiele polskich firm wciąż jest na etapie testów prostych chatbotów. Czy nie uciekacie z technologią zbyt szybko do przodu? Dlaczego uważacie, że to moment na inwestycję w infrastrukturę pod autonomiczne agenty, skoro firmy często nie widzą jeszcze zwrotu z inwestycji w prostsze modele GenAI?

    Wojciech Janusz, Dell Technologies: Agentic AI nie jest nową technologią. To raczej naturalne przejście z chatbotów do agentów, które mogą wykonywać dla nas określone działania. O ile duże modele językowa pozwalają uwolnić wiedzę, jaką mamy w firmie, to prawdziwa rewolucja zaczyna się, gdy wiedzę zmieniamy w umiejętności i działania.

    Mam wrażenie, że wszyscy mamy lekki przesyt chatbotami. Finalnie nie chcemy czytać porad mądrego asystenta, który powie nam, co mamy zrobić, tylko kogoś, kto tę rzecz dla nas zrobi – albo przynajmniej odciąży nas w większej części zadania. 

    „Agentic AI nie jest nową technologią. To raczej naturalne przejście z chatbotów do agentów, które mogą wykonywać dla nas określone działania.”

    Wdrożenie nowej technologii zawsze rozważamy w trzech aspektach: ludzie, procesy i technologia. Niestety, w ostatnich dwóch latach zbyt często skupialiśmy się na technologii, zamiast na dwóch pierwszych kategoriach. Agenty AI są sposobem, by połączyć to wszystko w całość. To integracja z procesami, to współpraca człowieka z maszyną i wykorzystanie istniejącej technologii.

    Odpowiadając na pytanie: to bardzo dobry moment, bo dopiero kiedy AI zacznie wykonywać dla nas konkretne zadania, będziemy w stanie określić faktyczny uzysk, policzyć efektywność i lepiej zaplanować kolejne kroki i wdrożenia.

    K.C.: Wiele mówi się o Sovereign AI i modelach lokalnych, ale gdzie leży punkt opłacalności? Przy jakiej skali operacji polskiej firmie realnie opłaca się wycofać dane od hiperskalera i zainwestować we własne AI Factory? Czy to rozwiązanie tylko dla korporacji, czy realna alternatywa finansowa dla sektora MŚP?

    W.J.: Punkt opłacalności leży dużo niżej niż nam się wydaje. Mało osób zdaje sobie sprawę z tego, jak wielki przeskok technologiczny wykonaliśmy w ostatnich dwóch latach. To dotyczy zarówno sprzętu, jak i samych modeli AI.

    Po pierwsze, rynek AI się podzielił. Pojawiły się modele „otwarte”, dające możliwość pobrania i uruchomienia ich na naszym sprzęcie w bezpiecznym kontrolowanym środowisku, ale też dalszej customizacji tak, by jeszcze lepiej pasowały do naszego use case’a.

    Samo pobranie modelu i uruchomienia go niewiele da, jeśli nie spełnia on oczekiwań – i tutaj też mamy duży przeskok. Modele otwarte pod względem możliwości i poprawności działania doganiają najlepsze zamknięte modele chmurowe. Oczywiście model 1000 razy mniejszy nie będzie miał takich samych możliwości, jak ten w chmurze. Ale nie taki jest cel i zastosowania –  zamiast uniwersalnych modeli, które potrafią mówić we wszystkich językach świata i rozwiązywać każdy problem niezależnie od dziedziny, możemy stosować specjalistyczne, ale mniejsze modele i skupiać się na konkretnych działaniach. To daje nam większą elastyczność i kontrolę nad tym, co się dzieje. 

    Zamiast jednego “uniwersalnego geniusza” wybieramy zespół eksperckich AI współpracujących w sposób kontrolowany i efektywny. Powołujących potrzebne zasoby wtedy, gdy jest to wymagane do rozwiązania konkretnego problemu.

    Takie modele z rozwiniętą umiejętnością rozumowania i rozkładania problemów na mniejsze zadania stanowią podstawę działania agentów AI.

    Przez wysokie koszty mocy obliczeniowej i koszty energii pojawiły się także modele optymalizowane do uruchamiania na prostszym sprzęcie. Tutaj największe zasługi mają nowe architektury – takie jak Mixture of Experts (MoE), nowe metody treningu – w tym wykorzystanie Reinforcement Learning, oraz zaawansowane sposoby optymalizacji samego modelu.

    Ostatnim elementem jest rozwój platform sprzętowych. Tutaj tez pojawiają się nowe rozwiązania. Mamy całą nową kategorię sprzętu przeznaczonego do używania AI, a nie jego treningu.

    Szacuje się, że koszt uruchomienia modelu w przeliczeniu na koszt tokenów maleje 10-krotnie każdego roku i na razie, od momentu pojawienia się GPT 3.5, udaje się utrzymywać ten trend.

    Zadania, które jeszcze 2-3 lata temu wymagały potężnych serwerów, dzisiaj bez problemu wykonywane są na komputerze klasy AI PC, na przykład Dell Pro Max z GB10 pozwala z powodzeniem pracować z modelami do 200 miliardów parametrów.

    Oczywiście, apetyt rośnie i lista zadań, jakie chcemy wykonywać z AI, też rośnie, ale coraz lepiej widać, że technologia przestaje nas blokować. Teraz głównym pytaniem jest, co właściwie chcemy zrobić ze sztuczną inteligencją, a nie to, jak ją uruchomić na naszej infrastrukturze.

    K.C.: Polska ma jedne z najwyższych cen energii w Europie, a serwery AI są wyjątkowo prądożerne. Czy wdrożenie wydajnych rozwiązań AI w polskich warunkach wymusza na firmach generalny remont serwerowni i przejście na chłodzenie cieczą? Czy nie jest tak, że główną barierą adopcji AI w naszym regionie nie będzie cena samego serwera, ale właśnie koszty prądu i konieczność modernizacji infrastruktury chłodzącej?

    W.J.: Będzie to zależało od skali. Wcześniej rozmawialiśmy o zmianach w samej technologii AI. Mamy nowe modele, nowe sposoby wykorzystania, ale też nowe architektury umożliwiające uruchamiania AI nawet na skromnych zasobach.

    „W dużej skali nie uciekniemy od kosztów energii i zmian w infrastrukturze Data Center, ale jestem optymistą.”

    Mam wrażenie, że sporo firm zakłada potężny koszt wejścia. Tymczasem projekty AI możemy zacząć od pojedynczych aplikacji. Zresztą jest to bardzo rozsądne i zalecane podejście: ograniczyć się do kilku use-case’ów, dobrze osadzonych w realiach firmy, z jasno rozpisanym budżetem i przewidywanym zyskiem, a co najważniejsze – leżących blisko siebie w sensie potrzebnej technologii i integracji. Takie podejście sprawia, że możemy zacząć skromnie, od pojedynczych urządzeń, chociażby właśnie Dell Pro Max z GB10, bez wielkiej rewolucji w naszym DC. Oczywiście, gdy osiągniemy sukces, to te przykłady będą podstawą do stawiania dalszych kroków zapewniając jednocześnie solidne fundamenty. 

    Start Small, Think Big, scale fast. To podstawa naszej strategii AI.

    Oczywiście, w dużej skali nie uciekniemy od kosztów energii i zmian w infrastrukturze Data Center, ale jestem optymistą. Myślę, że dla większości firm to będzie stopniowa ewolucja, a nie rewolucja wymagająca drastycznych zmian.

    Inwestycje mogą też przynieść bardzo satysfakcjonujące rezultaty. Jeden nowy serwer Dell PowerEdge pozwala zastąpić do 7 starszych serwerów, a to przekłada się na spadek kosztów energii nawet o 65–80 proc. Klient Dell, firma Wirth Research, w centrach danych Verne Global dzięki serwerom PowerEdge z chłodzeniem cieczą zmniejszyła zużycie energii w środowiskach HPC o nawet 70%.

    K.C.: Wielka wymiana sprzętu trwa, ale czy kupowanie dziś komputerów z NPU (AI PC) ma uzasadnienie ekonomiczne, skoro aplikacji biznesowych realnie wykorzystujących ten układ jest wciąż niewiele? Czy firmy nie płacą dziś „podatku od nowości” za sprzęt, którego potencjał zostanie wykorzystany dopiero za 2-3 lata, czyli pod koniec jego cyklu życia?

    W.J.: Wśród klientów biznesowych widzimy duże zainteresowanie AI PC, organizacje chcą zwiększać swoje możliwości związane ze sztuczną inteligencją wykorzystywaną lokalnie. 

    Każdy komputer, który zaprezentowaliśmy podczas targów CES 2026, jest komputerem z procesorem AI i procesorem NPU. Ten układ nie służy wyłącznie nowym aplikacjom, które dopiero będą powstawać – jest aktywnie wykorzystywany podczas codziennej pracy użytkownika, daje korzyści choćby w wydłużonym czasie pracy na baterii – do 27 godzin strumieniowego odtwarzania wideo w przypadku XPS 14. 

    K.C.: Na koniec prośba o szczerą prognozę. Patrząc na rok 2026 i Państwa doświadczenie we współpracy z firmami: w jakim obszarze polski biznes (niezależnie od branży) „przestrzeli” z inwestycjami – wyda za dużo pieniędzy bez szybkiego zwrotu, a jaki obszar drastycznie zlekceważy, co może negatywnie odbić się na wynikach firm?

    W.J.: Myślę, że w 2026 firmy będą dokładniej przygotowywały się do projektów AI. Już nie chcemy mieć AI dla samego posiadania projektu AI. Będzie więcej analiz opłacalności i szukania tych  zastosowań, które faktycznie przynoszą realne korzyści. Skupimy się też na efektywności używania AI,  nie tylko na koszcie zakupu.

    Mamy nowe metryki i narzędzia pozwalające lepiej dobrać właściwe podejście do sztucznej inteligencji.

    „Model, który osiąga 80% w teście mając 8 miliardów parametrów, jest uznawany za znacznie bardziej imponujący (i efektywny) niż taki, który osiąga 82%, ale wymaga 70 miliardów parametrów.”

    Do niedawna skupialiśmy się tylko na maksymalnej jakości i szybkości działania.

    Aktualnie coraz częściej szukamy rozsądnego kompromisu pomiędzy jakością, a efektywnością. Przykładem możem być metodologia Frontier Pareto: zamiast patrzeć tylko na szczyt tabeli wyników, szukamy modeli na „froncie Pareto”, czyli takich, które oferują najlepszy stosunek jakości (np. wynik MMLU) do wielkości modelu (liczby parametrów) lub kosztu wnioskowania. Model, który osiąga 80% w teście mając 8 miliardów parametrów, jest uznawany za znacznie bardziej imponujący (i efektywny) niż taki, który osiąga 82%, ale wymaga 70 miliardów parametrów.

    Innym przykładem jest metryka pokazujący realny koszt decyzji lub akcji AI – Tokens per Decision/ Tokens per Action – Efektywniejszy model podejmie trafną decyzję zużywając kilkaset tokenów rozumowania, podczas gdy słabszy może potrzebować ich kilka razy więcej.Wybór pierwszego rozwiązania znacząco obniża TCO i pozwala na szybszy zwrot z inwestycji.

    Ostatnim, ale bardzo efektywnym sposobem pokazującym, w którą stronę zmierzamy, jest metryka Cost per Resolved Task (lub Cost per Resolution): ile realnie kosztuje nas wykonanie określonej czynności przy użyciu AI lub częściej – Agenta AI.

    Według mnie rok 2026 to będzie rok rozważnego budowania projektów AI, dobrze uzasadnionych, osadzonych w realiach i mających poparcie w liczbach.

  • W 2026 roku brak strategii ESG to realne ryzyko finansowe – Przemysław Brzywcy, Polenergia Fotowoltaika

    W 2026 roku brak strategii ESG to realne ryzyko finansowe – Przemysław Brzywcy, Polenergia Fotowoltaika

    Choć giełdowe notowania energii mogą dawać złudne poczucie stabilizacji, rzeczywistość przedsiębiorców kształtują wydatki na modernizację sieci i rygorystyczne wymogi zachodnich kontrahentów. W tym nowym rozdaniu fotowoltaika i magazyny energii stają się krytycznym narzędziem optymalizacji wyniku finansowego.

    O tym, czy polskie firmy są gotowe na „przenoszenie energii w czasie”, dlaczego brak strategii niskoemisyjnej może odciąć dostęp do kapitału i jak realnie zabezpieczyć budżet w 2026 roku, rozmawiamy z Przemysławem Brzywcym, Prezesem Zarządu Polenergia Fotowoltaika.

    Brandsit: Czy w dzisiejszych realiach rynkowych przejście na zieloną energię to dla firmy wciąż głównie kwestia budowania wizerunku, czy już twarda optymalizacja kosztów, która broni się w wynikach finansowych?

    Przemysław Brzywcy: Patrząc tylko na notowania Towarowej Giełdy Energii z ostatnich dwóch, trzech lat, można odnieść wrażenie, że ceny energii spadły i temat przestaje być palący. To jednak bardzo pozorny obraz sytuacji.

    Równolegle do cen samej energii, systematycznie rosną opłaty dystrybucyjne, i to zdecydowanie szybciej niż inflacja. Wynika to z konieczności ogromnych inwestycji w modernizację i rozbudowę sieci, które są niezbędne, by system mógł przyjąć coraz większą ilość źródeł odnawialnych. Te nakłady w naturalny sposób są później przenoszone na użytkowników sieci.

    Dodatkowo w systemie pojawiają się duże projekty OZE realizowane w ramach aukcji URE i kontraktów różnicowych. Gdy te instalacje ruszą, koszty funkcjonowania systemu również rozłożą się na wszystkich odbiorców.

    W efekcie firmy nie płacą wyłącznie za „cenę energii z giełdy”, ale za cały system. Dlatego inwestycje w fotowoltaikę i magazyny energii przestają być elementem wizerunkowym, a stają się bardzo racjonalnym narzędziem optymalizacji kosztów, które realnie widać w wynikach finansowych.

    Brandsit: Połączenie magazynów energii z taryfami dynamicznymi brzmi obiecująco, ale wymaga zmiany myślenia o poborze mocy. Czy polskie firmy są gotowe technologicznie, by automatycznie sterować zużyciem energii w zależności od jej chwilowej ceny i jak magazyny w tym pomagają?

    P.B.: To rzeczywiście wymaga zmiany podejścia, ale technologicznie polskie firmy są na to coraz lepiej przygotowane. W wielu zakładach funkcjonują już systemy monitoringu i zarządzania energią, a ich integracja z magazynami energii oraz algorytmami reagującymi na ceny rynkowe, nie jest dziś barierą technologiczną, lecz raczej kwestią decyzji biznesowej.

    W mojej ocenie to jeden z najbardziej niedocenianych kierunków optymalizacji kosztów energii. Przedsiębiorstwa bardzo często mają niestabilne zapotrzebowanie na moc, co generuje dodatkowe koszty, opłaty za przekroczenia oraz ryzyko wahań cen. Magazyn energii pozwala tę niestabilność wyrównać, stabilizując profil zużycia.

    „Integracja z magazynami energii oraz algorytmami reagującymi na ceny rynkowe, nie jest dziś barierą technologiczną, lecz raczej kwestią decyzji biznesowej”

    Taryfy powiązane z rynkiem energii dają z kolei możliwość zakupu prądu w momentach bardzo niskich lub nawet ujemnych cen energii oraz ograniczania poboru wtedy, gdy ceny są najwyższe. Można powiedzieć, że „przenosimy” energię w czasie.

    Dzięki temu firma może jednocześnie korzystać z okazji rynkowych i zabezpieczać się przed skokami cen. W praktyce to rozwiązanie, które przy odpowiednim zaprojektowaniu potrafi znacząco poprawić ekonomikę całego zużycia energii w przedsiębiorstwie i zwiększyć jego przewidywalność kosztową.

    Brandsit: Czy obserwuje Pan trend, w którym polskie firmy muszą przechodzić na zieloną energię nie z własnego wyboru, ale pod presją zachodnich kontrahentów, którzy wymagają od dostawców raportowania zerowego śladu węglowego?

    P.B.: Tak, to bardzo wyraźny i powszechny trend, który obserwujemy u naszych klientów, szczególnie tych działających eksportowo na rynkach Europy Zachodniej. Widać to mocno w branży spożywczej, ale również w całym łańcuchu dostaw powiązanym z sektorem automotive.

    Coraz częściej polskie firmy uczestniczące w tych łańcuchach dostaw muszą raportować swój ślad węglowy i wykazywać udział energii ze źródeł odnawialnych. W wielu branżach to już nie przewaga, ale warunek utrzymania kontraktu.

    Jednocześnie przedsiębiorcy coraz wyraźniej widzą, że to nie jest wyłącznie odpowiedź na wymagania ESG czy oczekiwania kontrahentów. Właściwie zaprojektowane rozwiązania oparte na OZE po prostu się opłacają. Zielona energia przestaje być elementem wizerunkowym, a staje się źródłem realnej przewagi kosztowej i konkurencyjnej.

    Dlatego firmy łączą dziś dwa aspekty. Z jednej strony budują swoją wiarygodność wobec partnerów zagranicznych, z drugiej realizują inwestycję, która broni się bardzo konkretnym business case’em.

    Brandsit: W jakim stopniu brak wdrożonej strategii ESG i korzystanie z konwencjonalnych źródeł energii utrudnia dziś firmom pozyskanie taniego kredytu inwestycyjnego lub przyciągnięcie inwestorów?

    P.B.: W bardzo dużym stopniu. Instytucje finansowe i fundusze inwestycyjne coraz częściej oceniają firmy nie tylko przez pryzmat wyników finansowych, ale również sposobu zarządzania ryzykiem środowiskowym i energetycznym. Brak strategii ESG, w tym brak działań związanych z transformacją energetyczną, wpływa dziś realnie na warunki finansowania.

    „Brak strategii ESG, w tym brak działań związanych z transformacją energetyczną, wpływa dziś realnie na warunki finansowania”

    Ma to także ogromne znaczenie w eksporcie. Kontrahenci zagraniczni zwracają uwagę na to, w jaki sposób produkowane są towary i jaką energią zasilany jest proces wytwórczy. To przestaje być elementem wizerunku, a staje się elementem oceny wiarygodności biznesowej.

    Brandsit: Jaki jeden, kluczowy krok doradziłby Pan zarządom firm, które chcą w 2026 roku nie tylko spełnić nowe wymogi regulacyjne, ale przede wszystkim realnie zabezpieczyć swój budżet przed wzrostem kosztów energii?

    P.B.: Przede wszystkim poprosić o rzetelny business case. Zarządy powinny rozmawiać z dostawcami technologii w bardzo prosty sposób – „jak ta inwestycja będzie się opłacała w mojej organizacji”. Niezależnie od tego, czy mówimy o fotowoltaice, magazynie energii czy połączeniu obu tych technologii.

    Warto jasno określić akceptowalne kryteria stopy zwrotu i pod tym kątem oceniać te rozwiązania. Fotowoltaika czy magazyn energii to nie są dziś gadżety ani elementy mody. To realne, policzalne narzędzia, które pozwalają firmie stabilizować koszty energii i poprawiać wynik finansowy.

  • Od dostawcy hardware’u do architekta cyfrowego środowiska. Rafał Szarzyński o rewolucji „One Sharp”

    Od dostawcy hardware’u do architekta cyfrowego środowiska. Rafał Szarzyński o rewolucji „One Sharp”

    Klaudia Ciesielska, Brandsit: Sharp to marka z ponad 100-letnią historią innowacji. Co sprawiło, że właśnie teraz zdecydowali się Państwo na tak fundamentalne połączenie trzech dotąd oddzielnych światów – druku, wizualizacji i usług IT? Jaki był kluczowy impuls do tej integracji?

    Rafał Szarzyński, Sharp: Kluczowym czynnikiem była zmiana sposobu pracy. Firmy działają dziś w środowisku, w którym liczy się nie tylko sprzęt, ale cała architektura cyfrowa – bezpieczna, elastyczna i intuicyjna. Nasi klienci oczekują partnera, który rozumie ich procesy i potrafi je wspierać, a nie tylko dostarczać urządzenia. Dlatego stworzyliśmy koncepcję „Sharp Digital Experience”, która łączy druk, wizualizację i usługi IT w jeden spójny ekosystem.

    To jest naprawdę przemyślana zmiana – przygotowywaliśmy się do niej od lat. Zainwestowaliśmy w rozwój kompetencji IT, przejmując firmy w Wielkiej Brytanii, Francji i Szwajcarii, a w listopadzie zakończyliśmy ostatni etap fuzji z Sharp/NEC. Dysponujemy dziś ponad 500 specjalistami IT w Europie i nowoczesnymi platformami wsparcia, które pozwalają nam projektować środowiska pracy odpowiadające na wyzwania cyfrowej transformacji. Dzięki temu Sharp staje się firmą świata cyfrowego, która realnie poprawia sposób pracy klientów.

    K.C.: Joe Tomota zapowiada odejście od modelu transakcyjnego na rzecz długofalowych partnerstw strategicznych. Biorąc pod uwagę, że w Polsce Sharp kojarzony jest przede wszystkim z niezawodnym hardware’m – jak ta zmiana redefiniuje Wasz model współpracy z biznesem? Czy „One Sharp” to przejście od roli dostawcy technologii do roli doradcy odpowiedzialnego za architekturę i optymalizację cyfrowego środowiska pracy?

    R.S.: To jest fundamentalna zmiana w sposobie, w jaki patrzymy na relacje z klientami. Dotychczas rynek często opierał się na prostych transakcjach – zakup urządzenia, instalacja, koniec procesu. Dziś firmy oczekują czegoś zupełnie innego: partnera, który rozumie ich cele biznesowe i potrafi zaprojektować środowisko pracy tak, aby wspierało efektywność, bezpieczeństwo i rozwój. 

    „One Sharp” jest odpowiedzią na tę potrzebę – to filozofia, w której technologia jest tylko narzędziem, a prawdziwą wartością jest doradztwo i wspólne budowanie strategii.

    Przykład? Coraz częściej rozmawiamy z klientami nie o tym, jaki ekran czy drukarkę wybrać, ale jak zintegrować komunikację w hybrydowym zespole, jak zabezpieczyć dane w chmurze, czy jak zoptymalizować procesy dokumentowe. Nasza rola to nie tylko dostarczenie sprzętu, ale stworzenie spójnego ekosystemu, który odpowiada na realne wyzwania biznesu. To jest istota „One Sharp” – partnerstwo, które daje przewagę w świecie cyfrowym.

    „One Sharp (…) to filozofia, w której technologia jest tylko narzędziem, a prawdziwą wartością jest doradztwo i wspólne budowanie strategii.”

    K.C.: CIO coraz częściej pytają nie „czy”, ale „jak” zapewnić bezpieczeństwo. Po włączeniu do struktur Sharpa kompetencji cyberbezpieczeństwa: czy urządzenia takie jak drukarki czy ekrany mogą stać się elementami pierwszej linii obrony organizacji? Jak wygląda w praktyce taki model ochrony w ramach ekosystemu „One Sharp”?

    R.S.: Zdecydowanie tak. Współczesne środowisko pracy jest rozproszone, a każde urządzenie podłączone do sieci może być potencjalnym punktem dostępu. Dlatego w „One Sharp” traktujemy bezpieczeństwo jako integralną część projektowania całego ekosystemu, a nie dodatek. Nasze urządzenia – od drukarek po wyświetlacze – są wyposażone w mechanizmy ochrony danych, szyfrowanie, kontrolę dostępu i integrację z systemami zarządzania tożsamością. To sprawia, że stają się aktywnym elementem strategii bezpieczeństwa, a nie tylko pasywnym sprzętem.

    W praktyce oznacza to, że dokumenty są przechowywane i przesyłane w sposób bezpieczny, dostęp do urządzeń jest kontrolowany, a komunikacja w salach konferencyjnych odbywa się w szyfrowanym środowisku. Dodatkowo, dzięki naszym usługom IT i platformom zarządzania, możemy monitorować i reagować na zagrożenia w czasie rzeczywistym. To podejście daje CIO pewność, że każdy element infrastruktury – nawet drukarka – wspiera ochronę organizacji, a nie ją osłabia.

    „Nasze urządzenia – od drukarek po wyświetlacze (…) stają się aktywnym elementem strategii bezpieczeństwa, a nie tylko pasywnym sprzętem.”

    K.C.: ITpoint i Apsia wniosły do Sharpa zwinne kompetencje software’owe i usługowe. Jak połączenie twardej inżynierii sprzętowej z know-how chmurowym i IT zmienia finalną wartość odczuwaną przez klienta? Czy polski rynek może spodziewać się nowych, hybrydowych usług łączących te światy?

    R.S.: To połączenie otwiera zupełnie nowy rozdział w sposobie, w jaki wspieramy klientów. Dotychczas technologia była często postrzegana jako zestaw odrębnych elementów – urządzenia, aplikacje, infrastruktura. Dziś integrujemy te obszary w jeden ekosystem, w którym sprzęt i oprogramowanie współpracują w sposób płynny i bezpieczny. Dzięki kompetencjom wniesionym przez ITpoint i Apsia możemy projektować rozwiązania, które nie tylko działają, ale realnie upraszczają procesy, automatyzują zadania i zwiększają efektywność pracy.

    Na polskim rynku oznacza to dostęp do usług hybrydowych, które łączą nasze doświadczenie  w inżynierii sprzętowej z nowoczesnymi platformami chmurowymi. Przykładem mogą być rozwiązania do zarządzania dokumentami w chmurze, integracja systemów audiowizualnych z narzędziami do współpracy czy usługi IT wspierające bezpieczeństwo i ciągłość działania. Klienci zyskują nie tylko produkt, ale kompletną usługę – od doradztwa, przez wdrożenie, po bieżące wsparcie. To jest prawdziwa wartość „One Sharp”.

    „Klienci zyskują nie tylko produkt, ale kompletną usługę – od doradztwa, przez wdrożenie, po bieżące wsparcie. To jest prawdziwa wartość „One Sharp”.”

    K.C.: Współczesne działy IT zmagają się z ogromną fragmentacją dostawców i rozwiązań. Czy strategia „One Sharp” jest odpowiedzią na trend konsolidacji usług (vendor consolidation)? Jakie wymierne korzyści – poza wygodą „jednej faktury” – zyskuje przedsiębiorstwo, powierzając obsługę druku, wizualizacji i IT jednemu partnerowi zamiast trzem różnym podmiotom?

    R.S.: „One Sharp” to odpowiedź na rosnącą potrzebę uproszczenia i integracji. Fragmentacja dostawców oznacza nie tylko większą złożoność zarządzania, ale też wyższe ryzyko – różne standardy bezpieczeństwa, brak spójności w procesach i trudności w skalowaniu rozwiązań. Konsolidacja usług w ramach jednego partnera daje coś więcej niż wygodę – to przede wszystkim spójność technologiczna i strategiczna.

    Dzięki temu przedsiębiorstwo zyskuje jednolite standardy bezpieczeństwa, szybsze wdrożenia i możliwość centralnego zarządzania całym środowiskiem pracy. Zamiast trzech różnych integracji, mamy jeden ekosystem, w którym druk, wizualizacja i IT współpracują w sposób płynny. To przekłada się na niższe koszty operacyjne, lepszą kontrolę nad danymi i większą elastyczność w reagowaniu na zmiany. W praktyce oznacza to mniej punktów ryzyka, prostsze procesy i większą przewidywalność – a to jest wartość, której dziś szukają CIO.

    K.C.: Transformacja cyfrowa to nie tylko procesy, ale przede wszystkim ludzie. W jaki sposób integracja usług IT i nowoczesnych narzędzi wizualnych wpływa na tzw. Employee Experience? Czy w wizji Sharpa nowoczesne, zintegrowane biuro może być argumentem  w walce o talenty i sposobem na zwiększenie efektywności zespołów pracujących w modelu hybrydowym?

    R.S.: Zdecydowanie tak. Technologia ma sens tylko wtedy, gdy wspiera ludzi w ich codziennej pracy. Dlatego idea „One Sharp” to patrzenie na środowisko pracy jak na kompleksowe doświadczenie, które wpływa na komfort, efektywność i kulturę organizacyjną. Zintegrowane rozwiązania – od bezpiecznych platform do współpracy po intuicyjne systemy audiowizualne – sprawiają, że spotkania są prostsze, komunikacja płynniejsza, a dostęp do informacji natychmiastowy. To przekłada się na realne poczucie kontroli i wygody dla pracowników.

    W modelu hybrydowym ma to kluczowe znaczenie. Pracownik, który może bez problemu połączyć się z zespołem, udostępnić dokumenty czy prowadzić prezentację w nowoczesnej sali konferencyjnej, czuje się częścią organizacji niezależnie od miejsca pracy. Takie środowisko jest dziś argumentem w walce o talenty – pokazuje, że firma inwestuje w narzędzia, które wspierają kreatywność i współpracę. W efekcie rośnie nie tylko satysfakcja, ale też efektywność zespołów. To jest nasza wizja: technologia, która służy ludziom, a nie odwrotnie.

    „To jest nasza wizja: technologia, która służy ludziom, a nie odwrotnie.”

    K.C.: Polska jest rynkiem szybkim i wymagającym. Jak strategia „One Sharp” będzie wdrażana lokalnie? Czy partnerzy i klienci w Polsce mogą spodziewać się nowych modeli rozliczeń oraz usług doradczych pozwalających przeprowadzić transformację biura „pod klucz”?

    R.S.: Tak, Polska jest dla nas bardzo ważnym rynkiem i wdrożenie „One Sharp” będzie tu pełne. Rozwijamy lokalne usługi IT, aby móc oferować klientom kompleksowe projekty – od analizy potrzeb, przez projekt, aż po wdrożenie i utrzymanie. Chcemy, aby transformacja biura była prostym procesem „pod klucz”. Jeśli chodzi o rozliczenia, wprowadzamy modele subskrypcyjne i usługi „as-a-service”, które ułatwiają planowanie kosztów i dają elastyczność. To trend, który odpowiada na potrzeby polskich firm – przewidywalność, prostota i realna wartość.

    K.C.: Praca hybrydowa, automatyzacja i rosnąca presja kosztowa – które z wyzwań biznesowych będą, Państwa zdaniem, dominować w najbliższych 2–3 latach? W jaki sposób „nowy” Sharp jest przygotowany, aby pomóc liderom biznesu im sprostać?

    R.S.: Najbliższe lata będą zdominowane przez trzy trendy: utrwalenie pracy hybrydowej, automatyzację procesów i optymalizację kosztów w warunkach presji ekonomicznej. Firmy będą szukały sposobów na zwiększenie efektywności bez kompromisów w zakresie bezpieczeństwa i jakości. To oznacza, że technologia musi być nie tylko innowacyjna, ale też skalowalna i przewidywalna kosztowo.

    „Nowy” Sharp jest przygotowany na te wyzwania dzięki strategii „One Sharp”, która integruje druk, wizualizację i usługi IT w jeden ekosystem. Oferujemy rozwiązania, które wspierają automatyzację obiegu dokumentów, bezpieczną współpracę w chmurze i intuicyjne narzędzia do komunikacji w zespołach rozproszonych. Dodatkowo rozwijamy modele subskrypcyjne i usługi „as-a-service”, które pozwalają firmom lepiej kontrolować wydatki i elastycznie skalować technologie. Naszym celem jest, aby liderzy biznesu mogli patrzeć w przyszłość z pewnością, że ich środowisko pracy jest gotowe na zmiany – bez względu na to, jak szybko będą następować.


    Materiał powstał we współpracy z Sharp Polska.

  • Od Wielkiego Wybuchu do prędkości światła: trwa rewolucja AI

    Od Wielkiego Wybuchu do prędkości światła: trwa rewolucja AI

    W 2023 roku byliśmy świadkami Wielkiego Wybuchu technologii – roku, w którym sztuczna inteligencja zapoczątkowała nową erę innowacji i transformacji. W 2025 roku generatywna AI weszła do głównego nurtu, a na scenę wkroczyła agentowa sztuczna inteligencja. Najważniejsze jest to, że w dużych przedsiębiorstwach, takich jak Dell Technologies, zaczęły pojawiać się realne zwroty z inwestycji.

    W 2026 roku historia sztucznej inteligencji nabiera tempa. AI przeprojektuje całą strukturę przedsiębiorstw i przemysłu. Będzie napędzać nowe sposoby działania, budowania i wprowadzania innowacji na skalę i w tempie wcześniej niewyobrażalnym.

    Zrozumienie tych zmian jest niezbędne, ponieważ ci, którzy dziś inwestują w solidne, elastyczne zaplecze technologiczne oraz korzystają z sieci ekosystemów partnerskich, będą gotowi do zarządzania szybkimi zmianami, które nadejdą.

    1. Czas na działanie: zasady rządzące dynamicznym ekosystemem

    Wraz z przyspieszeniem rozwoju sztucznej inteligencji pojawia się pewien stopień zmienności. Chociaż przewidujemy, że ramy zarządzania ostatecznie ustabilizują ekosystem, dzisiejsza rzeczywistość jest wezwaniem do działania.

    Zarządzanie powoduje obecnie największe opóźnienia i to wręcz krytyczny problem, który nie przynosi postępów. Branża pospieszyła się, aby wprowadzić do produkcji cenne narzędzia sztucznej inteligencji, takie jak chatboty i agenci, ale zrobiliśmy to bez wystarczającego zarządzania.

    To nie tylko ryzykowne, ale wręcz nie do utrzymania. Do przyszłego roku potrzeba solidnych ram i prywatnych środowisk zapewniających stabilność i kontrolę. Uruchamianie modeli lokalnie, na własnych serwerach lub w kontrolowanych fabrykach sztucznej inteligencji, stanie się normą, aby zapewnić stabilne podstawy i odizolować organizacje od zewnętrznych zakłóceń.

    Ale to coś więcej niż prognoza. To pilny apel. Musimy bardziej skupić się na zarządzaniu. Bez tego skończymy z niepewnością, która spowolni wdrażanie praktycznej i wartościowej sztucznej inteligencji dla przedsiębiorstw.

    Naszym konkretnym postulatem wobec sektora publicznego i prywatnego jest stworzenie zasad zarządzania rynkiem enterprise we współpracy z realnymi graczami tego rynku – przedsiębiorstwami i dostawcami technologii biznesowych.

    Nie możemy zakładać, że zarządzanie publicznymi chatbotami AI lub AGI jest tym samym, co pomaganie przedsiębiorstwom w kształtowaniu rzeczywistego zastosowania sztucznej inteligencji w ich firmach i procesach.

    Zarządzanie nie ma na celu spowolnienia innowacji. Chodzi o budowanie ram ochronnych, które pozwolą nam wszystkim przyspieszać w sposób bezpieczny i zrównoważony.

    2. Zarządzanie danymi: prawdziwy fundament innowacji w sztucznej inteligencji

    Kolejny wielki skok w dziedzinie sztucznej inteligencji nie będzie pochodzł tylko z potężniejszych algorytmów. Będzie wynikał ze sposobu, w jaki zarządzamy, wzbogacamy i wykorzystujemy nasze dane. Ponieważ systemy sztucznej inteligencji stają się coraz bardziej złożone, jakość i dostępność wykorzystywanych przez nie danych są najważniejsze.

    W 2026 roku zarządzanie danymi i ich przechowywanie za pomocą AI stanie się niekwestionowanym fundamentem wszystkich innowacji w zakresie sztucznej inteligencji.

    Infrastruktura AI różni się od klasycznych systemów IT. Koncentruje się na przyspieszonych obliczeniach, zaawansowanej sieci dostosowanej do sztucznej inteligencji, nowych interfejsach użytkownika oraz, co najważniejsze, nowej warstwie wiedzy z danych, która napędza jej wyniki.

    Niezbędne staną się specjalnie zaprojektowane platformy danych AI, przygotowane z myślą o integracji różnych źródeł danych, ochronie nowych artefaktów i zapewnieniu wydajnej pamięci masowej niezbędnej do ich obsługi. Ekosystemy partnerskie mogą pomóc w uwolnieniu potencjału tych specjalnie zaprojektowanych platform, a partnerzy wykorzystują swoją wiedzę ekspercką do integracji i optymalizacji rozwiązań do zarządzania danymi na potrzeby sztucznej inteligencji dla przedsiębiorstw.

    Zdolność do efektywnego wprowadzania czystych, uporządkowanych i istotnych danych do modeli sztucznej inteligencji ma kluczowe znaczenie. Jednak w miarę jak wchodzimy w erę agentowego AI, dane te nie będą już wykorzystywane wyłącznie do trenowania dużych modeli. Zamiast tego będą dynamicznym zasobem podczas wnioskowania, umożliwiając generowanie ewoluującej wiedzy i inteligencji w czasie rzeczywistym. Ta podstawowa warstwa danych jest punktem wyjścia dla wszystkiego, co będzie dalej.

    3. Agentowa AI: nowy menedżer ds. ciągłości działania

    To, co nadchodzi, to agentowa sztuczna inteligencja. Ewolucja, która zmienia sztuczną inteligencję z pomocnego asystenta w integralnego menedżera długotrwałych, złożonych procesów.

    W dziedzinach takich jak produkcja i logistyka agenci sztucznej inteligencji nie będą tylko pomagać pracownikom, będą wspierać w koordynacji ich działań. Korzystając z bogatych, dynamicznych strumieni danych, zapewnią ciągłość między zmianami, zoptymalizują przepływy pracy w czasie rzeczywistym i stworzą nowe poziomy wydajności operacyjnej.

    Wyobraźmy sobie agenta sztucznej inteligencji, który skaluje możliwości kierowników procesów na hali produkcyjnej, dostosowuje harmonogramy produkcji w oparciu o zakłócenia w łańcuchu dostaw lub prowadzi nowego pracownika przez złożone zadanie. Pozycjonując agentów sztucznej inteligencji jako pośredników między celami zespołu, a jego pracownikami, podnosimy koordynację zespołową we wszystkich sektorach na niespotykany wcześniej poziom.

    Ci inteligentni agenci staną się układem nerwowym nowoczesnych operacji, zapewniając odporność i postęp. Podobnie jak każda inna zdolność AI, opierają się na danych przedsiębiorstwa, tworząc unikalne zasoby wiedzy i inteligencji, które muszą być odpowiednio przechowywane i chronione.

    4. Fabryki sztucznej inteligencji na nowo definiują odporność i odtwarzanie po awarii

    Im bardziej AI integruje się z podstawowymi funkcjami firmy, tym ciągłość działania staje się niepodważalna.

    Infrastruktura sztucznej inteligencji będzie ewoluować, aby nadać priorytet odporności operacyjnej, na nowo definiując znaczenie odtwarzania po awarii w świecie opartym na AI. Skupiamy się nie tylko na tworzeniu kopii zapasowych systemów, ale na zapewnieniu funkcjonalności sztucznej inteligencji, nawet jeśli podstawowe systemy przejdą w tryb offline. Obejmuje to ochronę zwektoryzowanych danych i innych unikalnych artefaktów, dzięki czemu inteligencja systemu może przetrwać wszelkie zakłócenia.

    Osiągnięcie tego celu wymaga innowacji w całym łańcuchu wartości sztucznej inteligencji, od firm zajmujących się ochroną danych i cyberbezpieczeństwem, po kluczowych dostawców technologii AI. Ekosystemy współpracy obejmują rządy, partnerów i innowatorów sztucznej inteligencji na dużą skalę. Muszą one współpracować, aby zbudować odporne fabryki, które łączą narzędzia i wiedzę specjalistyczną niezbędne do zapewnienia ciągłości i zabezpieczenia krytycznych funkcji w środowiskach chmury hybrydowej.

    5. Suwerenna sztuczna inteligencja przyspiesza rozwój krajowej infrastruktury przedsiębiorstwa

    Sztuczna inteligencja ma kluczowe znaczenie dla interesów państwowych, co sprawia że obserwujemy szybki rozwój suwerennych ekosystemów sztucznej inteligencji. Kraje nie są już tylko konsumentami technologii sztucznej inteligencji, aktywnie budują własne ramy, aby napędzać lokalne innowacje i utrzymywać autonomię cyfrową.

    Zmienia to sposób planowania infrastruktury sztucznej inteligencji, w której obliczenia, przechowywanie danych i zarządzanie nimi odgrywają kluczową rolę w ochronie i lokalizacji poufnych informacji.

    Przedsiębiorstwa będą w coraz większym stopniu dostosowywać się do tych ram, skalując swoją działalność w granicach regionalnych. Przechowując dane na miejscu, rządy mogą kształtować usługi publiczne, takie jak opieka zdrowotna, a przedsiębiorstwa mogą korzystać z krajowej infrastruktury, jednocześnie dostosowując cele biznesowe do krajowej polityki przemysłowej.

    Tworzy to innowacje o bezpośrednim wpływie na obywateli i gospodarki oraz stanowi fundamentalną zmianę, która przenosi sztuczną inteligencję z koncepcji globalnej do konkretnej, lokalnej rzeczywistości.

    Wyznaczanie kursu na 2026 rok

    W 2026 roku rewolucja w dziedzinie sztucznej inteligencji nie zwalnia tempa, lecz przyspiesza. To, co zapoczątkował Wielki Wybuch, osiągnęło prędkość światła, a wiodące organizacje rozwijają się i dostosowują do zmian równie szybko.

    Aby osiągnąć sukces nie trzeba gonić za każdym przełomem. Lepiej zbudować infrastrukturę, która nadąży za tymi zmianami: odporne fabryki AI, suwerenne ramy, systemy agentów zarządzające złożonymi operacjami oraz ekosystemy współpracy przekształcające innowacje w realny wpływ biznesowy. Narzędzia i informacje są dostępne. To gotowość do działania już teraz odróżnia liderów od reszty.

    Przywództwo i konkretne działania zdecydują, kto zgarnie prawdziwe korzyści. Przyszłość pędzi z prędkością światła. Pytanie brzmi: czy jesteśmy gotowi?

    Autor: John Roese, globalny dyrektor ds. technologii i sztucznej inteligencji w firmie Dell Technologies

  • Repozycjonowanie marki Sharp i budowanie trwałych partnerstw

    Repozycjonowanie marki Sharp i budowanie trwałych partnerstw

    Tę zmianę wyjątkowo dobrze widać w salach konferencyjnych. Miejsca pracy, przestrzenie publiczne, węzły komunikacyjne i obiekty gastronomiczne poszukują nowych sposobów na zachowanie nowoczesności, rentowności i łączności. Pojawiła się potrzeba nowego spojrzenia na to, co oznacza „normalny tryb działania”, otwierając drzwi nowym pomysłom i możliwościom rozwoju.

    Praca zdalna, podatność na zagrożenia cybernetyczne, wymagania dotyczące zrównoważonego rozwoju i rosnące oczekiwania wobec audiowizualnych systemów informacyjno-rozrywkowych oznaczają, że firmy wymagają czegoś więcej niż narzędzi i sprzętu IT. Potrzebują zaufanych i zorientowanych na klienta partnerów technologicznych, takich jak Sharp, którzy pomogą im zrozumieć nowe wyzwania. Firmy, patrząc w przyszłość, często odchodzą od prostego modelu transakcji i zamiast tego poszukują głębszych, bardziej znaczących relacji biznesowych, które napędzają trwały sukces i postęp.

    Wyzwania technologiczne nie są już jednowymiarowe 

    Wiemy o tym, ponieważ w firmie Sharp działamy na pierwszej linii z naszymi klientami i partnerami. Z jednej strony mówią nam, że współpraca i elastyczność wymagają bezproblemowych narzędzi cyfrowych. Z drugiej strony, bezpieczeństwo, zgodność, efektywność ekonomiczna i odpowiedzialność za środowisko są opisywane jako absolutny priorytet. Znalezienie właściwej równowagi między tymi dwoma aspektami, przy jednoczesnym ograniczeniu liczby dostawców, stanowi wyzwanie w dążeniu do rzeczywistego zwrotu z inwestycji.

    Nowa, odważna obietnica, zbudowana na ponad 100 latach zaufania

    To wyzwanie jest naszym powołaniem. Założona w 1912 roku firma Sharp ma bogatą historię innowacji technologicznych. Wiemy, że mamy to, czego potrzeba, aby być zaufanym partnerem technologicznym dla naszych klientów, którzy chcą wprowadzać nowe pomysły. Te cechy w rzeczywistości doskonale odzwierciedlają nasze wartości korporacyjne, takie jak „Sincerity and Creativity”. Niezależnie od tego, czy chodzi o bardziej inteligentną, bezpieczniejszą drukarkę wielofunkcyjną, czy przełomowe (i zrównoważone) technologie wyświetlania obrazu, takie jak nasz e-Paper, które zaprezentowaliśmy na targach ISE 2024, nazwa Sharp od dawna jest synonimem jakości i niezawodności. 

    Udowodniliśmy, że firma Sharp nie koncentruje się jedynie na rozwiązywaniu pojedynczych problemów, lecz na oferowaniu firmom kompleksowych narzędzi – od inteligentnych systemów obiegu dokumentów po immersyjne wyświetlacze wspierające współpracę w zespołach hybrydowych. 

    Ta wieloaspektowa rzeczywistość ośmieliła nas do przedefiniowania tego, za czym się opowiadamy. Świat wokół nas szybko się zmienia, a my nie zamierzamy czekać, aż się ustabilizuje. Nazywamy to „Sharp Digital Experience”, co jest wyraźnym potwierdzeniem kierunku, w którym zmierzamy w Sharp Europe. 

    Sharp Europe: Nowa tożsamość dla dynamicznej przyszłości

    Ten nowy kierunek sygnalizuje początek ekscytującej ery w Sharp Europe. Świat technologii rozwija się szybciej niż kiedykolwiek wcześniej, a nasza marka będzie teraz odzwierciedlać energię, kreatywność i ducha myślenia przyszłościowego, które nas napędzają. 

    Z radością prezentujemy nową identyfikację marki, która pomoże klientom i partnerom pewnie korzystać z naszych rozwiązań biznesowych. Dzięki bardziej przejrzystej propozycji „one Sharp” i spójnym zasobom wizualnym, nasze produkty i usługi tworzą jednolitą tożsamość. Klienci mogą teraz oczekiwać jeszcze silniejszego partnerstwa z Sharp. Takiego, które koncentruje się na ich zmieniających się potrzebach i jest wzmocnione nową energią, aby pomóc im odnieść sukces na dynamicznym rynku. 

    Przykładem tego ujednolicenia usług jest nasz przewodni motyw graficzny „Impuls” – „The Pulse”, który symbolizuje, jak nasza firma łączy ludzi z technologią w bezproblemowy sposób. Składa się z połączonych ze sobą elementów, stale dostosowuje się i ewoluuje, aby zaprezentować naszą szeroką gamę produktów i usług – od usług IT, przez urządzenia wielofunkcyjne, po innowacyjne rozwiązania w zakresie wyświetlaczy. „Impuls” ilustruje również komunikację i bliskość, jaką mamy z naszymi klientami, symbolizując rozmowy cyfrowe za pośrednictwem naszej szerokiej oferty urządzeń technologicznych i interfejsów cyfrowych.

    Pomijając cechy wizualne, nasze repozycjonowanie to nie tylko nowy wygląd – to odważne oświadczenie mówiące o tym, kim jesteśmy i dokąd zmierzamy. Sharp ma bardzo silne powiązania z ludźmi i firmami na całym świecie, a ta strategiczna zmiana sygnalizuje nasze ciągłe inwestycje w innowacje i zaangażowanie w pomoc organizacjom w zwiększaniu wydajności i otwieraniu nowych możliwości, bez względu na ich rozmiar.

    Od urządzeń do środowisk

    Czego nasi klienci i partnerzy mogą oczekiwać od „Sharp Digital Experience”, gdy wzmacniamy nasze zaufane partnerstwa i komunikujemy naszą pozycję marki?

    Wyobraźmy sobie tę scenę. Klienci wchodzą do sali konferencyjnej, od drzwi ich uwagę przykuwa ekran Sharp dvLED. Po chwili widzą, że ich prezentacja jest już gotowa do użycia, bezpiecznie przechowywana w chmurze i dostępna za pośrednictwem platformy Sharp Synappx. Podczas spotkania wymieniane są pomysły nie tylko pomiędzy osobami obecnymi w sali konferencyjnej, a także wśród tych uczestniczących zdalnie z 10 innych krajów na całym świecie. Na wielkoformatowym wyświetlaczu Sharp każdy widzi wszystko wyraźnie. Dyskusja przebiega sprawnie, zapadają decyzje, a dokumenty uzupełniające są drukowane bezpiecznie i w najwyższej jakości za pomocą najnowszego urządzenia wielofunkcyjnego Sharp. 

    To jest przyszłość, którą zamierzamy osiągnąć. Świat oparty na intuicyjnych doświadczeniach, które łączą się w bezproblemowy sposób, aby umożliwić firmom skupienie się na tym, co robią najlepiej. Ta koncepcja przyświeca również naszej nowej komunikacji wizualnej, w której „impuls” przenika nasze obrazy, aby pokazać, jak technologia nie tylko łączy się i rozmawia ze sobą, ale także bezproblemowo współdziała z ludźmi.

    Innowacja z przesłaniem

    Łącząc swoje usługi IT, monitory, urządzenia drukujące i rozwiązania dla miejsc pracy, firma Sharp Europe tworzy platformę komunikacyjną, która spaja pomysły z działaniami, ludzi z technologią, a dzisiejsze wyzwania z jutrzejszymi możliwościami. Efekt? Firmy, które są bardziej odporne. Zespoły, które mają większe możliwości. Miejsca pracy, które są bardziej inspirujące. I o to właśnie chodzi w przyszłości miejsc pracy i przestrzeni publicznych. Nie tylko szybsze sieci czy inteligentniejsze ekrany, ale także lepsze doświadczenia dla ludzi.

    Technologia sama nie zbuduje przyszłości pracy. Będzie ona budowana w oparciu o to, w jaki sposób wykorzystamy tę technologię. W sposób, w jaki projektujemy, wyobrażamy sobie i integrujemy to, aby służyło ludzkiemu potencjałowi. Łącząc wszystkie swoje mocne strony, Sharp Europe rozwija się nie tylko jako marka. Staje się czymś, w co firmy mogą naprawdę uwierzyć. Zaufany partner, który wspiera zarówno naszych obecnych klientów, jak i tych, których będziemy angażować poprzez naszą nową identyfikację, aby mogli poruszać się po pojawiających się złożonościach z pewnością siebie, kreatywnością i szczerością.

    Świat szybko się zmienia, jednak dzięki odpowiedniemu partnerowi technologicznemu przyszłość nie musi być zniechęcająca. Może być naprawdę inspirująca. Właśnie to Sharp Europe pragnie udowodnić dzięki fachowym poradom i rozwiązaniom dostosowanym do potrzeb i bezpiecznej technologii.

  • Od Apple’a do Alphabetu: późny zwrot Warrena Buffetta w stronę infrastruktury AI

    Od Apple’a do Alphabetu: późny zwrot Warrena Buffetta w stronę infrastruktury AI

    Ruben Dalfovo, Strateg ds. inwestycji w Saxo pisze w analizie, że przez lata historia Warrena Buffetta z Google była przestrogą. Otwarcie przyznawał, że niekupienie ich akcji było poważnym błędem, choć widział, jak firma zamienia wyszukiwanie w internecie w narzędzie do zarabiania na reklamach. Teraz, na kilka miesięcy przed przekazaniem sterów Gregowi Abelowi, Berkshire Hathaway po cichu kupiło pakiet akcji wart miliardy dolarów w spółce matce Google, czyli w Alphabecie.

    Akcje Alphabetu klasy C zamknęły sesję 17 listopada na poziomie 285,60 USD, co oznacza wzrost o 3,11% w ciągu dnia, po tym, jak doniesienia o nowym pakiecie pomogły wypchnąć kurs na rekordowe poziomy. Od początku 2025 r. notowania wzrosły o około 50% i są w tym roku najlepsze w gronie tzw. Wspaniałej Siódemki. Kiedy inwestor znany z unikania kierowania się modnymi trendami kupuje akcje lidera rynku, którego kurs zbliża się do historycznego maksimum, nasuwa się oczywiste pytanie: co on widzi, czego reszta z nas może nie dostrzegać?

    Od Apple’a do Alphabetu

    Berkshire już od dwunastu kwartałów z rzędu, w tym także w ostatnim, jest sprzedawcą netto akcji. W tym czasie sprzedał ok. 12,5 mld USD papierów, kupując jednocześnie akcje za ok. 6,4 mld USD, a jednocześnie pozwoliło, by zasoby gotówkowe urosły do rekordowych 381,7 mld USD. Nie jest to zachowanie człowieka, który uważa, że wszystko jest tanie. Jednak w ramach tej ogólnej redukcji zaszło jednak poważne przetasowanie.

    W minionym kwartale Berkshire zmniejszyło swoje udziały w Apple o około 15% i swoją pozycję w Bank of America o około 6%. Natomiast Alphabet pojawia się jako nowy gracz w klubie dziesięciu największych. Z dokumentów regulacyjnych i zestawień portfela wynika, że pakiet zajmuje teraz mniej więcej dziesiąte miejsce w portfelu akcji Berkshire, za takimi klasykami jak American Express, CocaCola czy Chevron. Jest to rzadka sytuacja w branży technologicznej dla konglomeratu, który przez dziesięciolecia posiadał akcje kolei, ubezpieczycieli i spółek z segmentu dóbr podstawowych, a nie szybko rosnących gigantów oprogramowania.

    Zmieniły się jednak nie tyle zasady Buffetta, ile same spółki. Apple, które zawsze określał jako markę konsumencką, działa dziś w świecie, w którym modernizacja sprzętu w dużej mierze zależy od funkcji opartych na AI. Jednocześnie Alphabet coraz mniej przypomina spekulacyjną spółkę technologiczną, a coraz bardziej rozległą infrastrukturę dla gospodarki cyfrowej, z przychodami z reklam i z chmury, które są zaskakująco stabilne jak na coś zbudowanego z linijek kodu.

    Saxo

    Alphabet jako infrastruktura AI, a nie opowieść o gadżetach

    Alphabet znajduje się w miejscu, gdzie ambicje związane ze sztuczną inteligencją spotykają się z tradycyjnym generowaniem gotówki. W trzecim kwartale 2025 r. spółka odnotowała ok. 102 mld USD przychodów, powyżej prognoz, a zyski również przebiły oczekiwania. Głównym motorem wzrostu był Google Cloud, który z „miłego dodatku” przeobraził się w motor biznesu, gdyż firmy rozwijające AI wynajmują jego moc obliczeniową.

    Ponadto modele Gemini i wyszukiwarka wzbogacona o AI docierają dziś do setek milionów użytkowników. Te narzędzia działają na globalnej sieci centrów danych, autorskich chipów i światłowodów, której rozbudowa w tym roku pochłonie łącznie ponad 90 mld USD nakładów inwestycyjnych. Mówiąc prościej: Alphabet chce dostarczać „łopaty i kilofy” na potrzeby gorączki złota wokół AI.

    Partnerstwo z Anthropic dodaje kolejny wymiar. Google zainwestował w ten startup miliardy i zawarł dużą umowę na dostawy chipów oraz usługi chmurowe, co powinno kierować przyszłe obciążenia obliczeniowe do Google Cloud. Pakiet Berkshire daje spółce pośrednią ekspozycję na ten ekosystem: każde zapytanie Anthropic uruchomione w infrastrukturze Google wzmacnia pozycję Alphabetu jako infrastruktury AI.

    Kluczowe jest to, że ta ekspansja opiera się na silnym bilansie. Alphabet jest wyceniany na ok. 25krotność oczekiwanych zysków, czyli taniej niż część innych megacapów, i nadal generuje solidne wolne przepływy pieniężne z wyszukiwarki i z YouTube. Środki te mogą sfinansować centra danych i nadal wspierać wykup akcji, co odpowiada inwestorom preferującym „wspaniałe spółki po uczciwych cenach”.

    Co naprawdę oznacza „głos zaufania” od Buffetta?

    Zakup Alphabetu przez Buffetta to coś więcej niż prosta pieczęć aprobaty. To konkretna teza o tym, gdzie będą się koncentrować zyski z AI. Alphabet zarabia na reklamach w wyszukiwarce, na YouTube, w mapach, w sklepie z aplikacjami i w chmurze. AI nie jest tu osobnym produktem. To ulepszenie, które może zwiększać zaangażowanie użytkowników i możliwości monetyzacji w istniejących biznesach.

    To także wyraźny zwrot w stronę infrastruktury, a nie urządzeń. Apple stawia na inteligencję działającą na urządzeniu, ale dopiero dopracowuje model biznesowy AI. Alphabet już dziś zarabia na AI poprzez kontrakty chmurowe, narzędzia reklamowe i oprogramowanie biurowe. Ograniczenie pozycji w Apple’u przy jednoczesnym zwiększeniu udziału w Alphabecie sugeruje, że Berkshire widzi więcej przyszłej wartości AI w centrach danych i platformach niż w cyklach wymiany telefonów.

    Wreszcie, należy pamiętać, że „technologia” nie jest jedną kategorią. Alphabet może dzielić indeks z szybko rozwijającymi się start-upami zajmującymi się sztuczną inteligencją, ale jego przewaga konkurencyjna, zdolność do generowania gotówki i zdywersyfikowane przychody lokują go bliżej spółek, które przez lata konsekwentnie pomnażają kapitał, dokładnie takich, jakie Buffett zawsze faworyzował.

    Ryzyka, których nawet Berkshire nie może zignorować

    Ryzyka są realne. Alphabet może przeinwestować w moce obliczeniowe AI, jeśli klienci spowolnią realizację projektów albo konkurenci zgarną duże kontrakty. Warto śledzić tempo wzrostu Google Cloud, marże oraz wytyczne dotyczące długoterminowych inwestycji. Drugim zagrożeniem pozostają regulacje. Surowsze przepisy antymonopolowe lub dotyczące prywatności w USA i w Europie mogą uderzyć w rentowność wyszukiwarki i reklam albo wymusić zmiany w sposobie wykorzystywania danych.

    Kluczowa będzie również realizacja strategii w obszarze AI. Alphabet potknął się na starcie wyścigu o generatywną AI i wciąż nadrabia, próbując odzyskać inicjatywę dzięki Gemini i innym modelom. Jeśli użytkownicy lub klienci korporacyjni będą woleli narzędzia konkurencji, wszystkie te wydatki na chipy i centra danych mogą przynieść stopy zwrotu niższe od oczekiwanych, nawet mimo obecności Buffetta w akcjonariacie.

    Domykając klamrę: czego naprawdę uczy zakład Buffetta dotyczący Alphabetu

    Buffett przez lata powtarzał, że niekupienie akcji Google było jednym z jego dużych błędów. Alphabet był na wyciągnięcie ręki, z zyskami z wyszukiwarki i solidnymi przepływami gotówki, podczas gdy on pozostawał z boku. Kupując akcje, teraz gdy szykuje się do przekazania funkcji prezesa, robi coś więcej niż tylko „zgrabny finałowy ruch”. To dyskretny sygnał, jak jego zdaniem będzie wyglądać trwała wartość w sztucznej inteligencji.

    Dla zwykłych inwestorów wniosek nie brzmi: „kupuj to, co kupuje Buffett”. Chodzi o to, że nawet najbardziej tradycyjny inwestor wartościowy chętnie posiada ekspozycję na AI – o ile jest ona wbudowana w zdywersyfikowaną platformę generującą duże przepływy gotówki, którą można zrozumieć i racjonalnie uzasadnić. Rynek będzie się dalej spierał, czy cena Alphabetu jest za wysoka, za niska czy w sam raz. Lepsze pytanie jest takie, które Buffett zadaje od siedmiu dekad: jakie spółki można trzymać w dobrych i złych czasach, bo rozumiesz, jak zarabiają i dlaczego potrafią przetrwać?

    – Sztuczna inteligencja pozostaje jednym z najszybciej rozwijających się segmentów rynku, jednocześnie wyróżniając się wysoką zmiennością, ryzykiem przegrzania oraz silną konkurencją. Sektor ten często reaguje gwałtownymi ruchami wycen, a dynamika innowacji sprawia, że pozycje rynkowe liderów mogą szybko się zmieniać. Inwestycje w stabilne aktywa spoza sektora AI pomagają utrzymać równowagę portfela, nawet gdy nastroje wobec innowacji spadają. Dlatego w perspektywie długoterminowej ważne jest, by zadbać o dywersyfikację portfela, np. poprzez łączenie odważnego podejście do nowych technologii z rozsądnym i zdyscyplinowanym zarządzaniem ryzykiem – mówi Aleksander Mrózek, Manager ds. relacji z kluczowymi klientami regionu CEE w Saxo Banku.

  • Co dalej z AI? Ministerstwo Cyfryzacji ogłasza zaktualizowaną wersję Polityki rozwoju sztucznej inteligencji w Polsce

    Co dalej z AI? Ministerstwo Cyfryzacji ogłasza zaktualizowaną wersję Polityki rozwoju sztucznej inteligencji w Polsce

    Dokument zakłada m.in. wdrożenie AI w administracji publicznej (AI HUB Poland), powstanie dedykowanych „Map wdrożeń sektorowych”, a także wsparcie dla małych i średnich przedsiębiorstw. Opisane w Polityce AI zadania w efekcie mają przyczynić się do realizacji założonych celów – Polska sercem kontynentu AI dzięki wdrożeniom w kluczowych sektorach gospodarki oraz sprawne państwo wykorzystujące rozwiązania AI.

    AI BUH Poland

    Polityka AI przewiduje uruchomienie portalu AI HUB Poland, który zgodnie z założeniami ma być narzędziem wspierającym efektywne zarządzanie, rozwój i wdrażanie technologii AI w sektorze publicznym. Celem platformy jest stworzenie zintegrowanego środowiska, które usprawni wykorzystanie sztucznej inteligencji w usługach publicznych oraz w kluczowych obszarach funkcjonowania państwa.

    Projekt przewiduje m.in. szybką adopcję innowacji opartych na AI, podnoszenie kompetencji pracowników administracji, harmonizację danych do budowy modeli sztucznej inteligencji oraz tworzenie krajowych dużych modeli językowych.

    AI HUB Poland to wspólna inicjatywa ekspertów Centralnego Ośrodka Informatyki, NASK i partnerów, która ma wspierać cyfrowy rozwój państwa i wzmacniać konkurencyjność Polski na arenie międzynarodowej. Działania platformy obejmują uruchomienie centralnego systemu do zarządzania projektami AI, budowę repozytorium otwartych rozwiązań automatyzacji, dzielenie się najlepszymi praktykami oraz wsparcie wdrożeniowe dla mniejszych jednostek administracji.

    Mapy wdrożeń sektorowych

    Ministerstwo Cyfryzacji zauważa, że sztuczna inteligencja staje się jednym z najważniejszych motorów transformacji gospodarczej. Jej wykorzystanie może znacząco przyspieszyć rozwój innowacji, zwiększyć konkurencyjność polskich firm oraz poprawić jakość życia społeczeństwa. Aby w pełni wykorzystać ten potencjał, potrzebne jest skoncentrowanie działań na tych projektach i sektorach, które mogą przynieść Polsce największe korzyści ekonomiczne i społeczne.

    Polski Instytut Ekonomiczny wskazuje trzy podejścia, które pomagają określić priorytetowe obszary rozwoju AI: analizę kluczowych branż gospodarki, ocenę tzw. stosu technologicznego oraz identyfikację „wielkich wyzwań” – złożonych problemów, w których AI może odegrać szczególnie istotną rolę.

    Na podstawie tych analiz oraz rekomendacji Grupy Roboczej ds. Sztucznej Inteligencji wyodrębniono sektory o największym potencjale wdrożeń AI. Są to: energetyka, e-commerce, produkty podwójnego zastosowania, cyberbezpieczeństwo, BioMedTech, usługi finansowe oraz transport i logistyka. To właśnie w tych obszarach sztuczna inteligencja może generować największą wartość – od optymalizacji zużycia energii, przez szybsze odkrywanie leków, po autonomiczną mobilność i zaawansowane systemy cyberobrony.

    Wyznaczone kierunki wpisują się również w działania Komisji Europejskiej, która stawia na rozwój bezpiecznych, interoperacyjnych i wysokiej jakości systemów AI w sektorach strategicznych dla całej UE.

    W celu skutecznego wdrażania sztucznej inteligencji, potrzebna jest współpraca międzysektorowa, solidna infrastruktura danych, kompetentne kadry oraz spójne regulacje. Dlatego dla każdego z kluczowych sektorów powstaną dedykowane Mapy wdrożeń sektorowych. Będą one obejmować analizę potrzeb branży, kluczowe obszary biznesowe dla zastosowań AI, zasady współdzielenia danych oraz mechanizmy wsparcia – tak, aby polskie przedsiębiorstwa mogły w pełni wykorzystać potencjał przełomowej technologii.

    Wsparcie dla małych i średnich przedsiębiorstw

    Kluczową rolę w rozwoju AI w Europie odgrywają małe i średnie przedsiębiorstwa. Dzięki swojej elastyczności, zdolności do szybkiego eksperymentowania i innowacyjnemu podejściu, to właśnie MŚP – a szczególnie startupy – często jako pierwsze wdrażają nowe technologie i wprowadzają przełomowe rozwiązania na rynek. Jednocześnie stoją przed barierami, takimi jak ograniczone zasoby, trudniejszy dostęp do danych oraz konieczność spełnienia wymogów etycznych i regulacyjnych.

    W celu przyspieszenia rozwoju AI w tym sektorze, niezbędne jest wsparcie obejmujące finansowanie, infrastrukturę obliczeniową oraz możliwość testowania rozwiązań w bezpiecznych warunkach. Ważną rolę odgrywają tu inkubatory, akceleratory i platformy wymiany wiedzy, które pomagają firmom szybciej komercjalizować innowacje oraz budować kompetencje technologiczne.

    W Polsce rozwijana infrastruktura – w tym Fabryki AI – ma pozwolić przedsiębiorcom korzystać z doradztwa technologicznego i regulacyjnego, mocy obliczeniowych oraz środowisk testowych. Uzupełnia ją oferowany przez PFR program „Cyfrowa wyprawka dla firm”, który pomaga potwierdzić gotowość technologiczną i uzyskać wsparcie w zakresie zgodności z AI Act.

    Jednym z najważniejszych elementów polityki wsparcia dla MŚP są regulacyjne piaskownice AI, które – zgodnie z unijnymi przepisami – muszą być dla nich całkowicie bezpłatne. Umożliwiają one testowanie rozwiązań w kontrolowanych warunkach i zmniejszają ryzyko związane z wejściem na rynek. W Polsce powstaną specjalistyczne piaskownice sektorowe, a ich integracja z Fabrykami AI zapewni dostęp do danych i infrastruktury.

    Aby polskie przedsiębiorstwa mogły wykorzystać pełen potencjał AI, kluczowe będzie zwiększanie świadomości korzyści z jej wdrażania, dostarczanie praktycznego doradztwa oraz uruchamianie dedykowanych programów i konkursów wspierających projekty AI. W dłuższej perspektywie przełoży się to na wzrost konkurencyjności MŚP, rozwój innowacji i wzmocnienie pozycji Polski w europejskim ekosystemie technologicznym.

    Podsumowanie

    Zaktualizowana Polityka AI stanowi odpowiedź na wyzwania związane z dynamicznym rozwojem technologii AI. Dokument wyznacza kierunki działań, integrując potrzeby administracji, biznesu, nauki oraz społeczeństwa. Ministerstwo Cyfryzacji zapowiada dalsze prace nad wdrażaniem postanowień Polityki AI.

  • UX writing to nie fukurawai

    UX writing to nie fukurawai

    Fukurawai to tradycyjna japońska zabawa, w której dziecko – z zasłoniętymi oczami –próbuje na obrysie twarzy ułożyć oczy, brwi, nos i usta. Efekt bywa groteskowy: usta lądują na czole, brew wkuwa się w oko. Zupełnie jak wtedy, gdy osoba projektująca treści dostaje gotowe makiety z prośbą: rzuć okiem.

    Trafione mikrotreści w usłudze cyfrowej to nie przypadek. To wynik zrozumienia kontekstu: kto czyta, kiedy i po co. Bez tego nawet najlepszy tekst może nie zadziałać – albo, co gorsza, zadziałać odwrotnie.

    Pisanie komunikatów i podpowiedzi bez znajomości produktu, potrzeb użytkownika i  dynamiki ekranu, na którym mają się pojawić, jest jak odpowiadanie na pytanie, którego nie znasz albo nie rozumiesz. Na maturze z języka polskiego być może to konieczność, ale w pracy nad aplikacjami państwowymi to strategia skazana na porażkę.

    Brak kontekstu prowadzi na manowce

    Zdarza się, że osoba od treści dostaje polecenie, by zredagować komunikaty w pliku tekstowym albo na Confluence. Owszem, może podjąć wyzwanie: uprościć wszystko zgodnie ze standardem prostego języka, poprawić błędy językowe, zadbać o spójność słownictwa i pisowni. Kiedy jednak owoc tej pracy trafia na ekrany, aplikacja zaczyna przemawiać zgrabnie, ale niekoniecznie na temat. Komunikaty nie są odpowiedzią na realne problemy użytkowników i użytkowniczek, a monologiem skupionym na procedurze i funkcjach.

    Zdarza się również, że zespół dostrzega istnienie osoby projektującej treści przede wszystkim wtedy, gdy trzeba wyjaśnić, jak działa interfejs lub procedura. Najlepiej w tooltipie, bo to element, który łatwo dodać bez pisania skomplikowanego kodu. Tooltipy stają się wtedy lekiem na skomplikowaną legislację, a nawet miejscem na podstawę prawną, która jest wyrazem „najwyższej troski” o działanie aplikacji zgodnie z prawem. Bywają też ostatnią deską ratunku, gdy zespół nie jest w stanie przygotować na czas prostszej ścieżki.

    W gąszczu tooltipów gubią się jednak potrzeby użytkownika. Ścieżka do celu zmienia się w dżunglę informacyjną, w której jedynym sposobem na przetrwanie staje się zgłoszenie do Helpdesku.

    Projekt już jest, brakuje tylko tekstów

    Kiedy widzę piękny, kolorowy projekt z nieprzemyślaną komunikacją, przypomina mi się sąsiad, który kochał auta. Wciąż je zmieniał, soboty spędzał na myjni. Tymi autami podwoził do szkoły trójkę swoich ukochanych dzieci.

    Któregoś ranka, kiedy zatrzymał się pod szkołą i czekał, aż maluchy trzasną drzwiami na pożegnanie, zaskoczyła go cisza. Żaden maluch nie pisnął. – Co jest? Wysiadajcie! Śpieszę się do pracy – zakrzyknął zdenerwowany i spojrzał na tylne siedzenie. Było puste. A to dlatego, że ruszył w drogę, w pośpiechu zapominając o dzieciach.

    Piękny interfejs bez przemyślanych treści jest jak lśniące, puste auto mojego sąsiada pod szkołą. Nie dowozi tego, co najważniejsze – sensu.

    Jak mawiał zmarły w tym roku Marcin Wicha – projektant myśli i projektuje językiem. Projekt, który powstaje bez udziału osoby projektującej treści, to projekt, który nie umie rozmawiać z ludźmi. Nie słucha, więc nie rozumie. Zamiast relacji opartej na zaufaniu, wiarygodności i wymianie buduje toksyczny związek wynikający z przymusu podyktowanego prawem.

    UX writing to zdejmowanie klątwy

    Osoba projektująca treści powinna zrozumieć to, co będzie musiała zrozumieć każda osoba korzystająca z usługi cyfrowej. Gdy podczas pracy nad ekranami zadaje zespołowi pytania dotyczące ich zrozumiałości i użyteczności, może spotkać się z odpowiedziami w rodzaju: „użytkownicy na pewno to zrozumieją”, „oni to wiedzą” lub „naukowcy to inteligentne osoby – nie trzeba im tego tłumaczyć”.

    Zupełnie jakby ktoś rzucił na zespół klątwę. Steven Pinker w Pięknym stylu nazwał ją klątwą wiedzy. Klątwa ta to trudność w wyobrażeniu sobie, że ktoś inny nie wie tego, co my. W efekcie tworzymy treści, które dla osób spoza zespołu okazują się nieczytelne lub niezrozumiałe – mimo że nam wydają się oczywiste.

    Dlatego najcenniejszym źródłem informacji dla osób projektujących aplikacje i systemy państwowe są użytkowniczki i użytkownicy. W Ośrodku Przetwarzania Informacji – Państwowym Instytucje Badawczym ich opinie i wrażenia poznajemy nie tylko podczas badań użyteczności prowadzonych przez profesjonalny zespół badawczy. Czytamy również zgłoszenia, które odbiera nasz Helpdesk. W zgłoszeniach nikt nie skarży się na kolory, gradienty czy smutne tło. Większość uwag dotyczy konkretnych oczekiwań od działania aplikacji. Użytkownicy i użytkowniczki chcą, żeby aplikacja była wiarygodna, prosta, zrozumiała, jednoznaczna. A najlepiej – żeby ich wyręczała.

    Podczas badań użyteczności okazuje się, że osoby korzystające z aplikacji gubią się, bo korzystają z badanej funkcji po raz pierwszy albo używają jej bardzo rzadko. Czasem nie rozumieją procedury, bo język prawa czy żargon IT nie jest ich naturalnym językiem. A czasem po prostu nie są skupieni – w głowie mają nową publikację, problem z pozyskaniem finansowania na badania, kłopoty z opornymi na przyswajanie wiedzy studentami, kredyt do spłacenia albo chore dziecko. W skrócie: mają do rozwikłania sprawy ważniejsze niż działanie Węzła Krajowego.

    To, co jasne dla zespołu, nie zawsze jest zrozumiałe dla użytkowników i użytkowniczek. Sztuka projektowania treści to sztuka zadawania pytań i zdejmowania klątwy wiedzy. To umiejętność współpracy z zespołami projektowymi i wytwórczymi w taki sposób, by uwzględnić perspektywę osoby, która musi skorzystać z usługi cyfrowej, ale – z wielu powodów – postrzega ją zupełnie inaczej niż my, jej twórcy.

    Empatia jak Ania z Zielonego Wzgórza

    Jest niedzielny poranek. Chcesz kupić świeże bułeczki na rodzinne śniadanie. Docierasz do piekarni, a tam słyszysz oschłe: – Akcja pieczenia bułeczek nie powiodła się. Spróbuj ponownie później. Czekasz chwilę, może dopieką. Ale za kwadrans słyszysz dokładnie to samo. I dwa kwadranse później też. A na dziesiątą macie bilety do kina. Co czujesz?

    Właśnie to czuje osoba, która utknęła na niezrozumiałym ekranie aplikacji. Jednak w przypadku usług państwowych konsekwencje mogą być mniej przyjemne niż nieudany poranek i rozczarowana rodzina.

    Pisząc historię o bułeczkach, odwołałam się do Twojej empatii – to umiejętność rozpoznawania i współodczuwania emocji innych osób. Empatia jest słowem kluczem, które często pojawia się w kontekście projektowania doświadczeń użytkownika, w tym jego komunikacji z produktem cyfrowym. Ale czy empatia wystarczy, by zaprojektować użyteczne treści i interfejsy?

    W świecie IT zdominowanym przez umysły ścisłe empatia ma postać pląsającej po łące Ani z Zielonego Wzgórza ze streszczenia Wojciecha Materny i Tomasza Manna. Zbyt beztroskie podejście do projektowania rzetelnych i potrzebnych użytkownikowi treści może zaowocować tym, że zostaje ono sprowadzone do korekty i redakcji komunikatów na chwilę przed wdrożeniem. Wtedy wartość takiej pracy staje się znikoma dla użyteczności usługi cyfrowej i niewspółmierna do włożonego wysiłku.

    Naukowcy to też ludzie

    Do odkrycia, co i kiedy aplikacja ma powiedzieć, potrzebna jest nie tylko znajomość języka i jego bogatej natury, ale – przede wszystkim – znajomość warsztatu projektowego, faktów i danych. Mapa empatii z pewnością się przyda, ale nie wystarczy. A co mówią dane? – 31 procent pracowników akademickich doświadcza wysokiego nasilenia symptomów zaburzeń afektywnych, depresji i zaburzeń lękowych – alarmuje Ministerstwo Nauki i Szkolnictwa Wyższego. To grupa przeciążona poznawczo, która potrzebuje tłumaczenia złożonych procedur urzędowych na minimalistyczne, konkretne interfejsy.

    Naukowcy, dla których projektujemy usługi cyfrowe, to wyjątkowi ludzie. Ich talent, umysły i energia powinny być wykorzystywane gdzie indziej – nie w pokonywaniu cyfrowych przeszkód. Zabiegani, rozproszeni, różnorodni, przeciążeni potrzebują pomocnego słowa na interfejsie. Takiego, które da im poczucie kontroli – w świecie, w którym wszystko inne jej się wymyka.

    Treść powinna pojawiać się wtedy, gdy użytkownik podejmuje decyzję

    – Większość zespołów, z którymi pracowałem, nie poświęca na fazę planowania treści i interakcji nawet minuty, od razu wskakując do Figmy czy Sketcha. Potem okazuje się, że we flow pojawiają się dziury, których nie zauważono na najwcześniejszych etapach prac – pisze Wojtek Kutyła w Web Accessibility. Wprowadzenie do dostępności cyfrowej.

    Takie stwierdzenie w książce o dostępności – wciąż jeszcze kojarzonej z techniczną listą wymagań dla programistów – jest znakiem, że idziemy w dobrym kierunku. Choć to jeszcze spacer, ale z dobrym widokiem.

    Jak zatem zidentyfikować miejsca, w których powinny pojawić się proste i pomocne treści? Sposobów jest wiele. – Every decision point is a potential content point – podpowiada Sarah Winter w Content Design, biblii osób projektujących treści w domenie Gov. Pomoże tu również rozrysowana ścieżka użytkownika (user flow) – diagram, który ilustruje wszystkie kroki i decyzje osoby korzystającej z usługi cyfrowej. Przyda się też mapowanie ścieżki użytkownika (user journey mapping), czyli przedstawienie całego doświadczenia związanego z usługą, również tego poza interfejsem. Pozwala ono odkryć nie tylko momenty najtrudniejszych decyzji, ale i emocje, potrzeby oraz problemy, które towarzyszą załatwianiu sprawy. Wartościowa okaże się również analiza danych z analityki webowej czy wspomniana już analiza zgłoszeń użytkowników.

    Sztuczna inteligencja a UX writing

    Gdybym miała napisać prompt, na podstawie którego generatywna sztuczna inteligencja mogłaby stworzyć symboliczny portret idealnej osoby projektującej treści, napisałabym: brwi uniesione z ciekawości, poszukujące odpowiedzi oczy, usta gotowe do rozmowy, pogryziony z uporu ołówek. W tle tablica zapisana prawami UX, heurystykami, wytycznymi dostępności, kluczowymi zagadnieniami z obszaru przetwarzania informacji, psychologii, kognitywistki, podstawami projektowania UI (user interface) i obsługi Figmy – wreszcie – zasadami prostego języka i efektywnego pisania.

    W kadrze powinien zmieścić się słownik poprawnej polszczyzny i słownik ortograficzny. A że język jest żywy i się zmienia, to wsparte na słownikach ramię ideału powinny zdobić tatuaże z linków prowadzących do poradni i podcastów językowych.

    Kluczowa umiejętność idealnej osoby projektującej treści to taktowne wejście do zespołu ekspertek i specjalistów mocno skupionych na bazach danych, legislacji, kodzie, pikselach, kolorach, ikonach i rozdzielczościach. Przydaje się więc opanowanie sztuki perswazji, negocjacji i erystyki. Dlatego ideał z portretu powinien trzymać w ręce wachlarz umiejętności miękkich. Konieczny, by schłodzić gorącą atmosferę przedwdrożeniową i zwrócić uwagę zespołu na język aplikacji. Nawet wtedy, gdy już wszyscy protestują przeciwko poprawkom, bo w słowie deadline podstawa słowotwórcza nie wzięła się z przypadku.

    Dodam, że wachlarz powinien być elastyczny. Zawsze w rozmiarze dopasowanym do różnych konfiguracji zespołów projektowych i wytwórczych.

    Czy maszyna udźwignie taki prompt? Niewykluczone. Efekt byłby jednak groteskowy, zupełnie jak w fukurawai.

  • Pragmatyzm kontra hype: Jak „agent washing” i halucynacje sprowadziły AI na ziemię

    Pragmatyzm kontra hype: Jak „agent washing” i halucynacje sprowadziły AI na ziemię

    Branża technologiczna, po dwóch latach fascynacji Generative AI, wchodzi w  etap „sprawdzam”. Entuzjazm zderza się z twardą rzeczywistością. Dane statystyczne, wskazujące na niewielki poziom adopcji AI w wielu gospodarkach, sprowadzają nas na ziemię.

    Tegoroczne Dell Technologies Forum w Warszawie było tego dobrym przykładem. Jak trafnie podsumował to Dariusz Piotrowski, obecnie kluczowy dogmat brzmi: „AI podąża za danymi, nie odwrotnie”. To nie algorytmy są już wąskim gardłem. Prawdziwym wyzwaniem dla biznesu jest dostęp do czystych, bezpiecznych i dobrze zorganizowanych danych. Dyskusja definitywnie przeniosła się z laboratorium na zaplecze operacyjne.

    AI podąża za danymi

    Żyliśmy w przekonaniu, że kluczem do rewolucji jest doskonalszy algorytm. Ten mit właśnie upada. Wewnętrzne studia przypadków największych firm technologicznych pokazują jednak: wdrożenie wewnętrznego narzędzia AI to często nie problem samego modelu, ale miesiące żmudnej pracy nad… uporządkowaniem i zapewnieniem dostępu do rozproszonych danych.

    Rodzi to natychmiastową konsekwencję: moc obliczeniowa musi przenieść się tam, gdzie dane powstają. Zamiast wysyłać terabajty informacji do centralnej chmury, AI musi zacząć działać „na brzegu” (Edge AI).

    Najbardziej widocznym przejawem tego trendu są narodziny ery AI PC. Dzięki dedykowanym procesorom (NPU), komputery osobiste mają lokalnie radzić sobie z zadaniami AI. Nie jest to marketingowy chwyt, ale fundamentalna zmiana architektury. Chodzi o bezpieczeństwo i prywatność – kluczowe dane nie muszą już opuszczać biurka, by zostać przetworzone. Oczywiście, ta układanka nie zadziała bez twardych fundamentów. Skoro dane są tak krytyczne, zmienia się krajobraz cyberbezpieczeństwa. Celem ataku numer jeden nie są już systemy produkcyjne, ale backup. To dlatego koncepcje „cyfrowych bunkrów” (restore vault) – gwarantujących dostęp do „niezatrutych” danych – stają się absolutną podstawą każdej poważnej strategii AI.

    Pragmatyzm kontra „Agent Washing”

    Jak w tym rozgrzanym do czerwoności rynku odróżnić realną wartość od marketingowej iluzji? Po fali fascynacji „GenAI”, nowym „świętym Graalem” branży stają się „Agenci AI”. Musimy jednak uważać na zjawisko „Agent Washingu” – pakowania starych algorytmów w nowe, błyszczące pudełko z modną etykietą.

    Biznes zaczyna rozumieć, że chaotyczne podejście „bottom-up” prowadzi donikąd. Jak szczerze przyznał Said Akar z Dell Technologies, firma na początku zebrała „1800 przypadków użycia” AI, co mogło stać się prostą drogą do paraliżu. Dlatego strategię zmieniono na twarde „top-down”: znalezienie realnego problemu biznesowego, zdefiniowanie mierzalnego zwrotu z inwestycji (ROI) i dopiero wtedy dobranie narzędzi.

    Prowadzi to wprost do globalnego trendu: odchodzenia od pogoni za jednym, gigantycznym modelem ogólnym (AGI) na rzecz „Wąskiej AI” (Narrow AI). Trend ten łączy się z rosnącą potrzebą cyfrowej suwerenności. Państwa i kluczowe sektory (jak finanse czy administracja) nie mogą sobie pozwolić na uzależnienie od kilku globalnych dostawców. Stąd rosnący trend inwestycji w lokalne modele, które pozwalają na większą kontrolę.

    Hype kontra halucynacje

    Gdy opada kurz, okazuje się, że wielki wyścig technologiczny nie polega już tylko na tym, by modele wiedziały więcej. Chodzi o to, by… rzadziej zmyślały. Największym problemem technicznym i biznesowym pozostają halucynacje.

    Dominującym i jedynym realnym modelem biznesowym staje się „human-in-the-loop”, czyli człowiek w centrum procesu. W branżach regulowanych nikt przy zdrowych zmysłach nie pozwoli maszynie samodzielnie „pociągnąć za wajchę”. Jak trafnie zauważyła Agnieszka Słomka-Gołębiowska z mBanku, instytucje finansowe działają w „biznesie zaufania”, a największym ryzykiem AI jest „stronniczość”, której nie można w pełni kontrolować w samym modelu.

    Sztuczna inteligencja ma stać się potężnym współpracownikiem, który przejmie „niewdzięczne zadania”. Ale ostateczna, strategiczna decyzja należy do człowieka. Prawdziwa rewolucja jest pragmatyczna, dzieje się „na krawędzi” i ma w pracy pomagać, a nie ją zabierać.

  • Bańka AI? Szef WEF ostrzega, rynek tech zwalnia

    Bańka AI? Szef WEF ostrzega, rynek tech zwalnia

    W obliczu gwałtownych spadków globalnych akcji technologicznych, szef Światowego Forum Ekonomicznego (WEF) tonuje nastroje. Borge Brende podczas wizyty w Sao Paolo wskazał na trzy potencjalne, powiązane ze sobą bańki na horyzoncie: kryptowalut, długu publicznego oraz, co kluczowe dla sektora IT, sztucznej inteligencji.

    Komentarze Brende padły w momencie, gdy rynki korygują swoje rekordowe szczyty, a wyceny wielu spółek, zwłaszcza tych związanych z AI, wyglądają na przesadzone. Choć analitycy i brokerzy zalecają ostrożność, a nie panikę, ostrzeżenie z Davos jest znaczące. Brende podkreślił, że obecne zadłużenie rządów jest najwyższe od 1945 roku, co znacząco zawęża pole manewru w przypadku ewentualnego kryzysu.

    Sama sztuczna inteligencja, która przez ostatnie miesiące napędzała rynkowy optymizm i oczekiwania na rewolucję gospodarczą, jest postrzegana przez szefa WEF dwojako. Z jednej strony oferuje obietnicę bezprecedensowego wzrostu produktywności. Z drugiej, stwarza realne ryzyko dla wielu miejsc pracy „białych kołnierzyków”.

    Brende użył sugestywnego porównania do powstania nowego „pasa rdzy” (Rust Belt) w centrach miast, gdzie praca biurowa może zostać masowo zastąpiona przez algorytmy. Wskazał przy tym na niedawne ogłoszenia redukcji etatów w globalnych korporacjach, jak Amazon czy Nestle.

    Prezes WEF zaznaczył jednak, że w perspektywie długoterminowej zmiany technologiczne historycznie prowadziły do wzrostu produktywności. To ona, jak podsumował, jest jedynym zrównoważonym motorem wzrostu dobrobytu i realnych wynagrodzeń w społeczeństwie.

    Płyną z tego co najmniej dwa kluczowe wnioski. Po pierwsze, konieczna jest strategiczna ostrożność i głęboka rewizja wycen inwestycji opartych na AI, oddzielając realny potencjał wzrostu produktywności od rynkowej spekulacji. Po drugie, ostrzeżenie Brende o nowym „pasie rdzy” dla pracowników umysłowych to bezpośredni sygnał dla zarządów; firmy muszą już teraz planować głęboką transformację siły roboczej, inwestując w reskilling i adaptację modeli operacyjnych. W niestabilnym otoczeniu makroekonomicznym, naznaczonym rekordowym długiem, poleganie wyłącznie na technologicznym optymizmie staje się wysoce ryzykowne.

  • Chmura obnażona. Awaria AWS to lekcja ekonomii, nie technologii

    Chmura obnażona. Awaria AWS to lekcja ekonomii, nie technologii

    Poniedziałkowy paraliż, który położył globalnych gigantów – od Zooma, przez Slacka, po Fortnite – był dla branży IT jak uderzenie obuchem. Jak to możliwe, że w czasach „zdecentralizowanej”, nieskończenie skalowalnej chmury, problem w jednym, fizycznym budynku w Wirginii (słynny region AWS US-EAST-1) jest w stanie wyłączyć pół internetu? Przecież uciekliśmy od naszych pękających w szwach serwerowni w piwnicy właśnie po to, by uniknąć takich scenariuszy.

    A jednak, wróciliśmy do punktu wyjścia. Patrząc na czerwone dashboardy, przyszło nam zmierzyć się z brutalną prawdą: ta awaria nie jest argumentem przeciwko chmurze jako koncepcji. Jest bolesną lekcją ekonomii i weryfikacją kompromisów, na które branża godzi się każdego dnia, wybierając wygodę i niski koszt, myląc elastyczność z nieśmiertelnością.

    Rzeczywistość centralizacji

    Przez lata sprzedawano nam obietnicę chmury publicznej. Płacisz tylko za to, czego używasz. Skalujesz infrastrukturę w minuty, a nie miesiące. Nie martwisz się o zasilanie, chłodzenie ani wymianę dysków. To bezdyskusyjna rewolucja, która umożliwiła powstanie startupów takich jak Snapchat czy Canva.

    Jednak ta rewolucja ma swoją cenę: uzależnienie. Dzisiejszy internet, wbrew idealistycznym wizjom, nie jest zdecentralizowaną utopią. To oligopol, w którym trzy firmy – Amazon Web Services, Microsoft Azure i Google Cloud – trzymają klucze do niemal całej cyfrowej gospodarki.

    Awaria w regionie US-EAST-1 jest tego idealnym dowodem. To najstarszy, największy i często domyślny region AWS. Przez lata stał się technologicznym centrum grawitacji, hostującym kluczowe usługi, od których zależą inne, globalne funkcje Amazona. W ten sposób, nawet wewnątrz ekosystemu jednego dostawcy, stworzyliśmy pojedynczy punkt awarii (SPOF) dla usług, które same siebie uznają za „globalne”. Kiedy ten jeden klocek domina się przewrócił, pociągnął za sobą resztę.

    Mit „wystarczającego backupu”

    W tej chwili wielu menedżerów IT i dyrektorów finansowych, widząc skalę problemu, zapewne odetchnęło z ulgą: „przynajmniej mamy backupy”. To fundamentalne niezrozumienie problemu, które należy jasno sprostować.

    Backup chroni przed utratą danych. Nie chroni przed awarią usługi.

    Poniedziałkowy incydent, którego źródłem były błędy w API bazy danych DynamoDB, nie dotyczył (z dużym prawdopodobieństwem) utraty danych. Dane użytkowników Snapchata czy postępy w grze Duolingo były niemal na pewno bezpieczne, zreplikowane i zabezpieczone w centrach danych Amazona.

    Problem polegał na tym, że nie działało API – „drzwi”, które pozwalają aplikacji się do tych danych dostać.

    Posiadanie backupu w takiej sytuacji jest bezużyteczne. To tak, jakby mieć idealną kopię kluczyka do sejfu, który jest zamknięty w płonącym budynku, do którego nie ma dostępu. Możesz mieć setki kopii zapasowych, ale jeśli zawodzi cała platforma obliczeniowa, sieciowa i usługowa, twoje dane są po prostu niedostępne do czasu naprawienia awarii.

    „Cyfrowy bliźniak” – święty graal niezawodności

    Co więc jest prawdziwym zabezpieczeniem przed taką sytuacją? Odpowiedź jest jedna, choć niezwykle skomplikowana: architektoniczna redundancja na poziomie dostawców.

    Świętym Graalem odporności jest architektura multi-cloud. Nie chodzi tu o używanie jednej usługi od Google, a drugiej od Amazona. Mówimy o posiadaniu pełnego „cyfrowego bliźniaka” (digital twin) całej naszej aplikacji u innego, konkurencyjnego dostawcy chmury.

    Wyobraźmy sobie scenariusz idealny: nasza usługa działa jednocześnie na infrastrukturze AWS i równolegle na Microsoft Azure. Specjalne systemy (np. DNS) monitorują stan obu platform. W momencie, gdy region US-EAST-1 w AWS zaczyna zgłaszać błędy, cały ruch użytkowników jest w ciągu sekund automatycznie przekierowywany na bliźniaczą infrastrukturę w Azure. Użytkownik końcowy nie zauważa niczego, poza może chwilowym spowolnieniem.

    \Brzmi idealnie. Dlaczego więc niemal nikt tego nie robi?

    Brutalna ekonomia niezawodności

    Odpowiedź jest banalna i brutalnie szczera: pieniądze. Wdrożenie prawdziwej architektury multi-cloud jest dla 99% firm na świecie, wliczając w to wielu giełdowych gigantów, po prostu nieopłacalne.

    Nie mówimy tu o podwojeniu miesięcznego rachunku za chmurę. Mówimy o jego zwielokrotnieniu, a największe koszty są ukryte.

    1.  Koszty technologiczne (złożoność): Nie da się prosto skopiować aplikacji z AWS na Azure. Każdy dostawca ma własne, unikalne usługi i odmienne API. Baza DynamoDB (AWS) to nie to samo co Cosmos DB (Azure) czy Spanner (Google). Utrzymanie logiki aplikacji, która potrafi płynnie działać na dwóch różnych fundamentach technologicznych, to gigantyczne wyzwanie inżynieryjne.

    2.  Koszty operacyjne (ludzie): Taka architektura wymaga posiadania podwójnych, wysoce wyspecjalizowanych zespołów inżynierskich. Potrzebujesz ekspertów od AWS oraz ekspertów od Azure. W dobie deficytu talentów IT jest to luksus, na który stać tylko nielicznych.

    3.  Koszty synchronizacji danych: To najtrudniejszy element. Jak zapewnić, że dane użytkownika (np. nowa transakcja bankowa lub zdobyty w grze przedmiot) są w tej samej milisekundzie spójne między bazami danych w Wirginii (AWS) i Teksasie (Azure)? Koszty transferu danych i złożoność logiki takiej replikacji są astronomiczne.

    I tu dochodzimy do sedna. Biznes umie liczyć. Firmy takie jak Zoom, Duolingo czy Roblox świadomie dokonały kalkulacji ryzyka. Koszt i straty wizerunkowe związane z kilkoma godzinami przestoju raz na rok czy dwa lata są akceptowalnie niższe niż stały, gigantyczny koszt utrzymania prawdziwej redundancji multi-cloud.

    Lekcja, którą musimy odrzucić

    Awaria nie jest więc porażką inżynierów AWS ani dowodem na słabość chmury. To jest porażka naszych złudzeń na jej temat.

    Chmura jest narzędziem. Można nim zbudować tanią, elastyczną infrastrukturę, która jest jednak fundamentalnie zależna od jednego dostawcy. Albo można nim zbudować ekstremalnie drogą, skomplikowaną i prawdziwie odporną na awarie twierdzę, działającą u wielu dostawców.

    Wybranie obu tych opcji jednocześnie – tanio, prosto i w 100% niezawodnie – jest przywilejem, na który niemal nikogo nie stać.

    aIncydent w Wirginii zmusił całą branżę do odpowiedzi na pytanie: Ile naprawdę jesteśmy w stanie zapłacić za 100% dostępności? Okazuje się, że znacznie mniej, niż lubimy o tym opowiadać na branżowych konferencjach.

  • Suwerenność danych przestała być pustym hasłem, dziś realnie wpływa na decyzje zakupowe – Tomasz Sobol, OVHcloud

    Suwerenność danych przestała być pustym hasłem, dziś realnie wpływa na decyzje zakupowe – Tomasz Sobol, OVHcloud

    Klaudia Ciesielska, Brandsit: Suwerenność danych coraz częściej pojawia się w kontekście strategii cyfrowych firm i instytucji publicznych. Jak OVHcloud definiuje to pojęcie i jakie są jego kluczowe filary z perspektywy dostawcy chmury? 

    Tomasz Sobol, OVHcloud: Dla OVHcloud suwerenność danych od początku działania oznacza kontrolę organizacji nad tym, gdzie i w jaki sposób jej dane są przechowywane, przetwarzane i chronione – zarówno w wymiarze technologicznym, jak i prawnym. Pojęcie to opiera się na trzech filarach: przejrzystości, zgodności z lokalnymi regulacjami oraz niezależności technologicznej. Równie ważna jest jasność oferty: klient musi dokładnie wiedzieć, gdzie znajdują się jego dane, jakie mechanizmy bezpieczeństwa są stosowane i czy usługa spełnia wymogi regulacyjne. 

    K.C.: Jakie regulacje (np. RODO, DORA, NIS2, Gaia-X) w największym stopniu wpływają dziś na oczekiwania klientów w obszarze suwerenności danych? 

    T.S.: Oczekiwania klientów w obszarze suwerenności danych są dziś kształtowane przez szereg regulacji, które wyznaczają nowe standardy odpowiedzialności cyfrowej.
RODO wciąż stanowi fundament – zapewnia ramy przejrzystości i kontroli nad przetwarzaniem danych osobowych. NIS2 rozszerza obowiązki w zakresie cyberbezpieczeństwa na kluczowe sektory gospodarki, a DORA wzmacnia odporność cyfrową instytucji finansowych i ich dostawców technologicznych. Wszystkie te regulacje podnoszą wymagania technologiczne, ale też redefiniują relację na linii klient – dostawca chmury. Dziś liczy się zgodność z przepisami, ale także aktywne wsparcie w ich wdrażaniu.

    „Dziś liczy się nie tylko zgodność z przepisami, ale także aktywne wsparcie w ich wdrażaniu.”

    K.C.: W przypadku chmury publicznej kluczowe jest pytanie o lokalizację i jurysdykcję danych. Jak OVHcloud zapewnia klientom kontrolę nad tym, gdzie i w jaki sposób są przechowywane ich informacje? 

    T.S.: Pełna kontrola nad danymi wynika z podejścia do zarządzania nimi. Po pierwsze, wdrażamy zintegrowany model operacyjny, w którym nadzorujemy cały łańcuch działań operacyjnych – sami projektujemy i budujemy serwery, a także zarządzamy własnymi centrami danych (44 lokalizacji na 4 kontynentach) i siecią światłowodową. Po drugie, zapewniamy naszym klientom możliwość wyboru regionów i stref dostępności na terenie UE, np. w Polsce, Francji czy Niemczech. Takie podejście gwarantuje kontrolę nad danymi zgodnie z europejskim systemem prawnym i konkretnymi przepisami. Wszystko to przekłada się na budowanie autonomii i bezpieczeństwa operacyjnego, które w efekcie zapewniają klientom pełną kontrolę nad własnymi danymi i sposobem ich przetwarzania.

    K.C.: W ostatnich latach obserwujemy rosnące zainteresowanie chmurą europejską jako alternatywą dla amerykańskich i azjatyckich dostawców. Jak OVHcloud widzi swoją rolę w budowaniu cyfrowej niezależności Europy? 

    T.S.: Obserwujemy wyraźny zwrot w podejściu do chmury – coraz więcej organizacji kieruje się nie tylko parametrami technicznymi, ale także potrzebą strategicznej suwerenności. OVHcloud odpowiada na te oczekiwania, oferując rozwiązania zgodne z europejskimi regulacjami i chroniące dane przed wpływem jurysdykcji spoza kontynentu. Stale wzmacniamy też infrastrukturę, obecnie obsługujemy 44 własne centra danych i 16 stref lokalnych. Rozwijamy produkty tak, aby te odpowiadały na potrzeby klientów rządowych i z sektora regulowanego. Przykładem jest SecNumCloud – prywatna chmura rządowa oraz On-Prem Cloud Platform – pozwalający zbudować prywatną chmurę na dedykowanym sprzęcie OVHcloud z możliwością połączenia go z globalnymi zasobami. Naszym celem jest zapewnienie bliskości usług, zgodności z lokalnym prawem i realnego wsparcia w budowaniu suwerennej chmury dla europejskich klientów. 

    „Coraz więcej organizacji kieruje się nie tylko parametrami technicznymi, ale także potrzebą strategicznej suwerenności.”

    K.C.: Czy suwerenność danych to temat, który realnie wpływa na decyzje zakupowe klientów, czy raczej element strategii wizerunkowej firm? 

    T.S.: Suwerenność danych przestała być pustym hasłem – dziś realnie wpływa na decyzje zakupowe, szczególnie w obszarze projektów AI i transformacji cyfrowej. Oznacza ona kontrolę i wpływ na strategiczne zasoby, dlatego firmy coraz częściej wybierają dostawców chmury nie tylko ze względu na technologię, lecz także zgodność z lokalnym prawem, przejrzystość oferty, możliwość decydowania o lokalizacji danych oraz gwarancję przenoszalności i łatwego wyjścia z kontraktu czy architektury (tzw. podejście exit-friendly), zgodnie z wymogami Data Act. To odpowiedź na rosnące wymagania regulacyjne i potrzebę budowania odporności cyfrowej. W praktyce oznacza to, że suwerenność danych staje się strategicznym filarem odpowiedzialnego rozwoju i konkurencyjności – warunkiem skalowania biznesu bez kompromisów w zakresie bezpieczeństwa i zgodności.

     K.C.: Jakie trendy w obszarze regulacji, technologii lub świadomości użytkowników mogą w najbliższych 2–3 latach najsilniej zmienić podejście do suwerenności danych w chmurze? 

    T.S.: W perspektywie najbliższych 2–3 lat podejście do suwerenności danych w chmurze będą kształtować trzy kluczowe trendy. Regulacje wprowadzające bardziej rygorystyczne wymagania dotyczące cyberbezpieczeństwa, odporności cyfrowej i przejrzystości systemów AI. Technologie – w tym lokalne strefy danych, szyfrowanie end-to-end, narzędzia do zaawansowanego zarządzania tożsamością czy monitorowania zagrożeń z wykorzystaniem sztucznej inteligencji – staną się naturalnym elementem ofert dostawców chmury. Równolegle rosnąć będzie świadomość użytkowników, co obserwujemy zwłaszcza od początku roku. 

  • Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    Nvidia inwestuje w Intela – król rewolucji podaje rękę tonącemu rywalowi

    W Dolinie Krzemowej istnieją sojusze, które wydają się naturalne, oraz takie, które wstrząsają posadami całej branży. Ogłoszona wczoraj współpraca między Nvidią a Intelem bez wątpienia należy do tej drugiej kategorii.

    To nie jest zwykła umowa biznesowa; to strategiczny pakt zawarty przez dwóch dawnych, zaciekłych rywali. Obserwujemy historyczny moment, w którym lider rewolucji AI (Nvidia) podaje rękę gigantowi, który tę rewolucję niemal przespał (Intel).

    Pytanie, które musimy sobie zadać, wykracza daleko poza korporacyjne komunikaty prasowe: czy jesteśmy świadkami narodzin synergii, która napędzi innowacje, czy raczej tworzenia potężnego duopolu, który na lata zabetonuje rynek i zmarginalizuje konkurencję?

    Akt desperacji czy mistrzowska szachownica?

    Aby zrozumieć wagę tego sojuszu, trzeba spojrzeć na pozycję, z jakiej startują obaj gracze. Intel, niegdyś niekwestionowany król krzemu, od lat zmaga się z kryzysem. Problemy z przejściem na niższe procesy technologiczne, opóźnienia i rosnąca w siłę konkurencja sprawiły, że firma straciła pozycję lidera na rzecz Nvidii i Samsunga.

    W czasach gwałtownego rozwoju sztucznej inteligencji, napędzanej przez procesory graficzne, dominacja Intela w segmencie CPU okazała się niewystarczająca. Z tej perspektywy, pakt z Nvidią wygląda jak desperacka próba powrotu do gry o najwyższą stawkę.

    To przyznanie, że bez technologii lidera AI, Intel nie jest w stanie samodzielnie konkurować na najważniejszym froncie innowacji.

    Z kolei dla Nvidii, ten ruch jest czystą, wyrachowaną strategią. Firma Jensena Huanga absolutnie dominuje w centrach danych i segmencie akceleratorów AI. Jednak jej kolejnym celem jest zdobycie rynku, na którym Intel wciąż ma hegemonię: komputerów osobistych. 

    Poprzez natywną integrację swoich układów graficznych (w postaci chipletów RTX) z procesorami Intela, Nvidia zyskuje dostęp do ogromnego ekosystemu x86. To genialne posunięcie, które pozwala jej wejść „drzwiami i oknami” do segmentu AI PC, omijając konieczność budowania wszystkiego od zera.

    Nvidia nie kupuje tylko akcji Intela za 5 miliardów dolarów; kupuje dekady doświadczenia, bazę klientów i kanały dystrybucji swojego byłego rywala.

    Co na to AMD?

    Każdy wielki sojusz tworzy nie tylko zwycięzców, ale i przegranych. W tym przypadku firma, która ma najwięcej do stracenia, jest oczywista: AMD. Pod wodzą Lisy Su, AMD dokonało rzeczy niemal niemożliwej, stając się realną alternatywą zarówno dla Intela na rynku procesorów (seria Ryzen), jak i dla Nvidii na rynku kart graficznych (seria Radeon).

    Firma zręcznie lawirowała między dwoma gigantami, odbierając im udziały rynkowe.

    Teraz jednak AMD staje w obliczu koszmarnego scenariusza – walki z połączonym frontem. Wyobraźmy sobie laptopy i stacje robocze, w których procesor Intela i układ graficzny Nvidii są zintegrowane na poziomie krzemu.

    Taka synergia może zaoferować wydajność i efektywność energetyczną, z którą samodzielnym produktom AMD będzie niezwykle trudno konkurować. To już nie jest walka na dwóch oddzielnych frontach; to starcie z nowo powstałym, technologicznym behemotem, który kontroluje kluczowe elementy platformy PC.

    Od konkurencji do nowego porządku

    W branży IT mówi się o zjawisku „coopetition” – współpracy między konkurentami w określonych obszarach. Jednak umowa Nvidii i Intela wydaje się czymś znacznie głębszym. To nie jest tymczasowy projekt, ale fundament pod nowy porządek rynkowy.

    Celem jest stworzenie tak zintegrowanej i zoptymalizowanej platformy sprzętowej, że stanie się ona de facto standardem dla każdego, kto poważnie myśli o sztucznej inteligencji na komputerach osobistych i w serwerach.

    Długofalowe konsekwencje mogą być druzgocące dla rynkowej różnorodności. Jeśli duet Nvidia-Intel zdominuje segment AI PC, producenci oprogramowania zaczną optymalizować swoje aplikacje właśnie pod tę architekturę, jeszcze bardziej marginalizując alternatywy.

    Znajdziemy się w sytuacji, w której realny wybór zostanie ograniczony, a innowacje spoza tego ekosystemu mogą mieć ogromne trudności z przebiciem się do masowego odbiorcy.

    Złota klatka dla konsumenta?

    Niewątpliwie, w krótkim okresie, ta współpraca przyniesie ekscytujące produkty. Komputery staną się potężniejsze, a funkcje oparte na AI bardziej dostępne. Jednak w dłuższej perspektywie ryzykujemy wejściem do „złotej klatki” – ekosystemu tak doskonałego i zintegrowanego, że nie będziemy chcieli lub mogli go opuścić.

    Historia uczy nas, że gdy konkurencja słabnie, cierpi na tym innowacyjność, a ceny rosną.

    Zaskakujący ruch Nvidii jest nie tylko świetny pod kątem strategicznym. Pokazuje, że wzrost i rozwój podejmowany jest w IT za wszelką cenę, a dążenie zagarnięcia jak największej ilości rynku jest kluczowym priorytetem. Ruch ten uchroni Intela przed najgorszym, pytanie brzmi: jakim kosztem?

    Fuzja VMware i Broadcom pokazała, że wprowadzanie nowych porządków bywa bolesne dla rynków. A rosnące centralne potęgi IT, poza pokazowymi procesami, nie tylko nie są w żaden skuteczny sposób ograniczane przez organy państwowe. Wręcz przeciwnie, dziś rządy uznają technologicznych monopolistów za element przewagi geopolitycznej, co w dobie cyfrowego pędu jest logiczne, choć krótkowzroczne i potencjalnie szkodliwe w długiej perspektywie.

  • Nowy iPhone i chłodna reakcja rynku

    Nowy iPhone i chłodna reakcja rynku

    Apple zaprezentowało najcieńszy w swojej historii smartfon – iPhone Air. To największa zmiana w portfolio firmy od ośmiu lat i bezpośrednia odpowiedź na zarzuty o brak innowacji. Nowy model ma za zadanie ożywić sprzedaż i udowodnić, że koncern z Cupertino wciąż potrafi dyktować warunki na rynku pod względem designu i inżynierii.

    Nowa linia smartfonów na czele z modelem Air stanowi wyraźny zwrot w strategii produktowej Apple. Urządzenie, zamknięte w tytanowej ramce o grubości zaledwie 5,6 mm, jest smuklejsze od swojego głównego konkurenta, Samsunga S25 Edge.

    Minimalistyczny design, nawiązujący do kultowego MacBooka Air, wymusił na inżynierach znaczącą miniaturyzację podzespołów, aby zachować deklarowaną, całodzienną żywotność baterii.

    iPhone Air, wyceniony w środku nowej oferty produktowej, ma być motorem napędowym aktualizacji sprzętu przez użytkowników. Analitycy, początkowo sceptyczni, po premierze przyznali, że odświeżony wygląd i możliwości urządzenia mogą skutecznie przyciągnąć klientów.

    Strategiczne umiejscowienie cenowe, o 100 dolarów niższe od flagowca Samsunga w dniu jego debiutu, ma dodatkowo wzmocnić jego pozycję rynkową, zwłaszcza w kluczowym sezonie świątecznym.

    Jednak reakcja rynku była chłodna. Akcje Apple zanotowały spadki, a inwestorzy pozostają nieprzekonani co do strategii cenowej firmy i jej realnych możliwości w starciu z rywalami na polu sztucznej inteligencji.

    Podczas gdy w iPhonie Air debiutuje nowy czip A19 Pro, zoptymalizowany pod kątem zadań AI, sama prezentacja nie dostarczyła wielu dowodów na to, w jaki sposób Apple zamierza zniwelować dystans do liderów takich jak Google.

    iPhone Air jest więc z jednej strony imponującym osiągnięciem inżynieryjnym i powrotem do korzeni firmy, gdzie design odgrywał kluczową rolę.

    Z drugiej strony, stanowi ryzykowną grę, w której sukces zależy nie tylko od smukłej obudowy, ale przede wszystkim od tego, czy deklaracje dotyczące wydajności baterii i przełomu w dziedzinie AI znajdą potwierdzenie w rzeczywistości. Najbliższe miesiące pokażą, czy design wystarczy, by ponownie zdominować rynek.

  • Technologiczne wpadki gigantów. Czego możemy się nauczyć z największych porażek w świecie IT?

    Technologiczne wpadki gigantów. Czego możemy się nauczyć z największych porażek w świecie IT?

    W Dolinie Krzemowej mawia się, że porażka to nie wstyd, a odznaka honoru; dowód na to, że miało się odwagę podjąć ryzyko. To wygodna narracja, ale kryje się w niej ziarno prawdy. Nawet najwięksi gracze z niemal nieograniczonymi budżetami – Google, Microsoft czy Samsung – mają na swoim koncie spektakularne potknięcia.

    Produkty, które miały zrewolucjonizować rynek, a dziś spoczywają na technologicznym cmentarzysku. Zapomnijmy jednak o złośliwości. Przyjrzyjmy się tym historiom, by wydobyć z nich uniwersalne i ponadczasowe lekcje biznesowe.

    Google Glass – Gdy technologia wyprzedza społeczeństwo

    Pamiętacie rok 2012? Google zaprezentowało światu przyszłość, a miała ona formę eleganckich okularów. Projekt Glass, z jego futurystycznym interfejsem wyświetlanym bezpośrednio przed okiem, wywołał falę ekscytacji.

    Dziennikarze i deweloperzy, którzy za 1500 dolarów dołączyli do programu „Explorer”, czuli, że dotykają jutra. Mogli nagrywać filmy, robić zdjęcia i nawigować, patrząc na świat przez pryzmat danych.

    Jednak czar prysł równie szybko, jak się pojawił. Użytkownicy Glass zyskali niechlubne miano „Glassholes”, ponieważ otoczenie czuło się permanentnie inwigilowane. Czy mój rozmówca mnie nagrywa? Czy właśnie robi mi zdjęcie?

    Brak jasnej odpowiedzi na te pytania zrodził barierę nie do przeskoczenia. Co więcej, poza efektem „wow”, nikt tak naprawdę nie wiedział, do czego to urządzenie ma służyć na co dzień.

    Było rozwiązaniem w poszukiwaniu problemu – drogim, wyglądającym dziwnie i społecznie kłopotliwym.

    Morał Biznesowy: Innowacja musi być społecznie akceptowalna. Najbardziej zaawansowana technologia poniesie klęskę, jeśli ignoruje kontekst kulturowy, normy społeczne i realne potrzeby użytkowników.

    Lekcja z Google Glass jest prosta: nie wystarczy zadać sobie pytanie „czy możemy to zbudować?”, kluczowe jest „czy powinniśmy i czy ktokolwiek tego potrzebuje?”.

    Windows Phone – Zbudowanie świetnego produktu w rynkowej próżni

    Microsoft spóźnił się na smartfonową rewolucję, ale gdy wreszcie wszedł do gry, zrobił to z impetem. Windows Phone był systemem, który zachwycał krytyków. Jego interfejs oparty na „kafelkach”, znany jako Metro UI, był świeży, elegancki i działał niesamowicie płynnie nawet na słabszych urządzeniach.

    By rzucić realne wyzwanie duopolowi Apple i Google, gigant z Redmond przejął nawet legendarny dział mobilny Nokii. Miał w ręku świetny system i doskonały sprzęt. Co mogło pójść nie tak?

    Wszystko, co znajdowało się dookoła. Klęska Windows Phone to podręcznikowy przykład problemu zwanego „app gap” – luką w aplikacjach. Użytkownicy nie chcieli systemu, na którym nie ma Snapchata, najnowszych gier czy aplikacji bankowych.

    Deweloperzy z kolei nie chcieli tworzyć oprogramowania na platformę z marginalnym udziałem w rynku. To błędne koło okazało się zabójcze. Microsoft zbudował piękny i sprawny samochód, ale zapomniał o drogach, stacjach benzynowych i warsztatach.

    Morał Biznesowy: Sam produkt, nawet najlepszy, to nie wszystko. W dzisiejszym świecie królem jest ekosystem. Użytkownicy nie kupują samego urządzenia czy systemu – kupują dostęp do milionów aplikacji, usług i społeczności. Bez wsparcia zewnętrznych deweloperów i silnego efektu sieciowego nawet największy gracz jest skazany na porażkę.

    Samsung Galaxy Note 7 – Gdy pośpiech prowadzi do samozapłonu

    W drugiej połowie 2016 roku Samsung był na fali wznoszącej. Galaxy Note 7 miał być dziełem koronującym jego dominację na rynku Androida i ostatecznym „zabójcą iPhone’a”. Urządzenie zbierało entuzjastyczne recenzje za symetryczny design, fenomenalny ekran i najlepszy na rynku aparat. Sprzedaż ruszyła z kopyta. A potem telefony zaczęły płonąć.

    Doniesienia o eksplodujących bateriach, początkowo traktowane jako odosobnione przypadki, szybko przerodziły się w globalny kryzys. Okazało się, że w pogoni za jak najcieńszą obudową i chęcią wyprzedzenia premiery Apple, inżynierowie zbyt agresywnie upakowali ogniwa baterii, nie zostawiając im miejsca na naturalną pracę.

    Wadliwa konstrukcja w połączeniu z niewystarczającymi testami jakościowymi (QA) stworzyła tykającą bombę. Globalna akcja wycofywania produktu z rynku i zakazy wnoszenia go na pokład samolotów stały się wizerunkowym koszmarem.

    Morał Biznesowy: Nigdy nie poświęcaj jakości i bezpieczeństwa na ołtarzu szybkości wejścia na rynek (Time-to-Market). Fundamenty są ważniejsze niż fajerwerki. Jeden krytyczny błąd może nie tylko zniszczyć genialny produkt, ale także kosztować firmę miliardy dolarów i, co cenniejsze, lata odbudowywania zaufania klientów.

    Złote lekcje z cmentarza technologii

    Historie Google Glass, Windows Phone i Galaxy Note 7 to coś więcej niż ciekawostki – to studia przypadków ilustrujące kluczowe dynamiki rządzące rynkiem technologicznym. Historia Google Glass pokazuje, jak nawet najbardziej zaawansowana technologia może zawieść, jeśli ignoruje potrzeby i normy społeczne.

    Z kolei przypadek Windows Phone udowadnia, że w dzisiejszym świecie izolowany produkt, nawet technicznie dopracowany, ma niewielkie szanse w starciu z siłą tętniącego życiem ekosystemu.

    Wreszcie, fiasko Galaxy Note 7 jest dobitnym przykładem, że pośpiech i kompromisy w kwestii jakości prowadzą do utraty najcenniejszego kapitału – zaufania klientów.

    Te ambitne porażki nie są oznaką słabości, lecz naturalnym elementem procesu innowacji. Zdolność do wyciągania z nich wniosków i adaptacji jest tym, co ostatecznie pozwala tworzyć dojrzalsze i bardziej udane produkty.

  • Zagrożenie hybrydowe: Jak drony nad Polską przekładają się na ryzyko w cyberprzestrzeni

    Zagrożenie hybrydowe: Jak drony nad Polską przekładają się na ryzyko w cyberprzestrzeni

    Noc z 9 na 10 września 2025 roku przejdzie do historii jako moment, w którym wojna za naszą wschodnią granicą przestała być jedynie medialnym doniesieniem, a stała się namacalnym zagrożeniem. Rosyjskie drony nad Polską i ich zestrzelenie przez siły zbrojne RP to wydarzenie bezprecedensowe.

    Jednak każdy, kto postrzega ten incydent wyłącznie w kategoriach militarnych, popełnia strategiczny błąd. Naruszenie przestrzeni powietrznej było bowiem głośnym prologiem do cichej ofensywy, która właśnie rozpoczyna się w polskiej cyberprzestrzeni.

    Drony nad Polską i anatomia rosyjskiej cyberagresji: jak działa machina Kremla?

    Aby zrozumieć, co nas czeka, musimy najpierw pojąć filozofię działania przeciwnika. Rosja od lat doskonali doktrynę wojny hybrydowej, w której pociski, bity i dezinformacja tworzą jeden, zintegrowany arsenał.

    Celem nie jest już tylko podbój terytorium, ale paraliż państwa od wewnątrz – złamanie jego gospodarki, zniszczenie zaufania do instytucji i skłócenie społeczeństwa.

    W tej strategii cyberataki odgrywają rolę kluczową, a za ich realizację odpowiadają wyspecjalizowane jednostki służb specjalnych, działające z finezją i brutalnością.

    Na czele tych operacji stoją dwaj główni aktorzy, których nazwy kodowe powinny być znane każdemu specjaliście ds. bezpieczeństwa:

    • GRU (APT28/Fancy Bear): To cyfrowy odpowiednik oddziałów Specnazu. Jednostki podporządkowane wywiadowi wojskowemu specjalizują się w operacjach głośnych, destrukcyjnych i sabotażowych. Ich celem jest chaos. To oni stoją za atakami na sieć energetyczną Ukrainy, włamaniami do systemów wyborczych czy niszczycielskimi atakami z użyciem malware’u typu Wiper, który bezpowrotnie kasuje dane. Jeśli coś ma zostać zniszczone, wyłączone lub sparaliżowane – wkracza GRU.
    • SVR (APT29/Cozy Bear): To arystokracja rosyjskiego cyfrowego wywiadu. Działają ciszej, bardziej subtelnie, a ich operacje cechuje niezwykła cierpliwość. Służba Wywiadu Zagranicznego koncentruje się na długofalowym szpiegostwie. To oni odpowiadają za słynny atak na łańcuch dostaw oprogramowania SolarWinds, dzięki któremu przez miesiące mieli dostęp do sieci tysięcy firm i agencji rządowych na całym świecie. Ich celem jest informacja, strategiczna przewaga i ciche umieszczanie „cyfrowych uśpionych agentów” w kluczowych systemach wroga.

    Co istotne, rosyjskie służby zacierają granicę między operacjami państwowymi a pospolitą cyberprzestępczością.

    Grupy ransomware, takie jak Conti czy LockBit, często otrzymują od Kremla ciche przyzwolenie na działanie w zamian za realizację „zleceń” uderzających w zachodnie cele – szpitale, korporacje czy samorządy. To pozwala siać chaos rękami pozornie niezależnych kryminalistów i dodatkowo komplikuje atrybucję ataków.

    Scenariusze dla Polski: przewidywane wektory ataków

    W kontekście ostatnich wydarzeń, Polska staje się celem o najwyższym priorytecie. Możemy spodziewać się uderzenia z kilku kierunków jednocześnie.

    Scenariusz 1: Uderzenie w infrastrukturę krytyczną (ICS/SCADA)

    To najbardziej niebezpieczny scenariusz. Celem staną się systemy sterowania przemysłowego, od których zależy funkcjonowanie państwa. Ataki mogą być wymierzone w:

    • Sektor energetyczny: Próby przejęcia kontroli nad stacjami transformatorowymi w celu wywołania regionalnych lub nawet krajowych blackoutów.
    • Transport i logistykę: Paraliż systemów zarządzania ruchem kolejowym, co miałoby bezpośredni wpływ na transporty wsparcia dla Ukrainy, ale także na krajową gospodarkę.
    • Wodociągi i oczyszczalnie: Manipulacja systemami kontroli może doprowadzić do przerw w dostawach wody lub, w skrajnym przypadku, do jej skażenia.

    Scenariusz 2: Paraliż administracji i kradzież danych

    Głównym celem operacji szpiegowskich (prowadzonych przez SVR) staną się kluczowe instytucje państwa. Należy spodziewać się zmasowanych kampanii spear-phishingowych, precyzyjnie wymierzonych w urzędników i wojskowych z MON, MSZ czy Ministerstwa Cyfryzacji.

    Celem będzie nie tylko kradzież danych dotyczących bezpieczeństwa i planów obronnych, ale także przejęcie kontroli nad kontami, które mogą posłużyć do dalszej eskalacji lub operacji dezinformacyjnych.

    Scenariusz 3: Wojna informacyjna i chaos społeczny

    Ten atak już trwa, ale teraz wejdzie w nową, intensywną fazę. Jego celem jest zniszczenie tkanki społecznej. Możemy oczekiwać:

    • Ataków DDoS na największe portale informacyjne i serwisy bankowe, by wywołać wrażenie, że państwo traci kontrolę.
    • Defacementu (podmiany treści) stron rządowych w celu publikacji fałszywych komunikatów i siania paniki.
    • Zmasowanych kampanii dezinformacyjnych w mediach społecznościowych, prowadzonych przez farmy trolli i boty. Narracje będą skupiać się na podważaniu skuteczności polskiej armii („nie zestrzelili wszystkiego”), oskarżaniu rządu o „prowokowanie Rosji” i podsycaniu nastrojów antyukraińskich.

    Dlaczego wzmożona aktywność jest nieunikniona?

    Prognozy te nie są jedynie spekulacjami. Wynikają one wprost z analizy rosyjskiej doktryny wojennej i logiki obecnej sytuacji.

    1. Po pierwsze: Asymetryczny Odwet. Rosja nie może sobie pozwolić na otwarty konflikt zbrojny z państwem NATO. Zestrzelenie jej dronów było policzkiem, który nie może pozostać bez odpowiedzi. Cyberprzestrzeń jest idealnym teatrem działań odwetowych – pozwala zadać bolesne ciosy w gospodarkę i infrastrukturę, unikając jednocześnie przekroczenia progu otwartej wojny.
    2. Po drugie: Druga Faza Operacji. Atak dronów miał na celu nie tylko uderzenie w Ukrainę, ale także zbadanie czasu reakcji i procedur polskiej obrony. Teraz rozpoczyna się faza druga: wywołanie chaosu wewnętrznego w kraju, który jest kluczowym hubem logistycznym dla Ukrainy i filarem wschodniej flanki NATO. Osłabiona i zajęta własnymi problemami Polska to strategiczny cel Kremla.
    3. Po trzecie: Testowanie Sojuszu. Rosja chce sprawdzić w praktyce, jak działają mechanizmy solidarności w ramach Artykułu 5. nie tylko w wymiarze militarnym, ale także cybernetycznym. Zmasowany atak na Polskę będzie testem dla procedur reagowania i współpracy wewnątrz NATO.

    Front przebiega dziś przez każdą serwerownię

    Musimy porzucić złudzenie, że cyberbezpieczeństwo to techniczny problem zamknięty w działach IT. Dziś jest to fundament bezpieczeństwa narodowego, a każdy administrator, programista i menedżer staje się obrońcą na cyfrowej linii frontu.

    Czas reaktywnego gaszenia pożarów bezpowrotnie minął. Wymagana jest zmiana paradygmatu w kierunku proaktywnej obrony i budowania odporności.

    Warto w tym miejscu podkreślić: celem tej analizy nie jest sianie paniki, lecz budowanie strategicznej świadomości i odporności. To właśnie rzetelna wiedza i chłodna ocena ryzyka, a nie strach, stanowią podstawę skutecznego przygotowania się na scenariusze, które mogą zmaterializować się w każdej chwili.

    Dla branży IT oznacza to konieczność natychmiastowego działania:

    • Wdrożenie architektury „Zero Trust”: Zasada „nigdy nie ufaj, zawsze weryfikuj” musi stać się standardem w każdej sieci korporacyjnej i rządowej.
    • Proaktywne Threat Hunting: Zespoły bezpieczeństwa muszą aktywnie polować na ślady intruzów w swoich sieciach, zamiast pasywnie czekać na alarmy z systemów SIEM.
    • Audyt i Testowanie Planów Reagowania na Incydenty (IRP): Posiadanie planu na papierze to za mało. Należy go regularnie testować poprzez symulacje, by w momencie kryzysu każdy wiedział, co ma robić.
    • Budowanie Odporności Społecznej: Sektor IT ma ogromną rolę do odegrania w edukowaniu pracowników i całego społeczeństwa w zakresie rozpoznawania dezinformacji i phishingu.

    Czerwone niebo nad wschodnią Polską było testem naszych procedur wojskowych. Nadchodząca cyfrowa ofensywa będzie testem odporności całego naszego państwa i społeczeństwa. To nie jest czas na strach, ale na konsolidację sił – na współpracę sektora prywatnego z administracją publiczną, na dzielenie się wiedzą o zagrożeniach i na budowanie cyfrowej tarczy, której nie złamią ani zmasowane ataki DDoS, ani precyzyjne operacje szpiegowskie. Historia uczy, że największą siłą Polski w obliczu zagrożeń zawsze była zdolność do mobilizacji i adaptacji. Dziś ta mobilizacja musi odbyć się w naszych sieciach, serwerowniach i umysłach.

  • Kwantowy skok w możliwościach obliczeniowych

    Kwantowy skok w możliwościach obliczeniowych

    Dlatego najbardziej obiecującą drogą jest podejście Hybrid Quantum-Classical Computing (HQCC), w którym procesory kwantowe uzupełniają komputery klasyczne, aby wspólnie rozwiązywać najbardziej złożone wyzwania.

    Według IDC globalny rynek komputerów kwantowych ma osiągnąć wartość 8,9 mld USD do 2028 roku, co jasno pokazuje rosnące zapotrzebowanie na rozwiązania wspierane przez kwanty. Ale co to oznacza dla biznesu już dziś? I jak firmy mogą zacząć korzystać z synergii między klasycznymi a kwantowymi systemami?

    Obliczenia kwantowe: wielkie możliwości, konkretne trudności

    Dzisiejsze komputery kwantowe wciąż znajdują się na bardzo wczesnym etapie rozwoju. Dysponują ograniczoną liczbą kubitów i charakteryzują się niską niezawodnością – łatwo o błędy, a stabilność pozostawia wiele do życzenia.

    Aby mogły znaleźć praktyczne zastosowania w biznesie, konieczne są istotne postępy zarówno w obszarze sprzętu, jak i algorytmów. Dodatkowym wyzwaniem jest kontrola nad tymi systemami: złożona natura zjawisk kwantowych utrudnia utrzymanie spójności i dokładności wyników.

    To z kolei wymaga zaawansowanych narzędzi do korekcji błędów i stanowi barierę w skalowaniu – zwiększaniu liczby kubitów i mocy obliczeniowej

    Co więcej, dzisiejsze komputery kwantowe mają ograniczoną skuteczność w rozwiązywaniu kluczowych zadań, takich jak optymalizacja czy uczenie maszynowe – a to właśnie one są krytyczne w biznesie i nauce.

    Dlatego tak istotne staje się podejście HQCC, które łączy moc procesorów kwantowych ze stabilnością i niezawodnością systemów klasycznych. Dzięki temu można skuteczniej mierzyć się z wyzwaniami dotąd uznawanymi za niemożliwe, zachowując jednocześnie wszystkie zalety tradycyjnych rozwiązań.

    Jak się przygotować na wejście w „świat kwantów”: od czego zacząć w firmie?

    Warto zrozumieć, że HQCC nie jest alternatywą dla obecnych operacji HPC, lecz ich uzupełnieniem. Mimo swojego potencjału, wdrażanie HQCC wiąże się z kilkoma krytycznymi wyzwaniami, takimi jak konieczność integracji różnych systemów i aplikacji, niedobór talentów oraz nieustanny postęp sprzętowy.

    Mając to na uwadze, firmy, które już teraz zaczną badać rozwiązania hybrydowe, będą lepiej przygotowane, gdy możliwości kwantowe będą się rozwijać.

    Warto zacząć od tych trzech punktów:

    • Odkrywaj. Zacznij od nauki i eksperymentów. Ponieważ obliczenia kwantowe to wciąż rozwijająca się dziedzina, pierwszym krokiem jest zbudowanie podstaw. Kiedy przyjdzie czas na eksperymenty, warto korzystać z emulacji – czyli symulowania działania komputerów kwantowych na sprzęcie klasycznym. Dzięki temu można opracowywać, przenosić i optymalizować kod bez konieczności inwestowania w drogi sprzęt, unikając wysokich kosztów początkowych.
    • Identyfikuj konkretne wyzwania; Nie każda sprawa wymaga kwantowej mocy obliczeniowej i nie rozwiąże ona wszystkich problemów. Tam, gdzie chodzi o proste obliczenia i jedną precyzyjną odpowiedź (np. wyliczenie podatku czy przygotowanie listy płac), klasyka wystarczy i sprawdza się lepiej. Kluczem jest wyszukiwanie sytuacji trudnych do zamodelowania z powodu dużej liczby zmiennych oraz przypadków kluczowych dla Twojej działalności, gdzie usprawnienie operacji wyraźnie wpływa na wynik finansowy.
    • Wdrażaj. Zadbaj o bezproblemowe przejście do produkcji i realne korzyści biznesowe. HQCC oferuje elastyczne podejście do wdrażania rozwiązań kwantowych. Łącząc przetwarzanie klasyczne z mocą obliczeń kwantowych, hybrydowe systemy kwantowo-klasyczne (HQCS) umożliwiają tworzenie i testowanie algorytmów kwantowych w znanym środowisku klasycznym, zanim trafią na kosztowny sprzęt kwantowy. Dzięki temu możesz płynnie przechodzić do produkcji, przyspieszyć wejście w erę obliczeń kwantowych i zminimalizować ryzyka związane z adopcją nowej technologii.

    Skrzyżowanie HQCC i sztucznej inteligencji

    Sztuczna inteligencja (AI) i komputery kwantowe coraz częściej się ze sobą łączą. W miarę jak modele AI stają się coraz bardziej złożone, a systemy klasyczne zaczynają napotykać ograniczenia wydajności i zużycia energii, potencjał technologii hybrydowych takich jak HQCC – łączących możliwości AI i obliczeń kwantowych – jest ogromny.

    AI wspiera rozwój obliczeń kwantowych poprzez:

    • Optymalizację obciążeń: inteligentnie przydziela zadania między procesory klasyczne i kwantowe.
    • Poprawę efektywności algorytmów: udoskonala algorytmy kwantowe, aby działały sprawniej na sprzęcie kwantowym.
    • Przyspieszenie rozwoju: umożliwia postępy w obliczeniach kwantowych bez konieczności korzystania z dedykowanego sprzętu kwantowego.

    Z kolei HQCC może przyspieszyć rozwój samej AI dzięki:

    • Niezrównanej mocy obliczeniowej: komputery kwantowe potrafią rozwiązywać skomplikowane problemy, z którymi klasyczne systemy sobie nie radzą, co pozwala skalować modele AI w takich obszarach jak nauka o materiałach czy odkrywanie leków.
    • Wyższej efektywności energetycznej: łącząc przetwarzanie klasyczne i kwantowe, HQCC może dostarczać lepszą efektywność energetyczną w zadaniach AI.

    To dwukierunkowe powiązanie tworzy synergię między AI i obliczeniami kwantowymi, zwiększając wydajność obu obszarów i otwierając nowe możliwości w wielu branżach, w miarę jak obie technologie dojrzewają.

    Patrząc w przyszłość: mądry krok naprzód

    Era hybrydowych obliczeń to nie tylko kwestia technologii – to transformacja. Wyobraź sobie świat, w którym problemy wymagające lat pracy można rozwiązać w kilka dni, a nawet godzin. Dzięki płynnej integracji HQCC ta wizja szybko staje się rzeczywistością.

    Dla przedsiębiorstw myślących przyszłościowo wdrażanie rozwiązań hybrydowych to droga do odblokowania długofalowego wzrostu, większej efektywności i innowacyjności.

  • Apple stawia na design. Czy iPhone Air to ryzykowny powrót do korzeni?

    Apple stawia na design. Czy iPhone Air to ryzykowny powrót do korzeni?

    Po latach ewolucyjnych zmian, które zatarły granice między kolejnymi generacjami iPhone’a, Apple sięgnęło po strategię, której wielu obserwatorów rynku już się nie spodziewało. Wprowadzenie na rynek iPhone’a Air nie jest jedynie premierą nowego, smuklejszego modelu. To sygnał, że firma z Cupertino, w odpowiedzi na zarzuty o stagnację, wraca do filozofii, w której inżynieria i odważny design odgrywają kluczową rolę.

    Nowy telefon jest jednak mieczem obosiecznym – z jednej strony zachwyca formą, z drugiej stawia pytania o kompromisy, na jakie musiał zgodzić się producent.

    Nowa linia produktowa na czele z iPhonem Air wydaje się być bezpośrednią odpowiedzią na rosnącą presję konkurencyjną, zwłaszcza na rynku chińskim, gdzie lokalni producenci zdobyli uznanie dzięki odważniejszym i smuklejszym konstrukcjom.

    Apple, tracąc tam udziały, musiało zaprezentować coś więcej niż tylko coroczne usprawnienia procesora i aparatu. iPhone Air, z ramą o grubości zaledwie 5,6 milimetra, jest technicznym majstersztykiem miniaturyzacji. Inżynierom udało się zmniejszyć obwody do rozmiarów porównywalnych z kilkoma znaczkami pocztowymi, aby wygospodarować jak najwięcej miejsca na baterię o nowej, wyższej gęstości.

    Ta pogoń za smukłością niesie jednak ze sobą konkretne koszty. Najważniejszym z nich jest rezygnacja z systemu wielu aparatów na rzecz pojedynczego obiektywu. W czasach, gdy nawet modele ze średniej półki oferują wszechstronne zestawy fotograficzne, decyzja Apple może wydawać się krokiem wstecz.

    Firma stawia wszystko na jedną kartę, licząc, że zaawansowane oprogramowanie i moc procesora A19 Pro zrekompensują fizyczne ograniczenia sprzętu. To założenie, wraz z obietnicami dotyczącymi czasu pracy na baterii, będzie najpoważniejszym testem dla nowego urządzenia.

    Użytkownicy i recenzenci bez wątpienia sprawdzą, czy marketingowe zapewnienia o wydajności akumulatora w tak cienkiej obudowie mają pokrycie w rzeczywistości.

    Ciekawy jest również kontekst cenowy. Umiejscowienie iPhone’a Air w środku oferty, z ceną wyjściową 999 dolarów, czyni go na rynku amerykańskim bezpośrednim konkurentem dla flagowych modeli Samsunga, takich jak S25 Edge, który jest od niego nieznacznie grubszy. Utrzymanie cen pozostałych modeli – iPhone’a 17 i 17 Pro – na niezmienionym poziomie, pomimo presji ceł w Stanach, świadczy o determinacji Apple do obrony swojej pozycji rynkowej za oceanem.

    A jak jest w Polsce? Cena wyjściowa iPhone Air wynosi 5299 zł za wersję 256 GB, co plasuje go na podobnym poziomie co jego największy konkurent – Samsung S25 Edge. Przedsprzedaż smartfonów ruszy 12 września, a dostępność zakładana jest na 19 września 2025 r.

    Podczas gdy konkurencja, zwłaszcza Google, głośno komunikuje swoje postępy w dziedzinie generatywnej sztucznej inteligencji, Apple pozostaje wierne swojej strategii. Zamiast wielkich ogłoszeń o funkcjach AI, firma skupia się na integracji na poziomie sprzętowym.

    Nowy procesor A19 Pro został zoptymalizowany pod kątem zadań związanych z AI, a wprowadzenie autorskich chipów komunikacyjnych – modemu C1X i układu Wi-Fi N1 – to kolejny krok w stronę pełnej pionowej integracji i uniezależnienia się od dostawców takich jak Qualcomm czy Broadcom.

    To cicha rewolucja, która ma zapewnić Apple przewagę w wydajności i efektywności energetycznej.

    Ostatecznie, iPhone Air jest dla Apple czymś więcej niż tylko nowym produktem. To manifestacja siły w dziedzinie, w której firma zawsze czuła się liderem – w projektowaniu sprzętu. Czy jednak rynek jest gotów poświęcić wszechstronność aparatów na rzecz ultracienkiej obudowy?

    Sukces tego modelu zadecyduje, czy odważny powrót do korzeni był strategicznym geniuszem, czy jedynie ryzykownym eksperymentem w coraz bardziej zatłoczonym segmencie smartfonów premium.

  • Standard zamiast chaosu: nadchodzi Europejski Portfel Tożsamości Cyfrowej

    Standard zamiast chaosu: nadchodzi Europejski Portfel Tożsamości Cyfrowej

    Czy jesteśmy gotowi na cyfrową rewolucję, która uporządkuje chaos procedur, podpisów i silosowych rozwiązań?

    W wielu obszarach regulowanych, takich jak cyberbezpieczeństwo czy przeciwdziałanie praniu pieniędzy, wciąż dominuje podejście silosowe – zarówno w interpretacji przepisów, jak i w doborze rozwiązań technicznych. Każdy sektor opracowuje własne narzędzia, formularze i procedury zgodności, nierzadko ignorując fakt, że cele i środki techniczne są w dużej mierze tożsame. 

    Przykładem może być równoległe wdrażanie wymogów wynikających z Dyrektywy NIS2 i Rozporządzenia DORA – regulacji mających wspólną oś bezpieczeństwa, a mimo to egzekwowanych w całkowitym oderwaniu od siebie.

    W rezultacie instytucje, niezależnie od ich podstawowego profilu działalności, obciążane są obowiązkami wykraczającymi daleko poza ich naturalny zakres. Przykładowo, instytucja finansowa musi równocześnie świadczyć usługi, zarządzać ryzykiem, odpowiadać za bezpieczeństwo systemów informatycznych, realizować procesy uwierzytelniania i podpisywania dokumentów, a także zapewniać zgodność z lokalnymi i unijnymi przepisami.

    Taki model obciąża wewnętrzne zasoby, zwiększa koszty i prowadzi do fragmentaryzacji podejścia, które powinny być wspólne. Zamiast dążyć do standaryzacji i ponownego wykorzystania istniejących ram prawnych – takich jak Rozporządzenie eIDAS – często obserwuje się próby tworzenia odrębnych, niekompatybilnych rozwiązań. Efektem jest marnotrawstwo potencjału, zarówno technologicznego, jak i organizacyjnego.

    Unijna odpowiedź: eIDAS 2.0 i AMLR

    Tymczasem są już dostępne i rozwijane rozwiązania na poziomie unijnym, które adresują potrzeby zdalnej identyfikacji w sposób spójny, bezpieczny i zgodny z przepisami. Z jednej strony mamy eIDAS 2.0 – rozporządzenie definiujące technologie i poziomy zaufania dla usług identyfikacji i uwierzytelnienia.

    Z drugiej – dyrektywę unijną w sprawie przeciwdziałania praniu pieniędzy (AMLD) i towarzyszące jej regulacyjne standardy techniczne (RTS), które wprost wskazują, że identyfikacja klienta bez jego fizycznej obecności powinna opierać się na środkach określonych w eIDAS, w szczególności na poziomach bezpieczeństwa średnim (substantial) lub wysokim (high) oraz kwalifikowanych usługach zaufania.

    Co więcej, zarówno w motywach, jak i artykułach nowego rozporządzenia AMLR, pojawia się bezpośrednie odniesienie do Rozporządzenia eIDAS jako rekomendowanej podstawy technicznej. Zapisy te nie tylko pozwalają na stosowanie rozwiązań wprowadzanych przez eIDAS w celu realizacji obowiązków AML, ale wręcz zachęcają do ich wykorzystania.

    Zgodnie z motywem 66 AMLR: „Rozwiązania eIDAS umożliwiają bezpieczne środki identyfikacji i weryfikacji klienta […] i mogą obniżać poziom ryzyka do standardowego lub nawet niskiego.” W przypadku, gdy taka identyfikacja elektroniczna nie jest dostępna (np. klient zamieszkuje państwo spoza Unii Europejskiej), należy użyć kwalifikowanych usług zaufania.

    Rozporządzenie AMLR oraz planowane projekty regulacyjnych standardów technicznych określają m.in. wymogi w zakresie należytej staranności wobec klienta, w tym identyfikacji zdalnej. Niemniej Komisja Europejska nie ukrywa, że jej celem jest ujednolicenie metod zdalnej weryfikacji i identyfikacji klientów – niezależnie od sektora.

    Prace legislacyjne idą w kierunku przeciwdziałania powstawaniu tzw. „wysp”, czyli sytuacji, w których bank może coś zrobić, a leasingodawca czy operator telekomunikacyjny już nie. W przyszłości punktem odniesienia do zdalnej identyfikacji klienta mają nie być lokalne wytyczne sektorowe, ale właśnie zapisy rozporządzenia eIDAS – bez względu na to, czy identyfikuje bank, kwalifikowany dostawca usług zaufania czy firma z branży telekomunikacyjnej.

    Czym jest Europejski Portfel Tożsamości Cyfrowej (EUDI Wallet)?

    Konkretną odpowiedzią na te potrzeby jest Europejski Portfel Tożsamości Cyfrowej (EUDI Wallet), który musi być akceptowany przez sektor finansowy od grudnia 2027 roku. Rozwiązanie to umożliwi zdalną identyfikację, uwierzytelnienie, bezpieczne udostępnianie danych oraz składanie kwalifikowanych podpisów – bezpłatnie dla osób fizycznych do celów nieprofesjonalnych.

    Co istotne, jeśli instytucja zaakceptuje portfel, to nie tylko spełni obowiązki dotyczące przeciwdziałania praniu brudnych pieniędzy, ale również zyska możliwość rezygnacji z tradycyjnej formy dokumentowej – bo ten sam portfel zawiera funkcjonalność złożenia kwalifikowanego podpis elektronicznego.

    Powyższy opis jasno wskazuje, że Rozporządzenie AMLR oraz Rozporządzenie eIDAS 2.0 w zakresie identyfikacji klienta wzajemnie się uzupełniają. Rozporządzenie AMLR określa co trzeba zrobić (czyli obowiązek należytej staranności wobec klienta i wymagania przy identyfikacji).

    Natomiast rozporządzenie eIDAS 2.0 definiuje jak to zrobić (czyli technologie, poziomy zaufania i standardy, jakie należy stosować).

    W praktyce oznacza to, że spełnienie wymagań AMLR w zakresie identyfikacji wymaga użycia narzędzi zgodnych z eIDAS, a usługi dostosowane do eIDAS 2.0 (np. portfel cyfrowy, kwalifikowany epodpis) mogą być wykorzystywane do zgodnego z prawem onboardingu klienta.

    Po co tworzyć kosztowne, niespójne i trudne w utrzymaniu alternatywy, skoro zbliża się rozwiązanie kompleksowe, regulacyjne i uniwersalne? Portfel cyfrowy spełni wymagania w przedmiotowym zakresie AML, eIDAS zadba o zgodność techniczną, a podpis kwalifikowany pozwoli odejść nie tylko od dokumentów papierowych, ale też od mozaiki cyfrowych podpisów na rzecz jednego, spójnego standardu. To rozwiązanie przyszłości. I to bardzo bliskiej.