Autor: Natalia Zębacka

  • Cyfryzacja firm w Polsce – Dlaczego brakuje programów rozwoju?

    Cyfryzacja firm w Polsce – Dlaczego brakuje programów rozwoju?

    Polskie firmy dostrzegają realny wpływ transformacji technologicznej na ludzi i kulturę pracy – wynika z ankiety przeprowadzonej wśród działów HR przez zespół People Consulting w EY Polska. Większość pytanych przedstawicieli firm widzi w technologii impuls do kreatywności –deklaruje to siedem na dziesięć osób (72%), choć w praktyce tylko nieco ponad jedna trzecia organizacji (38%) wdraża programy rozwijające talenty technologiczne.

    Ankieta EY, przeprowadzona wśród przedstawicieli działów HR firm działających w Polsce pokazuje, jak organizacje oceniają wpływ nowych technologii na kreatywność, rozwój kompetencji oraz kulturę pracy. Respondenci reprezentowali najważniejsze sektory polskiej gospodarki: od przemysłu, produkcji i handlu, przez budownictwo i logistykę, po usługi finansowe i profesjonalne, technologię, komunikację oraz medycynę i farmację. Wspólnym mianownikiem ich odpowiedzi jest przekonanie, że technologia daje ogromne możliwości, ale sama w sobie nie tworzy przewagi – kluczowy jest sposób, w jaki organizacje ją adaptują, wdrażają, osadzają w codziennej pracy i łączą z rozwojem oraz motywowaniem ludzi.

    Technologia katalizatorem innowacji

    Z danych wynika, że w wielu polskich organizacjach technologia jest postrzegana przede wszystkim jako szansa, a nie zagrożenie. Ponad 7 na 10 (72%) firm deklaruje, że transformacja technologiczna sprzyja generowaniu nowych pomysłów i innowacji. Jednocześnie niemal dwie trzecie (64%) dostrzega pozytywny wpływ cyfryzacji na rozwój myślenia kreatywnego pracowników. Polskie organizacje dobrze zdają sobie sprawę z konsekwencji, jakie niesie brak właściwej adopcji technologii. Ponad połowa respondentów (52%) ocenia, iż istnieje wysokie ryzyko, że brak wdrożenia technologii spowolni rozwój firmy i osłabi jej konkurencyjność.

    Obraz ten komplikuje się, gdy spojrzymy na działania systemowe. Tylko co trzecia organizacja (38%) deklaruje wdrażanie programów wspierania potencjału talentów w obszarze rozwiązań cyfrowych. Technologia, choć dostępna, nie jest więc trwale zakorzeniona w codziennym rytmie pracy zespołów.

    Najczęściej wskazywanym wyzwaniem, które blokuje firmy w kreatywnym wykorzystaniu narzędzi cyfrowych, jest brak czasu na eksperymentowanie – na co wskazuje co czwarty respondent (25%). Kolejną barierą jest brak wiedzy i kompetencji potrzebnych do ich twórczego stosowania (23%) oraz brak spójnych, nowoczesnych procesów zarządzania talentami (16%).

    – Wyniki ankiety pokazują lukę między deklaracjami a praktyką. Z jednej strony większość organizacji widzi w technologii katalizator kreatywności, z drugiej wykorzystanie narzędzi cyfrowych wciąż zależy głównie od indywidualnej inicjatywy pracowników. W wielu firmach technologia jest wpisana w strategie innowacji, ale w praktyce brakuje czasu, procesów i zachęt, by z niej realnie korzystać – efektem są pojedyncze inicjatywy zamiast skalowalnych rozwiązań. Aby tę lukę domknąć, firmy powinny demokratyzować innowacje, wprowadzać bezpieczne przestrzenie do eksperymentowania, takie jak mikropiloty czy sandboxy AI oraz konsekwentnie łączyć kreatywność z konkretnymi wyzwaniami biznesowymi – mówi Katarzyna Ellis, Partnerka w EY Polska, Liderka Zespołu People Consulting.

    Rozproszona odpowiedzialność zma rozwój

    Ponad połowa firm (56%) ocenia poziom przygotowania pracowników do pracy z nowymi technologiami jako średni. Co trzecia organizacja (30%) postrzega ten poziom jako niski lub bardzo niski, a jedynie niewielka grupa (12%) deklaruje wysoki lub bardzo wysoki stopień gotowości.

    Najbardziej deficytowe okazują się kompetencje adaptacyjne i rozwojowe. Zarządzanie zmianą i zdolność dostosowania się do nowych rozwiązań zostały wskazane jako największy brak przez 22% firm. Niewiele mniej odpowiedzi (20%) dotyczyło kreatywności, innowacyjności i zdolności ciągłego uczenia się. Kompetencje techniczne, takie jak programowanie, analiza danych czy biegłość cyfrowa, były wskazywane przez 17% respondentów. Dokładnie taki sam wynik uzyskały umiejętności krytycznego myślenia i rozwiązywania problemów. W tle pojawiają się także potrzeby związane z komunikacją, współpracą (14%) oraz rozumieniem etyki i prawa nowych technologii (9%).

    Trudności w rozwoju kompetencji wynikają zarówno z ograniczeń organizacyjnych, jak i z nastawienia pracowników. Najczęściej wskazywanymi wyzwaniami były brak czasu i budżetów szkoleniowych (24%). Na drugim miejscu znalazły się brak odpowiednich programów rozwojowych oraz opór przed zmianą (20%). Dodatkowo firmy mierzą się z brakiem zasobów i trudnością w pozyskaniu ekspertów, którzy mogliby wesprzeć proces budowania kompetencji przyszłości (10%).

    – Polskie firmy wiedzą, jakich kompetencji potrzebują, ale wciąż mają trudność z przypisaniem odpowiedzialności za ich rozwój. Warto w tej sytuacji przejść od klasycznego modelu szkoleniowego do podejścia lifelong learning, personalizować ścieżki rozwojowe z pomocą technologii i budować równolegle zarówno kompetencje techniczne, jak i adaptacyjne oraz krytyczne dla funkcjonowania organizacji – dodaje Wioletta Marciniak-Mierzwa, Dyrektorka Zespołu People Consulting, EY Polska.

    Technologia nie niszczy kultury

    Dane zebrane przez EY pokazują także, że dla wielu firm technologia staje się testem spójności kultury organizacyjnej. Prawie połowa respondentów (49%) ocenia wpływ wdrażanych technologii na kulturę organizacji jako pozytywny. Wyzwaniem może okazać się jednak poczucie bezpieczeństwa i wsparcia w związku z transformacją cyfrową firm. Ponad jedna trzecia ankietowanych (36%) deklaruje brak wsparcia ze strony liderów. Ponadto co czwarty respondent (26%) przyznał, że liderzy nie dają dobrego przykładu użycia nowych technologii. Wśród pozostałych wyzwań kulturowych związanych z wdrażaniem technologii ankietowani wymieniali m.in.: brak ciągłości wiedzy (26%), brak transparentności procesów decyzyjnych (16%), obawy o utratę pracy lub zmianę jej charakteru (12%) oraz pogorszenie komunikacji (12%).

    – Transformacja technologiczna uwidacznia mocne i słabe strony kultury organizacyjnej. Tam, gdzie brakuje przejrzystości decyzji, zaufania, dobrego przepływu wiedzy i realnie zaangażowanych liderów, wdrażanie nowych narzędzi potęguje niepewność i poczucie chaosu. Coraz więcej organizacji jasno komunikuje dziś, że od liderów oczekuje codziennego, praktycznego korzystania z technologii, w tym sztucznej inteligencji, a zdolność do jej adopcji staje się jednym z kryteriów oceny efektywności, wpływającym na wynagrodzenie zmienne czy decyzje awansowe. Rolą liderów jest więc nie tylko sponsorowanie zmian, ale przede wszystkim bycie ich ambasadorami: pokazywanie konkretnych zastosowań technologii, nadawanie sensu transformacji i budowanie psychologicznego bezpieczeństwa jako warunku skutecznego wdrażania nowych rozwiązań i modeli pracy – zaznacza Wioletta Marciniak-Mierzwa.

  • Strajk pracowników Samsunga. Prezes ostrzega przed kryzysem

    Strajk pracowników Samsunga. Prezes ostrzega przed kryzysem

    Przewodniczący rady nadzorczej Samsung Electronics, Shin Je-yoon, wystosował wewnętrzną notę do pracowników, wzywając do polubownego rozwiązania sporu płacowego. Nadchodzący, 18-dniowy strajk związków zawodowych, zaplanowany na 21 maja, ma na celu wywalczenie wyższych premii w oparciu o zyski z segmentu pamięci AI. Zarząd ostrzega, że paraliż operacyjny u największego pod względem przychodów producenta w Korei Południowej uderzy w inwestorów, wywoła odpływ kapitału zagranicznego oraz osłabi krajową walutę. Kluczowym zagrożeniem pozostaje jednak utrata zaufania ze strony globalnych klientów i ucieczka do konkurencji w krytycznym momencie rynkowym.

    Eskalacja tego konfliktu odzwierciedla głębszy, strukturalny problem w sektorze technologicznym, gdzie pracownicy coraz silniej domagają się bezpośredniego udziału w zyskach generowanych przez rewolucję sztucznej inteligencji. Wnioski płynące z obecnego impasu wskazują, że ewentualny przestój w produkcji nie ograniczy się do strat wewnętrznych Samsunga. Przerwanie ciągłości dostaw komponentów HBM i DRAM natychmiast zdestabilizuje globalne łańcuchy dostaw, wpływając na marże i harmonogramy wiodących gigantów z Doliny Krzemowej oraz opóźniając wdrożenia infrastruktury AI na całym świecie.

    W zaistniałej sytuacji warto zwrócić uwagę na potrzebę rewizji dotychczasowych modeli motywacyjnych, tak aby elastyczniej reagowały na skokowe wzrosty zysków w najbardziej obciążonych dywizjach. Wskazane byłoby wypracowanie mechanizmów transparentnego dialogu o strukturze wynagrodzeń, zanim negocjacje wejdą w fazę uniemożliwiającą kompromis. Z perspektywy długoterminowej konkurencyjności, rozsądnym krokiem wydaje się zrównoważenie presji płacowej z utrzymaniem zdolności inwestycyjnych w obszarze R&D. Ostatecznie, priorytetem pozostaje ochrona ciągłości operacyjnej, gdyż to ona determinuje pozycję rynkową w bezwzględnym wyścigu technologicznym.

  • Google Cloud Next ’26: Workspace Intelligence i przyszłość pracy

    Google Cloud Next ’26: Workspace Intelligence i przyszłość pracy

    Podczas tegorocznej konferencji Google Cloud Next ’26 gigant z Mountain View zaprezentował wizję przyszłości pracy, w której sztuczna inteligencja przestaje być jedynie asystentem, a staje się autonomicznym silnikiem operacyjnym. Kluczowym punktem ogłoszenia blisko tuzina nowych funkcji Google Workspace stał się debiut „Workspace Intelligence”. To rozwiązanie to kontekstowy silnik AI, który analizuje dane przedsiębiorstwa w czasie rzeczywistym, uwzględniając wcześniejsze działania użytkownika oraz czynniki środowiskowe, aby proaktywnie wykonywać zadania w jego imieniu.

    Ewolucja ta wykracza poza proste ułatwienia biurowe i wpisuje się w szerszy trend rynkowy identyfikowany przez analityków GlobalData. Sztuczna inteligencja przestaje operować w odizolowanych silosach, stając się „tkanką łączącą” całe organizacje. Workspace Intelligence integruje spotkania, czaty i rozmowy z aplikacjami zewnętrznymi, tworząc pomost między wewnętrznymi procesami a relacjami z dostawcami czy partnerami. Co istotne, rozwój ten wspierany jest przez demokratyzację technologii – agenci AI i boty są coraz częściej tworzeni przez pracowników nietechnicznych przy użyciu narzędzi low-code oraz no-code.

    Wnioski płynące z tej transformacji są jednoznaczne: wchodzimy w erę operacyjnej płynności, która niesie ze sobą jednak nowe wyzwania strukturalne. Choć zwiększona efektywność dzięki automatyzacji przepływów pracy jest bezdyskusyjna, rozszerzający się zasięg AI generuje istotne koszty w obszarze zarządzania ryzykiem. Swobodny przepływ danych między różnymi platformami i organizacjami sprawia, że kwestie zgodności (compliance), poufności oraz bezpieczeństwa stają się bardziej złożone niż kiedykolwiek. Zapewnienia dostawców o integralności systemów są krokiem w dobrym kierunku, jednak tempo innowacji zdaje się wyprzedzać tradycyjne mechanizmy kontrolne.

    Warto zwrócić uwagę na potrzebę głębokiej rewizji polityki zarządzania danymi wewnątrz firm. Dobrym podejściem może być skupienie się na audycie przepływów informacji, szczególnie w miejscach, gdzie agenci AI wchodzą w interakcję z partnerami zewnętrznymi. Warto również rozważyć wdrożenie systemowych ram dla rozwiązań low-code tworzonych przez pracowników, aby czerpać korzyści z ich innowacyjności bez narażania integralności korporacyjnych zasobów. Subtelne przesunięcie akcentu z samej funkcjonalności narzędzi na ich bezpieczną orkiestrację może okazać się kluczowym czynnikiem sukcesu w nadchodzących latach.

  • Jak stabilizować sieć w mieście? Magazyny energii od Stoen i ZPUE

    Jak stabilizować sieć w mieście? Magazyny energii od Stoen i ZPUE

    Stoen Operator oraz ZPUE realizują w Warszawie projekt, który przesuwa granice zastosowania magazynów energii w polskiej infrastrukturze elektroenergetycznej. Zamiast izolowanych instalacji badawczych, w stołecznej sieci dystrybucyjnej pojawia się dziesięć bateryjnych jednostek zintegrowanych bezpośrednio ze stacjami średniego i niskiego napięcia (SN/nn). Inicjatywa ta nie jest jedynie eksperymentem, lecz operacyjną odpowiedzią na specyficzne wyzwania dużej aglomeracji: gęstą zabudowę, skokowo rosnące zapotrzebowanie na moc oraz dynamiczny rozwój mikroinstalacji OZE. W tym układzie magazyny przejmują rolę aktywnych stabilizatorów napięcia, stając się integralnym elementem codziennej pracy systemu.

    To wdrożenie rzuca nowe światło na ewolucję roli operatorów systemów dystrybucyjnych (OSD). Przejście od pasywnego przesyłu energii do aktywnego zarządzania jej zasobami staje się obecnie koniecznością biznesową, a nie tylko technologiczną ciekawostką. Przykład Warszawy pokazuje, że magazynowanie energii przestaje być postrzegane jako kosztowne uzupełnienie infrastruktury, a zaczyna być traktowane jako jeden z fundamentów nowoczesnej dystrybucji. Kluczowym wnioskiem płynącym z warszawskiego projektu jest fakt, że w warunkach miejskich sukces inwestycji zależy nie od samej wydajności baterii, lecz od głębokiej integracji systemowej i zdolności do pracy w różnych scenariuszach obciążenia.

    Warto zwrócić uwagę na kilka aspektów, które mogą zdeterminować efektywność podobnych przedsięwzięć w przyszłości. Zasadne wydaje się odejście od projektowania punktowego na rzecz myślenia o pełnym cyklu życia instalacji. Uwzględnienie kosztów eksploatacji, serwisu oraz zachowania systemu w stanach awaryjnych już na etapie planowania pozwala uniknąć późniejszych, kosztownych korekt. 

    Warto również rozważyć zacieśnienie współpracy między dostawcami technologii a operatorami w celu wypracowania standardów, które ułatwią skalowanie rozwiązań w innych regionach kraju. Zamiast oczekiwać na ostateczne rozstrzygnięcia regulacyjne, rynek może zyskać najwięcej na gromadzeniu i wymianie doświadczeń operacyjnych. To właśnie te praktyczne dane, zdobyte podczas pracy w żywym organizmie miejskim, stanowią dziś najcenniejszy kapitał dla firm sektora energetycznego, planujących długofalowe inwestycje w elastyczność sieci.

  • XTPL notuje rekordowe przychody i zabezpiecza finansowanie na skalowanie

    XTPL notuje rekordowe przychody i zabezpiecza finansowanie na skalowanie

    Wrocławski XTPL, dostawca technologii mikrodruku dla sektora zaawansowanej elektroniki, zamknął 2025 rok z rekordowymi przychodami na poziomie 15,6 mln zł. Choć dynamika wzrostu sprzedaży produktów i usług (+12% r/r) jest wyraźna, kluczowym punktem zwrotnym dla spółki okazało się ostateczne wyjście poza sferę badawczą. Firma dostarczyła w tym okresie 13 urządzeń Delta Printing System oraz 8 modułów UPD, które pracują już na liniach produkcyjnych jednego z największych producentów wyświetlaczy w Chinach. Równolegle, podmiot zabezpieczył blisko 30 mln zł z nowej emisji akcji oraz dotacji NCBR, co ma sfinansować lukę kapitałową i umożliwić realizację zaktualizowanej strategii do 2028 roku. Nowym filarem wzrostu staje się linia systemów ODRA, dedykowana produkcji niskoseryjnej, która w marcu pozyskała już pierwszego klienta z Doliny Krzemowej.

    Płynące z rynku sygnały pozwalają wysnuć wniosek, że XTPL pomyślnie pokonuje najbardziej ryzykowny etap dla firm typu deep-tech – przejście z fazy „lab” do „fab”. Utrzymująca się ujemna EBITDA (-16,3 mln zł) jest w tym kontekście naturalnym kosztem budowania struktur sprzedażowych i skalowania technologii, która musi sprostać rygorom hal produkcyjnych. Przesunięcie celu 100 mln zł przychodów na rok 2028 sugeruje jednak, że cykle decyzyjne u globalnych producentów elektroniki są dłuższe, niż zakładały pierwotne estymacje. Wprowadzenie systemów ODRA to strategiczny ruch mający na celu dywersyfikację przychodów i wypełnienie luki między prototypowaniem a masową produkcją, co może znacząco zwiększyć „stickiness” technologii wewnątrz organizacji klientów.

    Warto w tym miejscu zwrócić uwagę na znaczenie walidacji technologii przez podmioty z Tajwanu i USA, co w konserwatywnej branży półprzewodników jest sygnałem o krytycznym znaczeniu. Dla partnerów biznesowych istotne będzie monitorowanie tempa, w jakim pięć pozostałych projektów na etapie ewaluacji przekuje się w twarde kontrakty przemysłowe. Wydaje się, że dla zachowania dynamiki wzrostu kluczowe będzie dalsze eksplorowanie modelu HMLV, szczególnie w sektorze obronnym, który wykazuje mniejszą wrażliwość na cykle koniunkturalne niż rynek elektroniki użytkowej. Strategiczna cierpliwość w oczekiwaniu na pełne skalowanie UPD powinna iść w parze z agresywną komercjalizacją systemów ODRA, które ze względu na wyższą cenę jednostkową mogą szybciej poprawić profil rentowności spółki.

  • 40 mln zł na akcelerację startupów: Rusza nabór Startup Booster Poland

    40 mln zł na akcelerację startupów: Rusza nabór Startup Booster Poland

    Polska Agencja Rozwoju Przedsiębiorczości (PARP) wykonuje istotny ruch w stronę profesjonalizacji rodzimego ekosystemu innowacji, uruchamiając nabór w programie Startup Booster Poland – Tech Impact. Z łącznym budżetem 40 milionów złotych, finansowanym z Funduszy Europejskich dla Nowoczesnej Gospodarki (FENG), inicjatywa ta stawia na wyłonienie wyspecjalizowanych operatorów, którzy wezmą na siebie ciężar prowadzenia młodych spółek przez najbardziej ryzykowny etap ich rozwoju. Organizacje takie jak centra transferu technologii, parki technologiczne czy inkubatory mogą ubiegać się o finansowanie rzędu od 15 do 20 milionów złotych. Czas na składanie wniosków upływa 17 lipca, a stawką jest nie tylko kapitał, ale przede wszystkim zmiana statystyk przeżywalności młodych firm.

    Obecny krajobraz polskiego sektora MŚP, odpowiadającego za niemal połowę PKB kraju, pokazuje wyraźną lukę w odporności najmłodszych graczy. Zaledwie 68 proc. startupów kontynuuje działalność po pierwszym roku, podczas gdy dla firm dwuletnich wskaźnik ten gwałtownie rośnie do poziomu 91 proc. Dane te rzucają nowe światło na strategię PARP – program Tech Impact nie jest jedynie kolejnym mechanizmem grantowym, lecz próbą systemowego zabezpieczenia „doliny śmierci”. Skoncentrowanie się na projektach typu *impact*, czyli rozwiązaniach odpowiadających na wyzwania społeczne i środowiskowe Agendy 2030 ONZ, sugeruje, że polska administracja zaczyna dostrzegać w zrównoważonym rozwoju realną przewagę konkurencyjną, a nie tylko wymóg regulacyjny.

    Wobec tych zmian warto zwrócić uwagę na konieczność budowania przez przyszłych operatorów interdyscyplinarnych zespołów mentorskich. Skuteczna akceleracja w obszarze Tech Impact wymaga dziś połączenia twardych kompetencji biznesowych z wiedzą specjalistyczną dotyczącą raportowania ESG czy certyfikacji środowiskowej. Zasadne wydaje się również, aby podmioty ubiegające się o status operatora już na etapie wnioskowania zintegrowały swoje działania z prywatnymi inwestorami, co pozwoli startupom na płynniejsze przejście z fazy inkubacji do rund finansowania rynkowego.

    Należy także rozważyć większą intensyfikację działań edukacyjnych skierowanych do tradycyjnego biznesu; rola operatora kończy się bowiem sukcesem dopiero wtedy, gdy innowacyjne rozwiązanie znajduje realnego odbiorcę lub partnera strategicznego. Budowanie takich mostów między nauką, startupami a dojrzałym przemysłem może okazać się kluczowym czynnikiem, który zdecyduje o trwałości efektów tego programu w dłuższej perspektywie biznesowej.

    O dofinansowanie mogą ubiegać się podmioty działające na rzecz innowacyjności, posiadające odpowiednie doświadczenie w realizacji programów akceleracji, w szczególności:

    • centra transferu technologii,
    • centra innowacji,
    • inkubatory technologiczne,
    • akademickie inkubatory przedsiębiorczości,
    • parki technologiczne.

    Jak się zgłosić? Zgłoszenia na operatorów programu FENG Startup Booster Poland – Tech Impact przyjmowane są do 17 lipca br. poprzez platformę LSI: https://lsi.parp.gov.pl

    Więcej informacji o naborze znajduje się na stronie PARP.

  • Zwolnienia w Big Tech 2026 – dlaczego Meta i Microsoft tną etaty

    Zwolnienia w Big Tech 2026 – dlaczego Meta i Microsoft tną etaty

    Dolina Krzemowa przechodzi przez bolesną, ale precyzyjną operację wymiany tkanki. Podczas gdy inwestorzy z entuzjazmem reagują na kolejne rekordy giełdowe, tysiące pracowników MetaMicrosoftu dowiadują się, że ich role stają się zbędne w nowym, zorientowanym na algorytmy porządku świata. To, co obserwujemy, nie jest już tylko echem pocovidowej korekty, lecz fundamentalną zmianą priorytetów strategicznych.

    Meta ogłosiła właśnie redukcję zatrudnienia o 10%, co w połączeniu z likwidacją nieobsadzonych wakatów oznacza usunięcie z rynku pracy blisko 14 tysięcy etatów. Jednak głębsza analiza finansowa firmy Marka Zuckerberga ujawnia drugie dno tej decyzji. Spółka planuje zwiększyć wydatki inwestycyjne do poziomu nawet 135 miliardów dolarów w 2027 roku, koncentrując się na budowie centrów danych i rozwoju Laboratoriów Superinteligencji.

    To klasyczny przykład agresywnej realokacji zasobów: miliardy oszczędzone na „tradycyjnej” sile roboczej finansują wyścig zbrojeń w dziedzinie sztucznej inteligencji. W kuluarach mówi się jednak o zjawisku „AI-washingu” – wygodnym przypisywaniu zwolnień postępowi technologicznemu, by przykryć błędy rekrutacyjne z lat 2020-2022.

    Z kolei Microsoft w Redmond stosuje bardziej subtelną, lecz równie wymowną taktykę. Gigant po raz pierwszy w swojej historii zdecydował się na program dobrowolnych odejść, skierowany do około 7% amerykańskiej kadry. Kryterium „sumy 70” (łączące wiek i staż pracy) sugeruje, że firma chce odchudzić strukturę z kosztownych, doświadczonych menedżerów, których kompetencje mogą nie przystawać do ery generatywnych modeli. Jednocześnie Microsoft upraszcza system nagród i premii, dając kadrze zarządzającej większą swobodę w wynagradzaniu talentów, które realnie napędzają nowe piony biznesowe.

    Trend ten nie jest odosobniony – Amazon, Intel czy Cisco podążają podobną ścieżką. Dla świata biznesu płynie z tego jasna lekcja: efektywność operacyjna w 2026 roku nie polega już na posiadaniu najliczniejszych zespołów, ale na budowie najbardziej skalowalnych systemów. Rynek pracy w sektorze technologicznym przestał być bezpieczną przystanią, stając się poligonem doświadczalnym dla nowej definicji korporacyjnej produktywności.

  • Droższe serwery i smartfony? Jak wojna na Bliskim Wschodzie paraliżuje produkcję

    Droższe serwery i smartfony? Jak wojna na Bliskim Wschodzie paraliżuje produkcję

    Podczas gdy uwaga Doliny Krzemowej skupia się na architekturze najnowszych procesorów graficznych, rzeczywiste zagrożenie dla tempa rozwoju sztucznej inteligencji objawiło się w sektorze petrochemicznym. Ostatnie zakłócenia na Bliskim Wschodzie, w tym uderzenie w saudyjski kompleks Jubail, obnażyły silną zależność globalnej elektroniki od wąskiego grona dostawców surowców.

    Kluczowym punktem zapalnym stała się wstrzymana produkcja żywicy polifenylenowej (PPE) o wysokiej czystości. Materiał ten jest niezbędny do wytwarzania laminatów w nowoczesnych płytkach drukowanych (PCB), stanowiących kręgosłup wszystkiego – od smartfonów po potężne serwery AI. Fakt, że firma SABIC odpowiada za około 70% światowych dostaw tego komponentu, sprawia, że jakakolwiek przerwa w jej zakładach na wybrzeżu Zatoki Perskiej natychmiast rezonuje w fabrykach w Korei Południowej i Chinach.

    Skutki są wymierne i kosztowne. Tylko w kwietniu ceny PCB wzrosły o 40% w porównaniu z marcem, co nałożyło się na trwającą już hossę na rynku miedzi. Folia miedziana, stanowiąca blisko 60% kosztów surowcowych w produkcji płytek, podrożała w tym roku o 30%. Dla producentów takich jak południowokoreański Daeduck Electronics, zaopatrujący Samsunga i AMD, sytuacja ta wymusiła całkowitą zmianę priorytetów zarządczych. Dyrektorzy operacyjni, zamiast negocjować kontrakty z odbiorcami, spędzają teraz większość czasu na zabezpieczaniu dostaw chemikaliów. Czas oczekiwania na żywice epoksydowe wydłużył się drastycznie – z trzech do nawet piętnastu tygodni.

    Największą presję odczuwa sektor infrastruktury AI. Wielowarstwowe płytki drukowane wykorzystywane w centrach danych są wielokrotnie droższe od standardowych modeli, a ich ceny mogą przekraczać 13 tysięcy juanów za metr kwadratowy. Mimo to, dostawcy usług chmurowych wydają się gotowi akceptować te podwyżki. Wobec mówiących o wzroście wartości rynku PCB do niemal 96 miliardów dolarów w 2026 roku, kluczowi gracze przedkładają ciągłość dostaw nad marżowość.

  • Alphabet inwestuje 40 mld dolarów w Anthropic. Walczy o kontrolę z Amazonem?

    Alphabet inwestuje 40 mld dolarów w Anthropic. Walczy o kontrolę z Amazonem?

    Alphabet, spółka matka Google, ogłosiła zamiar zainwestowania nawet 40 miliardów dolarów w Anthropic – startup, który dla giganta z Mountain View jest jednocześnie kluczowym klientem chmurowym i jednym z najgroźniejszych konkurentów w wyścigu o prymat w dziedzinie sztucznej inteligencji.

    Struktura tej transakcji odzwierciedla nową rzeczywistość finansowania sektora AI, gdzie kapitał jest ściśle powiązany z konkretnymi wynikami. Google wyłoży 10 miliardów dolarów w gotówce przy wycenie startupu na poziomie 350 miliardów dolarów. Pozostałe 30 miliardów zostanie uruchomione dopiero wtedy, gdy twórcy modelu Claude osiągną rygorystyczne cele wydajnościowe. Dla Alphabetu to nie tylko lokata kapitału, ale przede wszystkim próba zacieśnienia więzi z podmiotem, który wyrósł na lidera w niszach, w których Google wciąż szuka swojej tożsamości.

    Ruch ten następuje zaledwie kilka dni po tym, jak Amazon zadeklarował własny zastrzyk gotówki dla Anthropic w wysokości 25 miliardów dolarów. Sytuacja, w której dwóch największych dostawców chmury na świecie licytuje się o względy tego samego startupu, pokazuje, jak desperacko giganci technologiczni potrzebują sukcesów zewnętrznych modeli, aby napędzać sprzedaż własnej infrastruktury obliczeniowej.

    Siłą napędową Anthropic nie jest już tylko obietnica bezpiecznej sztucznej inteligencji, ale realne wyniki finansowe. Roczne przychody firmy przekroczyły właśnie barierę 30 miliardów dolarów, co stanowi imponujący skok względem 9 miliardów odnotowanych pod koniec 2025 roku. Inwestorzy reagują entuzjastycznie, a niektóre oferty z rynku venture capital wyceniają firmę nawet na 800 miliardów dolarów. Fundamentem tego wzrostu jest Claude Code – narzędzie, które zdominowało segment programistyczny, oraz agent Anthropic’s Cowork, którego wtyczki wywołały niedawno drżenie na giełdach, obniżając wyceny tradycyjnych spółek oprogramowania SaaS.

    Największym wyzwaniem dla Anthropic pozostaje jednak „głód mocy”. Skalowanie modeli wymaga infrastruktury o skali dotąd niespotykanej. Startup zabezpiecza ją poprzez wieloletnie umowy z Broadcomem oraz CoreWeave, a także ambitny plan budowy własnych centrów danych w USA o wartości 50 miliardów dolarów.

    Rynek dzieli się na wyspecjalizowane narzędzia, a Anthropic, koncentrując się na kodowaniu i autonomicznych agentach, udowadnia, że można skutecznie rzucić wyzwanie modelom ogólnego przeznaczenia. Alphabet, inwestując w Anthropic, kupuje sobie polisę ubezpieczeniową na wypadek, gdyby to właśnie podejście startupu okazało się docelowym standardem w biznesie.

  • Wyciek kontrowersyjnego modelu Claude Mythos. Anthropic bada incydent bezpieczeństwa

    Wyciek kontrowersyjnego modelu Claude Mythos. Anthropic bada incydent bezpieczeństwa

    Anthropic, jedna z czołowych sił w sektorze sztucznej inteligencji, mierzy się z poważnym wyzwaniem wizerunkowym i operacyjnym. Jak donosi Bloomberg News, najbardziej zaawansowany model firmy, Claude Mythos Preview, wyciekł do małej grupy nieautoryzowanych użytkowników. Incydent ten ma miejsce w kluczowym momencie dla startupu, który właśnie pozycjonuje swoją technologię jako fundament nowej ery cyberbezpieczeństwa.

    Wyciek nastąpił 7 kwietnia, dokładnie w dniu, w którym Anthropic ogłosił „Projekt Glasswing”. Inicjatywa ta miała umożliwić wybranym organizacjom testowanie modelu Mythos w kontrolowanych warunkach, głównie w celu wzmocnienia obrony przed atakami cyfrowymi. Tymczasem grupa użytkowników na prywatnym forum internetowym uzyskała dostęp do narzędzia niemal natychmiast po oficjalnej zapowiedzi. Choć z raportów wynika, że model nie został dotychczas wykorzystany do celów przestępczych, fakt jego regularnego używania poza kontrolą producenta budzi uzasadniony niepokój.

    Rzecznik Anthropic potwierdził, że firma bada sprawę, wskazując na środowisko zewnętrznego dostawcy jako prawdopodobne źródło wycieku. Incydent ten może skomplikować relacje Anthropic z organami regulacyjnymi. Mythos to model o bezprecedensowej zdolności identyfikowania luk w oprogramowaniu. To narzędzie „podwójnego zastosowania” – w rękach obrońców łata systemy, ale w rękach hakerów może stać się precyzyjną bronią. Utrata kontroli nad tak potężnym zasobem, nawet jeśli tymczasowa, wzmacnia argumenty zwolenników ścisłego nadzoru nad modelami o krytycznym znaczeniu dla bezpieczeństwa narodowego. Anthropic musi teraz udowodnić, że potrafi skutecznie chronić technologię, która ma chronić świat.

  • eAuditor V10 AI – skalowalność i elastyczność w nowoczesnym zarządzaniu IT

    eAuditor V10 AI – skalowalność i elastyczność w nowoczesnym zarządzaniu IT

    eAuditor to zaawansowana platforma do zarządzania i zapewnienia bezpieczeństwa IT, która w wersji V10 AI wprowadza istotne udoskonalenia oraz nowe możliwości operacyjne. System oferuje pełną swobodę w doborze technologii – od wsparcia dla baz danych open-source i rozwiązań kontenerowych, po obsługę alternatywnych platform wirtualizacji. Pozwala na budowę wydajnych środowisk dopasowanych do wyzwań rynkowych oraz optymalizację kosztów poprzez odejście od ograniczających modeli licencyjnych.

    Nowości w eAuditor V10 AI

    Poznaj kluczowe nowości i usprawnienia wprowadzone w systemie:

    • Obsługa wirtualizacji Proxmox: Rozszerzenie wsparcia o środowiska open source, wykorzystywane m.in. jako alternatywa dla VMware.
    • Architektura oparta na kontenerach: Wsparcie dla technologii Docker, Kubernetes oraz OpenShift w modelu on-premise, co zapewnia błyskawiczną skalowalność i łatwiejsze zarządzanie aplikacjami.
    • Natywne wsparcie dla PostgreSQL: Implementacja nowego silnika bazy danych pozwalająca na pełną optymalizację kosztów operacyjnych poprzez eliminację konieczności zakupu licencji MS SQL Server.
    • Mobilny Panel Użytkownika: Dedykowana aplikacja dla systemu Android, która integruje procesy obsługi zgłoszeń serwisowych w ramach systemów eAuditor oraz eHelpDesk, zwiększając dostępność wsparcia technicznego.

    Kluczowe przewagi i korzyści eAuditor V10 AI

    Zmiany wprowadzone w eAuditor V10 AI przekładają się bezpośrednio na wartość biznesową:

    • niższe koszty wdrożenia i utrzymania – dzięki wykorzystaniu PostgreSQL oraz technologii open source,
    • lepsze dopasowanie do zmian rynkowych – migracja z VMware do Proxmox bez utraty widoczności środowiska,
    • większa elastyczność infrastruktury – dzięki wsparciu dla technologii kontenerowych (Docker, Kubernetes),
    • wyższa efektywność pracy użytkowników – poprzez wprowadzenie nowego interfejsu (GUI) oraz Mobilnego Panelu Użytkownika na system Android.

    źródło: BTC

  • Google musi udostępnić dane wyszukiwania. Nowa propozycja Komisji Europejskiej

    Google musi udostępnić dane wyszukiwania. Nowa propozycja Komisji Europejskiej

    Przez dekady rynkowa dominacja Google opierała się na prostym, ale potężnym mechanizmie: pętli informacji zwrotnej. Im więcej osób korzystało z wyszukiwarki, tym więcej danych o kliknięciach i zachowaniach gromadził gigant, co pozwalało mu jeszcze precyzyjniej dopracowywać algorytmy. Ten „fos dany” (data moat) był dotychczas nie do przebicia dla konkurencji. Jednak nowa propozycja Komisji Europejskiej, oparta na przepisach ustawy o rynkach cyfrowych (DMA), może trwale zmienić układ sił na europejskim rynku technologicznym.

    Przymusowe dzielenie się paliwem dla AI

    Zgodnie z ogłoszonym planem, Google zostanie zobowiązane do udostępnienia kluczowych informacji — w tym rankingów, zapytań, kliknięć i wyświetleń — podmiotom trzecim. Choć na liście beneficjentów znajdują się klasyczne wyszukiwarki, prawdziwa stawka toczy się o nową generację usług: **chatboty AI zintegrowane z funkcjami wyszukiwania**. W dobie rewolucji generatywnej sztucznej inteligencji, dane o tym, czego szukają i w co klikają użytkownicy, są najcenniejszym zasobem treningowym.

    Komisja Europejska, reprezentowana przez Hennę Virkkunen, jasno daje do zrozumienia, że celem jest wymuszenie innowacji w momencie, gdy usługi wyszukiwania i AI stają się niemal jednością. Dla startupów technologicznych i mniejszych graczy to szansa na przeskoczenie bariery wejścia, która do tej pory wydawała się nie do pokonania bez miliardowych budżetów na pozyskiwanie ruchu.

    Gra o rynkowe zasady i prywatność

    Google, co nie jest zaskoczeniem, próbowało zablokować te regulacje na drodze odwoławczej, argumentując to ochroną swojej własności intelektualnej i prywatności użytkowników. Bruksela odpowiada jednak rygorystycznymi wymogami dotyczącymi anonimizacji danych osobowych. Co istotne dla biznesu, dostęp do danych nie będzie darmowym przywilejem. Komisja zapowiada wprowadzenie parametrów cenowych, które mają być „zgodne z rynkiem i niedyskryminacyjne”, co sugeruje powstanie nowego, regulowanego rynku obrotu danymi wyszukiwania.

    Kalendarz zmian dla sektora Big Tech

    Harmonogram jest napięty i nie pozostawia Google dużego pola manewru. Konsultacje społeczne potrwają do 1 maja, a ostateczna decyzja, która stanie się wiążąca, zapadnie najpóźniej **27 lipca 2026 roku. Dla liderów biznesu i inwestorów przekaz jest czytelny: Bruksela kończy z polityką „laissez-faire” wobec algorytmicznych gigantów. Jeśli propozycja wejdzie w życie, przewaga Google przestanie wynikać z samego posiadania danych, a zacznie zależeć wyłącznie od tego, jak skutecznie potrafi je przetwarzać w starciu z nową, wzmocnioną przez regulatora konkurencją.

  • Komisja Europejska uniezależnia się od Big Tech. Wybrano 4. dostawców kontraktu za 180 mln euro

    Komisja Europejska uniezależnia się od Big Tech. Wybrano 4. dostawców kontraktu za 180 mln euro

    Komisja Europejska przestała jedynie teoretyzować o „cyfrowej suwerenności” i zaczęła za nią płacić. Poprzez rozstrzygnięcie wartego 180 milionów euro przetargu na usługi w chmurze, Bruksela wysyła czytelny sygnał: zależność od technologii z Doliny Krzemowej ma swoje granice, zwłaszcza gdy w grę wchodzą dane krytyczne dla funkcjonowania unijnych instytucji. Wybór czterech europejskich podmiotów to nie tylko ruch administracyjny, ale przede wszystkim strategiczny test dojrzałości kontynentalnego ekosystemu tech.

    W gronie beneficjentów sześcioletniego kontraktu znalazła się ciekawa mozaika biznesowa. Z jednej strony mamy graczy stricte technologicznych, jak francuski Scaleway (część grupy Iliad) czy konsorcjum wokół OVHcloud pod wodzą Post Telecom. Z drugiej – potęgi handlowe, jak niemiecki STACKIT, należący do Grupy Schwarz (właściciela Lidla), co pokazuje, że infrastruktura chmurowa staje się kluczowym aktywem nawet dla gigantów handlu detalicznego. Stawkę zamyka belgijski Proximus, który w ramach partnerstwa S3NS współpracuje z Google Cloud, co dowodzi, że europejska suwerenność nie musi oznaczać całkowitej izolacji, a raczej umiejętne zarządzanie „mostami” z amerykańską technologią

    Kluczem do zrozumienia tego kontraktu jest nowy system certyfikacji SEAL. Komisja odeszła od ogólnikowych deklaracji na rzecz ośmiu mierzalnych kryteriów, oceniających m.in. odporność na obce jurysdykcje i kontrolę nad łańcuchem dostaw. Większość wybranych dostawców osiągnęła poziom SEAL-3, co w praktyce oznacza, że ich usługi są zaprojektowane tak, by uniemożliwić ingerencję podmiotom spoza UE. To próba stworzenia standardu, który mógłby stać się wzorcem dla sektora bankowego czy energetycznego w całej Europie.

    Z biznesowego punktu widzenia kwota 180 milionów euro rozłożona na sześć lat jest skromna w porównaniu z budżetami R&D takich gigantów jak AWS czy Azure. Jednak znaczenie tego kontraktu wykracza poza czysty zysk. Dla wybranych firm to ostateczny „stempelek” wiarygodności, który ułatwi im walkę o klientów korporacyjnych bojących się tzw. vendor lock-in, czyli uzależnienia od jednego dostawcy. 

  • COI unieważnił przetarg na chatbota dla mObywatela

    COI unieważnił przetarg na chatbota dla mObywatela

    Decyzja Centralnego Ośrodka Informatyki (COI) o unieważnieniu przetargu na rozbudowę platformy obliczeniowej dla chatbota mObywatel to coś więcej niż tylko proceduralna korekta. To pragmatyczne zderzenie państwowych ambicji o technologicznej autarkii z brutalną rzeczywistością globalnego łańcucha dostaw komponentów AI. Wycofanie się z budowy własnego zaplecza sprzętowego na rzecz modelu chmurowego rzuca światło na wyzwania, z jakimi mierzą się dziś organizacje próbujące wdrażać zaawansowane modele językowe na własną rękę.

    Postępowanie, zainicjowane na początku marca 2026 roku, zakładało budowę potężnego klastra on-premise. Specyfikacja obejmująca serwery o ogromnej gęstości pamięci RAM oraz zaawansowane moduły GPU o wysokiej wydajności zmiennoprzecinkowej, sugerowała chęć utrzymania pełnej kontroli nad przetwarzaniem danych obywateli. Jednak zaledwie miesiąc później COI uznał, że kontynuowanie tej drogi jest nieuzasadnione. Oficjalnym powodem są „nowe okoliczności”, a w praktyce – gwałtowny wzrost cen i dramatyczne niedobory komponentów krytycznych dla infrastruktury sztucznej inteligencji.

    Z perspektywy biznesowej, ruch COI jest dowodem na dużą elastyczność w zarządzaniu portfelem publicznych inwestycji IT. Rynek serwerów AI znajduje się obecnie w punkcie wrzenia, gdzie popyt generowany przez globalnych gigantów technologicznych skutecznie wypiera mniejszych graczy i instytucje publiczne, wydłużając terminy dostaw do wielu miesięcy. W takim otoczeniu próba zakupu konkretnych rozwiązań referencyjnych staje się walką z wiatrakami. Przejście na model chmurowy pozwala państwowemu integratorowi uniknąć ryzyka „zamrożenia” środków w sprzęcie, który w momencie dostarczenia mógłby być już technologicznie przestarzały lub nieadekwatny do skali zapotrzebowania na usługi mObywatela.

    Ewolucja koncepcji chatbota z modelu opartego na własnych serwerach w stronę infrastruktury chmurowej odzwierciedla szerszy trend rynkowy. Nawet dla sektora publicznego, gdzie kwestie suwerenności danych są priorytetowe, korzyści płynące ze skalowalności chmury stają się przeważające. COI słusznie zdiagnozował, że upieranie się przy pierwotnych założeniach mogłoby doprowadzić do nieefektywnego wydatkowania publicznych pieniędzy.

  • Kim jest nowy CEO Apple?

    Kim jest nowy CEO Apple?

    Kiedy 1 września John Ternus oficjalnie przejmie stery w Cupertino, Apple nie tylko zyska nowego dyrektora generalnego, ale też jasno zadeklaruje swoją strategię na najbardziej niepewną dekadę w historii Doliny Krzemowej. Nominacja 50-letniego weterana inżynierii sprzętowej na następcę Tima Cooka to sygnał, że w świecie zachłyśniętym czystym oprogramowaniem AI, Apple zamierza bronić swojej pozycji za pomocą fizycznego produktu.

    Ternus przejmuje stery w momencie symbolicznym. Apple, długo piastujące miano najcenniejszej firmy świata, musiało ustąpić pola Nvidii – gigantowi napędzającemu infrastrukturę sztucznej inteligencji. Podczas gdy Microsoft i Google wydają miliardy na integrację modeli językowych z każdym aspektem swoich ekosystemów, Ternus wnosi do gabinetu CEO filozofię, którą można określić jako uparty pragmatyzm. Jego podejście, streszczone w haśle, że Apple „nie wysyła technologii, lecz produkty”, sugeruje, że firma nie zamierza ścigać się na liczbę parametrów w modelach AI, lecz na to, jak ta technologia zmieni codzienne interakcje z iPhonem czy komputerem Mac.

    Jego dotychczasowe osiągnięcia budują obraz lidera, który potrafi podejmować ryzyko tam, gdzie inni szukają bezpiecznych rozwiązań. To Ternus stał za przejściem linii Mac na autorskie procesory Apple Silicon, co zakończyło wieloletnią zależność od Intela i tchnęło nowe życie w segment komputerów osobistych. To on również nadzorował premierę iPhone’a Air oraz MacBooka Neo – urządzenia, które dzięki wykorzystaniu chipów z iPhone’a 16 Pro, agresywnie walczy o rynek ceną 599 dolarów.

    Wewnątrz firmy Ternus cieszy się opinią perfekcjonisty, co budzi skojarzenia z etosem pracy Steve’a Jobsa. Anegdoty o kłótniach z dostawcami o liczbę rowków na niewidocznej dla użytkownika śrubie monitora krążą po korytarzach Cupertino jako dowód na to, że Apple pod jego wodzą nie zamierza rezygnować z obsesji na punkcie detali. Analitycy podkreślają, że Ternus jest powszechnie lubiany i szanowany przez kadrę kierowniczą, co może ułatwić mu przeprowadzenie firmy przez trudny proces transformacji Siri i integracji z zewnętrznymi modelami, takimi jak te od Google czy OpenAI.

    Pytanie, przed którym stoi nowy CEO, wykracza jednak poza inżynierię sprzętową. Rywale, od Samsunga po Meta z jej okularami Ray-Ban AI, liczą na to, że skupienie Apple na urządzeniach okaże się ich piętą achillesową w erze, w której system operacyjny może zostać zastąpiony przez inteligentnego asystenta.

    Wyzwanie dla Ternusa jest jasne: musi udowodnić, że budowa świetnego sprzętu wciąż jest najlepszą formą ochrony platformy, a sztuczna inteligencja to jedynie kolejne narzędzie w rękach inżyniera, a nie cel sam w sobie. 1 września Apple pod wodzą Ternusa wejdzie w nową erę, w której pragmatyzm zostanie poddany ostatecznemu testowi rynkowemu.

  • Wycena SpaceX może sięgnąć 1,75 bln dolarów. Rekordowe IPO na horyzoncie

    Wycena SpaceX może sięgnąć 1,75 bln dolarów. Rekordowe IPO na horyzoncie

    Kiedy SpaceX złożyło poufny prospekt emisyjny, rynek spodziewał się liczb wykraczających poza ziemską atmosferę. Jednak najnowsze szczegóły operacji, do których dotarły media, sugerują, że Elon Musk nie planuje jedynie debiutu giełdowego, lecz budowę najbardziej scentralizowanego i ambitnego konglomeratu technologicznego w historii. Z wyceną celującą w 1,75 biliona dolarów, SpaceX przestaje być postrzegane wyłącznie jako firma transportowa, stając się fundamentem pod infrastrukturę sztucznej inteligencji nowej generacji.

    Fundamentem tej transformacji jest zacieśnienie kontroli przez założyciela. W ubiegłym roku Musk wykupił od obecnych i byłych pracowników akcje o wartości 1,4 miliarda dolarów, co było sygnałem pewności siebie wysłanym do wewnętrznych interesariuszy tuż przed publicznym otwarciem. Model ładu korporacyjnego przewidziany po IPO nie pozostawia złudzeń co do tego, kto będzie trzymał stery. Dzięki dwuklasowej strukturze kapitałowej, akcje klasy B przyznają Muskowi i wąskiej grupie powierników dziesięciokrotnie większą siłę głosu niż standardowe udziały oferowane inwestorom publicznym. Takie rozwiązanie, choć znane z Doliny Krzemowej, w tym przypadku cementuje władzę Muska jako CEO, dyrektora technicznego i przewodniczącego rady nadzorczej w sposób niemal absolutny.

    Finanse firmy ujawniają jednak pewne napięcie między rentownym biznesem satelitarnym a ogromnymi apetytami inwestycyjnymi. Starlink, generujący 4,42 miliarda dolarów zysku operacyjnego, stał się „dojną krową”, która finansuje integrację z xAI – firmą Muska zajmującą się sztuczną inteligencją. Mimo że SpaceX odnotowało skonsolidowaną stratę w wysokości blisko 5 miliardów dolarów w 2025 roku, wynika ona głównie z agresywnego pivotu w stronę AI. Wydatki kapitałowe wzrosły pięciokrotnie w ciągu dwóch lat, osiągając poziom 20,7 miliarda dolarów, z czego ponad połowa została przeznaczona na infrastrukturę obliczeniową.

    To właśnie w tym miejscu pojawia się najbardziej futurystyczny element strategii: budowa centrów danych w kosmosie. Plan ten nie jest jedynie technologiczną ciekawostką, ale warunkiem aktywacji gigantycznego pakietu motywacyjnego dla Muska. Miliarder może otrzymać dodatkowe 60 milionów akcji, jeśli kapitalizacja firmy wzrośnie do niewyobrażalnych 6,6 biliona dolarów, a projekt kosmicznych serwerów dla programistów AI zostanie zrealizowany.

    Dla inwestorów z Wall Street, którzy wkrótce spotkają się z kadrą zarządzającą w Teksasie, SpaceX staje się więc unikalną hybrydą. Z jednej strony oferuje stabilne przychody z dominacji na rynku wynoszenia ładunków i internetu satelitarnego, z drugiej zaś – jest ogromnym lewarem na rozwój AI. Musk najwyraźniej zakłada, że skoro udało mu się zmonopolizować dostęp do orbity, to kolejnym krokiem musi być przeniesienie tam mózgu globalnej gospodarki cyfrowej. Choć struktura IPO ogranicza wpływ akcjonariuszy na strategię, skala potencjalnych zysków sprawia, że kolejka chętnych po akcje klasy A prawdopodobnie pobije wszelkie rekordy.

  • Regeneracja zamiast produkcji – Model biznesowy Canon doceniony przez analityków

    Regeneracja zamiast produkcji – Model biznesowy Canon doceniony przez analityków

    Najnowszy raport Quocirca Sustainability Leaders 2025 potwierdza, że Canon umacnia swoją pozycję lidera, ale prawdziwa historia kryje się w danych dotyczących percepcji marki i logistyki procesów.

    Najbardziej uderzającym wskaźnikiem jest wzrost zaufania rynkowego. W ciągu zaledwie roku odsetek respondentów postrzegających Canon jako markę silnie związaną z ekologią wzrósł z 38% do 49%. To rzadki skok w dojrzałej branży, sugerujący, że długofalowe inwestycje w „remanufacturing” zaczynają rezonować z potrzebami biznesu zmagającego się z nowymi regulacjami raportowania ESG.

    Fundamentem tej strategii nie są nowe produkty, lecz te już istniejące. Canon od 1992 roku rozwija procesy odnawiania urządzeń, a jego fabryka w niemieckim Giessen stała się wzorcem wydajności w gospodarce obiegu zamkniętego. Regeneracja serii imageRUNNER ADVANCE ES, w której co najmniej 90% części pochodzi z odzysku, to nie tylko ukłon w stronę planety, ale przede wszystkim optymalizacja łańcucha dostaw i kosztów materiałowych. Dla klienta biznesowego oznacza to dostęp do sprzętu o standardzie „Certified Used”, który łączy niezawodność z niższym śladem węglowym, co staje się kluczowe przy przetargach obwarowanych wymogami środowiskowymi.

    Analitycy Quocirca zwracają uwagę na jeszcze jeden aspekt: cyfryzację serwisu. Przejście na inteligentne usługi zdalne drastycznie ogranicza konieczność fizycznych interwencji techników. W ten sposób Canon upiekł dwie pieczenie na jednym ogniu – zredukował emisje transportowe i zwiększył efektywność operacyjną swoich klientów.

    Partnerstwo z ClimatePartner oraz platynowy rating EcoVadis pozycjonują japońskiego producenta jako bezpieczny wybór w niepewnych czasach. Filozofia Kyosei – wspólnego dobra – choć brzmi ideologicznie, w wydaniu Canon znajduje bardzo pragmatyczne zastosowanie: od redukcji plastiku w opakowaniach po innowacyjną metodę „container round use”, eliminującą puste przebiegi w logistyce.

  • John Ternus nowym CEO Apple

    John Ternus nowym CEO Apple

    Apple oficjalnie potwierdził to, o czym w kuluarach szeptano od dawna: Tim Cook przygotowuje się do oddania władzy. Nowym dyrektorem generalnym firmy zostanie John Ternus, a cały proces przekazania sterów potrwa do września 2026 roku.

    Wybór Ternusa to decyzja bezpieczna i merytoryczna. Jako dotychczasowy szef inżynierii sprzętu, Ternus stał za sukcesami najważniejszych produktów Apple – od iPhone’ów po iPady i komputery Mac. Jego awans wysyła jasny sygnał do inwestorów oraz partnerów biznesowych: Apple pozostaje firmą skupioną przede wszystkim na dopracowanym produkcie. Choć Tim Cook zasłynął jako genialny logistyk, Ternus wnosi do gabinetu CEO bezpośrednie doświadczenie w tworzeniu technologii, która ukształtowała współczesny rynek.

    Sukcesja nie wydarzy się jednak z dnia na dzień. Plan, który rada dyrektorów przyjęła jednogłośnie, zakłada długi okres przejściowy. Do 1 września 2026 roku Tim Cook pozostanie u władzy, pełniąc rolę mentora dla swojego następcy. Ten czas ma służyć płynnemu wdrożeniu Ternusa w skomplikowane procesy zarządzania globalną korporacją oraz nawiązaniu relacji z kluczowymi zespołami. Dzięki takiemu podejściu Apple unika typowych dla dużych firm turbulencji, które często towarzyszą zmianie lidera.

    Co istotne, Tim Cook nie odchodzi z firmy na emeryturę. Po przekazaniu funkcji CEO obejmie stanowisko prezesa wykonawczego rady dyrektorów. W nowej roli skupi się na tym, w czym jest obecnie bezkonkurencyjny – na dyplomacji korporacyjnej, kontaktach z politykami oraz wspieraniu strategicznych decyzji Apple. To strategiczny ruch, który pozwoli firmie zachować autorytet Cooka na arenie międzynarodowej, jednocześnie dając nowemu liderowi przestrzeń do działania.

    Zmienia się również układ sił w niższych strukturach zarządzania. Miejsce Ternusa w dziale sprzętowym natychmiast zajmuje Johny Srouji, architekt sukcesu własnych procesorów Apple. Ta zmiana wchodzi w życie już teraz, co zapewnia ciągłość pracy nad nowymi urządzeniami bez czekania na finał sukcesji w 2026 roku.

    1 września 2026 roku John Ternus oficjalnie otworzy nowy rozdział w historii firmy, ale dzięki obecnej strategii, dla większości klientów i partnerów zmiana ta będzie niemal niezauważalna. Wyraźnie widać, że stabilność i przewidywalność pozostają w Cupertino najwyższą wartością.

  • Creotech Quantum debiutuje na GPW. Pierwsza taka spółka w Europie

    Creotech Quantum debiutuje na GPW. Pierwsza taka spółka w Europie

    Debiut Creotech Quantum na głównym parkiecie Giełdy Papierów Wartościowych w Warszawie to moment o znaczeniu wykraczającym poza lokalny rynek kapitałowy. To sygnał, że europejski sektor deep tech przestaje być domeną wyłącznie laboratoriów i funduszy venture capital, a zaczyna szukać walidacji na publicznym rynku. Jako pierwsza w Europie publiczna spółka koncentrująca się na technologiach kwantowych, Creotech rzuca rękawicę amerykańskim graczom, którzy na nowojorskich giełdach od lat operują wycenami idącymi w miliardy dolarów.

    Strategia prezes Anny Kamińskiej opiera się na pragmatycznym przejściu od fazy badawczej do twardej komercjalizacji. Centralnym punktem tego planu jest system kwantowej dystrybucji klucza (QKD), którego rynkowy debiut spółka zapowiada jeszcze na ten rok. W dobie narastających obaw o cyberbezpieczeństwo i potencjalną zdolność komputerów kwantowych do łamania klasycznych szyfrów, QKD oferuje rozwiązanie oparte na prawach fizyki, a nie tylko złożoności algorytmów. Dla sektorów takich jak finanse, logistyka czy obronność, nie jest to już tylko futurystyczna wizja, ale realne narzędzie ochrony danych.

    Siła spółki tkwi w umiejętnej dywersyfikacji i synergii z macierzystym Creotech Instruments. Creotech Quantum nie ogranicza się do teorii; dostarcza infrastrukturę niezbędną do budowy ekosystemu kwantowego. Portfolio obejmujące precyzyjne systemy synchronizacji czasu White Rabbit oraz szybkie kamery CMOS do monitorowania procesorów kwantowych pozycjonuje firmę jako kluczowego dostawcę komponentów. Co więcej, ambicje sięgają orbity – współpraca przy systemach QKD z przestrzeni kosmicznej może dać spółce unikalną przewagę konkurencyjną w skali globalnej.

    Inwestorzy muszą jednak pamiętać, że rynek kwantowy to gra długodystansowa i wyjątkowo kapitałochłonna. Choć debiut jest sukcesem wizerunkowym, prawdziwym testem będzie dowiezienie zapowiedzianych wdrożeń komercyjnych. Jeśli Creotech Quantum skutecznie skomercjalizuje swoje systemy w nadchodzących miesiącach, może stać się wzorcem dla innych europejskich graczy technologicznych, którzy dotąd z rezerwą podchodzili do giełdowych parkietów. Stawka jest wysoka: chodzi nie tylko o stopy zwrotu, ale o to, czy Europa zdoła zbudować własne filary w najbardziej kluczowym obszarze technologicznym XXI wieku.

  • Paweł Pisarczyk rezygnuje z funkcji prezesa Atende Industries

    Paweł Pisarczyk rezygnuje z funkcji prezesa Atende Industries

    Decyzja Pawła Pisarczyka o ustąpieniu ze stanowiska prezesa Atende Industries, ogłoszona 16 kwietnia 2026 roku, to ruch, który odzwierciedla rosnące znaczenie głębokich technologii (deep-tech) w architekturze nowoczesnego biznesu. Pisarczyk, od lat będący technologicznym wizjonerem grupy Atende, przechodzi do Rady Nadzorczej spółki, aby w pełni skoncentrować siły na rozwoju Phoenix Systems.

    Kluczem do tej zmiany jest Phoenix-RTOS – autorski system operacyjny czasu rzeczywistego, który staje się fundamentem dla nowej generacji systemów krytycznych. Projekt ten wchodzi właśnie w kluczową fazę skalowania, znajdując zastosowanie w sektorach o najwyższym stopniu skomplikowania: od nowoczesnych pojazdów bezzałogowych, przez inteligentną energetykę, aż po systemy kosmiczne.

    Dla Atende Industries, wiodącego dostawcy rozwiązań Smart Grid i IoT, zmiana ta oznacza naturalną ewolucję. Spółka dysponuje dziś dojrzałym portfolio produktów, które pozwalają na płynną sukcesję operacyjną. Obecność Pisarczyka w Radzie Nadzorczej zapewni kontynuację wizji technologicznej, jednocześnie uwalniając jego potencjał inżynieryjny do pracy nad rozwiązaniem, które ma szansę stać się standardem w urządzeniach nowej generacji.

    Ruch ten należy interpretować jako dojrzałą strategię specjalizacji. Podczas gdy Atende Industries koncentruje się na wdrażaniu zaawansowanych systemów dla przemysłu, Phoenix Systems pod wodzą Pisarczyka ma ambicję stać się „intelektualnym sercem” europejskiego hardware’u.

  • Praca w IT dla początkujących: AI szansą zamiast zagrożenia

    Praca w IT dla początkujących: AI szansą zamiast zagrożenia

    Przez ostatnie lata sektor technologiczny wysyłał początkującym programistom jeden, czytelny sygnał: nie ma dla was miejsca. Koniec ery taniego pieniądza, wymuszona przez pandemię praca zdalna oraz ekspansja modeli LLM, które bezbłędnie generują powtarzalny kod, niemal wymazały oferty pracy typu entry-level. Dane z raportów No Fluff Jobs i Just Join IT za lata 2025/2026 są bezlitosne – udział ofert dla juniorów w polskim rynku spadł poniżej 5%.

    Jednak dziś, paradoksalnie, to właśnie sztuczna inteligencja, która odebrała juniorom proste zadania implementacyjne, staje się ich największą szansą na powrót do gry.

    Architekci zamiast budowniczych

    W tradycyjnym modelu rozwoju, junior spędzał pierwsze lata kariery na „murowaniu ścian” – pisaniu prostych, powtarzalnych modułów. Dziś te zadania wykonują agenty AI. Eksperci z krakowskiego software house’u Miquido zauważają jednak, że zmiana ta przesuwa punkt ciężkości z umiejętności technicznych na kompetencje koncepcyjne. 

    Piotr Polus, Head of Technology z Miquido, argumentuje, że granica między poziomami doświadczenia zaczyna się zacierać. Skoro AI potrafi wygenerować strukturę projektu i napisać kod, kluczową rolę przejmuje osoba, która potrafi tymi narzędziami zarządzać. W nowym paradygmacie juniorzy nie muszą już być biegłymi rzemieślnikami konkretnego stosu technologicznego; muszą natomiast stać się architektami rozwiązań, którzy potrafią myśleć projektowo.

    Narodziny „inżyniera 2030”

    Rynek zaczyna dostrzegać unikalną przewagę młodych kadr: status „AI-natives”. Dla pokolenia wchodzącego na rynek w 2026 roku, współpraca z modelami językowymi jest naturalnym odruchem, a nie koniecznością adaptacji. Firmy takie jak Miquido, które przez lata ograniczały rekrutację początkujących, wracają do zatrudniania juniorów, stosując jednak zupełnie nowe kryteria – tzw. profil „inżyniera 2030”.

    Zamiast biegłości w jednym języku programowania, poszukiwana jest interdyscyplinarność, elastyczność i umiejętność promptowania. Strategia ta opiera się na tworzeniu tandemów junior-senior, gdzie młodzi pracownicy wnoszą świeżość w obsłudze najnowszych narzędzi AI, a doświadczeni eksperci zapewniają niezbędny nadzór nad logiką biznesową i bezpieczeństwem systemów.

    Dla biznesu płynie z tego jasny wniosek: inwestycja w juniorów przestaje być formą kosztownego mecenatu, a staje się sposobem na zachowanie zwinności technologicznej. Przetrwają ci, którzy zamiast uczyć się składni kodu, nauczą się zarządzać inteligencją, która ten kod pisze.