Tag: Jensen Huang

  • Trump powołuje gigantów tech do rady AI: Brin, Su i Huang w PCAST

    Trump powołuje gigantów tech do rady AI: Brin, Su i Huang w PCAST

    Decyzja prezydenta Donalda Trumpa o powołaniu Marka Zuckerberga, Jensena Huanga i Larry’ego Ellisona do Prezydenckiej Rady Doradców ds. Nauki i Technologii (PCAST) to sygnał, że administracja rezygnuje z roli surowego arbitra na rzecz partnera biznesowego, a Waszyngton oficjalnie uznaje AI za najważniejsze pole bitwy w strategicznej rywalizacji z Chinami.

    Skład rady przypomina listę gości najbardziej ekskluzywnej konferencji technologicznej świata. Obok liderów Mety, Nvidii i Oracle, w grupie znaleźli się Sergey Brin z Alphabetu oraz Lisa Su z AMD. Obecność tych nazwisk przy jednym stole z Davidem Sacksem, pełniącym funkcję „cara” ds. AI i krypto, sugeruje nową erę pragmatyzmu. Zamiast budować bariery regulacyjne, Biały Dom chce je demontować, co Trump zasygnalizował już w pierwszych dniach urzędowania, zlecając przygotowanie planu przyspieszenia innowacji.

    Wybór Boba Mumgaarda z Commonwealth Fusion Systems do tego grona wskazuje dodatkowo, że administracja dostrzega nierozerwalny związek między rozwojem sztucznej inteligencji a koniecznością zapewnienia gigantycznych zasobów czystej energii, niezbędnych do zasilania centrów danych przyszłości.

    To partnerstwo niesie jednak ze sobą istotne pytania o przejrzystość i wpływ wielkich korporacji na politykę państwa. Podczas gdy Zuckerberg i Huang publicznie deklarują chęć wzmacniania pozycji USA, inni, jak Oracle czy Alphabet, zachowują na razie powściągliwość. Niemniej, powołanie rady kończy okres niepewności co do kierunku, w którym podąży amerykańska legislacja w obszarze tech.

    Kierunek jest jasny: deregulacja, dominacja rynkowa i ścisła symbioza między Doliną Krzemową a Pensylvania Avenue. W wyścigu o prymat w dziedzinie AI, Stany Zjednoczone właśnie postawiły na swoich najsilniejszych graczy, licząc, że ich prywatny interes okaże się tożsamy z interesem narodowym.

  • Jensen Huang w Pekinie. Nvidia odbudowuje pozycję na chińskim rynku AI

    Jensen Huang w Pekinie. Nvidia odbudowuje pozycję na chińskim rynku AI

    Jensen Huang, CEO Nvidii, pojawił się w Pekinie w jednym z najbardziej symbolicznych momentów dla globalnego rynku AI. Jego obecność — już trzecia w Chinach w tym roku — zbiega się z informacją o wznowieniu sprzedaży chipów H20 w Państwie Środka. Dla największego na świecie producenta procesorów AI to nie tylko sukces handlowy, ale i sygnał, że technologiczna dyplomacja USA–Chiny może wchodzić w fazę deeskalacji.

    Chiny to jeden z największych rynków AI na świecie, a zapotrzebowanie na moc obliczeniową — stale rosnące. Choć amerykańskie restrykcje eksportowe miały na celu ograniczenie dostępu Pekinu do najbardziej zaawansowanych układów, rzeczywistość biznesowa wymusiła korektę kursu. Decyzja o dopuszczeniu Nvidii do ponownej sprzedaży chipów H20 została powiązana z szerszymi negocjacjami handlowymi, w tym rozmowami o ziemiach rzadkich — surowcach kluczowych dla przemysłu technologicznego.

    Huang, który w swoich wypowiedziach komplementował chińskie modele AI jako „światowej klasy”, nie ukrywał, że dla amerykańskich firm „zakorzenienie się w Chinach” to konieczność. Nvidia nie tylko wraca do sprzedaży układów H20, ale zapowiedziała także prace nad nowym chipem RTX Pro GPU — zaprojektowanym z myślą o zgodności z obowiązującymi ograniczeniami eksportowymi.

    Zainteresowanie nowymi chipami potwierdzają zamówienia, które – zanim trafią do klientów – muszą uzyskać zgodę rządu USA. Wśród zainteresowanych mają być m.in. Tencent i ByteDance, choć ten drugi oficjalnie zaprzecza.

    Dla Nvidii chiński rynek to nie tylko źródło przychodów, ale też strategiczna przestrzeń testowania kompromisów między innowacją a geopolityką. Firma balansuje na cienkiej linii między dwiema największymi gospodarkami świata, próbując jednocześnie utrzymać globalną pozycję lidera technologii AI.

    Powrót do Chin w ograniczonej formule to znak czasu: nawet w epoce napięć technologicznych i kontroli eksportu, innowacja — szczególnie w AI — wciąż znajduje drogę.

  • Nvidia inwestuje 500 miliardów dolarów w amerykańskie AI. Gigant przenosi produkcję

    Nvidia inwestuje 500 miliardów dolarów w amerykańskie AI. Gigant przenosi produkcję

    Nvidia ogłosiła ambitny plan zainwestowania 500 miliardów dolarów w infrastrukturę sztucznej inteligencji na terenie Stanów Zjednoczonych w ciągu najbliższych czterech lat. Decyzja ta, podjęta we współpracy z partnerami takimi jak TSMC, wpisuje się w globalny trend relokacji produkcji technologicznej bliżej rynków docelowych.

    Strategiczne przesunięcie produkcji

    Kluczowym elementem planu Nvidii jest przeniesienie produkcji zaawansowanych chipów AI Blackwell do fabryki TSMC w Arizonie. Dodatkowo, firma planuje rozbudowę zakładów produkujących superkomputery w Teksasie, we współpracy z Foxconn i Wistron. Te działania mają na celu dywersyfikację łańcucha dostaw i zmniejszenie zależności od produkcji na Tajwanie, co w obecnej geopolitycznej sytuacji jest kluczowe

    Reakcja na geopolityczne napięcia

    Decyzja Nvidii jest również postrzegana jako odpowiedź na rosnące napięcia handlowe i potencjalne cła, które mogłyby zostać nałożone przez administrację Donalda Trumpa. Przeniesienie produkcji do USA ma na celu zabezpieczenie firmy przed ewentualnymi negatywnymi skutkami polityki handlowej.

    Nvidia
    źródło: Nvidia

    Wpływ na amerykański rynek pracy

    Inwestycja Nvidii ma przynieść setki tysięcy nowych miejsc pracy w sektorze technologicznym w nadchodzących dekadach. To strategiczne posunięcie nie tylko wzmocni pozycję USA jako lidera w dziedzinie AI, ale także przyczyni się do rozwoju lokalnej gospodarki.

    TSMC i strategiczne partnerstwa

    Współpraca Nvidii z TSMC, największym na świecie producentem chipów, jest kluczowa dla realizacji planów. TSMC zapowiedziało dodatkowe inwestycje w USA, w tym budowę nowych fabryk, co podkreśla strategiczne znaczenie amerykańskiego rynku dla globalnego przemysłu półprzewodnikowego.

    Inwestycja Nvidii w USA to nie tylko reakcja na bieżące wyzwania, ale także długoterminowa strategia mająca na celu wzmocnienie pozycji firmy na rynku AI. Przeniesienie produkcji bliżej rynków docelowych, dywersyfikacja łańcucha dostaw i tworzenie nowych miejsc pracy to kluczowe elementy tej strategii. Decyzja ta może mieć znaczący wpływ na globalny rynek technologiczny i pozycję USA jako lidera w dziedzinie sztucznej inteligencji.

  • Kluczowe ogłoszenia z Nvidia GTC 2025: Przyszłość AI, superchipów i strategicznych inwestycji

    Kluczowe ogłoszenia z Nvidia GTC 2025: Przyszłość AI, superchipów i strategicznych inwestycji

    Nvidia, Intel i AI – co naprawdę dzieje się na rynku chipów?

    Nvidia ponownie znajduje się w centrum uwagi technologicznego świata, odpierając spekulacje dotyczące potencjalnego zaangażowania w konsorcjum przejmujące udziały Intela. Jednocześnie firma intensyfikuje inwestycje w produkcję półprzewodników w USA i umacnia swoją pozycję na rynku AI, prezentując nowe układy Blackwell oraz rozszerzając strategiczne partnerstwa.

    Czytaj więcej – Nvidia rozwiewa plotki o Intelu i stawia na rozwój w USA

    GTC 2025: Lenovo wprowadza nowe rozwiązania AI dla biznesu

    Lenovo, we współpracy z NVIDIĄ, zaprezentowało podczas konferencji GTC 2025 nowe rozwiązania Hybrid AI Advantage, łączące agentową i hybrydową sztuczną inteligencję w celu przyspieszenia wdrożeń i zwiększenia efektywności biznesowej. Dzięki integracji z platformą NVIDIA Blackwell Ultra firma chce uczynić AI bardziej dostępną, skalowalną i opłacalną dla różnych branż.

    Czytaj więcej – Lenovo i NVIDIA łączą siły – hybrydowa AI przyspieszy wdrożenia

    Huang o optyce w GPU: 'To nie jest tego warte’. Nvidia stawia na stabilność

    Nvidia nie spieszy się z rewolucją w połączeniach chipowych. Choć optyka w pakiecie obiecuje wyższą wydajność i mniejsze zużycie energii, Jensen Huang jasno daje do zrozumienia – flagowe GPU firmy wciąż będą polegać na sprawdzonych, niezawodnych połączeniach miedzianych.

    Czytaj więcej – Optyka przyszłością AI, ale nie GPU. Nvidia gra ostrożnie

    Inwestorzy z nadzieją patrzą na konferencję NVIDIA GTC AI 2025, licząc, że nowe ogłoszenia przywrócą dynamikę sektorowi obliczeń kwantowych i sztucznej inteligencji. W oczekiwaniu na kluczowe prezentacje akcje firm technologicznych poszły w górę, co może zwiastować ożywienie na rynku.

    Czytaj więcej – NVIDIA rozbudza nadzieje inwestorów – skok akcji AI i obliczeń kwantowych

  • Optyka przyszłością AI, ale nie GPU. Nvidia gra ostrożnie

    Optyka przyszłością AI, ale nie GPU. Nvidia gra ostrożnie

    Podczas konferencji GTC 2025 w San Jose, Jensen Huang, CEO Nvidia, zaprezentował nową strategię firmy dotyczącą wykorzystania co-packaged optics – technologii, która w teorii może znacząco zwiększyć efektywność energetyczną chipów. Choć Nvidia zamierza zastosować to rozwiązanie w swoich układach sieciowych, Huang jednoznacznie zaznaczył, że flagowe GPU firmy wciąż będą polegać na sprawdzonych połączeniach miedzianych. Powód? Niezawodność.

    „To nie jest tego warte” – powiedział Huang, odnosząc się do pomysłu bezpośredniego stosowania optyki w połączeniach między układami GPU. „Miedź jest o wiele lepsza.” Jego wypowiedź stanowi wyraźny sygnał, że choć technologia optyczna może stanowić przyszłość, obecnie jej implementacja na większą skalę jest jeszcze poza zasięgiem.

    Co-packaged optics: obietnice i ograniczenia

    Co-packaged optics (CPO) wykorzystuje wiązki laserowe do przesyłania danych na kablach światłowodowych między chipami, oferując wyższą przepustowość i znacznie lepszą efektywność energetyczną niż tradycyjne połączenia miedziane. Startupy takie jak Ayar Labs, Lightmatter i Celestial AI intensywnie pracują nad obniżeniem kosztów i zwiększeniem niezawodności tej technologii, przyciągając setki milionów dolarów kapitału inwestycyjnego – w tym również środki od samej Nvidii.

    Jednak dla Nvidia kluczową barierą pozostaje stabilność. „Połączenia co-packaged optics są obecnie znacznie mniej niezawodne niż tradycyjne połączenia miedziane” – podkreślił Huang. Firma musi dostarczać sprawdzoną technologię swoim kluczowym klientom, takim jak OpenAI czy Oracle, którzy budują infrastrukturę AI wartą setki miliardów dolarów. W tym kontekście eksperymentowanie z rozwiązaniami, które nie są jeszcze w pełni dojrzałe, nie wchodzi w grę.

    Dlaczego miedź nadal rządzi?

    Obecne flagowe produkty Nvidii, takie jak układ Grace Hopper, zawierają do 72 chipów w jednym serwerze, zużywając 120 kilowatów energii. Nowa generacja, zaplanowana na 2027 rok, ma zmieścić setki chipów Vera Rubin Ultra w pojedynczym stojaku, wymagając aż 600 kilowatów. Rosnąca skala obliczeń AI wymusza efektywne zarządzanie połączeniami między układami – a to, według Huanga, wciąż najlepiej realizuje sprawdzona technologia miedziana.

    Jednym z głównych problemów połączeń miedzianych jest ich ograniczony zasięg – dane mogą być przesyłane tylko na kilka metrów. W kontekście budowy ogromnych klastrów AI jest to poważne wyzwanie. Ale Nvidia postawiła na strategię polegającą na utrzymywaniu jak największej liczby chipów w obrębie tego ograniczonego zasięgu, zamiast przechodzić na optyczne połączenia na dłuższym dystansie.

    Przyszłość: optyka, ale nie dziś

    Mimo sceptycyzmu Huanga co do natychmiastowego wdrożenia optyki w flagowych GPU, Nvidia już teraz wprowadza ją w infrastrukturze sieciowej. Nowe układy przełączników, zapowiedziane na 2024 i 2026 rok, będą wykorzystywać co-packaged optics, co ma sprawić, że będą 3,5 razy bardziej energooszczędne niż ich poprzednicy. To pierwsze kroki w stronę wdrożenia technologii na szerszą skalę.

    Dla Nvidii kluczowym czynnikiem pozostaje strategia minimalizowania ryzyka. Firma nie zamierza eksperymentować kosztem stabilności dostaw dla gigantów AI, którzy w nadchodzących latach zainwestują w infrastrukturę obliczeniową setki miliardów dolarów. Choć optyka w pakiecie może być przyszłością, Nvidia nie zamierza rezygnować z miedzi – przynajmniej na razie.

  • Prezes Nvidia: „halucynacje” sztucznej inteligencji da się naprawić

    Prezes Nvidia: „halucynacje” sztucznej inteligencji da się naprawić

    W niedawnym wystąpieniu na konferencji deweloperskiej Nvidia GTC, Jensen Huang, szef Nvidia, podkreślił kluczowe kwestie dotyczące niezawodności i wiarygodności oprogramowania AI, wskazując jednocześnie na przyszłe kierunki rozwoju technologii. Według Huanga, centralnym problemem w dziedzinie sztucznej inteligencji są tzw. halucynacje AI, czyli sytuacje, w których systemy generatywne, takie jak chatboty, produkują nieprawdziwe lub zmyślone informacje. Huang określił ten problem jako „bardzo rozwiązywalny”, sugerując, że kluczem może być umożliwienie oprogramowaniu sprawdzania swoich danych wyjściowych.

    Jednym z najnowszych osiągnięć Nvidii, które zostało zaprezentowane na GTC, jest wprowadzenie nowej generacji platformy komputerowej o nazwie Blackwell. Ma ona znacząco zwiększyć wydajność aplikacji AI, co jest kolejnym krokiem firmy w kierunku umacniania jej pozycji jako kluczowego gracza na rynku sztucznej inteligencji.

    Wizja przyszłości programowania wg Nvidia

    Huang podzielił się również swoją wizją, według której sztuczna inteligencja będzie w stanie uwolnić ludzi od konieczności pisania kodu. W erze, w której powszechnie mówi się, że każdy powinien nauczyć się programować, Huang stoi na stanowisku, że nie jest to konieczne. Zamiast tego podkreśla, że kluczowe będzie nauczenie się formułowania poprawnych żądań do oprogramowania AI, aby uzyskać pożądane wyniki. Porównuje to do codziennej komunikacji międzyludzkiej, wskazując na naturalność i skuteczność takiej interakcji.

    AI a ludzka przyszłość

    Oprócz aspektów technologicznych i programistycznych, Huang porusza również kwestie przewagi sztucznej inteligencji nad ludzkimi zdolnościami w różnych dziedzinach. Przewiduje, że w ciągu kilku lat AI przewyższy ludzi w takich obszarach jak matematyka czy prawo, a nawet w rozumieniu tekstów. Ta wizja jest ściśle związana z bieżącą debatą na temat osiągnięcia przez oprogramowanie poziomu ogólnej sztucznej inteligencji (AGI), która byłaby w stanie generalizować i przewyższać ludzi w szerszym zakresie zadań.

    Debata na temat AGI jest intensywna i pełna różnorodnych opinii. Nie istnieje jedna definicja AGI, na którą wszyscy by się zgodzili, co dodatkowo komplikuje dyskusję. Jednak postępy technologiczne, takie jak przedstawione przez Huanga, wskazują na kierunki, w jakich prace nad sztuczną inteligencją mogą się rozwijać.

    Wypowiedzi Jensena Huanga na GTC rzucają światło na przyszłość sztucznej inteligencji i jej wpływ na różne aspekty życia oraz pracy. Rozwiązanie problemów związanych z niezawodnością AI, wizja programowania w erze sztucznej inteligencji oraz potencjał AI do przewyższenia ludzkich zdolności w pewnych dziedzinach to tylko niektóre z tematów, które stanowią podstawę do dalszych dyskusji i rozwoju technologii. Rozwój platform takich jak Blackwell Nvidii zapowiada nową erę w sztucznej inteligencji, która może zrewolucjonizować sposób, w jaki żyjemy i pracujemy.

  • Niespotykany szczyt technologicznych gigantów. Czy doszli do wspólnych wniosków w kwestii AI?

    Niespotykany szczyt technologicznych gigantów. Czy doszli do wspólnych wniosków w kwestii AI?

    Jednym z najważniejszych tematów podniesionych podczas spotkania była potrzeba regulacji AI. Wszyscy uczestnicy zgodzili się, że rząd powinien odegrać rolę w nadzorze nad rozwijającą się technologią. Elon Musk zasugerował nawet utworzenie niezależnej agencji federalnej do nadzoru nad AI.

    Jednakże, jak zauważył senator Schumer, droga do legislacyjnej regulacji jest trudna i pełna wyzwań. Jest to szczególnie ważne w kontekście globalnej rywalizacji, gdzie Stany Zjednoczone muszą wyprzedzić kraje takie jak Chiny w wykorzystaniu AI.

    Lista obecności, podczas szczytu:

    • Sam Altman, dyrektor generalny OpenAI
    • Bill Gates, założyciel Microsoftu
    • Jensen Huang, dyrektor generalny Nvidii
    • Arvind Krishna, dyrektor generalny IBM
    • Elon Musk, właściciel X i założyciel Tesli
    • Satya Nadella, dyrektor generalny Microsoftu
    • Sundar Pichai, dyrektor generalny Alphabet (Google)
    • Deborah Raji, badaczka z Berkley University
    • Eric Schmidt, były dyrektor generalny Google
    • Mark Zuckerberg, dyrektor generalny Meta

    Open Source i zagrożenia

    Kwestia technologii AI typu open source również wywołała dyskusję. Mark Zuckerberg podkreślił, że open source zapewnia demokratyczny dostęp do AI, ale jednocześnie otwiera drzwi dla potencjalnych nadużyć. Na przykład, Centrum Technologii Humanitarnych znalazło już sposób na stworzenie niebezpiecznego składu biologicznego modelu Meta Llama 2.

    Społeczne implikacje

    Nie można zapomnieć o społecznych implikacjach AI, takich jak utrata miejsc pracy i wpływ na wybory. Bill Gates zwrócił uwagę na potencjalne korzyści, takie jak walka z głodem na świecie, ale równocześnie istnieje obawa o deepfake’i i ich wpływ na przyszłe wybory w USA.

    Krytyka i ostrzeżenia

    Spotkanie nie obyło się bez krytyki. Republikanin Josh Hawley nazwał je „gigantycznym przyjęciem koktajlowym dla Big Tech”, podkreślając, że opinia publiczna została wykluczona ze spotkania. Ponadto, istnieje obawa, że interesy dużych korporacji mogą zdominować dyskusję na temat regulacji AI.

    AI Insight Forum to ważny krok w kierunku zrozumienia i adresowania wyzwań i możliwości, jakie niesie ze sobą AI. Jednakże, jak zauważyła badaczka Deborah Raji, ważne jest, aby różne głosy były słyszane w tej dyskusji. Ostateczne decyzje w kwestii regulacji AI będą miały długotrwałe implikacje, zarówno pozytywne, jak i negatywne, dla społeczeństwa na całym świecie.