układy do wnioskowania AI

Qualcomm rozwija energooszczędne układy do wnioskowania AI

Qualcomm rzuca rękawicę Nvidii, wykorzystując wzrost zapotrzebowania na energooszczędne układy do wnioskowania AI w centrach danych.

Wyobraź sobie rynek wart biliony dolarów, na którym jedna firma kontroluje prawie 90% działań, a następnie wyobraź sobie sprawdzoną potęgę technologiczną, która wkracza na scenę z obietnicami inteligentniejszych i bardziej ekologicznych alternatyw. Taka sytuacja ma miejsce, gdy Qualcomm, od dawna król procesorów mobilnych, przedstawia nową linię akceleratorów AI, skierowaną bezpośrednio do bastionu centrów danych firmy Nvidia.

Pod koniec października firma z San Diego zaprezentowała układy AI200 i AI250, dostosowane do gwałtownego wzrostu popytu na wnioskowanie AI, czyli fazę przetwarzania danych przez sztuczną inteligencję, w której modele dostarczają rzeczywiste wyniki, takie jak odpowiedzi na czacie lub tworzenie obrazów. Posunięcie sygnalizuje dywersyfikację działalności w obliczu presji na rynku smartfonów i chęć wykorzystania boomu na centra danych, który według prognoz pochłonie 7 bilionów dolarów inwestycji do 2030 r.

Qualcomm rzuca się na głęboką wodę poprzez oferowanie rozwiązań na szeroką skalę, które łączą dziesiątki chipów w gotowe do wdrożenia jednostki serwerowe, a także samodzielne opcje do niestandardowych konfiguracji. AI200 trafi do sprzedaży w 2026 r. i będzie wyposażony w ogromną pamięć LPDDR o pojemności 768 GB na kartę, która pozwoli na wydajną obsługę zadań AI wymagających dużej ilości pamięci. W 2027 r. pojawi się jej ulepszony model AI250. Akcje Qualcomm wzrosły tego dnia o ponad 20% przebijając barierę 200 dolarów za akcje, odzwierciedlając optymizm co do źródeł przychodów poza telefonami komórkowymi. Obecnie akcje są w lekkiej korekcie po ogromnych wzrostach utrzymując się w okolicach 181 dolarów za akcje.

Firmę wyróżnia ekosystem w postaci oprogramowania, które upraszcza wdrażanie wstępnie wyszkolonych modeli, obniżając bariery dla programistów. Jednak pojawiają się wyzwania pod względem skalowalności produkcji w obliczu napięć w łańcuchu dostaw i udowodnienie niezawodności w masowej skali. Mimo to, dla firm obawiających się uzależnienia od Nvidii, Qualcomm oferuje elastyczność w postaci integracji typu plug-and-play bez konieczności przebudowy ekosystemu.

Szkolenie ogromnych modeli sztucznej inteligencji trafia na pierwsze strony gazet, ale to wnioskowanie jest motorem napędowym codziennych aplikacji, od silników rekomendacyjnych po systemy autonomiczne. Wraz ze wzrostem popularności ten segment przeżywa gwałtowny rozwój. Jego wartość do 2030 r. ma się potroić do 255 mld dolarów, napędzana wdrożeniami typu edge-to-cloud.

Qualcomm koncentruje się na wnioskowaniu AI, gdzie jego architektura zapewnia niskie opóźnienia i wysoką przepustowość przetwarzania, co przekłada się na szybsze odpowiedzi dla użytkowników. Wymagania w tym obszarze są zróżnicowane. Niektóre z zadań lepiej wykonują procesory graficzne Nvidii. Inne jednak procesory neuronowe Qualcomm, które pozwalają obniżyć koszty. Serwisy streamingowe codziennie generują miliony sugestii wideo, a rozwiązania Qualcomm optymalizują przepływ danych, znacząco redukując wydatki operacyjne.

Centra danych zużywają ogromne ilości energii elektrycznej. Oczekuje się, że do 2030 r. zużycie energii na całym świecie osiągnie 1400 terawatogodzin, co stanowi ilość porównywalną z zużyciem całych krajów. Procesory graficzne Nvidii wyróżniają się surową mocą, ale zużywają ogromne ilości energii. Qualcomm odpowiada na to projektami zoptymalizowanymi pod kątem wnioskowania, które obiecują niższe całkowite koszty posiadania dzięki lepszej optymalizacji w wykorzystaniu energii.

Wyniki testów porównawczych nie są jeszcze publicznie dostępne, ale wstępne prezentacje podkreślają zmniejszenie zużycia energii na operację wnioskowania, co ma kluczowe znaczenie w sytuacji, gdy sieci energetyczne są obciążone przez sztuczną inteligencję.

Żadne wprowadzenie na rynek nie odnosi sukcesu w pojedynkę. Nawiązanie współpracy z saudyjską firmą Humain, przedsięwzięciem AI z funduszu majątkowego, w celu dostarczenia 200 megawatów szaf serwerowych od 2026 roku. Humain, już zaopatrujący się w produkty Nvidii, AMD i Groq, dywersyfikuje swoją działalność, aby zbudować megaklastry, dostosowując się do dążenia krajów Zatoki Perskiej do rozwoju AI napędzanego złagodzeniem przepisów eksportowych USA w ramach ostatnich ustaleń.

G42 z Zjednoczonych Emiratów Arabskich planuje kampusy o mocy gigawatowej z technologią Cerebras. Qualcomm dzięki temu przedsięwzięciu zyska natychmiastową wiarygodność i przychody. Ryzyko obejmuje zmienność geopolityczną oraz zależność od ceny ropy. Pozycjonuje to firmę w regionie, gdzie fundusze z Bliskiego Wschodu inwestują miliardy w państwową sztuczną inteligencję.

Qualcomm dołącza jako specjalista w dziedzinie wnioskowania, potencjalnie zdobywając od 5-10% udziału w rynku do 2030 r., jeśli realizacja projektu będzie przebiegać pomyślnie. Otwarte ekosystemy sprzyjają innowacjom, a monopole je hamują. Rozwój Qualcomm podkreśla dojrzewającą sagę rozwoju AI, który powoli będzie przebijać monopol Nvidii.

Patrząc w przyszłość, można oczekiwać, że do 2030 r. dominować będzie wnioskowanie w skali rackowej, a Qualcomm zdobędzie znaczący udział dzięki partnerstwom i wiedzy technicznej, potencjalnie kompensując spadki w segmencie urządzeń mobilnych.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.03.2026.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się