chiński Deepseek

Chiński Deepseek zdał swój test adopcji na szeroki rynek AI

W styczniu 2025 roku chiński DeepSeek wywołał trzęsienie ziemi, prześcigając innych gigantów AI pod względem zainteresowania. 

Jego model AI, DeepSeek-R1, nie tylko dorównuje wydajnością flagowym produktom OpenAI czy Google, ale robi to przy ułamku kosztów i zużycia energii . Osiągnięcie podważyło jedno z fundamentalnych założeń branży: że postęp w technologii wymaga coraz większych nakładów na sprzęt i infrastrukturę. Jak to możliwe? I dlaczego ten przełom przypomina rewolucję w świecie superkomputerów?  

Tradycyjnie rozwój technologii opierał się na prostym schemacie, który skupiał się w głównej mierze na udoskonaleniu sprzętu (procesorów, pamięci), który pozwalał na tworzenie bardziej złożonego oprogramowania. Im lepszy hardware, tym więcej „bajerów” mogli dodać programiści, często kosztem efektywności. Jak zauważył jeden z inżynierów: „Software jest jak gaz – rozpręża się, aby wypełnić dostępną przestrzeń”. Przykładem takich działań są aplikacje mobilne, które 10 lat temu zajmowały kilkadziesiąt MB, dziś pochłaniają gigabajty, wymagając coraz droższych smartfonów.  

DeepSeek łamie ten schemat. Jego model, oparty na architekturze Mixture of Experts (MoE), aktywuje tylko 37 miliardów parametrów z łącznej puli 671 miliardów podczas przetwarzania zapytań. Dla porównania, modele takie jak Llama używają wszystkich parametrów, generując astronomiczne koszty obliczeniowe . Efektem czego DeepSeek-R1 osiąga wyniki porównywalne z GPT-4o, ale kosztuje blisko 30 razy mniej tokenów do przetwarzania danych.  

DeepSeek nie jest pierwszym przypadkiem, gdzie optymalizacja oprogramowania przeważyła nad czystą mocą obliczeniową. W świecie high-performance computing (HPC), gdzie superkomputery jak El Capitan (najpotężniejszy system na świecie) kosztują setki milionów dolarów, inżynierowie od dekad skupiają się na „wyciskaniu” maksimum z każdego cyklu procesora.  

„Komitety oceniające projekty badawcze wybierają tylko te, które efektywnie wykorzystają czas maszyny” – tłumaczy Gina Norling weteranka branży HPC z Minnesoty. Podobnie jak El Capitan, który zużywa energię równą zużyciu 10 000 gospodarstw domowych, współczesne AI wymagało dotąd gigantycznych zasobów. DeepSeek pokazuje, że można inaczej: jego model V3 wytrenowano za jedyne 5,6 mln dolarów, używając zaledwie 2048 chipów Nvidia H800 – to 8x mniej, niż zakładali eksperci .  

Ogłoszenie DeepSeek natychmiast odbiło się na amerykańskiej giełdzie. Akcje Nvidii, lidera w produkcji GPU dla AI, spadły o 17%, a inwestorzy zaczęli kwestionować, czy firma utrzyma dominację w erze efektywnych modeli . Paradoksalnie, zgodnie z paradoksem Jevonsa, ta sama efektywność może jednak napędzić popyt na sprzęt. Gdy w latach 90. komputery staniały, ich sprzedaż wystrzeliła, podobnie dziś tanie AI może zwiększyć zapotrzebowanie na usługi oparte na chmurze i edge computing .  

DeepSeek to nie tylko kolejny model AI. To sygnał, że branża technologiczna wkracza w erę zrównoważonej innowacji, gdzie liczy się nie tylko moc, ale i pomysłowość. Podobnie jak w latach 90. komputery przestały być zabawką dla elit, tak dziś AI staje się narzędziem dostępnym dla wszystkich.  

Czy oznacza to koniec dominacji Nvidii czy OpenAI? Raczej początek nowego wyścigu, który tym razem będzie oparty o efektywność i adaptacje do warunków rynkowych, a nie samych nakładów finansowych efektywność, transparentność i adaptację do lokalnych rynków. 

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 30.04.2025.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się