DeepSeek V4 - Nowy, Chiński model nowej generacji z 1 milionowym oknem kontekstowym!
DeepSeek V4 wchodzi w wersjach Pro i Flash, z otwartymi wagami, kontekstem do miliona tokenów i agresywnym cennikiem API. Kluczowe pytanie brzmi: czy jest wystarczająco dobry i tani, by zmienić sposób budowania produktów AI?

DeepSeek wrócił do gry w bardzo swoim stylu: nie wielką konferencją i marketingową opowieścią o przyszłości, tylko modelem, który uderza tam, gdzie firmy naprawdę liczą pieniądze. DeepSeek V4 Preview ma otwarte wagi, dwa warianty, kontekst do miliona tokenów i ceny API, które od razu zmuszają do porównań z OpenAI, Anthropic i Google.
Nie chodzi wyłącznie o to, że model jest mocniejszy od poprzedników. Ciekawsze jest coś innego: DeepSeek próbuje pokazać, że długi kontekst i zadania agentowe nie muszą być luksusem zarezerwowanym dla najdroższych modeli.
Dla polskiego czytelnika, szczególnie z software house'u, działu IT, startupu albo firmy budującej własne narzędzia AI, to może być ważniejsze niż kolejna tabelka benchmarków.
Co dokładnie wypuścił DeepSeek
Nowa rodzina modeli składa się z dwóch głównych wariantów: DeepSeek-V4-Pro oraz DeepSeek-V4-Flash. Oba są dostępne przez chat DeepSeek, API oraz jako otwarte wagi na Hugging Face.
Różnica między nimi jest prosta:
- DeepSeek-V4-Pro to większy model do trudniejszych zadań: kodowania, analizy, rozumowania i pracy agentowej. Ma 1,6 bln parametrów łącznie i 49 mld aktywnych parametrów na token.
- DeepSeek-V4-Flash jest mniejszy, szybszy i tańszy. Ma 284 mld parametrów łącznie i 13 mld aktywnych parametrów.
To modele typu Mixture-of-Experts, więc przy generowaniu odpowiedzi aktywna jest tylko część całej sieci. W praktyce oznacza to, że producent może mieć bardzo duży model na papierze, ale nie płacić pełnym kosztem obliczeniowym przy każdym tokenie.
DeepSeek zapowiada też porządki w API. Nazwy deepseek-chat i deepseek-reasoner mają zostać całkowicie wyłączone po 24 lipca 2026 roku, a obecnie są mapowane na odpowiednie tryby modelu V4-Flash.
Milion tokenów kontekstu robi różnicę
Najbardziej medialna funkcja V4 to kontekst do miliona tokenów. Brzmi technicznie, ale sens jest prosty: model może naraz zobaczyć znacznie więcej tekstu, kodu albo dokumentów.
Dla firm to nie jest detal. Wiele wdrożeń AI rozbija się dziś nie o samą inteligencję modelu, tylko o brak pamięci operacyjnej. Asystent programisty nie widzi całego repozytorium. Bot obsługi klienta gubi wcześniejsze ustalenia. Narzędzie do analizy umów musi dostać fragmenty zamiast pełnego kompletu dokumentów.
Przy milionie tokenów można myśleć inaczej. Model może dostać większy kontekst projektu, długą dokumentację, historię zgłoszeń, obszerny raport albo paczkę plików bez ciągłego cięcia materiału na małe kawałki.
DeepSeek twierdzi, że osiągnął to dzięki zmianom w mechanizmie uwagi. Zamiast traktować cały stary kontekst tak samo, V4 kompresuje i selekcjonuje część informacji, zostawiając więcej zasobów na fragmenty najważniejsze dla bieżącego zadania.
Według karty modelu w ustawieniu miliona tokenów V4-Pro potrzebuje tylko 27% FLOP-ów inferencji jednego tokenu i 10% pamięci KV cache względem DeepSeek-V3.2. Jeśli te liczby potwierdzą się w praktycznych wdrożeniach, to nie jest kosmetyka. To różnica między fajnym demo a produktem, który da się utrzymać finansowo.
Cennik, który może zaboleć konkurencję
Drugi ważny element to cena. DeepSeek-V4-Flash kosztuje według publicznego cennika 0,14 USD za milion tokenów wejściowych bez trafienia w cache oraz 0,28 USD za milion tokenów wyjściowych.
DeepSeek-V4-Pro jest droższy, ale nadal agresywny cenowo: 1,74 USD za milion tokenów wejściowych i 3,48 USD za milion tokenów wyjściowych. Do końca maja 2026 roku DeepSeek pokazuje też promocyjną obniżkę dla Pro.
Dla polskich firm to ważny sygnał. Jeśli budujesz produkt AI na masowe użycie, różnica kilku dolarów na milion tokenów potrafi zdecydować, czy funkcja będzie dodatkiem premium, czy normalną częścią aplikacji.
Nie oznacza to, że DeepSeek będzie najlepszym wyborem do wszystkiego. Ale wymusza nowe pytanie: jeśli model jest wystarczająco dobry w danym zadaniu i dużo tańszy, to ile naprawdę warto dopłacać za model zamknięty z absolutnego topu?
Jak mocny jest V4 według niezależnych ocen
DeepSeek przedstawia V4-Pro jako najmocniejszy model open-weight w wielu zadaniach: kodowaniu, matematyce, STEM, długim kontekście i pracy agentowej. Firma porównuje go z najnowszymi modelami zamkniętymi i sugeruje, że dystans do ścisłej czołówki mocno się skurczył.
Warto jednak czytać te deklaracje z chłodną głową.
NIST, a dokładniej Center for AI Standards and Innovation (CAISI), opublikował zewnętrzną ocenę DeepSeek V4 Pro. Wnioski są ciekawe, ale bardziej wyważone niż narracja marketingowa. CAISI uznało V4 za najmocniejszy chiński model, jaki dotąd oceniano, ale jednocześnie oszacowało, że jego łączna zdolność nadal jest około osiem miesięcy za amerykańską czołówką.
W testach ukrytych albo niewystępujących w materiałach DeepSeek model wyglądał słabiej w części zadań abstrakcyjnego rozumowania, inżynierii oprogramowania i cyberbezpieczeństwa.
To nie przekreśla premiery. Wręcz przeciwnie: pokazuje realny obraz. DeepSeek V4 jest bardzo mocnym modelem z otwartymi wagami i świetną efektywnością kosztową. Nie jest magicznym dowodem, że cała przewaga modeli zamkniętych zniknęła z dnia na dzień.
Dlaczego programiści patrzą na V4 szczególnie uważnie
DeepSeek mocno podkreśla pracę agentową. V4 ma integracje i optymalizacje pod narzędzia takie jak Claude Code, OpenClaw czy OpenCode.
To ważne, bo asystenci programistyczni szybko przestają być prostymi chatbotami. Coraz częściej mają czytać repozytorium, planować zmiany, uruchamiać narzędzia, analizować błędy i poprawiać własne wyniki. Takie zadania spalają dużo tokenów i potrzebują długiego kontekstu.
Jeżeli tańszy model potrafi sensownie obsłużyć większość kroków takiego procesu, architektura produktu może wyglądać inaczej. V4-Flash może wykonywać rutynowe etapy, a V4-Pro albo inny mocniejszy model może włączać się tylko wtedy, gdy naprawdę trzeba trudnego rozumowania.
Dla zespołów budujących narzędzia AI to bardzo praktyczna zmiana. Nie chodzi o prestiż benchmarku, tylko o rachunek: ile kosztuje jedna sesja pracy agenta, ile trwa i jak często trzeba ją poprawiać ręcznie.
Co z Huawei, Nvidią i chińskimi układami
DeepSeek V4 to również historia o sprzęcie. Huawei poinformował, że jego systemy Ascend wspierają nowy model, a część mediów interpretuje premierę jako kolejny test niezależności chińskiej AI od Nvidii.
Nie warto jednak upraszczać tego do hasła, że Chiny już zastąpiły Nvidię. Według MIT Technology Review chińskie układy są dziś lepiej ustawione pod inferencję niż pełne trenowanie modeli frontierowych. V4 prawdopodobnie pokazuje raczej kierunek niż zakończoną migrację.
Mimo to kierunek jest istotny. Jeśli mocne modele będą działać coraz sprawniej na alternatywnym sprzęcie, presja cenowa może wzrosnąć w całym rynku. A to prędzej czy później dociera także do europejskich i polskich firm korzystających z API.
Na co uważać przed wdrożeniem
Największa pułapka przy DeepSeek V4 to zachwyt samą ceną. Tani token nie oznacza automatycznie taniego zadania. Przy kontekście miliona tokenów bardzo łatwo wysłać do modelu za dużo materiału i dopiero potem zobaczyć rachunek.
W praktyce warto pilnować trzech rzeczy:
- Budżetów tokenów dla agentów i długich zadań.
- Cache dla powtarzalnego kontekstu, np. dokumentacji lub repozytorium.
- Testów na własnych danych, bo benchmark nie powie, jak model poradzi sobie z Twoją bazą wiedzy, językiem branżowym czy stylem kodu.
Dochodzi jeszcze temat danych. Korzystanie z API DeepSeek to inna decyzja niż uruchomienie otwartych wag we własnej infrastrukturze. Przy kodzie źródłowym, danych klientów, medycynie, finansach czy dokumentach prawnych trzeba mieć jasną politykę bezpieczeństwa i zgodności.
Co to oznacza dla rynku
DeepSeek V4 raczej nie wywoła takiego szoku jak R1 w 2025 roku. Rynek jest już ostrożniejszy, a konkurencja zdążyła przyspieszyć.
Ale to może być bardziej praktyczna premiera. V4 nie musi być najlepszy w każdej tabeli, żeby zmienić zachowanie firm. Wystarczy, że będzie wystarczająco mocny, tani i elastyczny, by zespoły zaczęły projektować produkty pod długi kontekst oraz modele open-weight.
Dla użytkownika końcowego może to oznaczać więcej funkcji AI w zwykłych aplikacjach. Dla firm: niższy koszt eksperymentów. Dla dostawców modeli: kolejny sygnał, że samo bycie modelem zamkniętym z dużą marką nie wystarczy, jeśli alternatywy robią się coraz tańsze i coraz bardziej użyteczne.
Najkrótsze podsumowanie? DeepSeek V4 nie zamyka wyścigu. Ale mocno obniża próg wejścia do zadań, które jeszcze niedawno wyglądały jak domena najdroższych modeli na rynku.
Źródła: DeepSeek, cennik DeepSeek, Hugging Face, NIST CAISI, MIT Technology Review, Fortune, Euronews. Zdjęcie: wygenerowana grafika TreffikAI.


