Wyższe limity dla Claude Code i współpraca ze SpaceX
Anthropic podnosi limity Claude Code i API Claude po dużej rozbudowie mocy obliczeniowej, w tym po nowej umowie ze SpaceX oraz partnerstwach z Amazon, Google, Microsoft, NVIDIA i Fluidstack.

Anthropic zapowiada wyraźnie większą dostępność Claude dla najbardziej aktywnych użytkowników. Firma stojąca za modelem Claude poinformowała o rozbudowie zaplecza obliczeniowego, w tym o nowo ujawnionej współpracy ze SpaceX, a bezpośrednim efektem mają być wyższe limity w Claude Code oraz API Claude.
Dla osób korzystających z AI okazjonalnie brzmi to jak techniczny komunikat o infrastrukturze. Dla programistów, zespołów produktowych i firm, które opierają część pracy na Claude, to jednak bardzo konkretna zmiana. Limity użycia decydują o tym, czy asystent może realnie towarzyszyć przy dłuższym zadaniu, czy przerywa pracę w najmniej wygodnym momencie.
Anthropic chce więc pokazać, że Claude ma być nie tylko mocniejszy, ale też bardziej przewidywalny w codziennym użyciu.
Co zmienia się dla użytkowników Claude
Najważniejsze zmiany dotyczą Claude Code oraz API Claude. Według zapowiedzi Anthropic trzy ulepszenia wchodzą w życie od razu.
Po pierwsze, pięciogodzinne limity Claude Code zostają podwojone dla planów Pro, Max, Team oraz Enterprise rozliczanego za stanowisko. To szczególnie ważne dla osób, które używają Claude Code do długich sesji programistycznych: refaktoryzacji, analizy błędów, pisania testów, migracji kodu albo pracy na większym repozytorium.
Po drugie, Anthropic usuwa redukcję limitów w godzinach szczytu dla kont Pro i Max. W praktyce ma to oznaczać bardziej stabilny dostęp do Claude Code niezależnie od pory dnia.
Po trzecie, wyższe limity otrzymają również programiści korzystający z API dla najmocniejszych modeli z rodziny Claude Opus. To ważna wiadomość dla zespołów budujących własne produkty, agentów i integracje na bazie Claude.
Dlaczego limity są ważniejsze, niż się wydaje
Limity użycia często wyglądają jak detal subskrypcji, ale w praktyce wpływają na to, jak da się pracować z modelem.
Jeżeli limit jest zbyt niski, użytkownicy zmieniają zachowanie. Dzielą większe zadania na mniejsze fragmenty, rezygnują z długich sesji agentowych, ograniczają automatyzacje albo zostawiają bufor na sytuacje awaryjne. W efekcie AI przestaje być płynnym narzędziem pracy, a staje się usługą, którą trzeba stale oszczędzać.
Wyższe limity nie sprawiają, że Claude automatycznie staje się inteligentniejszy. Sprawiają jednak, że łatwiej używać go jako realnej infrastruktury.
Claude Code pokazuje swoją wartość szczególnie wtedy, gdy może zostać z zadaniem przez kilka etapów: zrozumieć kod, zaproponować plan, wprowadzić zmiany, przeanalizować błędy i poprawić wynik. Im mniej przerw w tym procesie, tym bardziej naturalna staje się praca z asystentem.
Umowa ze SpaceX i centrum Colossus 1
Najgłośniejszym elementem komunikatu jest umowa ze SpaceX. Anthropic ma uzyskać dostęp do pełnej mocy obliczeniowej centrum danych Colossus 1 należącego do SpaceX.
Według zapowiedzi w ciągu najbliższego miesiąca ma to uruchomić ponad 300 megawatów nowej mocy. Firma porównuje tę skalę do ponad 220 000 procesorów graficznych NVIDIA, które mają bezpośrednio wesprzeć subskrybentów planów Claude Pro i Max.
To dobrze pokazuje, jak zmienił się wyścig AI. Jeszcze niedawno dyskusja koncentrowała się głównie na parametrach modeli, benchmarkach i możliwościach rozumowania. Dziś równie ważne są energia, układy scalone, sieć, chłodzenie i stabilność całego zaplecza.
Bez takiej infrastruktury nawet najlepszy model szybko zaczyna przegrywać z ograniczeniami dostępności.
Orbitalne ambicje brzmią jak sygnał długoterminowy
W ramach partnerstwa Anthropic deklaruje też zainteresowanie współpracą ze SpaceX nad wielogigawatową orbitalną mocą obliczeniową dla AI.
To brzmi efektownie, ale warto zachować proporcje. Nie oznacza to, że Claude w najbliższych tygodniach zacznie działać z orbity. Obliczenia w przestrzeni kosmicznej to ogromne wyzwania: koszt wyniesienia sprzętu, serwisowanie, chłodzenie, zasilanie, opóźnienia sieciowe, bezpieczeństwo i regulacje.
Mimo to sama ambicja jest ciekawa. Pokazuje, jak daleko firmy AI są gotowe myśleć, gdy skala zapotrzebowania na obliczenia rośnie szybciej niż klasyczne centra danych.
Na dziś najważniejszy pozostaje jednak efekt naziemny: więcej mocy ma przełożyć się na wyższe limity i lepszą dostępność Claude.
Claude staje się projektem infrastrukturalnym
SpaceX nie jest jedynym elementem większej strategii Anthropic. Firma podkreśla, że Claude jest trenowany i uruchamiany na różnych typach sprzętu, w tym AWS Trainium, Google TPU oraz NVIDIA GPU.
Taka dywersyfikacja ma sens. Uzależnienie od jednego dostawcy sprzętu lub jednej chmury może być ryzykowne, szczególnie gdy popyt na obliczenia AI rośnie szybciej niż dostępność układów i energii.
Anthropic wskazuje też na kilka dużych porozumień infrastrukturalnych:
- Porozumienie z Amazonem na moc do 5 gigawatów, z czego prawie 1 gigawat ma być dostępny do końca 2026 roku.
- Umowę na 5 gigawatów z Google i Broadcom, której uruchamianie ma rozpocząć się w 2027 roku.
- Partnerstwo z Microsoft i NVIDIA, zabezpieczające 30 miliardów dolarów mocy obliczeniowej w Azure.
- Inwestycję wartą 50 miliardów dolarów w amerykańską infrastrukturę AI razem z Fluidstack.
To pokazuje, że Claude nie jest już tylko produktem modelowym. Coraz bardziej staje się globalnym projektem infrastrukturalnym.
Dlaczego lokalizacja infrastruktury ma znaczenie
Claude coraz mocniej wchodzi do firm i sektorów regulowanych: finansów, ochrony zdrowia, administracji publicznej, usług prawnych i dużych organizacji korporacyjnych.
W takich miejscach nie wystarczy, że model dobrze odpowiada. Liczy się również to, gdzie przetwarzane są dane, jak zabezpieczona jest infrastruktura i czy dostawca spełnia wymagania dotyczące zgodności oraz przechowywania danych w określonych regionach.
Anthropic zapowiada więc globalną rozbudowę mocy obliczeniowej. Współpraca z Amazonem ma już obejmować nowe możliwości inferencji w Azji i Europie.
Dla europejskich klientów może to być szczególnie istotne. Lokalna infrastruktura ułatwia rozmowy o zgodności, prywatności i ryzyku operacyjnym, zwłaszcza gdy AI zaczyna obsługiwać bardziej wrażliwe procesy biznesowe.
Bezpieczne łańcuchy dostaw i wybór partnerów
Anthropic podkreśla też, że chce rozwijać infrastrukturę w państwach demokratycznych, które oferują bezpieczne łańcuchy dostaw sprzętu i sieci oraz stabilne ramy regulacyjne.
To nie jest przypadkowy dodatek. Infrastruktura AI staje się zasobem strategicznym. Państwa zwracają uwagę na pochodzenie chipów, bezpieczeństwo centrów danych, przepływy danych, zużycie energii i wpływ takich inwestycji na lokalne społeczności.
Dla Anthropic taka selekcja partnerów może być sposobem na ograniczenie ryzyka oraz budowanie zaufania u klientów korporacyjnych i publicznych.
W praktyce firma chce pokazać, że jej ekspansja nie polega wyłącznie na kupowaniu kolejnych megawatów. Chodzi również o to, gdzie ta moc powstaje i pod jakimi zasadami będzie działać.
Społeczności lokalne i koszty energii
Duże centra danych są szansą inwestycyjną, ale też obciążeniem dla regionów, w których powstają. Zużywają energię, wymagają infrastruktury i mogą wpływać na lokalne ceny prądu.
Anthropic publicznie deklaruje, że chce brać za to odpowiedzialność. Po wcześniejszej obietnicy pokrywania ewentualnych podwyżek cen energii dla konsumentów wywołanych przez amerykańskie centra danych, firma analizuje sposoby rozszerzenia podobnych zobowiązań na kolejne kraje.
To może być jeden z najważniejszych elementów całej historii. Im większa będzie infrastruktura AI, tym częściej lokalne społeczności będą pytać, kto ponosi koszty i kto korzysta z inwestycji.
Dla użytkowników Claude najważniejsza jest jednak zmiana dostępna od razu: więcej limitów, mniej ograniczeń w godzinach szczytu i większa przepustowość API. Reszta to sygnał, że wyścig AI coraz mocniej przenosi się z samego modelu na zaplecze, które pozwala ten model uruchamiać na ogromną skalę.
(Źródło: aktualizacja firmowa Anthropic przekazana w briefie redakcyjnym. Zdjęcie: asset Claude AI użyty przez TreffikAI.)


