← Wróć na stronę główną
Wiadomości

Banki szykują się na Mythos: dlaczego najnowszy model Anthropic spędza sen z powiek ministrom finansów

Nowy model Anthropic — Claude Mythos — okazał się tak skuteczny w wyszukiwaniu luk w oprogramowaniu, że ministrowie finansów, prezesi banków centralnych i MFW zaczęli traktować go jako systemowe ryzyko cyber, a nie kolejną premierę produktu.

Autor: Redakcja TreffikAI3 min czytania
Kłódka na tle wykresu finansowego — symbol ryzyka cyber w bankowości

Ministrowie finansów, prezesi banków centralnych i szefowie największych banków zaczęli rozmawiać o nowym modelu Anthropic — Claude Mythos — w tym samym tonie, w jakim dyskutuje się o stabilności walutowej czy szokach energetycznych. Model nie został publicznie wydany, a już wywołał kryzysową koordynację w Waszyngtonie, Londynie i Ottawie.

Dlaczego jeden model trafił do agendy MFW

Mythos to wariant rodziny Claude wyspecjalizowany w bezpieczeństwie komputerowym. Wewnętrzni red-teamerzy określili go jako uderzająco skutecznego w zadaniach security — na tyle, że Anthropic zdecydował się go nie udostępniać publicznie. Zamiast tego firma uruchomiła program Project Glasswing, w ramach którego dostęp dostały tylko wybrane podmioty, m.in. Amazon Web Services, CrowdStrike, Microsoft i Nvidia.

Reakcja świata polityki była nietypowo bezpośrednia. Według BBC Mythos był szczegółowo omawiany na ostatnim spotkaniu MFW w Waszyngtonie. Kanadyjski minister finansów François-Philippe Champagne podsumował nastrój wymownie: o ile ryzyka geopolityczne typu Cieśnina Ormuz da się zmapować, o tyle Mythos to „nieznana niewiadoma”.

Co konkretnie niepokoi bankierów centralnych

Problem techniczny da się streścić w jednym zdaniu — i bardzo trudno go rozwiązać: model, który potrafi samodzielnie znajdować i wykorzystywać luki w powszechnie używanym oprogramowaniu, dramatycznie skraca czas, jaki obrońcy mają na łatanie. Prezes Bank of England Andrew Bailey powiedział BBC, że sprawę trzeba potraktować bardzo poważnie, bo ta sama zdolność, która pomaga znajdować bugi, w rękach bad actors może wywołać falę ataków, jeśli porównywalny system wycieknie lub zostanie odtworzony.

CEO Barclays CS Venkatakrishnan był równie szczery: „To wystarczająco poważne, by się martwić. Musimy to lepiej zrozumieć i szybko załatać luki, które są ujawniane.”

Departament Skarbu USA podobno bezpośrednio zaalarmował największe amerykańskie banki, zachęcając je, by wykorzystały okno przed publiczną premierą Mythos do stres-testowania własnej infrastruktury.

Kontrolowane ujawnianie zamiast premiery

Podejście Anthropic do Mythos jest bliższe badaniom nad podatnościami niż klasycznemu launchowi produktu. Wybrane rządy i duże instytucje finansowe są zapraszane do testowania własnej infrastruktury przeciw modelowi — w myśl zasady, że obrońcy powinni zobaczyć broń wcześniej niż napastnicy.

Razem z Mythosem firma wypuściła zaktualizowaną wersję Claude Opus, która pozwala zespołom ćwiczyć podobne wzorce ataków na niższym poziomie zdolności — tańsza forma rehearsalu defensywnego.

Brytyjski AI Security Institute, jeden z nielicznych niezależnych podmiotów z dostępem do preview, potwierdził, że Mythos potrafi wyeksploitować systemy o słabej higienie bezpieczeństwa, ale zastrzegł, że nie jest dramatycznie lepszy od poprzedniej generacji Opus 4. To istotny niuans: ważniejsza jest tendencja niż jednorazowy skok.

Wzorzec „nie możemy tego wydać”

Mythos nie jest pierwszym przypadkiem, gdy czołowy lab AI uznaje model za zbyt ryzykowny do publicznej premiery. OpenAI w 2019 roku stopniowało wydanie GPT-2 z podobnych powodów — i już wtedy krytycy sugerowali, że takie ostrzeżenia pełnią rolę marketingu. Te same wątpliwości słychać dzisiaj, wraz z ostrzeżeniami źródeł z branży finansowej, że inny duży lab w USA może wkrótce wypuścić porównywalnie potężny model bez zabezpieczeń Anthropic.

Dla zespołów governance właśnie ta dwuznaczność jest kluczem. Nawet jeśli sam Mythos nie okaże się przełomowy, regulatorzy muszą już teraz planować pod świat, w którym takie modele istnieją poza zasięgiem kontroli pojedynczej firmy.

Co to oznacza dla zespołów bezpieczeństwa w firmach

Kilka praktycznych konsekwencji:

  • Okna podatności się kurczą. Jeśli modele potrafią fuzzować i eksploitować z prędkością maszyny, dystans między opublikowano CVE a aktywnie wykorzystywane jeszcze się skraca. Tempo łatania staje się metryką zarządczą, a nie pozycją w backlogu.
  • AI defensywne przestaje być opcjonalne. James Wise z Balderton Capital, szef brytyjskiego funduszu Sovereign AI o budżecie 500 mln funtów, powiedział BBC, że jego fundusz inwestuje w startupy zajmujące się bezpieczeństwem AI — z założeniem, że te same modele, które znajdują podatności, będą je też naprawiać.
  • Dostęp do modeli to kwestia procurementu. Gdy dostęp do jednego modelu ma znaczenie dla stabilności finansowej kraju, due diligence dostawcy przestaje być ptaszkiem na liście, a zaczyna wyglądać jak governance infrastruktury krytycznej.

Wniosek

Mythos to praktyczny test wytrzymałości dla tego, jak świat poradzi sobie z kolejną klasą agentowych modeli świadomych bezpieczeństwa. Anthropic w istocie prowadzi kontrolowany eksperyment z responsible disclosure w skali globalnego systemu finansowego. Czy ten model stanie się wzorcem — czy ostrzeżeniem — zależy od tego, jak wyglądnie kolejna, mniej ostrożna premiera.

(Źródło: BBC News. Zdjęcie: Unsplash, licencja.)

Tagi:#anthropic#cybersecurity#finance#governance
Udostępnij: