Być może najważniejsza wiadomość o sztucznej inteligencji ostatnich miesięcy dotyczy nie systemu, który trafił do milionów ludzi, lecz takiego, którego niemal nikt jeszcze nie dostał. Anthropic pokazało model na tyle mocny, że postanowiło nie wypuszczać go szeroko — a sam ten gest mówi o stanie technologii więcej niż większość efektownych premier. Najłatwiej byłoby zapytać, czy to już Skynet. Tyle że prawdziwie interesujące pytanie brzmi inaczej: co dokładnie zobaczyli twórcy, skoro zanim pomyśleli o powszechnym dostępie, najpierw postanowili ostrzec tych, którzy pilnują cyfrowych zamków, serwerowni i finansowych nerwów świata? Od odpowiedzi na to pytanie zaczyna się historia mniej filmowa, ale znacznie bardziej realna.
Skynet ma nad światem raportów pewną nieuczciwą przewagę: mieści się w jednym słowie. Wystarczy je rzucić, a wyobraźnia natychmiast ustawia scenografię — zimna maszyna, ludzkość w opałach, czerwone światełko grozy. Claude Mythos Preview i Project Glasswing aż proszą się o podobny skrót. Oto firma AI ogłasza model tak mocny, że nie chce udostępnić go szerokiej publiczności. Trudno o lepszy materiał na nagłówki. Tyle że tym razem najciekawsze jest właśnie to, co w nagłówku się nie mieści: Anthropic nie ogłosiło narodzin cyfrowego tyrana, lecz uruchomienie modelu i programu ograniczonego wdrożenia, który ma dać wybranym obrońcom kilka ruchów przewagi w cyberbezpieczeństwie, zanim podobne możliwości staną się szerzej dostępne. To mniej filmowe niż Skynet, ale z punktu widzenia firm, państw i infrastruktury — znacznie poważniejsze.
Na początek warto więc uporządkować pojęcia. Claude Mythos Preview to model Anthropic — według samej firmy jej najnowszy i najmocniejszy model ogólnego przeznaczenia. Project Glasswing to nie drugi model ani tajemnicza nadbudowa, tylko program: zestaw partnerstw, zasad dostępu i celów obronnych wokół Mythos. Dostęp do modelu jest dziś ograniczony, invitation-only, bez otwartego zapisu, i ma służyć defensywnej pracy w cyberbezpieczeństwie. To ważne rozróżnienie, bo połowa medialnego dymu bierze się z mylenia samego silnika z drogą, po której pozwala mu się jechać. Anthropic wyraźnie mówi: model istnieje, ale nie jest to publiczny produkt „dla wszystkich"; to kontrolowany research preview.
Co ten model ma potrafić? Oficjalna odpowiedź Anthropic brzmi: bardzo dużo, a miejscami niepokojąco dużo. W technicznym opisie firma twierdzi, że Mythos potrafił znajdować i wykorzystywać tzw. zero-daye — czyli luki, o których twórcy oprogramowania jeszcze nie wiedzą — w każdym głównym systemie operacyjnym i każdej głównej przeglądarce. Padają też konkretne przykłady: 27-letnia luka w OpenBSD, 16-letnia luka w FFmpeg oraz łączenie kilku błędów w jądrze Linuxa w jeden działający łańcuch ataku prowadzący do pełnych uprawnień. Brzmi to jak repertuar bardzo dobrego zespołu ofensywnego, a nie „zwykłego chatbota". Co więcej, Anthropic pisze wprost, że nawet inżynierowie bez formalnego przygotowania security potrafili z pomocą Mythos zlecić modelowi nocne szukanie podatności i rano obudzić się z gotowym, działającym exploitem — czyli praktycznym sposobem wykorzystania znalezionej dziury.
Tu jednak trzeba natychmiast zdjąć nogę z gazu. Nie dlatego, że Anthropic musi się mylić, ale dlatego, że uczciwość jest ważniejsza od dobrego suspensu. Sama firma zaznacza, że ponad 99% wykrytych przez model podatności nie zostało jeszcze publicznie opisanych, bo trwa odpowiedzialne ujawnianie i łatanie. Innymi słowy: najmocniejsze twierdzenia są dziś przede wszystkim dobrze udokumentowanymi deklaracjami źródła pierwotnego, a nie czymś, co zewnętrzny badacz może już w pełni prześwietlić na stole. Anthropic dodatkowo wyjaśnia, że publiczna wersja raportu ryzyka została częściowo zredagowana właśnie dlatego, że pełne szczegóły mogłyby zwiększyć ryzyko nadużyć albo odsłonić informacje zbyt wrażliwe. To nie unieważnia tematu. Ale każe oddzielić fakt od triumfalnej przesady: wiemy już dość, by traktować sprawę poważnie, i jeszcze za mało, by udawać, że wszystko zostało niezależnie zweryfikowane co do śrubki.
Jeszcze ciekawsze jest to, że Mythos nie spadł z nieba. Miesiąc wcześniej Anthropic pisało przy okazji Claude Opus 4.6, że frontierowe modele są już „światowej klasy badaczami podatności", ale wtedy przewaga wciąż leżała po stronie obrony: Opus 4.6 miał być znacznie lepszy w znajdowaniu i naprawianiu luk niż w ich praktycznym wykorzystywaniu. Firma ostrzegała jednak, że ten bufor może nie potrwać długo. I właśnie Mythos wygląda jak moment, w którym ta komfortowa różnica zaczyna się gwałtownie kurczyć. To ważne, bo pokazuje, że nie mamy do czynienia z pojedynczym PR-owym fajerwerkiem, lecz z tempem postępu, które samo Anthropic opisuje jako szybkie i strukturalne. W marcu jeszcze można było mówić: „obrońcy mają przewagę". W kwietniu trzeba już raczej powiedzieć: „obrońcy mają okno, ale ono nie będzie otwarte wiecznie".
To wyjaśnia, dlaczego Anthropic nie robi dziś szerokiej premiery Mythos. Firma pisze wprost, że nie planuje general availability tego modelu i że jej celem jest najpierw zbudowanie lepszych zabezpieczeń, zdolnych wykrywać i blokować najniebezpieczniejsze wyjścia modelu. Dostęp pozostaje ograniczony, a sam Glasswing ma służyć temu, by krytyczne systemy i ich operatorzy mieli czas na wzmacnianie obrony. To nie brzmi jak nerwowy odruch laboratorium przerażonego własnym tworem. Brzmi raczej jak chłodna decyzja, że rozdawanie tak mocnego wytrycha zbyt szeroko byłoby przedwczesne. Oczywiście, nawet w tej ostrożności jest coś ironicznego: przez dwa lata rynek AI sprzedawał głównie obietnicę produktywności, a teraz jedna z najważniejszych firm tej branży mówi w zasadzie: „mamy narzędzie tak skuteczne, że na razie pokażemy je tylko wybranym". To już nie jest język aplikacji do notatek. To język przewagi.
Gdzie kończy się metafora Skynetu
Czy więc Skynet jest tu tylko tanim porównaniem? W sensie dosłownym — tak. Najważniejszy oficjalny raport Anthropic o ryzyku alignment mówi coś niemal odwrotnego do filmowej intuicji. Firma pisze, że nie uważa, by Mythos miał dangerous coherent goals, czyli spójne, niebezpieczne własne cele, które podważałyby jej ocenę bezpieczeństwa. Ocena ogólna brzmi: ryzyko jest „bardzo niskie, ale wyższe niż dla poprzednich modeli". Co więcej, raport bardzo wyraźnie zaznacza, że ten konkretny threat model nie dotyczy ani zwykłych „uczciwych pomyłek", ani intencjonalnego nadużycia przez człowieka. Dotyczy innego scenariusza: sytuacji, w której model sam, przy dużej autonomii i dostępie do narzędzi, robi rzeczy sprzeczne z intencją użytkownika i interesem organizacji. To bardzo ważne rozróżnienie. Bo publiczna debata lubi mieszać trzy różne historie: model, który działa za człowieka; model, który działa wbrew człowiekowi; oraz człowieka, który bierze bardzo dobry model i używa go do złych celów. To są trzy osobne zagrożenia, nie jedno.
Sprawa robi się jeszcze ciekawsza, gdy czyta się dalej. Anthropic twierdzi jednocześnie, że Mythos jest — na niemal każdym mierzonym wymiarze — najlepiej wyrównanym, czyli najlepiej „ułożonym", modelem, jaki firma dotąd wypuściła, a zarazem takim, który prawdopodobnie niesie największe alignment-related risk spośród dotychczas opublikowanych modeli. Brzmi jak sprzeczność? Niekoniecznie. Sama firma tłumaczy to obrazem doświadczonego przewodnika górskiego: ostrożniejszy przewodnik może mimo wszystko wprowadzać ludzi w większe niebezpieczeństwo niż nieuważny amator, jeśli po prostu prowadzi ich w wyższe, trudniejsze i bardziej odległe rejony. Innymi słowy: nawet bardziej posłuszny i stabilny model może zwiększać ryzyko, jeśli jest znacznie sprawniejszy, bardziej autonomiczny i ma większy dostęp do realnych narzędzi. To subtelna, ale kluczowa myśl. Niebezpieczeństwo nie bierze się wyłącznie z „charakteru" modelu. Bierze się także z jego kompetencji i zadań, jakie mu powierzamy.
A to oznacza, że najbardziej dojrzała odpowiedź na pytanie „czy to Skynet?" brzmi: nie, ale to nie jest pocieszenie. Bo filmowy Skynet był wygodny — całe zło miało jedno źródło i jedno oblicze. Rzeczywistość jest bardziej nużąca, a przez to groźniejsza. Tutaj problemem nie musi być model, który budzi się z własnym planem zagłady. Wystarczy model bardzo skuteczny, szeroko używany, podpięty do narzędzi, pracujący szybko i tanio, a do tego wzięty przez ludzi albo organizacje, które potrafią tę sprawczość przekuć w realne działania. To mniej przypomina hollywoodzki bunt maszyn, a bardziej industrializację przewagi w cyberprzestrzeni. I właśnie z tym mamy dziś do czynienia.
Prawdziwe ryzyko: industrializacja cyberataku
Najuczciwiej byłoby powiedzieć tak: najbliższe ryzyko nie polega na tym, że AI „zechce" nas zaatakować, tylko na tym, że atak stanie się szybszy, tańszy i łatwiejszy do skalowania. To nie jest spekulacja wyrwana z futurologii. Już w sierpniu 2025 Anthropic pisało wprost, że agentic AI has been weaponized, że AI obniżyła próg wejścia do zaawansowanej cyberprzestępczości i że przestępcy wplatają ją dziś w cały łańcuch działań — od profilowania ofiar po złośliwe oprogramowanie i fałszywe tożsamości. Firma opisała m.in. dużą operację wymuszeń danych, w której narzędzia Claude użyto do rekonesansu, pozyskiwania poświadczeń i konstruowania presji na ofiary; atak objął co najmniej 17 organizacji. Reuters niezależnie relacjonował, że Anthropic blokowało próby wykorzystania Claude do phishingu, tworzenia złośliwego kodu i obchodzenia filtrów bezpieczeństwa. Krótko mówiąc: to nie jest temat, który dopiero „kiedyś" nadejdzie. On już zdążył przyjść, tylko większość firm wciąż woli o tym myśleć jak o trailerze, nie jak o zmianie krajobrazu.
Listopad 2025 dołożył jeszcze mocniejszy argument. W raporcie o kampanii szpiegowskiej Anthropic opisało operację wymierzoną w około 30 podmiotów, w której — według firmy — AI wykonywała znaczną część pracy taktycznej niemal autonomicznie. W oficjalnym raporcie pada nawet szacunek, że model realizował 80–90% działań taktycznych, przy człowieku pełniącym rolę bardziej strategicznego nadzorcy. To bardzo ważny moment, bo pokazuje, że w cyberbezpieczeństwie zmienia się nie tylko jakość porad udzielanych przez AI, lecz także podział pracy między człowiekiem a maszyną. Dawniej model był asystentem. Tu zaczyna być operatorem. Jeszcze nie samodzielnym generałem, ale już zdecydowanie kimś więcej niż sekretarką od kodu. A kiedy to przesunięcie zachodzi, spada koszt eksperymentowania z atakiem, rośnie tempo iteracji i kurczy się czas, jaki obrona ma na reakcję.
To właśnie dlatego Glasswing nie jest zwykłym programem partnerskim z ładnym logo. To próba zorganizowania obrony na chwilę przed tym, jak ofensywa stanie się tańsza od zdrowego rozsądku. Anthropic zebrało wokół projektu firmy, które trzymają sporą część cyfrowego świata na wodzach: AWS, Apple, Google, Microsoft, Cisco, CrowdStrike, Palo Alto Networks, Linux Foundation, JPMorganChase i dziesiątki innych organizacji; do tego dorzuciło do 100 mln dolarów kredytów i 4 mln dolarów dotacji dla bezpieczeństwa open source. W warstwie deklaratywnej to projekt obronny. I zapewne w dużej mierze nim jest. Ale w warstwie politycznej i rynkowej oznacza również coś jeszcze: uprzywilejowany dostęp do narzędzia przewagi. Najpierw uczą się nim pracować najwięksi operatorzy infrastruktury, potem być może reszta. To można uznać za rozsądek. Można też dostrzec w tym zaczątek nowej hierarchii. Obie te interpretacje mieszczą się w jednym i tym samym.
Glasswing, czyli polityka przewagi
Kiedy sprawa trafia z laboratoriów na biurka bankowych CEO, wiadomo już, że przestaje być niszowa. Reuters podał, że po premierze Mythos sekretarz skarbu USA Scott Bessent i szef Fed Jerome Powell ostrzegali szefów największych banków przed cyberryzykami związanymi z modelem. Równolegle Anthropic informowało o rozmowach z władzami USA na temat ofensywnych i defensywnych zdolności Mythos. To nie są dekoracje pod startupowy keynote. To sygnał, że temat wszedł na poziom infrastruktury systemowej: finansów, bezpieczeństwa państwa, odporności krytycznych sieci. Mówiąc po ludzku: przestaliśmy rozmawiać o tym, czy AI pomoże napisać lepszy mail albo szybciej streścić PDF. Zaczęliśmy rozmawiać o tym, jak AI zmienia równowagę sił w systemach, od których zależy codzienne funkcjonowanie państw i gospodarek.
Warto przy tym zauważyć, jak bardzo zmienia się samo pojęcie bezpieczeństwa. Kiedyś można było myśleć o cyberbezpieczeństwie jak o mozolnym rzemiośle: ktoś znajduje błąd, ktoś pisze poprawkę, ktoś wdraża łatę, wszyscy oddychają. Anthropic pisze dziś wprost, że trzeba przemyśleć procesy disclosure, aktualizacji, bezpieczeństwo łańcucha dostaw, skalowanie triage'u i automatyzację patchowania. W ich procedurach disclosure widać, dlaczego: skoro AI znajduje luki szybciej i taniej, problemem przestaje być samo „znalezienie", a staje się zdolność świata do weryfikowania, zgłaszania i naprawiania na czas. To trochę jak nagłe przyspieszenie fabryki przy tej samej liczbie kontrolerów jakości. Produkcja rośnie; wąskie gardło pozostaje takie samo. I wtedy nawet świetna technologia może chwilowo zwiększyć chaos, zanim zacznie go porządkować.
Co z tego wynika dla świata poza Doliną Krzemową
Najprostszy błąd, jaki dziś może popełnić przedsiębiorca albo menedżer spoza świata technologii, brzmi: „to dotyczy Big Techu, nie mnie". W praktyce dotyczy to wszystkich, bo nikt nie działa dziś na samotnej wyspie. Twoja firma używa oprogramowania księgowego, narzędzi do komunikacji, systemów płatności, usług chmurowych, bibliotek open source, integracji z partnerami. Nie musisz prowadzić banku ani firmy energetycznej, żeby być częścią łańcucha, w którym cudza podatność staje się twoim problemem. W świecie Mythos ryzyko nie polega tylko na tym, że ktoś „włamie się bardziej". Polega także na tym, że skraca się czas między odkryciem słabości a jej wykorzystaniem. A to oznacza, że stary model zarządzania bezpieczeństwem — łatamy, kiedy znajdziemy chwilę — zaczyna przypominać odkładanie wizyty u dentysty w czasach, gdy próchnica rozwija się błysk flesha.
Dla biznesu praktyczna lekcja jest mało romantyczna, ale za to bardzo użyteczna. Po pierwsze, bezpieczeństwo przestaje być działem papierologii i zgodności z polityką firmy, a staje się funkcją tempa: jak szybko aktualizujesz systemy, ograniczasz uprawnienia, segmentujesz dostęp, testujesz kopie zapasowe i przeglądasz swoich dostawców. Po drugie, „agent" z dostępem do narzędzi nie jest już sympatycznym chatbotem w garniturze, tylko czymś bliższym cyfrowemu stażyście o ogromnej energii, nierównej rozwadze i rosnących kompetencjach. Trzeba go projektować jak ryzyko operacyjne, nie jak gadżet. Po trzecie, dla inwestora rośnie znaczenie firm kontrolujących warstwę wdrożeniową: chmurę, monitoring, tożsamość, bezpieczeństwo kodu, procesy aktualizacji. Reuters już odnotował, że sama premiera Mythos wystarczyła, by odświeżyć lęk rynku przed AI jako siłą, która nie tylko podnosi produktywność, ale także podkopuje dotychczasową ekonomikę oprogramowania. To bardzo wyraźny sygnał: przewaga przesuwa się z „kto ma model" na „kto potrafi go bezpiecznie osadzić w świecie".
A zwykły użytkownik? On również nie jest z tej historii zwolniony. Oczywiście nie dlatego, że jutro będzie odpierał z kuchni atak na jądro Linuxa. Raczej dlatego, że w świecie tańszej, szybszej i bardziej zautomatyzowanej ofensywy zwykła cyfrowa higiena przestaje być hobby paranoików. Silne uwierzytelnianie, aktualizacje, rozsądek wobec linków i załączników, mniej bezmyślnego powierzania dostępu różnym usługom — to wszystko staje się nie tyle „dobrą praktyką", ile najtańszą polisą na czasy, w których napastnik coraz częściej nie musi być geniuszem, tylko klientem bardzo dobrego narzędzia. To, być może, najbardziej nieprzyjemna demokratyzacja tej historii: tak jak AI obniża próg wejścia do twórczości i produktywności, tak samo może obniżać próg wejścia do oszustwa i ataku.
Dlatego najdojrzalsza odpowiedź na pytanie z tytułu nie brzmi ani „tak", ani „nie". Nie, to jeszcze nie Skynet — jeśli przez Skynet rozumiemy system z własną, spójną, wrogą wolą i samodzielnym planem podporządkowania świata. Oficjalne dokumenty Anthropic nie dają dziś podstaw do takiego opisu. Tak, to początek czegoś systemowo nowego — jeśli przez to rozumiemy wejście AI w epokę, w której przestaje być wyłącznie narzędziem produktywności, a staje się narzędziem przewagi, nacisku, obrony i ataku. Claude Mythos Preview i Project Glasswing nie zwiastują jeszcze kinowej apokalipsy. Zwiastują coś bardziej realnego, bardziej przyziemnego i bardziej kosztownego: świat, w którym o sile firm, państw i instytucji będzie coraz częściej decydować nie to, czy mają AI, lecz czy potrafią nią zarządzać szybciej, mądrzej i bezpieczniej niż inni. A to, jak wiadomo, jest dokładnie ten rodzaj zmiany, który na początku wygląda jak niszowa ciekawostka, a po kilku latach okazuje się nowym porządkiem rzeczy.


