Advertising
Advertising
instagram
Advertising

Gigant lost in court! Avalanche of problems has begun. Pentagon blockade is just the beginning?

The Washington appellate court decided that national security and the Pentagon’s operational freedom are more important than the point of view of one of the biggest AI start‑ups on the planet. How long will the giant remain on the supply‑chain threat list?

Gigant lost in court! Avalanche of problems has begun. Pentagon blockade is just the beginning?
Opracowanie FXMAG
Advertising
Aa
Share
facebook
twitter
linkedin

Table of contents

  1. Bezpieczeństwo narodowe kontra rachunek zysków i strat 
    1. Czerwone linie i posty na Truth Social
      1. Mythos i własne chipy. Ekspansja mimo konfliktu z Pentagonem

        Sędziowie w D.C. oddalili w środę niosek Anthropic o tymczasowe zablokowanie decyzji Pentagonu, który umieścił firmę na „czarnej liście” łańcucha dostaw.

         

        Bezpieczeństwo narodowe kontra rachunek zysków i strat 

        Argumentacja sądu jest uderzająca w swojej surowości. 

        „Naszym zdaniem równowaga interesów przemawia w tym przypadku na korzyść rządu”, stwierdzono w orzeczeniu.

        „Z jednej strony mamy stosunkowo ograniczone ryzyko poniesienia strat finansowych przez pojedynczą prywatną firmę. Z drugiej strony mamy kwestię nadzoru sądowego nad tym, w jaki sposób i za pośrednictwem kogo Departament Wojny zabezpiecza kluczowe technologie sztucznej inteligencji w trakcie trwającego konfliktu zbrojnego. Z tego powodu odrzucamy wniosek firmy Anthropic o zawieszenie postępowania do czasu rozpatrzenia sprawy co do meritum”, przekazano.

        Sąd apelacyjny uznał, że zarządzanie zasobami przez Departament Wojny Stanów Zjednoczonych nie powinna podlegać nadmiernej ingerencji sędziowskiej. 

        Advertising

        Według decyzji Pentagonu z marca 2026 Anthropic stwarza zagrożenie dla bezpieczeństwa narodowego, ponieważ odmawia usunięcia klauzuli zabraniającej wykorzystywania modelu Claude do tworzenia autonomicznych systemów, które zabijają bez nadzoru człowieka.

        Restrykcyjne filtry zaszyte w modelu mogą sprawić, że AI odmówi wykonania kluczowych zadań w trakcie misji bojowych. Co więcej, resort obrony dodaje, że firma zatrudnia sporą liczbę obcokrajowców.

        Decyzja ta stworzyła prawny dualizm, ponieważ sąd w San Francisco wstrzymał ogólnokrajowy zakaz używania modelu, ale decyzja z D.C. dotyczy wyłącznie kontraktów obronnych.

        To oznacza, że Anthropic może współpracować z cywilnymi agencjami, ale pracownicy Pentagonu mają zakaz korzystania z Claudea w projektach militarnych. Dla firmy, która jeszcze chwilę temu aspirowała do roli głównego projektanta AI dla armii USA, to cios porównywalny z wyłączeniem głównej serwerowni.

         

        Zobacz również: Tani dolar a amerykańska giełda - szansa czy pułapka? Ekspert wskazał top picks na 2026 rok

        Advertising

         

        Czerwone linie i posty na Truth Social

        Napięcie na linii Pentagon-Anthropic nie wzięło się z próżni. Wszystko zaczęło się od podpisania w lipcu 2025 roku kontraktu z Pentagonem opiewającego na 200 mln USD. Choć brzmi to, jak trampolina do stałego finansowania start-upu AI, które jak wiadomo mają ogromny problem z zarabianiem, tak umowa okazała się kulą u nogi Anthropic. 

        Problemy zaczęły się we wrześniu 2025 roku, kiedy Claude miał trafić na platformę GenAI.mil.

        Pentagon miał wówczas zażądać nieograniczonego dostępu do modeli dla wszystkich celów zgodnych z prawem. Zespół Anthropic był wierny swoim przekonaniom i zasadom „AI Safety” i postawił twarde warunki, żadnej broni autonomicznej i masowej inwigilacji obywateli.

        Co ciekawe, założyciele Anthropic odeszli z OpenAI właśnie z powodu nieodpowiedzialnego rozwoju AI.

        No i tutaj zaczęły się schody, ponieważ sekretarz obrony Pete Hegseth zdecydowanie sprzeciwił się takim warunkom i rozpoczął informacyjną ofensywę przeciwko twórcom Claude’a.

        Zarówno on, jak i Donald Trump w social mediach wprost nazwali Anthropic ryzykiem dla bezpieczeństwa narodowego

        Advertising

        To pierwszy przypadek, kiedy rodzima amerykańska firma została potraktowana tak, jak wcześniej traktowano wyłącznie podmioty z wrogich krajów. Warto dodać, że miejsce Anthropic bardzo szybko zajęło OpenAI, podpisując umowę i zgadzając się na wszystko to, na co nie zgodzili się twórcy Claude’a.

         

        Zobacz również: Giełda w 2026 szykuje niespodziankę? „Inwestorzy powinni upewnić się, że ich portfele są przygotowane na trend wzrostowy”

         

        Mythos i własne chipy. Ekspansja mimo konfliktu z Pentagonem

        Oliwy do ognia dolała premiera modelu Mythos, czyli narzędzia do wykrywania luk w systemach operacyjnych.

        Według Anthropic model jest tak potężny, że na ten moment nie jest w pełni ujawniony. Teoretycznie brzmi to, jak typowy język start-up’ów technologicznych, ale pikanterii tej premierze dodaje fakt, że Mythos zwrócił uwagę bankierów.

        Advertising

        W tym tygodniu sekretarz skarbu Scott Bessent oraz szef Fed Jerome Powell zwołali pilne spotkanie z prezesami największych banków (takich jak Goldman Sachs i Citigroup), aby ostrzec ich przed ryzykiem cybernetycznym, jakie niesie ze sobą Mythos.

        Anthropic wie nie tylko jak zwrócić na siebie uwagę, ale jak skutecznie przyciągać kapitał.

        Przychody firmy wystrzeliły z 9 mld USD pod koniec 2025 roku, do ponad 30 mld USD obecnie. Co więcej, firma planuje uniezależnienie się od łaski urzędników, szczególnie pod kątem sprzętowym

        Jak informuje Reuters, Anthropic rozważa projektowanie i tworzenie własnych chipów AI (pokroju H100 i Blackwell od Nvidii). Uruchomienie takiej linii produkcyjnej mogłoby kosztować nawet około 500 mln USD.

         

        Zobacz również: Akcje Nvidia podrożały o 37% od stycznia! Giełda reaguje na wyniki i prognozy giganta rynku AI

        Advertising

        Topics

        branża eksportowa

        prognozy giełdowe

        kto eksportuje

        donald trump

        Sztuczna inteligencja

        półprzewodniki

        sztuczna inteigencja

        Anthropic

        ChatGPT

        Claude

        czy anthropic wygrało w sądzie

        departament wojny

        bezpieczeństwo AI

        Anthropic pozew

        Sam Altman

        Anthropic problemy

        Anthropic Pentagon

        Anthropic wyniki finansowe

        model Claude

        giełda

        eksport

        Pentagonai

        inwestowanie

        rekomendacje giełdowe

        Advertising
        Advertising

        Most recent

        Recomended