Anthropic staje w obliczu konsekwencji w różnych agencjach federalnych z

• Anthropic, firma AI stojąca za chatbotem Claude, publicznie odmówiła spełnienia żądania Pentagonu dotyczącego usunięcia ograniczeń bezpieczeństwa dotyczących tego, jak jej AI może być używane (np. w całkowicie autonomicznych broniach lub do nadzoru krajowego). CEO Anthropic mówi, że firma „nie może w dobrej wierze” zrezygnować z tych zabezpieczeń.

• Rząd USA, kierowany przez prezydenta Donalda Trumpa i sekretarza obrony Pete'a Hegsetha, zaostrzył spór. Nakazali wszystkim agencjom federalnym zaprzestanie korzystania z technologii Anthropic i stopniowo ją wycofują w ciągu sześciu miesięcy, nazywając firmę potencjalnym „ryzykiem w łańcuchu dostaw”.

• Anthropic teraz grozi działaniami prawnymi i argumentuje, że jej etyczne ograniczenia chronią wolności obywatelskie i zapobiegają nadużyciom.

Dlaczego to ważne:

Ten konflikt odzwierciedla szersze napięcia między priorytetami bezpieczeństwa/etyki AI a interesami bezpieczeństwa narodowego — i może kształtować to, jak przyszłe kontrakty AI z rządami równoważą innowacje, kontrolę i wartości publiczne.

#AnthropicUSGovClash #BlockAILayoffs #JaneStreet10AMDump #MarketRebound #levelsabovemagical

$ROBO

ROBOBSC
ROBOUSDT
0.05233
+3.87%

$GWEI

GWEIBSC
GWEIUSDT
0.04356
+6.37%

$ALICE

ALICE
ALICEUSDT
0.129
-8.51%