Anthropic staje w obliczu konsekwencji w różnych agencjach federalnych z
• Anthropic, firma AI stojąca za chatbotem Claude, publicznie odmówiła spełnienia żądania Pentagonu dotyczącego usunięcia ograniczeń bezpieczeństwa dotyczących tego, jak jej AI może być używane (np. w całkowicie autonomicznych broniach lub do nadzoru krajowego). CEO Anthropic mówi, że firma „nie może w dobrej wierze” zrezygnować z tych zabezpieczeń.
• Rząd USA, kierowany przez prezydenta Donalda Trumpa i sekretarza obrony Pete'a Hegsetha, zaostrzył spór. Nakazali wszystkim agencjom federalnym zaprzestanie korzystania z technologii Anthropic i stopniowo ją wycofują w ciągu sześciu miesięcy, nazywając firmę potencjalnym „ryzykiem w łańcuchu dostaw”.
• Anthropic teraz grozi działaniami prawnymi i argumentuje, że jej etyczne ograniczenia chronią wolności obywatelskie i zapobiegają nadużyciom.
Dlaczego to ważne:
Ten konflikt odzwierciedla szersze napięcia między priorytetami bezpieczeństwa/etyki AI a interesami bezpieczeństwa narodowego — i może kształtować to, jak przyszłe kontrakty AI z rządami równoważą innowacje, kontrolę i wartości publiczne.
#AnthropicUSGovClash #BlockAILayoffs #JaneStreet10AMDump #MarketRebound #levelsabovemagical
$ROBO


$GWEI


