🤖 Claude wpadł w burzę geopolityczną: Anthropic i gra o zgodność z Pentagonem

Czy sztuczna inteligencja stała się oficjalnie narzędziem wojny? Najnowsze dochodzenie „Wall Street Journal” (WSJ) wstrząsnęło światem technologii.

📍 Kluczowe wydarzenie:

Jak informują źródła, amerykańska armia użyła modelu AI Claude należącego do Anthropic podczas akcji aresztowania byłego prezydenta Wenezueli Maduro w zeszłym miesiącu. Twierdzi się, że model brał udział w planowaniu misji, wspierając wojsko w ataku na cele w Caracas.

⚠️ Oś konfliktu:

Anthropic posiada najsurowszą na świecie „konstytucję” AI. Firma wyraźnie zabrania używania Claude do:

Podżegania do przemocy. Rozwoju broni. Wdrażania nadzoru.

Dyrektor generalny Anthropic wielokrotnie ostrzegał o ryzyku związanym z autonomiczną bronią. Obecnie umowa firmy z Pentagonem jest kwestionowana, co może wywołać ostrą debatę na temat regulacji AI.

🗣 Oficjalna odpowiedź:

Rzecznik Anthropic powiedział: „Nie możemy komentować, czy Claude był używany w konkretnej tajnej akcji. Jakiekolwiek użycie Claude — niezależnie od sektora prywatnego czy rządowego — musi być zgodne z naszą polityką użytkowania.”

📉 Wpływ na branżę:

To wydarzenie może przyspieszyć globalny trend silnej regulacji sztucznej inteligencji. Dla inwestorów oznacza to, że sektor AI (tokeny AI) będzie coraz bardziej pod wpływem geopolityki i ram etycznych, a nie tylko postępów technologicznych.

Czy uważasz, że AI powinno mieć prawo odmowy wykonania rozkazów wojskowych? Zapraszamy do dyskusji w komentarzach! 👇

#AI #Anthropic #Claude #五角大楼 #科技新闻

BTC
BTC
66,907.23
+4.76%