🤖 Claude wpadł w burzę geopolityczną: Anthropic i gra o zgodność z Pentagonem
Czy sztuczna inteligencja stała się oficjalnie narzędziem wojny? Najnowsze dochodzenie „Wall Street Journal” (WSJ) wstrząsnęło światem technologii.
📍 Kluczowe wydarzenie:
Jak informują źródła, amerykańska armia użyła modelu AI Claude należącego do Anthropic podczas akcji aresztowania byłego prezydenta Wenezueli Maduro w zeszłym miesiącu. Twierdzi się, że model brał udział w planowaniu misji, wspierając wojsko w ataku na cele w Caracas.
⚠️ Oś konfliktu:
Anthropic posiada najsurowszą na świecie „konstytucję” AI. Firma wyraźnie zabrania używania Claude do:
Podżegania do przemocy. Rozwoju broni. Wdrażania nadzoru.
Dyrektor generalny Anthropic wielokrotnie ostrzegał o ryzyku związanym z autonomiczną bronią. Obecnie umowa firmy z Pentagonem jest kwestionowana, co może wywołać ostrą debatę na temat regulacji AI.
🗣 Oficjalna odpowiedź:
Rzecznik Anthropic powiedział: „Nie możemy komentować, czy Claude był używany w konkretnej tajnej akcji. Jakiekolwiek użycie Claude — niezależnie od sektora prywatnego czy rządowego — musi być zgodne z naszą polityką użytkowania.”
📉 Wpływ na branżę:
To wydarzenie może przyspieszyć globalny trend silnej regulacji sztucznej inteligencji. Dla inwestorów oznacza to, że sektor AI (tokeny AI) będzie coraz bardziej pod wpływem geopolityki i ram etycznych, a nie tylko postępów technologicznych.
Czy uważasz, że AI powinno mieć prawo odmowy wykonania rozkazów wojskowych? Zapraszamy do dyskusji w komentarzach! 👇
#AI #Anthropic #Claude #五角大楼 #科技新闻
