Pentagon żąda od największych firm zajmujących się sztuczną inteligencją, w tym OpenAI i Anthropic, zintegrowania swoich technologii z tajnymi sieciami wojskowymi, bez ograniczeń, które zwykle są nakładane na użytkowników. O tym informuje agencja Reuters.

Wojsko chce AI bez ograniczeń

Na niedawnym wydarzeniu w Białym Domu główny dyrektor technologiczny Pentagonu Emil Michael oświadczył przedstawicielom firm technologicznych, że resort wojskowy dąży do uzyskania dostępu do modeli sztucznej inteligencji zarówno w otwartych, jak i w tajnych domenach.

"Pracujemy nad wdrożeniem zaawansowanych możliwości AI na wszystkich poziomach tajności", powiedział przedstawicielowi Reuters anonimowy urzędnik.

To kolejny epizod w trwających negocjacjach między Pentagonem a wiodącymi firmami generatywnego AI na temat tego, jak USA będą wykorzystywać sztuczną inteligencję na przyszłych polach bitew. A tam już teraz dominują autonomiczne roje dronów, roboty i cyberataki.

Oświadczenia Mai kla z pewnością zaostrzą i tak już gorące debaty między pragnieniem wojska do nieograniczonego wykorzystania AI a dążeniem firm technologicznych do ustanowienia granic stosowania swoich narzędzi.

Gdzie są granice dopuszczalnego?

Dziś wiele firm AI tworzy specjalne narzędzia dla amerykańskich sił zbrojnych. Większość z nich działa tylko w otwartych sieciach, które zazwyczaj są używane do administracji wojskowej. I tylko jedna firma — Anthropic — jest dostępna w tajnych systemach przez strony trzecie, ale rząd nadal jest związany polityką użytkowania firmy.

Tajne sieci są stosowane do pracy z bardziej wrażliwymi informacjami: planowanie misji, naprowadzanie broni na cele. Reuters nie udało się ustalić, jak i kiedy dokładnie Pentagon planuje wprowadzenie chatbotów AI w tajnych systemach.

Urzędnicy wojskowi mają nadzieję wykorzystać moc sztucznej inteligencji do syntezowania informacji i pomagania w podejmowaniu decyzji. Ale chociaż te narzędzia są imponujące, mogą popełniać błędy, a nawet wymyślać informacje, które na pierwszy rzut oka wydają się wiarygodne. W tajnych systemach takie błędy mogą mieć śmiertelne konsekwencje, ostrzegają badacze AI.

OpenAI ustępuje, Anthropic się sprzeciwia

Firmy AI próbują minimalizować negatywne skutki swoich produktów, wbudowując mechanizmy ochronne w modele i wymagając od klientów przestrzegania określonych zasad. Jednak urzędnicy Pentagonu są zirytowani tymi ograniczeniami — twierdzą, że powinni mieć możliwość korzystania z komercyjnych narzędzi AI, o ile nie narusza to amerykańskiego prawa.

W tym tygodniu OpenAI zawarła umowę z Pentagonem, pozwalając wojsku na korzystanie z jej narzędzi, w tym ChatGPT, w otwartej sieci genai.mil. Jest ona już dostępna dla ponad 3 mln pracowników ministerstwa obrony. W ramach umowy OpenAI zgodziła się usunąć wiele ze swoich zwyczajowych ograniczeń użytkowników, chociaż niektóre środki bezpieczeństwa pozostały.

Google od Alphabet i xAI wcześniej zawarli podobne umowy.

Przedstawiciel OpenAI podkreślił, że umowa z tego tygodnia dotyczy wyłącznie wykorzystania w otwartych systemach przez genai.mil. Rozszerzenie tej umowy będzie wymagało nowej lub zmienionej umowy.

Claude przeciwko autonomicznej broni

Natomiast negocjacje między konkurentem OpenAI — firmą Anthropic — a Pentagonem okazały się znacznie bardziej napięte. Kierownicy Anthropic powiedzieli wojskowym urzędnikom, że nie chcą, aby ich technologie były wykorzystywane do autonomicznego naprowadzania broni i prowadzenia wewnętrznego nadzoru w USA. Produkty Anthropic obejmują chatbota Claude.

"Anthropic jest zaangażowana w ochronę przywództwa Ameryki w dziedzinie AI i pomoc rządowi USA w przeciwdziałaniu zagrożeniom zewnętrznym, zapewniając naszym wojskowym dostęp do najnowocześniejszych możliwości sztucznej inteligencji", powiedział przedstawiciel Anthropic. — "Claude jest już szeroko stosowany w zadaniach związanych z bezpieczeństwem narodowym przez rząd USA, a my prowadzimy produktywne dyskusje z ministerstwem wojny na temat sposobów kontynuacji tej pracy."

Negocjacje pokazują rosnące napięcie między dążeniem wojska do uzyskania nieograniczonego dostępu do zaawansowanych technologii AI a pragnieniem firm technologicznych, aby zachować kontrolę nad wykorzystaniem swoich produktów. Szczególnie ostry jest ten problem w kontekście tajnych operacji wojskowych, gdzie błędy AI mogą mieć katastrofalne skutki.

Opinia AI

Z punktu widzenia analizy danych przez maszyny sytuacja przypomina klasyczny wzór współpracy wojskowo-przemysłowej z czasów zimnej wojny. Wtedy Pentagon również wywierał presję na prywatne firmy, żądając dostępu do zaawansowanych technologii — od półprzewodników po technologie satelitarne. Różnica polega na tym, że nowoczesne modele AI są „żywymi” systemami, które uczą się i rozwijają, w przeciwieństwie do statycznego sprzętu przeszłości.

Techniczna realizacja wymagań Pentagonu napotyka fundamentalny problem: tajne sieci są fizycznie odizolowane od internetu, co oznacza niemożność aktualizacji modeli w czasie rzeczywistym. Systemy AI w takich warunkach szybko się dezaktualizują, tracąc aktualność wiedzy.

\u003ct-16/\u003e \u003ct-18/\u003e \u003ct-20/\u003e \u003ct-22/\u003e \u003ct-24/\u003e

\u003cc-36/\u003e

BTC
BTC
71,672
+1.30%