Okta Inc. (OKTA) объявила о запуске системы безопасности для предприятий, управляющих AI-агентами, и представила платформу Okta for AI Agents, общедоступный релиз которой запланирован на 30.04.2026.

Система решает три ключевых вопроса для организаций: где находятся AI-агенты, к чему они могут подключаться и какие действия могут выполнять. Платформа призвана помочь компаниям обнаруживать как санкционированные, так и несанкционированные AI-агенты, контролировать их доступ к ресурсам и отзывать доступ при необходимости.

Согласно исследованию, на которое ссылается Okta, 88% организаций сообщают о подозрительных или подтвержденных инцидентах безопасности, связанных с AI-агентами, в то время как только 22% рассматривают AI-агенты как независимые объекты, требующие управления идентификацией.

Платформа Okta for AI Agents включает несколько компонентов. Интеграции агентов в Okta Integration Network будут поддерживать платформы, включая Boomi, DataRobot и Google Vertex AI. Система может обнаруживать несанкционированные «теневые агенты», созданные сотрудниками, и регистрировать всех агентов как управляемые идентификаторы.

Платформа оснащена Agent Gateway, который служит контрольной точкой для доступа AI-агентов к ресурсам, а также управлением учетными данными и контролем доступа к API. Функция «Universal Logout» может немедленно отозвать все токены доступа для агентов, отклоняющихся от предполагаемого поведения.

«AI-агенты развиваются быстрее, чем любое программное обеспечение до них, что делает традиционные модели безопасности устаревшими», — заявил Рик Смит, президент по продуктам и технологиям Okta.

Объявление появилось в то время, когда AI-агенты становятся все более функциональными: некоторые из них способны выполнять команды терминала, получать доступ к файловым системам и автономно выполнять сложные рабочие процессы. Okta расширяет свой Universal Directory, чтобы рассматривать AI-агенты как отдельные нечеловеческие идентификаторы, требующие управления жизненным циклом.

#WorldNews2026