OpenAI a discrètement lancé Codex Security, un agent de sécurité IA maintenant en aperçu recherche pour les utilisateurs de ChatGPT Pro, Team, Enterprise et Edu.
C'est un grand changement.
Au lieu de simplement suggérer du code, le système scanne activement les dépôts, identifie les vulnérabilités et valide les corrections automatiquement.
Et les premiers chiffres sont difficiles à ignorer :
• 1.2M+ commits scannés pendant la bêta
• 792 vulnérabilités critiques trouvées
• 10,561 problèmes de haute sévérité détectés
• Faux positifs réduits de 50%+
• La sévérité sur-reportée réduite de 90%+
C'est important car les développeurs d'aujourd'hui se noient dans les alertes.
La plupart des avertissements de sécurité ne sont jamais corrigés simplement parce que les équipes ne peuvent pas faire confiance au signal.
Codex Security essaie de changer cela.
En même temps, le timing n'est pas aléatoire.
Le marché de la cybersécurité IA explose, évalué à 25,4 milliards de dollars en 2024 et projeté pour atteindre 154,8 milliards de dollars d'ici 2032.
Même le segment de sécurité agentique IA plus petit pourrait passer de 1,83 milliard de dollars en 2025 à 7,84 milliards de dollars d'ici 2030.
L'industrie croit clairement que des systèmes de sécurité autonomes arrivent.
Pendant ce temps, OpenAI lui-même est maintenant évalué à environ 500 milliards de dollars, après sa vente d'actions de 6,6 milliards de dollars à la fin de 2025 — ce qui en fait la société privée la plus précieuse au monde.
Mais les réactions ne sont pas purement optimistes.
Les actions de cybersécurité comme CrowdStrike, Cloudflare, Zscaler, Fortinet et Palo Alto Networks ont connu des mouvements mitigés après l'annonce.
Pourquoi ?
Parce que les agents de sécurité autonomes pourraient à la fois aider et perturber l'industrie de la sécurité existante.
Un autre détail intéressant :
OpenAI a également réaffirmé ses engagements en matière de déploiement d'IA éthique plus tôt ce mois-ci, excluant explicitement les applications de surveillance domestique dans les accords gouvernementaux mis à jour.
Donc, la grande question n'est pas de savoir si l'IA entrera dans la cybersécurité.
Cela a déjà été fait.
La vraie question est :
Les agents de sécurité autonomes deviendront-ils la nouvelle norme pour protéger les logiciels ?
Ou vont-ils introduire une toute nouvelle catégorie de risque ?
Curieux d'entendre vos pensées 👇
Faites-vous confiance à un agent IA pour sécuriser votre base de code ?
J'aime • Partager • Commenter
