L’arrivée massive d’outils d’intelligence artificielle dans les environnements de développement logiciel a bouleversé les pratiques — et pas seulement du côté de la productivité. En 2026, près d’un quart du code produit dans le monde est généré par des modèles IA, comme les copilotes ou agents de génération automatique, une adoption qui s’accélère dans les entreprises. Cependant, des analyses récentes montrent que cette automatisation soulève des risques significatifs pour la qualité, la sécurité et la formation des développeurs.
Un rapport de Black Duck indique que le code généré par IA crée une “illusion de correction” : il a souvent l’apparence d’un code robuste, mais cache des vulnérabilités sérieuses. Dans un contexte où environ une équipe sur deux ne vérifie pas systématiquement le code issu d’un modèle IA, cette confiance excessive expose les organisations à des failles difficiles à détecter et à corriger avant leur déploiement.
Au-delà des risques techniques, une étude menée par des chercheurs d’Anthropic attire l’attention sur un autre effet — peut-être encore plus stratégique : l’IA peut inhiber le développement de compétences profondes chez les développeurs. Les participants qui s’appuyaient fortement sur des outils IA pour résoudre des tâches montraient une compréhension moindre des concepts sous-jacents, même s’ils terminaient les missions plus rapidement, ce qui pose un véritable défi pour les équipes et la formation des talents.
Cette situation est exacerbée par le phénomène appelé vibe coding, où le rôle du développeur se réduit à rédiger des prompts pour générer automatiquement du code sans saisir son fonctionnement ou sa logique. Ce modèle peut être séduisant à court terme, en particulier pour les profils juniors ou les amateurs, mais il compromet l’apprentissage et alimente une dépendance envers l’outil plutôt qu’une montée en compétence durable.
Les conséquences sont multiples : une hausse des failles de sécurité dans les applications, une fragilisation des pratiques DevSecOps et une érosion des compétences fondamentales en ingénierie logicielle. Les organisations qui se fient trop aux solutions IA sans appropriation des bonnes pratiques exposent leurs projets à des risques qui dépassent la simple erreur de code pour toucher à la qualité globale, la maintenabilité et la sécurité des systèmes d’information.
Apprendre avec l’IA, mais pas à la place de l’IA
Face à ce constat, il est essentiel d’adopter une approche équilibrée : l’IA doit augmenter les compétences humaines, pas les remplacer. Chez ANTARES, nous recommandons une stratégie claire pour intégrer l’IA dans les pratiques de développement tout en préservant la qualité, la sécurité et la montée en compétence des équipes :
- Intégrer des revues de code systématiques — même pour le code généré par IA — avec des outils de vérification automatisés (SAST, SBOM, tests unitaires) pour détecter les risques cachés.
- Former en continu les développeurs, en mettant l’accent sur la compréhension des concepts clés (architecture, sécurité, patterns de conception) plutôt que sur la simple génération de code par prompts.
- Encadrer l’usage des outils IA via des politiques internes, des directives de sécurité et des bonnes pratiques de prompting qui incluent explicitement les exigences de conformité et de performance.
- Maintenir une supervision DevOps efficace, en s’assurant que les systèmes d’information restent observables, contrôlables et sécurisés même lorsqu’ils intègrent des composants IA ou des pipelines automatisés.
Grâce à cette démarche, l’IA devient un levier d’efficacité et d’innovation sans sacrifier la robustesse des applications ni l’expertise des équipes — un équilibre indispensable pour les SI modernes.
Sources
- AI-generated code is fast becoming the biggest enterprise security risk as teams struggle with the ‘illusion of correctness’, IT Pro, publié le 5 février 2026.
- ‘Not a shortcut to competence’: Anthropic researchers say AI tools may inhibit skills formation, IT Pro, publié le 5 février 2026.
Image
- « Code » by nigelpepper is licensed under CC BY 2.0.


