How Replacing Developers With AI is Going Horribly Wrong
FULL TRANSCRIPT
En 2023, on prévoyait que l'IA remplacerait
jusqu'à 80 % des développeurs d'ici 2025.
À l'avenir, nous aurons des collègues IA.
Ces personnes ne seront même pas des
personnes. Elles ne pourront pas être incarnées.
Mais c'est pourtant ce qui se passe
réellement. Les entreprises technologiques embauchent aujourd'hui plus
de développeurs que jamais. Mais ce changement
n'est pas dû à un échec de
l'IA. Il reflète plutôt la prise de
conscience des entreprises que ses capacités ont
probablement été surestimées. Des géants de la
technologie comme Meta et Google affirment désormais
qu'ils prévoient de confier à l'IA jusqu'à
la moitié de leur programmation. Les entreprises
qui avaient auparavant licencié massivement des développeurs
de logiciels semblent maintenant revenir sur leurs
décisions. Nombre de ces outils d'IA prétendument
miraculeux… ne se compare pas aux capacités
de résolution de problèmes d'un humain. >>
Il semblerait que les entreprises licencient. Les
entreprises prévoyaient environ 32 000 licenciements en
septembre. C'est une baisse de 27 %
par rapport à la même période l'an
dernier. >> Cela a remis en question
la capacité de l'IA à écrire du
code. Alors, comment le remplacement des développeurs
par l'IA a-t-il échoué ? Ces dernières
années, l'idée s'est imposée que l'intelligence artificielle
serait prête à remplacer les programmeurs humains.
Des investisseurs aux dirigeants, l'idée que la
plupart du code logiciel serait écrit par
des machines d'ici le milieu de cette
décennie a été maintes fois renforcée. >>
L'entreprise affirme que plus d'un quart de
tout le nouveau code chez Google est
désormais généré par l'IA. >> Certaines projections
sont même allées jusqu'à affirmer que jusqu'à
80 % du développement logiciel serait automatisé.
L'automatisation pourrait être effective avant 2026. Cependant,
les données empiriques accumulées tout au long
de 2024 et 2025 révèlent une réalité
bien différente. L'enthousiasme initial pour des outils
tels que GitHub Copilot et les modèles
de langages d'IA spécialisés a poussé de
nombreuses organisations vers une automatisation complète de
la programmation. De ce fait, dans certains
cas, plus de 30 % des budgets
alloués aux technologies d'innovation ont été consacrés
à ces solutions. Mais lorsque ces outils
ont commencé à être utilisés dans des
environnements de production réels plutôt que dans
le cadre de démonstrations contrôlées, des problèmes
importants sont apparus. Parmi eux, des pertes
de productivité et une augmentation du taux
d'erreurs. Nous ne disons pas ici que
l'IA ne contribue pas à la productivité.
Nous disons simplement que les outils d'IA,
bien qu'ils soient là et utilisés, les
retombées peuvent être plus inégales que ne
le laisse entendre le battage médiatique. Des
failles de sécurité sont également apparues et,
dans certains cas, des faillites financières se
sont produites dans des entreprises qui présentaient
le développement piloté par l'IA comme étant
totalement autonome. Par exemple, une étude universitaire
publiée en 2025 a analysé plus de
500 000 échantillons de code générés par
des développeurs humains et par des systèmes
d'IA. L'analyse s'est concentrée sur des langages
largement utilisés tels que Python, Java et
JavaScript. Et les résultats étaient cohérents. Le
code généré par l'IA tend à être
plus simple, plus répétitif et moins diversifié
structurellement. Ces caractéristiques se traduisent par un
logiciel moins robuste et plus difficile à
maintenir à long terme. Bien que ces
simplifications puissent paraître inoffensives, la conséquence directe
est une augmentation significative du risque. La
même étude a révélé que le code
produit par l'IA contient entre 20 et
45 % de failles de sécurité à
haut risque supplémentaires. Ces problèmes incluent des
échecs de validation des entrées, une gestion
inadéquate des erreurs et de mauvaises pratiques
cryptographiques. Mais le constat général est que,
malgré les dépenses en IA d'entreprise, les
résultats ne correspondent pas aux attentes initiales.
En revanche, le code écrit par des
humains reflète des décisions plus judicieuses et
une meilleure compréhension des exigences du système,
réduisant ainsi la probabilité de défaillances critiques
en production. Les solutions automatisées, par comparaison,
présentent jusqu'à 1,7 fois plus d'erreurs graves
ou critiques. Ces conclusions concordent avec les
analyses du secteur. Un rapport de Code
Rabbit a révélé que les requêtes d'extraction
générées par l'IA contiennent en moyenne 10,8
problèmes détectés, contre 6,4 pour celles écrites
par des humains. Cette différence est loin
d'être négligeable. Chaque erreur supplémentaire augmente les
coûts de revue, de maintenance et de
correction lors des phases ultérieures du développement.
L'un des principaux arguments en faveur de
l'IA est l'augmentation de la productivité. Et
pour les tâches simples et répétitives, cette
promesse est partiellement tenue. Des études montrent
que les développeurs juniors peuvent augmenter leur
vitesse de livraison d'environ 30 à 35
% lorsqu'ils utilisent l'IA pour générer du
code ou des modèles de base. Cependant,
lorsque la productivité est examinée dans des
contextes d'entreprise réels, le tableau change radicalement.
Les ingénieurs expérimentés étaient en fait 19
% plus lents lorsqu'ils utilisaient des outils
d'IA comme le curseur. Au lieu d'accélérer
leur travail, l'IA leur donnait souvent des
suggestions qui semblaient utiles, mais qui nécessitaient
en réalité des corrections fastidieuses. La recherche
universitaire et les rapports d'entreprise indiquent que
plus de 90 % des projets pilotes
de développement assisté par IA ne parviennent
pas à s'intégrer de manière stable ni
à générer un retour sur investissement clair.
Parmi les raisons figurent les problèmes de
sécurité, l'incompatibilité avec les architectures existantes et
le besoin constant d'intervention humaine. Plusieurs études
montrent même une réduction nette de la
productivité des développeurs expérimentés. Les ingénieurs seniors
déclarent consacrer entre 8 et 11 heures
supplémentaires par semaine à la révision, la
correction ou la réécriture du code généré
par l'IA. Cet effort est particulièrement concentré
dans les systèmes complexes où les erreurs
contextuelles peuvent engendrer des effets en cascade.
Mais le problème le plus critique associé
au code généré par l'IA est la
sécurité. Selon le rapport de Virode sur
la sécurité du code, environ 45 %
du code généré par l'IA contient des
vulnérabilités classées comme critiques dans les langages
largement utilisés en entreprise. Les taux d'échec
dépassent 70 %, tandis qu'en Python et
JavaScript, ils se situent entre 38 et
45 %. Les géants de la technologie
comme Microsoft et Google externalisent de plus
en plus de développement vers l'IA dans
un souci de productivité, mais de nouvelles
recherches montrent que ces outils pourraient ne
pas être aussi utiles que certains l'espéraient.
Mais ces vulnérabilités ne sont pas purement
théoriques. Des enquêtes citées par Reuters indiquent
qu'un responsable de la sécurité sur cinq
a signalé de véritables incidents de production
causés directement par du code généré par
l'IA. Dans certains cas, des organisations ont
été contraintes de revenir à des déploiements
entiers ou d'appliquer des correctifs d'urgence, ce
qui a engendré des coûts économiques et
de réputation considérables. Mais les problèmes ne
se limitent pas à des statistiques abstraites.
Il existe des exemples concrets d'entreprises qui
ont misé de manière agressive sur l'automatisation
du développement pilotée par l'IA et qui
en ont subi de graves conséquences. L'un
des cas les plus emblématiques est celui
de Builder AI, une entreprise qui promettait
de créer des applications complètes grâce à
l'intelligence artificielle avec une intervention humaine minimale.
Malgré des levées de fonds de plusieurs
centaines de millions de dollars et une
valorisation de plusieurs milliards de dollars, il
a été découvert qu'une grande partie du
travail dépendait encore des développeurs humains. À
ce stade, vous avez probablement déjà entendu
parler de ce problème. Vous avez peut-être
entendu parler de Builder AI, cette startup
d'IA valorisée à 1,5 milliard de dollars
qui vient de déposer le bilan. Vous
connaissez peut-être même l'histoire de cette prétendue
entreprise d'IA qui, en réalité, n'utilisait pas
du tout l'IA, mais seulement 700 ingénieurs
indiens qui effectuaient le travail. En 2025,
l'entreprise a déposé le bilan et réduit
ses effectifs d'environ 80 %, affectant près
de 1 000 employés. Un autre cas
préoccupant s'est produit en décembre 2025 lorsqu'un
développeur a signalé une défaillance critique dans
un outil de développement assisté par IA
disposant d'un accès approfondi au système d'exploitation.
L'IA antigravité de Google a accidentellement supprimé
tout le contenu d'un disque dur après
avoir exécuté une commande incorrecte avec un
indicateur de mise en sourdine. Cet incident
a mis en évidence les risques liés
à la délégation d'automatisations critiques sans supervision
humaine, où une simple défaillance peut avoir
des conséquences désastreuses. peut entraîner une perte
de données irréversible et des semaines, voire
des mois, de travail anéantis. Au-delà des
erreurs isolées, un consensus technique se dessine
quant aux limites des modèles d'IA actuels.
En particulier, leur incapacité à prendre des
décisions d'ingénierie complexes nécessitant un contexte large
et un jugement humain est soulignée. Les
outils automatisés sont performants pour les tâches
clairement définies et hautement structurées. Cependant, ils
échouent lorsqu'ils interagissent avec des architectures interdépendantes,
des systèmes existants et des exigences métier
ambiguës, une réalité courante dans la plupart
des projets d'entreprise. Des études antérieures ont
montré un avantage plus direct des outils
d'IA pour les ingénieurs juniors, notamment pour
les tâches simples et bien définies. Or,
cette dernière étude suggère que, si elle
peut aider ce groupe à progresser, elle
risque en réalité d'accroître la dépendance aux
talents seniors, car il faut toujours quelqu'un
pour déboguer, peaufiner et livrer le produit
final. L'un des problèmes les plus récurrents
L'une des raisons de ces échecs est
l'incapacité de l'IA à gérer des exigences
incomplètes ou implicites. Contrairement aux développeurs humains
qui posent des questions et anticipent les
cas particuliers, l'IA se fie strictement aux
informations fournies. Ceci est problématique étant donné
que plus de 70 % des projets
de logiciels d'entreprise subissent des modifications importantes
de leurs exigences en cours de développement.
Dans les applications réelles, une fonction apparemment
simple comme le traitement des paiements peut
cacher une complexité considérable. En pratique, elle
implique souvent des dizaines de règles métier
liées aux remboursements, aux taxes et à
la conformité réglementaire. L'IA ne peut pas
anticiper ces complexités à moins qu'elles ne
soient explicitement spécifiées. Ceci explique pourquoi une
grande proportion de projets automatisés finissent par
être partiellement réécrits par des développeurs humains
avant leur mise en production. Ce problème
est aggravé par le fait que, malgré
l'engouement pour l'IA promu par les entreprises
technologiques, la plupart des outils d'intelligence artificielle
sont encore en développement. En général, ils
sont très similaires les uns aux autres.
||| >> Vous avez parlé de cette
course entre ces ||| modèles qui, vous
le savez, font de la vidéo ou
de la génération d'images. Certains sont meilleurs
en ||| codage que d'autres ou en
||| écriture que d'autres. Ils s'améliorent tous,
cependant, ||| mais ils font tous généralement
la même chose. ||| >> Les cas
d'entreprises qui ont subi des pertes de
plusieurs millions de dollars, voire des faillites,
après avoir misé aveuglément sur ||| ces
solutions constituent un avertissement clair. La véritable
transformation ne réside pas dans l'élimination des
développeurs, mais dans l'amélioration de leur travail
grâce à des outils intelligents qui réduisent
les tâches répétitives. Parallèlement, le jugement humain,
l'expérience et la responsabilité sont préservés dans
chaque ligne de code. ||| Chez Economy
Media, votre opinion compte.
UNLOCK MORE
Sign up free to access premium features
INTERACTIVE VIEWER
Watch the video with synced subtitles, adjustable overlay, and full playback control.
AI SUMMARY
Get an instant AI-generated summary of the video content, key points, and takeaways.
TRANSLATE
Translate the transcript to 100+ languages with one click. Download in any format.
MIND MAP
Visualize the transcript as an interactive mind map. Understand structure at a glance.
CHAT WITH TRANSCRIPT
Ask questions about the video content. Get answers powered by AI directly from the transcript.
GET MORE FROM YOUR TRANSCRIPTS
Sign up for free and unlock interactive viewer, AI summaries, translations, mind maps, and more. No credit card required.