Selon l’éditorial du comité éditorial de Organization Science (INFORMS), publié en 2026, « More Versus Better: Artificial Intelligence, Incentives, and the Emerging Crisis in Peer Review », depuis la mise en ligne de ChatGPT à la fin de 2022, le volume de soumissions de la revue a augmenté de 42 %, obligeant les Deputy editors à passer de 6 à 11, et les active senior editors d’environ 30 à environ 60. Le professeur Ethan Mollick de Wharton a cité cet éditorial le 27/4 et a commenté : « Des systèmes scientifiques conçus pour les humains sont mis sous tension par l’IA. L’IA peut servir à faire de meilleure science, ou à faire simplement “plus de choses”. Le danger, c’est que le “plus” est en train de gagner. »
Le volume de soumissions explose de 42 %, et le personnel du comité éditorial est doublé pour faire face
Les données de Organization Science montrent la pression concrète exercée sur le système d’évaluation par les pairs (peer review) à l’ère de l’IA :
Volume de soumissions : +42 % après la mise en ligne de ChatGPT
Deputy editors : 6 → 11 (augmentation de 83 %)
active senior editors : environ 30 → environ 60 (double)
La plupart des soumissions seront toujours rejetées, et beaucoup sont éliminées dès le stade de tri initial par le deputy editor, mais « la charge du tri initial » reste elle aussi considérablement élevée
L’éditorial indique clairement que le problème n’est pas « l’IA qui remplace les chercheurs », mais « l’IA qui fait affluer une crue de soumissions de faible qualité ». Les volunteer editors et les reviewers (souvent d’autres chercheurs, qui assument le travail de revue à titre bénévole) sont les premiers touchés : ils doivent consacrer davantage de temps à trier des articles assemblés par IA, ce qui réduit au contraire le temps disponible pour des recherches réellement de haute qualité.
Mollick : « L’IA peut faire de meilleure science, ou faire plus de choses »
Le professeur de la Wharton School et pionnier de l’éducation à l’IA générative Ethan Mollick, lorsqu’il a partagé cet éditorial sur la plateforme X, a livré un commentaire qui a suscité l’attention au cœur du débat :
« Très belle analyse des soumissions à une grande revue de management qui montre à quel point le système de la science, conçu pour les humains, est mis sous tension à cause de l’IA. L’IA peut être utilisée pour faire de meilleures sciences ou elle peut être utilisée pour simplement faire plus de choses. Le danger, c’est que “plus” gagne. »
Il a ensuite complété dans un tweet : « Le problème, c’est que les incitations poussent à “plus” plutôt qu’à “mieux’ » (”The problem is that the incentives push for ‘more’ over ‘better’”). Cette phrase pointe directement le problème structurel dans le monde académique : la pression professionnelle de publish or perish pousse les chercheurs à produire en volume plutôt qu’à approfondir.
La signification en miroir pour l’industrie des outils d’IA
Les observations de Organization Science lancent des défis concrets à l’industrie des outils d’IA :
Premièrement, les outils d’agents d’écriture/de programmation comme OpenAI Codex, Claude Code, Gemini peuvent-ils concevoir des mécanismes de « garantie de la qualité » ? Par exemple : citer automatiquement de vraies publications, détecter des hallucinations évidentes, distinguer les articles qui relèvent d’une « recomposition assemblée » ? À l’heure actuelle, la plupart des outils d’IA se livrent surtout à une compétition de vitesse et de commodité ; personne ne vend cet argument de vente : « refuser de produire du contenu de faible qualité ».
Deuxièmement, le marché des outils de riposte pour l’industrie de l’édition académique est en train d’émerger. Originality.ai, Turnitin AI Detection, GPTZero, etc., tentent bien de détecter l’écriture par IA, mais ils ont du mal à l’emporter sur une course de long terme contre le LLM lui-même. La solution la plus probable est plutôt la « traçabilité des recherches humaines » — par exemple prouver le processus de recherche via l’historique des commits GitHub, les registres d’expériences brutes, des notes prises en temps réel, plutôt que de n’en soumettre qu’un produit final.
L’académique n’est pas un cas isolé : quelles industries seront aussi submergées par la “crue de plus” ?
L’évaluation par les pairs académique n’est que le premier système « conçu par des humains » et « reposant sur des évaluateurs bénévoles » à être touché. D’autres systèmes tout aussi fragiles comprennent :
Les communautés d’open source de code : les revues de PR sur GitHub, les maintainers d’un projet open source sont déjà submergés par des PR de faible qualité soumises par IA
Les dépôts d’articles et l’édition média : l’afflux de soumissions de la part d’auteurs indépendants explose, et il devient difficile pour les rédacteurs de distinguer le contenu généré par IA
La revue de documents juridiques : la production en série de contrats et de documents de procédure par IA, entraînant une explosion du temps de revue des avocats
Les devoirs étudiants et l’admission à l’université : la quantité de dossiers de candidature, de travaux de cours, dépasse de loin la charge de travail du corps enseignant
Point commun : tous les systèmes qui dépendent de « l’examen obligatoire par des experts humains » verront apparaître « l’effondrement du côté de la revue » quand l’IA aura ramené le coût marginal de la production à une valeur proche de zéro. La solution de Organization Science consiste à étendre les effectifs (de 6 deputy à 11), mais ce n’est que retarder le problème, pas le résoudre.
Conclusion : « le “mieux” nécessite de nouveaux mécanismes sociaux »
La phrase de conclusion de l’éditorial a une signification lourde — « Le jugement des experts humains continue de limiter les effets négatifs de l’IA sur le contenu publié, mais au prix d’un accroissement considérable des efforts. » En d’autres termes : la qualité académique ne s’est pas effondrée immédiatement, mais le temps payé par chaque éditeur/évaluateur est multiplié par deux ; l’« équilibre énergétique » de ce système a été rompu.
Défi de l’étape suivante : comment faire en sorte que les outils d’IA eux-mêmes portent une responsabilité de conception « orientée vers la qualité » (et non « orientée vers la production en volume »), comment faire en sorte que les mécanismes d’incitation récompensent à nouveau la « profondeur », et comment compenser de manière raisonnable le coût de l’examen par les experts humains. Tout cela n’est pas un problème technique : c’est un problème social et institutionnel — et l’IA accélère ces problèmes, au lieu de les traiter « progressivement dans le futur », elle les rend impossibles à éviter « maintenant ».
Cet article, après l’apparition de ChatGPT, voit le volume de soumissions de revues académiques de management augmenter de 42% : l’IA pousse l’académie vers « plus » plutôt que vers « mieux » ; le plus tôt a été publié sur Liaison News ABMedia.
Related News
OpenAI ChatGPT n’atteint pas l’objectif de revenus, le directeur financier admet que les dépenses en calcul pourraient ne pas être payées
OpenAI ne parvient pas à plusieurs objectifs de vente, le directeur financier (CFO) remet en question la préparation insuffisante en vue d’une introduction en bourse d’ici la fin de l’année
Arthur Hayes : Les dépenses de guerre injectent d’importantes sommes sur le marché, et le Bitcoin atteint 125 000 $ d’ici la fin de l’année
Bitmine a renforcé ses avoirs avec plus de 100 000 ETH la semaine dernière, et son volume total d’ETH en portefeuille a dépassé les 5 millions d’unités.
Étude : les traders qualifiés de Polymarket (3 %) améliorent la précision, pas la foule