Après l’arrivée de ChatGPT, la soumission d’articles augmente de 42% dans les revues de management : l’IA pousse la recherche vers le « plus » plutôt que vers le « mieux »

Selon l’éditorial du comité éditorial de Organization Science (INFORMS), publié en 2026, « More Versus Better: Artificial Intelligence, Incentives, and the Emerging Crisis in Peer Review », depuis la mise en ligne de ChatGPT à la fin de 2022, le volume de soumissions de la revue a augmenté de 42 %, obligeant les Deputy editors à passer de 6 à 11, et les active senior editors d’environ 30 à environ 60. Le professeur Ethan Mollick de Wharton a cité cet éditorial le 27/4 et a commenté : « Des systèmes scientifiques conçus pour les humains sont mis sous tension par l’IA. L’IA peut servir à faire de meilleure science, ou à faire simplement “plus de choses”. Le danger, c’est que le “plus” est en train de gagner. »

Le volume de soumissions explose de 42 %, et le personnel du comité éditorial est doublé pour faire face

Les données de Organization Science montrent la pression concrète exercée sur le système d’évaluation par les pairs (peer review) à l’ère de l’IA :

Volume de soumissions : +42 % après la mise en ligne de ChatGPT

Deputy editors : 6 → 11 (augmentation de 83 %)

active senior editors : environ 30 → environ 60 (double)

La plupart des soumissions seront toujours rejetées, et beaucoup sont éliminées dès le stade de tri initial par le deputy editor, mais « la charge du tri initial » reste elle aussi considérablement élevée

L’éditorial indique clairement que le problème n’est pas « l’IA qui remplace les chercheurs », mais « l’IA qui fait affluer une crue de soumissions de faible qualité ». Les volunteer editors et les reviewers (souvent d’autres chercheurs, qui assument le travail de revue à titre bénévole) sont les premiers touchés : ils doivent consacrer davantage de temps à trier des articles assemblés par IA, ce qui réduit au contraire le temps disponible pour des recherches réellement de haute qualité.

Mollick : « L’IA peut faire de meilleure science, ou faire plus de choses »

Le professeur de la Wharton School et pionnier de l’éducation à l’IA générative Ethan Mollick, lorsqu’il a partagé cet éditorial sur la plateforme X, a livré un commentaire qui a suscité l’attention au cœur du débat :

« Très belle analyse des soumissions à une grande revue de management qui montre à quel point le système de la science, conçu pour les humains, est mis sous tension à cause de l’IA. L’IA peut être utilisée pour faire de meilleures sciences ou elle peut être utilisée pour simplement faire plus de choses. Le danger, c’est que “plus” gagne. »

Il a ensuite complété dans un tweet : « Le problème, c’est que les incitations poussent à “plus” plutôt qu’à “mieux’ » (”The problem is that the incentives push for ‘more’ over ‘better’”). Cette phrase pointe directement le problème structurel dans le monde académique : la pression professionnelle de publish or perish pousse les chercheurs à produire en volume plutôt qu’à approfondir.

La signification en miroir pour l’industrie des outils d’IA

Les observations de Organization Science lancent des défis concrets à l’industrie des outils d’IA :

Premièrement, les outils d’agents d’écriture/de programmation comme OpenAI Codex, Claude Code, Gemini peuvent-ils concevoir des mécanismes de « garantie de la qualité » ? Par exemple : citer automatiquement de vraies publications, détecter des hallucinations évidentes, distinguer les articles qui relèvent d’une « recomposition assemblée » ? À l’heure actuelle, la plupart des outils d’IA se livrent surtout à une compétition de vitesse et de commodité ; personne ne vend cet argument de vente : « refuser de produire du contenu de faible qualité ».

Deuxièmement, le marché des outils de riposte pour l’industrie de l’édition académique est en train d’émerger. Originality.ai, Turnitin AI Detection, GPTZero, etc., tentent bien de détecter l’écriture par IA, mais ils ont du mal à l’emporter sur une course de long terme contre le LLM lui-même. La solution la plus probable est plutôt la « traçabilité des recherches humaines » — par exemple prouver le processus de recherche via l’historique des commits GitHub, les registres d’expériences brutes, des notes prises en temps réel, plutôt que de n’en soumettre qu’un produit final.

L’académique n’est pas un cas isolé : quelles industries seront aussi submergées par la “crue de plus” ?

L’évaluation par les pairs académique n’est que le premier système « conçu par des humains » et « reposant sur des évaluateurs bénévoles » à être touché. D’autres systèmes tout aussi fragiles comprennent :

Les communautés d’open source de code : les revues de PR sur GitHub, les maintainers d’un projet open source sont déjà submergés par des PR de faible qualité soumises par IA

Les dépôts d’articles et l’édition média : l’afflux de soumissions de la part d’auteurs indépendants explose, et il devient difficile pour les rédacteurs de distinguer le contenu généré par IA

La revue de documents juridiques : la production en série de contrats et de documents de procédure par IA, entraînant une explosion du temps de revue des avocats

Les devoirs étudiants et l’admission à l’université : la quantité de dossiers de candidature, de travaux de cours, dépasse de loin la charge de travail du corps enseignant

Point commun : tous les systèmes qui dépendent de « l’examen obligatoire par des experts humains » verront apparaître « l’effondrement du côté de la revue » quand l’IA aura ramené le coût marginal de la production à une valeur proche de zéro. La solution de Organization Science consiste à étendre les effectifs (de 6 deputy à 11), mais ce n’est que retarder le problème, pas le résoudre.

Conclusion : « le “mieux” nécessite de nouveaux mécanismes sociaux »

La phrase de conclusion de l’éditorial a une signification lourde — « Le jugement des experts humains continue de limiter les effets négatifs de l’IA sur le contenu publié, mais au prix d’un accroissement considérable des efforts. » En d’autres termes : la qualité académique ne s’est pas effondrée immédiatement, mais le temps payé par chaque éditeur/évaluateur est multiplié par deux ; l’« équilibre énergétique » de ce système a été rompu.

Défi de l’étape suivante : comment faire en sorte que les outils d’IA eux-mêmes portent une responsabilité de conception « orientée vers la qualité » (et non « orientée vers la production en volume »), comment faire en sorte que les mécanismes d’incitation récompensent à nouveau la « profondeur », et comment compenser de manière raisonnable le coût de l’examen par les experts humains. Tout cela n’est pas un problème technique : c’est un problème social et institutionnel — et l’IA accélère ces problèmes, au lieu de les traiter « progressivement dans le futur », elle les rend impossibles à éviter « maintenant ».

Cet article, après l’apparition de ChatGPT, voit le volume de soumissions de revues académiques de management augmenter de 42% : l’IA pousse l’académie vers « plus » plutôt que vers « mieux » ; le plus tôt a été publié sur Liaison News ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire