Les chercheurs devraient-ils utiliser l’IA pour rédiger des articles ? Le groupe vise des normes axées sur la communauté

Titre : Les chercheurs devraient-ils utiliser l'IA pour rédiger des articles ? Un groupe vise des normes communautaires

Email

Faut-il que les programmes d'intelligence artificielle (IA) générant du texte, tels que ChatGPT, aident à rédiger des articles de recherche ? Dans les prochains mois, 4000 chercheurs de divers domaines et pays se prononceront sur des lignes directrices qui pourraient être adoptées plus largement dans l'édition académique, qui lutte contre les chatbots et d'autres questions liées à l'IA depuis un an et demi. Le groupe à l'origine de cet effort souhaite remplacer le paysage morcelé des directives actuelles par un seul ensemble de normes représentant un consensus de la communauté de recherche.

Baptisé CANGARU, cette initiative est une collaboration entre chercheurs et éditeurs, dont Elsevier, Springer Nature, Wiley ; des représentants des revues eLife, Cell et The BMJ ; ainsi que le comité professionnel du Comité d'éthique de publication. Le groupe prévoit de publier un ensemble final de lignes directrices en août, qui sera mis à jour chaque année en raison de la "nature rapidement évolutive de cette technologie", déclare Giovanni Cacciamani, urologue à l'Université de Californie du Sud, qui dirige CANGARU. Les lignes directrices comprendront une liste de façons dont les auteurs ne doivent pas utiliser les grands modèles de langage (LLM) qui alimentent les chatbots et la manière dont ils doivent divulguer d'autres utilisations.

Depuis que les outils génératifs d'IA tels que ChatGPT sont devenus publics à la fin de 2022, les éditeurs et les chercheurs débattent de ces questions. Certains disent que les outils peuvent aider à rédiger des manuscrits s'ils sont utilisés de manière responsable - par des auteurs dont l'anglais n'est pas la langue maternelle, par exemple. D'autres craignent que des fraudeurs scientifiques n'utilisent ces outils pour publier rapidement un travail convaincant mais falsifié. La tendance des LLM à inventer des choses, combinée à leur capacité relative à rédiger et à un système de révision par les pairs surchargé, "pose une menace grave pour la recherche scientifique et la publication", déclare Tanya De Villiers-Botha, philosophe à l'Université de Stellenbosch.

INSCRIVEZ-VOUS À LA NEWSLETTER SCIENCEADVISER
Les dernières actualités, commentaires et recherches, gratuitement dans votre boîte de réception tous les jours
INSCRIVEZ-VOUS

Certaines revues, dont Science et Nature, et d'autres organismes ont déjà publié des règles sur la manière dont les scientifiques peuvent utiliser les outils génératifs d'IA dans leur travail. (Le service des nouvelles de Science est éditorialement indépendant.) Ces politiques stipulent souvent que les outils d'IA ne peuvent pas être des auteurs car ils ne peuvent pas être tenus responsables du travail. Elles exigent également que les auteurs déclarent où les outils ont été utilisés.

Mais le niveau de conseils varie. En décembre 2023, l'Association STM, un organisme professionnel de l'édition, a énoncé les utilisations autorisées des outils génératifs d'IA et a énuméré d'autres domaines sur lesquels les rédacteurs de revues doivent décider au cas par cas. Mais l'annonce de la Commission européenne le mois dernier est moins prescriptive, indiquant que les chercheurs utilisant ces outils doivent le faire de manière transparente et rester responsables de leur production scientifique.

La variété des lignes directrices pourrait être déroutante pour les chercheurs. "Idéalement, il devrait y avoir un gros effort pour rassembler toutes ces règles en un seul grand ensemble que tout le monde peut suivre", déclare Jean-Christophe Bélisle-Pipon, un éthicien de la santé à l'Université Simon Fraser. "Une ligne directrice standardisée est à la fois nécessaire et urgente", ajoute De Villiers-Botha.

Cacciamani dirige CANGARU dans une revue systématique de la littérature pertinente, qui informera les lignes directrices de l'IA. Un panel de chercheurs, de cliniciens, d'informaticiens, d'ingénieurs, de méthodologistes et d'éditeurs évaluera ensuite les lignes directrices.

Mais certains chercheurs craignent que l'initiative ne se déroule pas assez rapidement. "Déjà, le monde a beaucoup changé au cours des 10 derniers mois", déclare Daniel Hook, directeur des analyses de données de Digital Science. "La vitesse de progression de l'IA générative ne fera qu'augmenter."

Le nombre de chercheurs utilisant ces outils dans leur écriture semble augmenter rapidement. Certains cas d'utilisation inappropriée et illicite de ChatGPT sont évidents. Il ajoute parfois des phases telles que "coupure des connaissances en septembre 2021". "Ce sont de vrais indices", déclare Guillaume Cabanac, informaticien à l'Université de Toulouse, qui a compilé une liste de plus de 70 articles présentant des signes d'utilisation non déclarée de ChatGPT pour le blog Retraction Watch.

D'autres ont cherché des indices plus subtils de texte généré par LLM. Dans un préimprimé publié sur arXiv le 25 mars, Andrew Gray, qui travaille en support bibliométrique à l'University College London, estime qu'environ 1 % des articles publiés en 2023, environ 60 000 au total, contenaient une occurrence disproportionnée de mots inhabituels connus pour être corrélés avec le texte généré par LLM. Une autre analyse, publiée sur bioRxiv par Yingfeng Zheng à l'Université Sun Yat-sen et ses collègues le 26 mars, a examiné 45 000 préimpressions avant et après la disponibilité de ChatGPT et a estimé que 5 % des dernières incluent du texte généré par l'IA.

Philip Shapira, qui étudie la gouvernance des technologies émergentes à l'Université de Manchester, dit que les chiffres pourraient être des sous-estimations. "Il est maintenant facile de trouver en ligne des recommandations et des outils pour 'filtrer' les termes et expressions courants générés par ChatGPT", dit-il. Et les outils d'IA amélioreront probablement leur style d'écriture à l'avenir, ce qui les rendra plus difficiles à détecter.

Une fois que les lignes directrices de l'IA seront établies, la prochaine étape consistera à s'assurer que les auteurs s'y conforment, déclare Sabine Kleinert, rédactrice adjointe de la revue médicale The Lancet, qui participe à CANGARU. Cela peut être fait en demandant aux auteurs de déclarer l'utilisation de l'IA lorsqu'ils soumettent des articles. Le respect des limites de l'IA nécessitera également "l'expertise des éditeurs... ainsi que des examens par les pairs robustes et des politiques supplémentaires en matière d'intégrité de la recherche et d'éthique".

En fin de compte, dit Bélisle-Pipon, le succès des lignes directrices dépendra également des institutions et des organismes subventionnaires qui inciteront à l'observation des politiques - et qui pénaliseront les chercheurs qui ne le font pas. "Nous savons tous que le nœud du problème est la manière dont les bailleurs de fonds et les comités d'évaluation des chercheurs pour les embauches, les subventions, et la promotion et la ténure les évaluent."

doi : 10.1126/science.z9gp5zo

URL : <https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards>

Comments

Popular posts from this blog

Apprendre les langues étrangères : Outils modernes et potentiel du ChatGPT

ChatGPT-4 reproduit l'animation GapMinder en une seule tentative

GPT-4 vs GPT-3.5 - Dévoiler l'avenir des modèles de langage de l'IA