Free Access
Editorial
Issue
Radioprotection
Volume 59, Number 3, July - September
Page(s) 152 - 154
DOI https://doi.org/10.1051/radiopro/2024027
Published online 18 September 2024

Nous avons reçu récemment un manuscrit de revue de littérature tellement bien fini qu’il semblait être le résultat d’un travail très soigné. Mais différentes erreurs nous ont amenés à penser que cet article pourrait être le fruit de l’utilisation d’un algorithme d’intelligence artificielle (IA) générative. Nous avons alors utilisé un logiciel de détection qui a confirmé une probabilité très élevée d’utilisation d’une IA générative. Cette soumission, la première que nous ayons détectée au sein du comité de rédaction de Radioprotection, nous conduit à faire le point sur l’utilisation de l’IA dans la publication scientifique.

Notre première réaction, instinctive, a été de penser qu’il s’agissait de tricherie pure et simple, et que ce type de comportement devait être banni. En effet, en tant que membres du comité éditorial ou de relecteurs, notre expertise, nous permettant d’évaluer la qualité des manuscrits soumis à Radioprotection, est acquise en partie grâce à nos publications. Malheureusement, l’IA permet aujourd’hui à des novices (non-experts) de fournir des manuscrits sans expertise (ce qui est frauduleux) et à terme d’être considérés comme experts de façon indue. Dans ce contexte, l’utilisation des outils d’IA, quels qu’ils soient, nous interroge fortement. Le comité éditorial de Radioprotection, en lien avec notre éditeur EDP Sciences, s’est donc penché sur cette question.

L’utilisation des outils d’IA est dans la ligne des évolutions scientifiques et techniques de notre société et va certainement impacter la radioprotection (Andresz et al., 2022). L’utilisation des technologies d’IA a été proposée par la plateforme NERIS afin de développer des outils avancés de préparation aux situations d’urgence, de réponse et de remédiation en cas d’accident nucléaire (Bexon et al., 2023). La Commission Internationale de Protection Radiologique (CIPR) envisage l’utilisation d’outils d’IA dans la révision actuelle du système de radioprotection (Clement et al., 2022). En imagerie médicale, de nombreuses solutions basées sur des méthodes d’apprentissage profond sont commercialisées pour des tâches de segmentation, de classification ou d’identification sur des images de radiographie, de tomodensitométrie ou d’IRM, par exemple pour détecter les fractures ou estimer l’âge osseux pédiatrique, etc… Ces nouveaux logiciels ont de véritables avantages cliniques dans la réduction des taux d’erreur, l’amélioration du flux de travail et la réduction de la fatigue des radiologues (Ruitenbeek et al., 2024 ; Kelly et al., 2022). De plus, au cours des cinq dernières années, la reconstruction des images de scanographie par apprentissage profond a été introduite pour améliorer la qualité des images et réduire la dose de rayonnement ionisant par rapport aux techniques de reconstruction classiques (Zhang et Seeram, 2020). Ces techniques doivent encore être validées de façon multicentrique pour plus de fiabilité.

L’utilisation des outils d’IA pour la production de données ou pour la rédaction d’un manuscrit semble donc inéluctable. À chaque fois qu’un progrès a été fait, il s’est trouvé de bonnes et de mauvaises utilisations, mais surtout des intentions bonnes ou mauvaises. L’exemple de l’utilisation des rayonnements ionisants est caractéristique, presque caricatural, de ce point de vue. C’est donc bien l’intention de l’utilisateur qui doit être prise en compte. Souhaite-t-il simplement utiliser un outil performant pour lui permettre d’améliorer sa production scientifique, ou bien souhaite-t-il utiliser ces outils à des fins de malversation, scientifique ou autre ?

Un parallèle intéressant peut être fait avec le plagiat, un autre aspect de l’intégrité scientifique. Les méthodes, la façon de présenter un corpus de données ou encore la rédaction de certaines parties d’articles ne peuvent éviter une certaine similitude, parfois importante, avec des écrits existants. Qui n’a pas déjà fait un copier-coller d’un paragraphe de matériels et méthodes ? Dans ce cas, il ne s’agit pas de plagiat, ni même d’intention de plagiat mais d’une difficulté à exprimer la même chose avec des mots différents. Par contre, le fait de volontairement copier des résultats, des interprétations de résultats jusqu’aux conclusions d’un article scientifique pour s’en approprier la paternité est clairement du plagiat et doit être banni des pratiques. Il résulte de cet exemple un élément essentiel : le plagiat est dans l’intention.

Il en va de même pour l’utilisation des outils d’IA dans la publication scientifique. Ce n’est pas l’utilisation de l’outil qui est à remettre en cause. De toutes façons, comme tout progrès technologique, son utilisation devient inévitable, et ce sont ceux qui ne les utiliseront pas qui seront dépassés par l’évolution de la qualité augmentée des manuscrits générés avec l’aide de l’IA. En revanche, ce qui est important pour les éditeurs, c’est d’imposer que l’utilisation d’une IA dans un travail scientifique soit signalée, comme tout autre outil utilisé dans un travail scientifique, que ce soit un produit chimique, une souche de souris, un logiciel d’analyse statistique.

C’est ainsi que les instructions aux auteurs de manuscrits soumis à Radioprotection, qui suit les principes du Comité d’éthique des publications (COPE) (https://publicationethics.org/), viennent d’être révisées. Les auteurs sont invités à se conformer aux recommandations pour la conduite, la présentation, l’écriture et la publication de travaux de recherche soumis à des revues médicales du comité international des rédacteurs de publications médicales – International Commission of Medical Journal Editors (ICMJE) accessibles via le lien suivant : http://www.icmje.org/recommendations. Concernant l’utilisation des logiciels d’IA, il faut distinguer les outils d’assistance (faire des suggestions, des corrections et des améliorations du contenu que vous avez vous-même créé) et les outils d’IA générative (ChatGPT, Dall-e, …) qui produisent du contenu. Or, l’utilisation de l’IA relève entièrement de la responsabilité des auteurs, comme c’est le cas pour l’utilisation de n’importe quel autre outil. Les auteurs sont dorénavant tenus d’informer le lecteur de tout contenu généré par une IA générative apparaissant dans leur travail (y compris le texte, les images ou les traductions), selon les modalités décrites dans les instructions aux auteurs (https://www.radioprotection.org/fr/pour-les-auteurs/instructions-aux-auteurs). Ces informations obligatoires permettront à l’équipe éditoriale de prendre une décision de publication éclairée.

De même que pour le plagiat qui a quasiment disparu, du moins dans les manuscrits reçus par notre journal car le risque de détection est bien trop grand pour les tricheurs, gageons que cette demande de signalement de l’utilisation de l’IA permettra de réduire les utilisations abusives ou à des fins de malversations de l’IA dans la publication scientifique. En attendant, la montée en puissance de l’utilisation de ces outils d’IA nécessite une vigilance encore plus grande, non seulement de la part des éditeurs, mais aussi des relecteurs de manuscrits, qui utiliseront des logiciels de détection d’IA s’ils en ressentent le besoin.

***

For or against the use of artificial intelligence to write scientific articles submitted to Radioprotection

We recently received a literature review manuscript so well finished that it seemed to be the result of very careful work. However, various errors led us to think that this article could be the result of using a generative artificial intelligence (AI) algorithm. We then used a detection software, which confirmed a very high probability of using generative AI. This submission, the first that we detected within the Radioprotection editorial board, leads us to address the issue of using AI in a scientific publication.

Our first instinctive reaction was to think that this was cheating and that this type of behavior should be banned. Indeed, as members of the editorial committee or reviewers, our expertise, allowing us to evaluate the quality of the manuscripts submitted to Radioprotection, is acquired in part thanks to our publications. Unfortunately, AI today allows novices (non-experts) to provide manuscripts without expertise (which is fraudulent) and ultimately to be unduly considered experts. In this context, using AI tools, whatever they may be, raises serious questions for us. The Radioprotection editorial committee, in conjunction with our publisher EDP Sciences, therefore looked into this question.

The use of AI tools is in line with scientific and technical developments in our society and will certainly impact radiation protection (Andresz et al., 2022). The use of AI technologies has been proposed by the NERIS platform to develop advanced tools for emergency preparedness, response and remediation in the event of a nuclear accident (Bexon et al., 2023). The International Commission on Radiological Protection (ICRP) considers the use of AI tools in the current review of the radiation protection system (Clement et al., 2021). In medical imaging, many solutions based on deep learning methods are marketed for segmentation, classification or identification tasks on x-ray, CT or MRI images, for example to detect fractures or estimate bone age in children, etc… These new software have real clinical benefits in reducing error rates, improving workflow and reducing radiologist fatigue (Ruitenbeek et al., 2024; Kelly et al., 2022). Additionally, in the past 5 years, deep learning CT image reconstruction has been introduced to improve image quality and reduce ionizing radiation dose compared with conventional reconstruction techniques (Zhang et Seeram, 2020). These techniques must still be validated in a multicenter manner for greater reliability.

Using AI tools for data production or for writing a manuscript therefore seems inevitable. Each time progress has been made, there have been good and bad uses, but above all good or bad intentions. The example of the use of ionizing radiation is characteristic, almost caricature, from this point of view. It is therefore the user’s intention that must be taken into account. Does he simply wish to use a powerful tool to enable him to improve his scientific production, or does he wish to use these tools for scientific or other malicious purposes?

An interesting parallel can be made with plagiarism, another aspect of scientific integrity. The methods, the way of presenting a corpus of data or even the writing of certain parts of articles cannot avoid a certain similarity, sometimes significant, with existing writings. Who has never copied and pasted a paragraph from materials and methods? In this case, it is not a question of plagiarism, nor even of an intention to plagiarize, but of a difficulty in expressing the same thing with different words. On the other hand, the fact of voluntarily copying results, interpretations of results and even the conclusions of a scientific article to take ownership of the authorship is clearly plagiarism and must be banned from practice. An essential element results from this example: plagiarism is intentional.

The same goes for using AI tools in scientific publishing. It is not the use of the tool that needs to be questioned. In any case, like any technological progress, its use becomes inevitable, and those who do not use them will be overtaken by the evolution of the increased quality of manuscripts generated with the help of AI. On the other hand, what is important for publishers is to ensure that the use of AI in scientific work is reported, like any other tool used in scientific work, whether it be chemical product, a strain of mouse, or statistical analysis software.

This is why the instructions to authors of manuscripts submitted to Radioprotection, which follows the principles of the Committee on Publication Ethics (COPE) (https://publicationethics.org/), have just been revised. Authors are encouraged to adhere to the recommendations for the conduct, presentation, writing and publication of research submitted to medical journals of the International Commission of Medical Journal Editors (ICMJE) accessible via the following link: http://www.icmje.org/recommendations. Regarding the use of AI software, we need to distinguish between assistance AI tools (making suggestions, corrections and improvements to the content you have created yourself) and generative AI tools (ChatGPT, Dall-e, …) that produce content. However, the use of AI is entirely the responsibility of the authors, as is the use of any other tool. Authors are now required to inform the reader of any AI-generated content appearing in their work (including text, images or translations), according to the procedures described in the instructions to authors (https://www.radioprotection.org/fr/pour-les-auteurs/instructions-aux-auteurs). This mandatory information will allow the editorial team to make an informed publication decision.

As with plagiarism, which has almost disappeared at least in the manuscripts received by our journal because the risk of detection is far too great for cheaters, we can bet that this request for reporting the use of AI will make it possible to reduce the misuse of AI in scientific publications. In the meantime, the increasing use of these AI tools requires even greater vigilance, not only on the part of publishers, but also on the part of manuscript reviewers, who will use AI detection software if they feel the need to do so.

Références

  • Andresz S, Zéphir A, Bez J, Karst M, Danieli J. 2022. Artificial intelligence and radiation protection. A game changer or an update? Radioprotection 57(2), 157–164. [CrossRef] [EDP Sciences] [Google Scholar]
  • Bexon A, Andronopoulos S, Croüail P, Montero Prieto M, Oughton D, Raskob W, Turcanu C, on behalf of the NERIS platform R&D committee. 2023. The NERIS roadmap: Research challenges in emergency preparedness, response and recovery. Radioprotection 58(3), 169–180. [CrossRef] [EDP Sciences] [Google Scholar]
  • Clement C, Rühm W, Harrison J, Applegate K, Cool D, Larsson CM, Cousins C, Lochard J, Bouffler S, Cho K, Kai M, Laurier D, Liu S, Romanov S. 2021. Keeping the ICRP Recommendations Fit for Purpose. J. Radiol. Prot. 41, 1390–1409. https://doi.org/10.1088/1361-6498/ac1611. [CrossRef] [Google Scholar]
  • Clement C, Rühm W, Harrison J, Applegate K, Cool D, Larsson CM, Cousins C, Lochard J, Bouffler S, Cho K, Kai M, Laurier D, Liu S, Romanov S. 2022. Maintenir les recommandations de la CIPR adaptées aux besoins. Radioprotection 57(2), 93–106. [CrossRef] [EDP Sciences] [Google Scholar]
  • Kelly BS, Judge C, Bollard SM, Clifford SM, Healy GM, Aziz A, Mathur P, Islam S, Yeom KW, Lawlor A, Killeen RP. 2022. Radiology artificial intelligence: A systematic review and evaluation of methods (RAISE). Eur Radiol. 32(11): 7998–8007. doi: 10.1007/s00330-022-08784-6. [Google Scholar]
  • Ruitenbeek HC, Oei EHG, Visser JJ, Kijowski R. 2023. Artificial intelligence in musculoskeletal imaging: Realistic clinical applications in the next decade. Skeletal Radiol. 2024 Jun 20. doi: 10.1007/s00256-024-04684-6. [Google Scholar]
  • Zhang Z, Seeram E. 2020. The use of artificial intelligence in computed tomography image reconstruction − A literature review. J Med Imaging Radiat Sci. 51(4): 671–677. doi: 10.1016/j.jmir.2020.09.001. [CrossRef] [Google Scholar]

Citation de l’article : Bertho J.-M., Bourguignon M., Jacobs M.L., Mercat C., Habib Geryes B. 2024. Radioprotection passe en « open access » pour 2024. Radioprotection 59(3): 152–154


© J.-M. Bertho et al. Published by EDP Sciences, 2024

Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.

Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.

Initial download of the metrics may take a while.