Publication scientifique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'expression « publication scientifique » regroupe plusieurs types de communications scientifiques et/ou techniques avancées que les chercheurs scientifiques font de leurs travaux en direction de leur pairs et d'un public de spécialistes. Ces publications ayant subi une forme d'examen de la rigueur de la méthode scientifique employée pour ces travaux, comme l'examen par un comité de lecture indépendant constitué de pairs.

La notion de littérature scientifique désigne plus largement l'ensemble des publications scientifiques. Les publications scientifiques permettent de diffuser des informations scientifiques et techniques, produites et utilisées notamment par les chercheurs. Une partie de cette littérature est réutilisée par les revues de vulgarisation scientifique.

Catégories[modifier | modifier le code]

On peut distinguer les publications scientifiques selon leur origine (académique, recherche privée...) ou selon support ou type de parution :

  • les revues scientifiques à comité de lecture ;
  • les comptes-rendus de congrès scientifique à comité de lecture ;
  • des ouvrages collectifs rassemblant des articles de revue ou de recherche autour d'un thème donné, coordonnés par un ou plusieurs chercheurs appelés éditeurs ;
  • des monographies sur un thème de recherche.

Les publications qui entrent dans l'un des cadres ci-dessus sont généralement les seules considérées pour l'évaluation de la recherche scientifique et des chercheurs (et de leurs laboratoires parfois) et les études bibliométriques et scientométriques.

Éléments de définition[modifier | modifier le code]

Sont habituellement exclues de la catégorie « publication scientifique » :

  • les revues sans comité de lecture, par exemple les revues d'actualité des sociétés savantes ;
  • les comptes-rendus de conférences sans comité de lecture ;
  • les monographies d'enseignement.
  • les comptes-rendus de congrès (au moins dans certaines disciplines qui ne les comptabilisent pas comme "articles scientifiques", tout en reconnaissant qu'ils participent aux missions de communication de résultats par le chercheur ou son équipe)

Le cas des pré-publications : il est plus complexe : il s'agit d'articles destinés en général à être formellement publiés, dans une revue par exemple, mais que leurs auteurs choisissent de mettre immédiatement à la disposition de la communauté scientifique, sur un site internet par exemple. Elles ne sont donc pas comptabilisées en tant que publications dans le cadre de la bibliométrie, mais ont le contenu d'une publication scientifique, et la rigueur qu'on peut attendre d'un article n'ayant pas encore été révisé selon les commentaires d'un comité de lecture.

Évolutions[modifier | modifier le code]

La production mondiale d'articles scientifiques croit depuis plusieurs générations, passant de 466 419 publications en 1988 selon la National Science Foundation à 986 099 en 2008 selon le rapport sur la science-2010 de l'Institut de statistique de l'UNESCO.

L'internet semble en train de bouleverser la mise à disposition des travaux scientifiques, de même que les approches open science/open data ;

La question de l'accès (payant ou non) à la donnée brute (souvent nécessaire à la vérification complète) ou même au contenu des articles est source de débats récurrents, avec des enjeux économiques complexes, mais aussi de protection de la donnée médicale et personnelle (par exemple dans le cas de la donnée biomédicale ouverte qui nécessite une anonymisation parfaite. Dans la société de l'information et pour les approches collaboratives, et face aux crises financières, écologiques, climatiques et sanitaires un accès rapide aux données nouvelles (y compris relatives aux échecs expérimentaux) devient crucial. En mai 2016, après deux jours de réunion à Bruxelles du Conseil sur la compétitivité (Competitiveness Council ou COMPET mis en place par la Commission européenne et qui rassemble les ministres européens en charge des sciences, de la recherche, de l'innovation, du commerce et de l'industrie), Carlos Moedas, Commissaire européen à la recherche, à l'innovation et à la science et les dirigeants européens ont unanimement appellé à un accès ouvert (open data «immédiat» à tous les articles scientifiques dès 2020[1].

« Quantitatif » versus « qualitatif » ?[modifier | modifier le code]

Ce sujet fait l'objet de débats récurrents alors que le nombre d'articles scientifiques et le nombre d'article « cités » sont en fortes augmentation depuis deux siècles, et plus encore depuis deux décennies en raison notamment de l'apparition de l'Internet et de ses moteurs de recherche. C'est un enjeu qui pourrait être exacerbé par le développement du big data et de l'open data.

En dépit de la mise en place de processus de scientométrie, de bibliométrie[2] et de management de la publication scientifique, des auteurs[3],[4],[5],[6],[7],[8] alertent sur l'existence d'études trompeuses, biaisées[9] ou de piètre qualité qui polluent le processus de recherche[10] et décrédibilisent la science[11]. Certains alertent aussi sur le fait qu'une nouvelle idéologie de l'évaluation (qualifiée de « servitude volontaire » par Gori & a. en 2009 [12]) et une « pression de publication » croissante peut encourager un « espionnage académique »[13] et en réaction une fermeture des laboratoires, au détriment d'un large partage des connaissances.

En 1963, le physicien et historien des sciences Derek de Solla Price en étudiant les tendances à la croissance exponentielle qui se dessinaient depuis 250 ans dans le secteur de la Recherche et des sciences voyait pointer une menace de « doomsday scientifique » (une « fin du monde » pour les sciences). Il observait que le nombre de scientifiques et d'articles augmentaient de manière exponentielle et en concluait que cela deviendrait insoutenable. A ce rythme, dans quelques générations, disait-il, « il faudra dans le monde avoir deux scientifiques pour chaque homme, femme, enfant et chien dans la population ». Selon Daniel Sarewitz, Price était aussi un « élitiste » qui estimait que la qualité ne pouvait pas être maintenue au sein d'une telle croissance. Il se basait notamment sur le fait que dans le passé, l'éminence scientifique a toujours été concentrée chez un très petit pourcentage de chercheurs. Selon lui, le nombre d'excellents scientifiques devrait donc croître beaucoup plus lentement que le nombre de chercheurs simplement bons, mais avec une prépondérance croissante d'une « main-d'œuvre capable d'écrire des articles scientifiques, mais pas en mesure d'écrire des articles de haute qualité ». Il prédisait que pour survivre la science aurait bientôt à passer d'une croissance exponentielle (où le quantitatif l'emporte sur le qualitatif) à « quelque chose de radicalement différent », pour qu'elle ne finisse pas victime de « sénilité » et noyée dans le bruit de sa propre productivité en hausse[10]. J Maddox en 1988 invite cependant à bien différentier les pressions exercées par les Institutions de la science, qui sont légitime et bénéfiques tant qu'elles ne sont pas excessives, et la pression parfois « extravagantes » qui pèse sur les chercheurs « qui peuvent être un mauvais service rendus aux jeunes collègues impressionnables et aux notions de paternité responsable » [3]. Selon Alan N. Miller & al. (1996), la pression sur le chercheur provient souvent à la fois de l'employeur, du fait que le nombre de publication tend à devenir une condition de réputation professionnelle, de titularisation, de promotion et d'accès aux prix scientifiques, de salaire, de mobilité voir simplement de maintien dans l'emploi[14]. Elle est source d'un stress conduisant des enseignant-chercheurs à délaisser leur excellence pédagogique et leurs devoir de vulgarisation[13], leurs temps d'enseignement et même de recherche et/ou à s'engager dans des voies pouvant manquer de pertinence, au détriment de la créativité et de l'innovation scientifiques[14].

Un demi-siècle plus tard, selon D. Sarewitz la question de la qualité réémerge d'une manière non prévue par Price : pour diverses raisons les leaders scientifiques « du Mainstream » acceptent de plus en plus qu'une part croissante de la recherche publiée ne soit pas fiable. Or, la manière dont est organisée la publication et l'évaluation scientifique, induit une rétroaction destructive : la production d'une science de médiocre qualité tend à s'entretenir elle-même voire à empirer, en raison de l'obligation (justifiée) de citer des travaux antérieurs, et d'une pression d'évaluation professionnelle et académique (dont dépendent la carrière des scientifiques mais aussi le financement des laboratoires) contraignant ces derniers à compulsivement publier[10] (souvent traduite par l'aphorisme Publish or perish, ce qui encourage la fraude[15], la « réalisation d'études triviales mais produisant des résultats rapides », la répétition inutile de résultats[4], des publications saucissonnées[4], et « l'inscription en tant que co-auteur personnes marginalement impliqués dans l'étude »[4],[16],[17]. Larkin (1999) estime en outre que ce processus « étouffe les jeunes talents »[18]. Ceci encourage aussi à publier dans des revues moins exigeantes des articles rejetés par les comités de lecture[19],[20].

Ceci a des effets sociétaux négatifs, dont par exemple en termes de sécurité sanitaire et de santé publique : ainsi en cancérologie de nombreuses lignées cellulaires utilisées pour la recherche se sont récemment révélées être révèlent contaminés (ainsi, une lignée cellulaire dite « de cancer du sein » utilisée dans plus de 1000 études publiées était en fait une lignée de cellules de mélanome. Or un article moyen de recherche biomédicale est cité de 10 à 20 fois en 5 ans, et on pense maintenant qu'un tiers de toutes les lignées cellulaires utilisées dans la recherche étaient en fait contaminés. 10 000 articles publiés citeraient donc chaque année un travail biaisé, basé sur des lignées cellulaires de cancer contaminés. « Des métastases se propagent dans la littérature sur le cancer » en conclue métaphoriquement Sarewitz[10], qui ajoute qu'un phénomène similaire touche d'autres domaines de recherche : des problèmes « pervasifs » de mauvaise qualité ont été démontrés dans des groupes d'études (ex : études de maladies neurologiques sur les rongeurs, études sur les biomarqueurs du cancer et d'autres maladies, études de psychologie expérimentale, avec des biais initiaux qui ont là ensuite "contaminé" une arborescence de milliers d'articles scientifiques citant les précédents).
Concernant les médicaments, le taux de réussite d'essais en phase II a chuté dans les années 2010 de 28 à 18%[21], souvent en raison d'un manque de qualité des études de phase 1 ou des données sur lesquelles ces études se sont basées.

Le principe « publier ou périr » s'est aussi développé dans les écoles de commerce et chez les économistes notait Byrne en 1990[22] et Sowel (1995)[23], avec selon lui des effets à la fois positifs et négatifs, mais en influant sur les choix méthodologiques des auteurs, peut-être au détriment d'innovations qui seraient permises par une recherche non-orthodoxe, ce qui devrait selon De Rond & al (2005)[5] faire l'objet de recherches plus approfondies.

La quasi-obligation de publier en anglais a aussi des conséquences sur la qualité de certains contenus ou leur compréhension par des relecteurs ou lecteurs non-anglophones[24]. En 2012, H Maisonneuve plaide pour une prise en compte de l'« éthique des publications » dans le processus d'évaluation [25] qui sans cela « nuit à l’intégrité de la science ».

Une bonne utilisation du web et des moteurs de recherche rendent certes potentiellement plus efficace l'identification d'études pertinentes, mais ils rendent également plus facile le travail de trolls et lobbies qui promeuvent des papiers (qu'ils soient de bonne ou de mauvaise qualité). Dans ce contexte « il n'est pas étonnant que le nombre de citations soit en hausse » commente D. Sarewitz[10]. Le problème pourrait être aggravé dans certains domaines à enjeux politiques sanitaires sociopolitiques ou économiques (le brevetage du vivant, les startups issues de la recherche) élevés tels que la nutrition, l'éducation, l'épidémiologie et l'économie, où la science est souvent plus incertaine et les enjeux sociétaux ou économiques élevés, ce qui induit « des débats sans fin sur les effets sur la santé du sel alimentaire, ou la façon de structurer l'aide étrangère, ou de mesurer les services écosystémiques », typiques selon D. Sarewitz des domaines où des points de vue opposés peuvent être copieusement appuyés par des articles relus par des pairs, entretenant un contexte appelant encore plus de recherche. De plus le secret industriel, la propriété intellectuelle ou la protection de la vie privée rendent de nombreux travaux invérifiables et sources de biais si un processus scientifique rigoureux n'a pas été mis en place. En 2016 D. Sarewitz invite les chercheurs à publier moins, moins souvent et sélectivement, en veillant en recherchant une qualité scientifique irréprochable[10].

Notes et références[modifier | modifier le code]

  1. Martin Enserink (2016), “In dramatic statement, European leaders call for ‘immediate’ open access to all scientific papers by 2020” ; Science News, DOI: 10.1126 / science.aag0577
  2. Weingart P (2005) Impact of bibliometrics upon the science system: Inadvertent consequences ?. Scientometrics, 62(1), 117-131.
  3. a et b Maddox J (1988) Why the pressure to publish ?. Nature, 333, 493 (résumé).
  4. a, b, c et d Angell, M. (1986). Publish or perish : a proposal. Annals of Internal Medicine, 104(2), 261-262 ([résumé http://annals.org/article.aspx?articleid=700246])
  5. a et b De Rond M & Miller A.N (2005) Publish or perish bane or boon of academic life ? ; Journal of Management Inquiry, 14(4), 321-329.
  6. Darnill A (1996) Publish or perish. Accountancy , 118 (1,237), 97
  7. Colquhoun D (2011) Publish-or-perish: Peer review and the corruption of science. The Guardian, 5(09).
  8. Lehrer J. (2010) The truth wears off: is there something wrong with the scientific method ? The New Yorker (article en ligne)
  9. Fanelli D (2010) Do pressures to publish increase scientists' bias ? An empirical support from US States Data. PloS one, 5(4), e10271.
  10. a, b, c, d, e et f The pressure to publish pushes down quality Scientists must publish less, says Daniel Sarewitz, or good research will be swamped by the ever-increasing volume of poor work, 11 Mai 2016 ; Nature 533,147 (en ligne 12 Mai 2016) doi:10.1038/533147a
  11. Wheeler A.G (1989). The pressure to publish promotes disreputable science.
  12. Gori, R., & Del Volgo, M. J. (2009). L'idéologie de l'évaluation: un nouveau dispositif de servitude volontaire? . Nouvelle revue de psychosociologie, (2), 11-26.
  13. a et b Mensah L.L (1982) Academic espionage : Dysfunctional aspects of the publish or perish ethic. Journal of advanced nursing, 7(6), 577-580.
  14. a et b Miller AN, Taylor SG & Bedeian AG (2011) Publish or perish: Academic life as management faculty live it. Career development international, 16(5), 422-445.résumé
  15. Woolf, P. K. (1986). Pressure to publish and fraud in science. Annals of Internal Medicine, 104(2), 254-256.
  16. De Villiers FP (1984) Publish or perish--the growing trend towards multiple authorship. South African medical journal= Suid-Afrikaanse tydskrif vir geneeskunde, 66(23), 882-883 (résumé).
  17. Petry G.H & Kerr H.S (1982) Pressure to publish increases incidence of co-authorship. The Phi Delta Kappan, 63(7), 495-495.
  18. Larkin M.J (1999) Pressure to publish stifles young talent. Nature, 397(6719), 467-467. (résumé)
  19. Nemery B. (2001) What happens to the manuscripts that have not been accepted for publication in Occupational and Environmental Medicine? Occup. Environ. Med. 58, 604–607
  20. McDonald, R. J., Cloft, H. J. & Kallmes, D. F. (2007) Fate of submitted manuscripts rejected from the American Journal of Neuroradiology: outcomes and commentary. Am. J. Neuroradiol. 28, 1430–1434
  21. Arrowsmith J.(2011) Phase II failures: 2008–2010. Nature Rev. Drug Discov. 10, 328–329
  22. Byrne J.A (1990). Is research in the ivory tower “fuzzy, irrelevant, pretentious”? Business Week, 29 oct 1990 , pp. 62–63, 66
  23. Sowell T (1995) Good teachers need not apply. Forbes, 19 juin 1995, 155 (13), 67
  24. Curry M.J & Lillis T (2004) Multilingual scholars and the imperative to publish in English : Negotiating interests, demands, and rewards. TESOL quarterly, 663-688.
  25. Maisonneuve, H. (2012). L’éthique des publications est ignorée: cela nuit à l’intégrité de la science. Archives de pédiatrie, 19(8), 879-881.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Boure R & Sureau M.G (1995) Revues scientifiques, lectorat et notoriété. Approche méthodologique. Recherches en communication, 4(4), 37-59.
  • Dayer C (2009) Modes d'existence dans la recherche et recherche de modes d'existence. Pensée plurielle, (1), 63-78.
  • Sinaï A (1997) Publier ou périr. Le Monde de l'éducation, de la culture et de la formation.