Déclaration de San-Francisco

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La Déclaration de San-Francisco sur l'évaluation de la recherche (San Francisco Declaration on Research Assessment ; DORA) ou « Déclaration de San-Francisco » est une déclaration initiée par des scientifiques de l'American Society for Cell Biology (ASCB) et un groupe d'éditeurs de journaux scientifiques. Elle remet en cause l'usage croissant du classement bibliométrique comme indice au service de l’évaluation de la Recherche ou des chercheurs.

Préparée en 2012, cette déclaration a été publiée en 2013. La DORA se présente comme une initiative mondiale concernant toutes les disciplines scientifiques, que toute personne physique ou morale ou institution sensible aux besoins d'amélioration de l’évaluation de la recherche scientifique peut signer[1]. Et après quelques mois, en mai 2013, plus de 6000 personnes l'avaient signé, et le nombre d'organisations scientifiques signataires est passé de 78 à 231 en 2 semaines[2].

Elle découle des conclusions d'une réunion organisée en 2012 en marge du congrès annuel de l'ASCB qui portait sur le thème des citations scientifiques et de l'évaluation de la recherche scientifique, et mettant en cause la notion de facteur d'impact (tel que calculé par Thomson Reuters, de plus en plus utilisée pour évaluer les chercheurs, malgré les biais qu'elle implique)[3],[4] [5].

Le facteur d'impact est une mesure indirecte de la visibilité et notoriété d'une revue, qui selon les auteurs de la déclaration peut être affecté par des biais importants. Or c'est un des critères utilisé pour l'évaluation des chercheurs et des laboratoires, dont en France par l'AERES (l'autorité administrative indépendante créée en 2007 pour évaluer la Recherche).


Contexte[modifier | modifier le code]

Il existe une difficulté naturelle à évaluer aussi objectivement que possible, et « mesurer » la qualité et l'impact du travail de recherche.

L'évaluation de personnes, d'organisations, de réseaux scientifiques, et celle de leurs activités et impacts (utilité) est intrinsèquement difficile, tant pour les pairs que par des outils mathématiques ou informatiques supposés neutres et indépendants.

Avant la réunion de San-Francisco, des chercheurs se demandaient déjà quelle part l'évaluation doit accorder au critères de vulgarisation scientifique, de « valorisation de la recherche » (par les brevets ou par la mise à disposition de tous de données et solutions essentielles ?) par rapport à la notoriété d'un article supposé lié à celle de la revue dans laquelle il parait[6].

Le contexte est aussi celui de la crise de 2008 et des crises écologiques, climatiques ou géopolitiques qui appellent des analyses et réponses scientifiques alors que les budgets sont limités pour la recherche.

La publication scientifique doit aussi répondre à des critiques concernant le poids et l'influence de certains lobbys (industriels, agroalimentaires, nucléaires, etc.) qui peuvent chercher à orienter les budgets et contenus de la recherche à leur profit.

Les révélations de problèmes de conflits d'intérêts à haut niveaux de décision dans certaines agences de financement ou d'évaluation d'importance nationale ou européenne par exemple montrent que ce risque existe bien.

Parallèlement à une demande sociale d'intégrité scientifique (research integrity), il existe aussi une demande pour l'Open data et le libre accès aux publications (open access), en particulier quand les études ont été pour tout ou parties financées avec de l'argent public). Ce sont des questions que les financeurs de la recherche (dont l'ANR en France) commencent à étudier de manière plus coordonnées par exemple via le Global Research Council (GRC)[7].

De larges enjeux moraux, éthiques et de justice ou financiers sont donc sous-jacents à ces débats et à la déclaration de San-Francisco.

Objectifs[modifier | modifier le code]

L'enjeu principal de la déclaration de San-Francisco (DORA) est de mettre fin à la pratique (de plus en plus fréquente et systématique, notamment en Chine, en Inde et en France selon l'académicien des sciences Joël Bockaert[8]) d'établir une corrélation entre le facteur d'impact d'une revue scientifique et le fond ou la qualité de la contribution d'un scientifique.

Contenu[modifier | modifier le code]

Ce texte reconnait le besoin d’améliorer la façon dont les découvertes et la vulgarisation scientifique sont évaluées (en particulier par la remise en cause du facteur d’impact).

Selon cette déclaration, cette pratique (qui s'est fortement répandue depuis quelques décennies) crée des distorsions et des biais d'évaluation lors de l'appréciation de la recherche scientifique d'un scientifique, de son équipe ou de son laboratoire.

La déclaration affirme que le facteur d'impact ne doit pas être utilisée comme un substitut à la « mesure de la qualité des articles de recherche individuelle, ni en matière d'embauche, de promotion, ou de prise de décisions de financement » [4].

Le contenu de la déclaration consiste en une synthèse des résultat des discussions de la conférence de 2012, traduites en un ensemble de recommandations publiées en mai 2013[3].

Motivations sous-jacentes à la déclaration[modifier | modifier le code]

La motivation de la rencontre qui a produit cette déclaration était de rompre l'apparent consensus sur le lien entre qualité scientifique et facteurs d'impact, et de montrer que les facteurs d'impact (dans ce cas pour de nombreuses revues scientifiques spécialisées dans le domaine de la biologie cellulaire) ne reflètent pas correctement la valeur des travaux publiés dans ces revues pour la communauté scientifique du domaine de la biologie cellulaire ; ceci valant aussi pour d'autres domaines de le biologie.

Le groupe a aussi voulu discuter des façons de mieux corréler les « mesures » d'impact d'un article et d'un journal avec la qualité de la revue et des auteurs.

Il a également insisté sur une tendance qu'il juge alarmante : les auteurs citent de plus en plus des articles de revue et de moins en moins de sources primaires, ce qui induit outre une perte d'informations vérifiables par le lecteur, des biais d'interprétation. Cette tendance serait en partie due au manque d'espace imposé aux auteurs par certains journaux.

Ce « biais de citation » contribue aussi à réduire ou modifier les « indices de citation » pour des revues qui se concentrent principalement sur la « littérature primaire ». Le groupe a discuté des moyens de combattre cette tendance.

Réaction des éditeurs[modifier | modifier le code]

Certains grands éditeurs ou groupements d'éditeurs ont signé la DORA. Elsevier a déclaré adhérer à certains de ses élément[9].

Notes et références[modifier | modifier le code]

  1. présentation de la DORA par le collectif "Sauvons la recherche", consulté 2013-08-27
  2. John Fleischman, « Impact Factor Insurrection Catches Fire with Over 6,000 Signatures and Counting », The American Society for Cell Biology,‎ mai 30, 2013
  3. a et b (en) R. Cagan, « San Francisco Declaration on Research Assessment », Disease Models & Mechanisms,‎ 2013 (DOI 10.1242/dmm.012955, lire en ligne)
  4. a et b Alberts, Bruce (2013), Impact Factor Distortions, Journal Science, volume 340, n°6134, p787, American Association for the Advancement of Science, May 17, 2013 ; doi=10.1126/science.1240319
  5. Richard Van Noorden, « Scientists join journal editors to fight impact-factor abuse », Nature News Blog, Nature Publishing Group,‎ 16 mai 2013 (lire en ligne)
  6. Sylvain Piron (2009),Nicolas Dodier (sociologue, directeur de recherches à l'INSERM et directeur d'études à l'EHESS), Penser un régime d’évaluation de la recherche scientifique 5 mai 2009
  7. ANR Les financeurs de la recherche mondiale se penchent sur l’open access et les questions d’intégrité,
  8. Cité par Sabine Casalonga, in « Faut il abandonner le facteur d'impact ? », Biofutur, p 6, in Biotech news,
  9. Andrew Plume, PhD (2013), San Francisco Declaration on Research Assessment (DORA) – Elsevier’s view Elsevier supports those elements of DORA that reflect long known problems with Impact Factors, and in which we have been actively supporting a range of alternatives and best practices. Elsevier is not signing DORA in its entirety, however, as it’s not our place to advocate for positions that are primarily aimed at other partners in the research community. Mendeley is signing DORA on its own 2013-06-03 (en savoir plus)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

  • (fr)

Bibliographie[modifier | modifier le code]