« Crise de la reproductibilité » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Tonka213 (discuter | contributions)
ajout de la section psychologie
Ligne 124 : Ligne 124 :
==Psychologie==
==Psychologie==


Bien que les problèmes de réplication soient présents dans plusieurs domaines<ref>{{cite web|last1=Achenbach|first1=Joel|title=No, science’s reproducibility problem is not limited to psychology|url=https://www.washingtonpost.com/news/speaking-of-science/wp/2015/08/28/no-sciences-reproducibility-problem-is-not-limited-to-psychology/|website=The Washington Post|accessdate=10 September 2015}}</ref>, ils sont souvent associés à la psychologie. En effet, plusieurs facteurs ont fait de la psychologie le centre de la controverse. La psychologie sociale a été plus largement impliquée dans la crise malgré que d’autres domaines de la psychologie soit eux aussi impliqués.
À modifier à partir de wiki anglais

Trois éléments ont causés la remise en question de la reproductibilité en psychologie menée par Kahneman<ref>{{cite web|title=A New Etiquette for Replication|url=http://www.scribd.com/doc/225285909/Kahneman-Commentary|first=Daniel|last=Kahneman|via=Scribd}}</ref>.

En premier lieu, celui-ci a découvert que les mauvaises pratiques de laboratoire étaient très fréquentes dans le domaine. En effet, un sondage réalisé auprès de plus de 2000 psychologues a montré que la majorité des répondants les avaient utilisés au moins une fois<ref name=":0">{{Cite journal|title = Measuring the Prevalence of Questionable Research Practices With Incentives for Truth Telling|url = http://pss.sagepub.com/content/23/5/524|journal = Psychological Science|date = 2012-05-01|issn = 0956-7976|pmid = 22508865|pages = 524–532|volume = 23|issue = 5|doi = 10.1177/0956797611430953|first = Leslie K.|last = John|first2 = George|last2 = Loewenstein|first3 = Drazen|last3 = Prelec}}</ref>.

En second lieu, la psychologie s’est retrouvée au centre de cas de recherches frauduleuses très importants. Comme le cas de Diederik Staple<ref>{{cite web|url=http://chronicle.com/article/As-Dutch-Research-Scandal/129746/|title=Fraud Scandal Fuels Debate Over Practices of Social Psychology|first=Christopher|last=Shea|date=13 November 2011|publisher=|via=The Chronicle of Higher Education}}</ref> qui a nuit fortement à l’image de la psychologie sociale. Par contre plusieurs études démontrent que la fraude est une faible influence sur la crise.

En dernier lieu, des problèmes de réplications dans le domaine avaient été découverts bien avant le début de la crise. En effet, des journaux scientifiques comme le Judgment and Decision Making a publié plusieurs études au fil des ans sur des tentatives de réplication non fructueuse. Les réplications sont d’ailleurs particulièrement difficiles lorsqu’elles sont menées par des groupes n’ayant pas un fort lien avec le sujet et lorsqu’elles sont préenregistrées ce qui diminue les risques de biais de confirmation ou de publication.

Plusieurs recherches sur la crise en psychologie ont alors été menées et des articles importants sur le sujet ont été publiés. En 2015, le reproductibility project qui est une étude impliquant plusieurs chercheurs et traitant de la crise de la reproductibilité en Psychologie a publié ses résultats. Cette recherche a permis de faire des études de réplication sur 100 recherches de trois importants journaux de psychologie. Moins de la moitié de ces expériences ont permis de répliquer les expériences avec des résultats suffisants tandis que la plupart ont permis de voir des tendances allant dans la direction espérée<ref>{{Cite journal|title = Estimating the reproducibility of psychological|url = http://www.sciencemag.org/content/349/6251/aac4716|journal = Science|date = 2015-08-28|issn = 0036-8075|pmid = 26315443|pages = aac4716|volume = 349|issue = 6251|doi = 10.1126/science.aac4716|first = Open Science|last = Collaboration}}</ref>.

James Coyne, un psychologue et professeur en psychologie, a récemment écrit que beaucoup de recherches et de méta-analyses sont compromises par leur piètre qualité et les conflits d’intérêts entre les auteurs et les groupes de défenses d’intérêts, ce qui résulterait en beaucoup de faux positifs quand à l’efficacité de certains types de psychothérapie<ref>{{cite web | url=http://blogs.plos.org/mindthebrain/2014/04/15/meta-analyses-conducted-professional-organizations-trustworthy/ | title=Are meta analyses conducted by professional organizations more trustworthy? | work=Mind the Brain | date=April 15, 2014 | accessdate=September 13, 2016 | first=James | last=Coyne}}</ref>
.

La crise de la reproductibilité amène la remise en question de plusieurs sphères de la psychologie qui étaient considérés comme solide, car les expériences de reproductibilité échouent<ref>{{cite web|url=http://chronicle.com/article/Power-of-Suggestion/136907/|title=Power of Suggestion|first=Tom|last=Bartlett|date=30 January 2013|publisher=|via=The Chronicle of Higher Education}}</ref> . Cela permet de voir les expériences qui ne sont pas solides et de ne plus en tenir compte.

Daniel Kahneman, professeur émérite en psychologie, affirme que les auteurs originaux devraient être présents lors du processus de réplication pour combler les lacunes aux niveaux de la description de la méthode expérimentale<ref>{{cite web|url=http://www.theguardian.com/science/head-quarters/2014/jun/10/physics-envy-do-hard-sciences-hold-the-solution-to-the-replication-crisis-in-psychology|title=Physics envy: Do ‘hard’ sciences hold the solution to the replication crisis in psychology?|first=Chris|last=Chambers|date=10 June 2014|publisher=|via=The Guardian}}</ref> tandis que certains auteurs comme Dr. Andrew Wilson croient que la méthode devrait déjà être écrite clairement. La présence de l’auteur original peut modifier le résultat d’une étude de réplication. En effet, une étude de 2012 sur la réussite de la réplication en psychologie indique que 91,7 % des essais de réplication avec les conseils de l’auteur original ont réussis contrairement à 64,6% pour celle réalisée sans sa présence<ref name=":1">{{Cite journal|title = Replications in Psychology Research How Often Do They Really Occur?|url = http://pps.sagepub.com/content/7/6/537|journal = Perspectives on Psychological Science|date = 2012-11-01|issn = 1745-6916|pmid = 26168110|pages = 537–542|volume = 7|issue = 6|doi = 10.1177/1745691612460688|first = Matthew C.|last = Makel|first2 = Jonathan A.|last2 = Plucker|first3 = Boyd|last3 = Hegarty}}</ref>.

Les pourcentages de réussites de réplications en psychologie sont éloquents. Les résultats trouvés par le reproductibility project démontrent que seulement 36% des études testées avaient des résultats significatifs par rapport à 97% des recherches initiales. La taille d’effet de la réplication était en moyenne deux fois moins grande que celle de la recherche originale. Cette expérience a aussi permis d’observer que les recherches en psychologie cognitive ont un taux de réplication (50%) plus élevé que celles en psychologie sociale (25%)<ref>{{Cite journal|title = Estimating the reproducibility of psychological|url = http://www.sciencemag.org/content/349/6251/aac4716|journal = Science|date = 2015-08-28|issn = 0036-8075|pmid = 26315443|pages = aac4716|volume = 349|issue = 6251|doi = 10.1126/science.aac4716|first = Open Science|last = Collaboration}}</ref>.

Un des problèmes du milieu de la psychologie est que, selon une analyse des recherches des 100 plus importants journaux de psychologie entre 1900 et 2012, seulement environ 1,07% des publications sont des expériences de réplication et que seulement 78,9 % de ses expériences de réplication était concluantes<ref name=":1" />.



==Comment résoudre la crise==
==Comment résoudre la crise==

Version du 12 décembre 2016 à 08:46

La crise de la reproduction fait référence à la crise méthodologique dans le domaine des sciences selon laquelle les résultats de nombreuses expériences scientifiques sont difficiles ou impossibles à reproduire au cours d’études subséquentes[1]. Dans une étude de reproductibilité portant sur 1500 scientifiques, plus de 70% des chercheurs ont été dans l’incapacité de reproduire l’expérience scientifique d’un autre chercheur et plus de la moitié ont échoué à reproduire leur propre expérience[2].

John Ioannidis, professeur de médecine et chercheur à l’école de médecine de l'université Stanford et à la Stanford University School of Humanities and Sciences ainsi que directeur de la Stanford Prevention Research Center est l’un des premiers à faire état de la crise dans son article provocateur "Why Most Published Research Findings Are False" en 2005[3].

Article de Ioannidis.

La réplicabilité en science constitue un filet protecteur contre les effets néfastes de la subjectivité. Il est donc important que la communauté scientifique puisse corriger ces défauts par l’entremise de la réplication. Le problème actuel de la crise est que soudainement les faits scientifiques précédemment établis semblent soudainement perdre leur vérité. Plusieurs découvertes scientifiques bien établies semblent de plus en plus incertaines et des éléments retrouvés dans des ouvrages servants de référence scientifiques depuis plusieurs années, ne sont soudainement plus valides[4].

Depuis le début des années 2010, la communauté scientifique a été frappée par une vague de prise de conscience au sujet de l'importance de la crise. Les résultats de plusieurs sondages démontrent par contre que son importance est encore méconnue d'une forte portion de la population. Des sondages démontrent que 52% des répondants sont en accord avec l’existence d’une crise significative dût à la reproductibilité, mais moins de 31% croient que l’absence de reproduction indique la possibilité de résultats erronés[2].

La nature incertaine de la recherche scientifique rend souvent difficile de déterminer avec précision les causes de non-reproductibilité d'une expérience et ainsi rend improbable l'atteinte éventuelle d'un taux de validité des résultats de 100% parmi la littérature publiée[3]. 50% des répondants d’un sondage sur la reproductibilité des recherches sur le cancer ont avoué avoir fait l’expérience d’au moins un épisode d'incapacité à reproduire des données publiées. Plusieurs étant incapable de déterminer la source du problème même en poursuivant la question auprès des auteurs originaux.[5].

L'approche difficile de la crise s'explique par le fait que celle-ci est n'est pas propre à un domaine unique et les facteurs qui en sont responsables sont nombreux[6] et souvent faits de manière inconsciente. Malgré les problèmes qu'elle apporte, la résolution de cette crise aura certainement un effet positif sur la qualité de la science. L'ensemble de la communauté scientifique participe actuellement aux premiers pas vers la résolution de la crise par divers moyens. Entre autres, établir des méthodes de rédaction et des critères de publication plus élevés permettra donc d'assurer une meilleure validité des publications scientifiques futures alors que la vague de réplication actuelle permet une actualisation du contenu de littérature scientifique en débusquant le contenu invalide[1].

Envergure de la crise à travers les différents domaines scientifiques

Le phénomène de non-reproductibilité semble être présent au sein d’un grand éventail de domaines, certains sont cependant moins affectés que d’autres comme c’est le cas pour la physique et la chimie[2], alors que l'exactitude de domaines comme la psychologie sociale[7] et de la médecine[4] est sévèrement affectée.

Selon un sondage du magazine Nature réalisé auprès de 1500 scientifiques en 2016, 70% ont échoué à reproduire les expériences de leurs confrères et 50% n'ont pu reproduire leur propre expérience. Ces chiffres varient selon la discipline :[2]

chimie : 90%* (60%)**,

biologie : 80% (60%),

physique et ingénierie : 70% (50%),

médecine : 70% (60%),

Géologie et environnement : 60% (40%).

  • Étant le % d'échec de l'expérience d'un collègue.
    • Étant le % d'échec de leur propre expérience.

Les données permettant de quantifier la littérature scientifique non reproductible sont rares, mais souvent très indicatives de l’ampleur de prend la crise. Des analyses portantes sur les taux de succès de reproduction dans les domaines de la psychologie et de l'oncologie étaient respectivement 40%[8] et 10%[9].

Une méta-analyse portant sur l’inconduite de plusieurs scientifiques, indique qu'en moyenne, 2% des scientifiques ont admis avoir fabriqué, falsifié ou modifier des résultats d’analyse au moins une fois. Entre 5.2% et 33.3% des répondants ont répondu de manière affirmative lorsque questionné à propos de leur connaissance personnelle de collègues ayant fabriquer ou falsifié des résultats de recherche[10].

Selon la banque de données de PubMed, 0,02% des publications sont retirés pour des raisons de mauvaise conduite. [11].

Aux États-Unis, d'après les cas confirmés par le gouvernement américain, des éléments de fraude sont documentés dans les travaux de 1 scientifique sur 100 000. 8 parmi 800 publications présentées à The Journal of Cell Biology comportent des images qui ont été manipulées de manière incorrecte[12].

Causes

Le vrai problème en science est que même une personne honnête peut devenir un maître dans l’art de s'auto décevoir. Souvent, les scientifiques, malgré leur bonne intention, vont mal analyser les résultats soit en inventant une corrélation entre des résultats qui peuvent être du total hasard , en ignorant d’autres explications possibles ou en acceptant des résultats plausibles sans se poser de questions, ce qui va mener à de mauvais résultats sans que le scientifique n’en ait conscience[13]. Ainsi, plusieurs recherches dont la réplication est mauvaise peuvent être expliquées par des erreurs inconscientes[13].

En premier lieu, un des facteurs pouvant causer ces erreurs est le phénomène appelé publier ou périr. Ce phénomène décrit la pression qu’exerce le système de publication sur les scientifiques les poussant consciemment ou inconsciemment à modifier ou à interpréter ses résultats pour qu’ils soient publiés. Cette pression de publier vient du fait que les chercheurs doivent se faire une notoriété par la publication pour pouvoir recevoir des fonds de recherche[14]. Ainsi, lorsqu'un article n’est pas à la hauteur, il est possible de modifier les résultats pour qu’il le soit. Aussi, le fait que les chercheurs doivent publier plus rapidement pour ne pas sombrer dans l’oubli, crée une augmentation de la quantité de recherche publiée, mais la qualité de ces articles n’est pas toujours bonne vu le fait que les scientifiques ne peuvent pousser autant leurs recherches par manque de temps[14].

Ensuite, le biais de confirmation peut augmenter le problème de la reproductibilité en

De plus, un autre phénomène ne pouvant être contrôlé et pouvant influencer les résultats des recherches est la variabilité des effets. En effet, le fait d’analyser des êtres vivants en science peut influencer les résultats en psychologie et en médecine, car l'effet de médicaments ou d’expérience peut varier selon les individus.

Par contre, malgré ce que plusieurs pourraient penser, la fraude n’est pas une cause importante de la crise de la reproductibilité. En effet, celles-ci ne représentent qu’une mince partie des mauvaises publications, car les cas sont plutôt rares. Certains cas sont notables, par exemple le scandale des fausses cellules souches embryonnaires de Hwang Woo-Suk[15] ou les recherches de Jan Hendrik Schön[16] qui avait entre-autre inventer des graphiques sans résultats[10]. Ces deux recherches sont des exemples où les chercheurs ont falsifié leurs résultats pour pouvoir publier et ont été sanctionnés.

De même, les travaux de réplication sont beaucoup plus difficiles à publier dans les revues scientifiques ce qui décourage les scientifiques à faire de la réplication. Brian D. Earp et Jim A. C. Everett ont trouvé 5 causes de ce manque de publications de réplication[17] :

1. Dans les laboratoires, les expériences de réplication sont vues comme des pertes de temps ;

2. Cela gaspille de la main d’œuvre et des ressources aux expériences apportant de nouveaux résultats ;

3. Elles sont difficiles à publier, car elles sont vues comme peu originales ;

4. Même si elles finissent par être publiées, elles ne sont pas vues comme des contributions à l’industrie ;

5. La réplication est peu récompensée et reconnue ce qui offre peu de sécurité d’emploi aux chercheurs qui en font.

Finalement, plusieurs personnes, dont l’historien Philip Mirowski en 2011 dans son livre Science Mart[18], voient la commodité de la science comme une cause de la crise. Selon lui, le trop grand nombre d’articles scientifiques publiés et le nouveau marché de la science diminue grandement la qualité de ceux-ci.

Médecine

Le domaine médical est l’un des domaines les plus touchés par la crise de reproductibilité. La problématique provient entre autres de la forte variabilité dans les systèmes biologiques, de la nature complexe de la médication et des pathologies (particulièrement les cancers) [6] ainsi que des limitations propres aux outils et modèles utilisés durant les tests pré-cliniques[9]. Il n’est donc pas raisonnable de s’attendre à ce que toutes les découvertes médicales soient parfaitement valides.

La recherche biomédicale est actuellement dans une période de production à un rythme sans précédent de nouvelles données et de publications scientifiques[6]. Par exemple, les besoins urgents de nouvelles découvertes dans le domaine de l’oncologie expliquent que plusieurs traitements atteignent très rapidement l’étape de développement clinique avant même d’avoir terminé toutes les évaluations de la phase pré-clinique requises normalement[9]. Les industries pharmaceutiques et biotechnologiques se basent sur les résultats obtenus lors des recherches pour sélectionner quel traitement devrait être développé lors d'essais cliniques. Des erreurs dans les résultats servant de base au développement clinique d'un traitement résultent donc très souvent en une perte financière importante et peuvent même avoir, à un certain point, des répercussions sur la santé des patients[5].

Le monde médical a été envahi par de nombreuses publications pré-cliniques non reproductibles au cours des dernières années. Au sein de la littérature, des centaines de publications secondaires découlent de ces observations erronées et représentent une perte de ressources et de temps considérable[9].

Une étude qui fait le suivi de maladies transmissibles par le porc démontre l’impact important que des erreurs banales peuvent avoir dans le domaine médical. Lorsque les chercheurs ont réalisé l'analyse des échantillons qui avaient été utilisés pour atteindre leurs résultats, ceux-ci se sont aperçus que le niveau du virus d'influenza dans le sang des porcs étudiés était beaucoup trop faible par rapport au niveau qui était prévu. Après vérification, les chercheurs ont découvert qu'un manque de maintenance des équipements utilisés pour l'expérience était responsable de l'invalidité de leur étude[19]. L'analyse de plusieurs études pré-cliniques rapporte que moins du tiers des publications biomédicales sont reproductibles et rapporte des estimations selon lesquelles les dépenses dues aux recherches non reproductibles aux États-Unis sont d’environ 28 000 000 000 US$[20],[21].

45 parmi 49 études médicales de 1990 à 2003 affirment que les thérapies étudiées sont efficaces alors que parmi ces études, 16% ont été contredites par des travaux ultérieurs, 16% ont surévalué l’efficacité des traitements et 24% n’étaient pas replicables[22]. La Food and Drug Administration a trouvé des lacunes dans près de 10 à 20% d’études médicales entre les années 1977 et 1990[23].

Dans un article publié en 2012, Glenn Begley, un conseiller en biotechnologies travaillant à Amgen, et Lee Ellis de l’université du Texas ont débattu sur le fait que seulement 11% des études pré-cliniques sur le cancer sont réplicables[9],[24].

Ioannidis soulève dans son article "Why Most Clinical Research Is Not Useful" que la médecine devrait être centrée sur les besoins du patient contrairement aux pratiques actuelles qui favorisent plutôt les besoins des médecins, investisseurs et chercheurs[25].

Psychologie

Bien que les problèmes de réplication soient présents dans plusieurs domaines[26], ils sont souvent associés à la psychologie. En effet, plusieurs facteurs ont fait de la psychologie le centre de la controverse. La psychologie sociale a été plus largement impliquée dans la crise malgré que d’autres domaines de la psychologie soit eux aussi impliqués.

Trois éléments ont causés la remise en question de la reproductibilité en psychologie menée par Kahneman[27].

En premier lieu, celui-ci a découvert que les mauvaises pratiques de laboratoire étaient très fréquentes dans le domaine. En effet, un sondage réalisé auprès de plus de 2000 psychologues a montré que la majorité des répondants les avaient utilisés au moins une fois[28].

En second lieu, la psychologie s’est retrouvée au centre de cas de recherches frauduleuses très importants. Comme le cas de Diederik Staple[29] qui a nuit fortement à l’image de la psychologie sociale. Par contre plusieurs études démontrent que la fraude est une faible influence sur la crise.

En dernier lieu, des problèmes de réplications dans le domaine avaient été découverts bien avant le début de la crise. En effet, des journaux scientifiques comme le Judgment and Decision Making a publié plusieurs études au fil des ans sur des tentatives de réplication non fructueuse. Les réplications sont d’ailleurs particulièrement difficiles lorsqu’elles sont menées par des groupes n’ayant pas un fort lien avec le sujet et lorsqu’elles sont préenregistrées ce qui diminue les risques de biais de confirmation ou de publication.

Plusieurs recherches sur la crise en psychologie ont alors été menées et des articles importants sur le sujet ont été publiés. En 2015, le reproductibility project qui est une étude impliquant plusieurs chercheurs et traitant de la crise de la reproductibilité en Psychologie a publié ses résultats. Cette recherche a permis de faire des études de réplication sur 100 recherches de trois importants journaux de psychologie. Moins de la moitié de ces expériences ont permis de répliquer les expériences avec des résultats suffisants tandis que la plupart ont permis de voir des tendances allant dans la direction espérée[30].

James Coyne, un psychologue et professeur en psychologie, a récemment écrit que beaucoup de recherches et de méta-analyses sont compromises par leur piètre qualité et les conflits d’intérêts entre les auteurs et les groupes de défenses d’intérêts, ce qui résulterait en beaucoup de faux positifs quand à l’efficacité de certains types de psychothérapie[31] .

La crise de la reproductibilité amène la remise en question de plusieurs sphères de la psychologie qui étaient considérés comme solide, car les expériences de reproductibilité échouent[32] . Cela permet de voir les expériences qui ne sont pas solides et de ne plus en tenir compte.

Daniel Kahneman, professeur émérite en psychologie, affirme que les auteurs originaux devraient être présents lors du processus de réplication pour combler les lacunes aux niveaux de la description de la méthode expérimentale[33] tandis que certains auteurs comme Dr. Andrew Wilson croient que la méthode devrait déjà être écrite clairement. La présence de l’auteur original peut modifier le résultat d’une étude de réplication. En effet, une étude de 2012 sur la réussite de la réplication en psychologie indique que 91,7 % des essais de réplication avec les conseils de l’auteur original ont réussis contrairement à 64,6% pour celle réalisée sans sa présence[34].

Les pourcentages de réussites de réplications en psychologie sont éloquents. Les résultats trouvés par le reproductibility project démontrent que seulement 36% des études testées avaient des résultats significatifs par rapport à 97% des recherches initiales. La taille d’effet de la réplication était en moyenne deux fois moins grande que celle de la recherche originale. Cette expérience a aussi permis d’observer que les recherches en psychologie cognitive ont un taux de réplication (50%) plus élevé que celles en psychologie sociale (25%)[35].

Un des problèmes du milieu de la psychologie est que, selon une analyse des recherches des 100 plus importants journaux de psychologie entre 1900 et 2012, seulement environ 1,07% des publications sont des expériences de réplication et que seulement 78,9 % de ses expériences de réplication était concluantes[34].


Comment résoudre la crise

ON NE PEUT PAS TOUT REGLER Pour aborder la crise de la reproductibilité, plusieurs mesures devraient être mises en place par tous les acteurs du milieu scientifique plus précisément les chercheurs, les firmes de recherche, les universités, les revues scientifiques et les gouvernements. Les plus simples restent tout de même celles des chercheurs qui doivent prendre les moyens d'éviter les problèmes de reproductibilité dans leurs recherches.

En premier lieu, la randomisation est un bon moyen pour les scientifique d'éviter les problèmes de biais de confirmation. Celle-ci consiste a distribuer de manière aléatoire les échantillons témoins. Par exemple, en médecine, le médicament serait distribué de façon aléatoire dans les groupes témoins. Le reste du groupe se verrait administrer un placebo. Ainsi, les patients ne pourrait pas influencer les résultats selon leurs intérêts. Souvent, la randomisation suit aussi le principe du double aveugle selon lequel les groupes témoins ainsi que les personnes administrant le traitement ne savent si la personne fait partie du groupe ayant le placebo ou le médicament. Ainsi, le biais de confirmation a moins de chance de se produire[36].

Ensuite, l'augmentation de la taille de l’échantillonnage permet de régler le problème de la variété des effets et de la modification des données en utilisant un plus grands groupes de sujet. Il est donc plus facile de voir le nombre d'expérimentations dont les résultats sont différents de ceux désirés et les rendent aussi plus significatifs.

Pour palier le trop faible nombre d'expérience de réplication effectué, l'utilisation d'étudiants à l'université est une solution possible. En effet, demander à des étudiants de pratiquer ce type d'expérience peut leurs permettre de mieux comprendre la démarche scientifique ainsi que de se familiariser avec la réplication en plus de contribuer activement au domaine scientifique[37].

Bien sûr, une des bonnes façons de s'assurer de la reproductibilité d'une expérience est de la faire vérifier par d'autres personnes. Plusieurs méthodes de vérification sont possibles. Premièrement, il est possible de demander à un autre chercheur de vérifier si la méthode est exacte et si les résultats sont reproductibles. -Vérification par les autres : Plusieurs méthodes peuvent être utilisées comme la révision par les pairs, des sites internet, la demande par les revues scientifiques de précision ou de révision (exemple de la revue Psychological Science) et la post-publication.

Du côté des gouvernements, plusieurs pourraient suivre l'exemple des Pays-Bas qui ont pallié au manque de fonds pour les expériences de réplication en investissant, en juillet 2016,3 millions d'euros pour ce type d’expériences dans les domaines des sciences sociales et de la médecine[38].

-La correction de Bonferroni qui permet de corriger le seuil de significativité.

La méta-analyse permet de

Notes et références

  1. a et b (en) Jonathan W.Schooler, « Metascience could rescue the 'replication crisis' », Nature, vol. 515, no 7525,‎ , p. 9 (lire en ligne)
  2. a b c et d (en) Monya Baker, « "1,500 scientists lift the lid on reproducibility" », Nature, vol. 533, no 7604,‎ , p. 452-454 (lire en ligne)
  3. a et b John P. A. Ioannidis, « Why Most Published Research Findings Are False », PLoS Medicine, vol. 2, no 8,‎ , e124 (ISSN 1549-1277, PMID 16060722, PMCID 1182327, DOI 10.1371/journal.pmed.0020124)
  4. a et b Jonah Lehrer, « The Truth Wears Off », The New Yorker,
  5. a et b (en) Aaron Mobley, « A Survey on Data Reproducibility in Cancer Research Provides Insights into Our Limited Ability to Translate Findings from the Laboratory to the Clinic », PLoS One,‎ (lire en ligne)
  6. a b et c Begley, C. G. et Ioannidis, J. P., « Reproducibility in Science: Improving the Standard for Basic and Preclinical Research », Circulation Research, vol. 116, no 1,‎ , p. 116–126 (PMID 25552691, DOI 10.1161/CIRCRESAHA.114.303819)
  7. Gary Marcus, « The Crisis in Social Psychology That Isn’t », The New Yorker,
  8. (en) Monya Baker, « Over half of psychology studies fail reproducibility test », Nature,‎ (lire en ligne)
  9. a b c d et e (en) C. Glenn Begley, « Drug development: Raise standards for preclinical cancer research », Nature, vol. 483, no 7391,‎ , p. 531-533 (lire en ligne)
  10. a et b Daniele Fanelli, « How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data », PLOS ONE, vol. 4, no 5,‎ , e5738 (PMID 19478950, PMCID 2685008, DOI 10.1371/journal.pone.0005738, lire en ligne)
  11. (en) Claxton LD, « Scientific authorship. Part 1. A window into scientific fraud? », Mutation Research, vol. 589, no 1,‎ , p. 17-30
  12. (en) Steneck NH, « Fostering integrity in research: definitions, current knowledge, and future directions », Science and engineering ethics, vol. 12, no 1,‎ , p. 53-74
  13. a et b (en) Regina Nuzzo, « How scientists fool themselves-and how they can stop », Nature, vol. 526, no 7552,‎ (lire en ligne)
  14. a et b (en) Seema Rawat et Sanjay Meena, « Publish or perish: Where are we heading? », JResMedSci.,‎ (lire en ligne)
  15. Agence Science-Presse, "Le Watergate du clonage", 9 janvier 2006.
  16. [PDF] « DFG Imposes Sanctions Against Jan Hendrik Schön », Deutsche Forschungsgemeinschaft,
  17. Jim Albert Charlton Everett et Brian D. Earp, « A tragedy of the (academic) commons: interpreting the replication crisis in psychology as a social dilemma for early-career researchers », Frontiers in Psychology, vol. 6,‎ , p. 1152 (PMID 26300832, PMCID 4527093, DOI 10.3389/fpsyg.2015.01152, lire en ligne)
  18. (en) Mirowski, P., Science-Mart: Privatizing American Science, Harvard University Press,
  19. (en) Monya Baker, « How quality control could save your science », Nature, vol. 529, no 7587,‎ (lire en ligne)
  20. (en) Leonard P.Freedman, « The Economics of Reproducibility in Preclinical Research », PLoS Biology,‎
  21. (en) Monya Baker, « Irreproducible biology research costs put at $28 billion per year », Nature,‎ (lire en ligne)
  22. Ioannidis JA, « COntradicted and initially stronger effects in highly cited clinical research », JAMA, vol. 294, no 2,‎ , p. 218–228 (DOI 10.1001/jama.294.2.218, lire en ligne)
  23. J. Leslie Glick, « Scientific data audit—A key management tool », Accountability in Research, vol. 2, no 3,‎ , p. 153–168 (DOI 10.1080/08989629208573811, lire en ligne)
  24. Begley, C.G., 2013, Reproducibility: Six red flags for suspect work, Nature, 497, 433–434
  25. Ioannidis JPA, 2016, Why Most Clinical Research Is Not Useful, PLoS Med 13(6): e1002049. doi:10.1371/journal.pmed.1002049
  26. Joel Achenbach, « No, science’s reproducibility problem is not limited to psychology », sur The Washington Post (consulté le )
  27. Daniel Kahneman, « A New Etiquette for Replication »
  28. Leslie K. John, George Loewenstein et Drazen Prelec, « Measuring the Prevalence of Questionable Research Practices With Incentives for Truth Telling », Psychological Science, vol. 23, no 5,‎ , p. 524–532 (ISSN 0956-7976, PMID 22508865, DOI 10.1177/0956797611430953, lire en ligne)
  29. Christopher Shea, « Fraud Scandal Fuels Debate Over Practices of Social Psychology »,
  30. Open Science Collaboration, « Estimating the reproducibility of psychological », Science, vol. 349, no 6251,‎ , aac4716 (ISSN 0036-8075, PMID 26315443, DOI 10.1126/science.aac4716, lire en ligne)
  31. James Coyne, « Are meta analyses conducted by professional organizations more trustworthy? », Mind the Brain, (consulté le )
  32. Tom Bartlett, « Power of Suggestion »,
  33. Chris Chambers, « Physics envy: Do ‘hard’ sciences hold the solution to the replication crisis in psychology? »,
  34. a et b Matthew C. Makel, Jonathan A. Plucker et Boyd Hegarty, « Replications in Psychology Research How Often Do They Really Occur? », Perspectives on Psychological Science, vol. 7, no 6,‎ , p. 537–542 (ISSN 1745-6916, PMID 26168110, DOI 10.1177/1745691612460688, lire en ligne)
  35. Open Science Collaboration, « Estimating the reproducibility of psychological », Science, vol. 349, no 6251,‎ , aac4716 (ISSN 0036-8075, PMID 26315443, DOI 10.1126/science.aac4716, lire en ligne)
  36. « randomisation », sur Larousse.fr (consulté le )
  37. Michael C. Frank et Rebecca Saxe, « Teaching Replication », Perspectives on Psychological Science, vol. 7, no 6,‎ , p. 600–604 (ISSN 1745-6916, PMID 26168118, DOI 10.1177/1745691612460686, lire en ligne)
  38. « NWO makes 3 million available for Replication Studies pilot », sur NWO (consulté le )

Voir aussi