CMAJ/JAMC Education
Éducation

 

A guide to interpreting discordant systematic reviews

Alejandro R. Jadad, MD, DPhil; Deborah J. Cook, MD, MSc; George P. Browman, MD, MSc

CMAJ 1997;156:1411-6

[ résumé ]


Dr. Jadad is with the Health Information Research Unit, Department of Clinical Epidemiology and Biostatistics, and Drs. Cook and Browman are with the Departments of Clinical Epidemiology and Biostatistics and of Medicine, McMaster University, Hamilton, Ont.

This article has been peer reviewed.

Reprint requests to: Dr. Alejandro R. Jadad, Health Information Research Unit, Department of Clinical Epidemiology and Biostatistics, McMaster University, Hamilton ON L8N 3Z5; fax 905 546-0401; Jadada@fhs.mcmaster.ca

© 1997 Canadian Medical Association (text and abstract/résumé)


Abstract

Systematic reviews are becoming prominent tools to guide health care decisions. As the number of published systematic reviews increases, it is common to find more than 1 systematic review addressing the same or a very similar therapeutic question. Despite the promise for systematic reviews to resolve conflicting results of primary studies, conflicts among reviews are now emerging. Such conflicts produce difficulties for decision-makers (including clinicians, policy-makers, researchers and patients) who rely on these reviews to help them make choices among alternative interventions when experts and the results of trials disagree. The authors provide an adjunct decision tool -- a decision algorithm -- to help decision-makers select from among discordant reviews.


Résumé

Les examens critiques systématiques deviennent des outils importants pour guider les décisions relatives aux soins de santé. Comme le nombre des examens critiques systématiques publiés augmente, on en trouve de plus en plus souvent plusieurs qui portent sur une question thérapeutique identique ou très semblable. Même si les examens critiques systématiques promettent de trancher des résultats contradictoires d'études primaires, on commence à constater des divergences entre les examens. Ces divergences causent des difficultés aux décideurs (y compris les cliniciens, les chercheurs et les patients) qui comptent sur ces études pour faire des choix entre des interventions possibles lorsqu'il y a désaccord entre des experts et des résultats d'études. Les auteurs fournissent un outil d'aide à la décision -- un algorithme de décision -- afin d'aider les décideurs à faire un choix parmi des études divergentes.

Comments Send a letter to the editor responding to this article
Envoyez une lettre à la rédaction au sujet de cet article

| CMAJ May 15, 1997 (vol 156, no 10) / JAMC le 15 mai 1997 (vol 156, no 10) |