Introduction générale

Thomas Delahais, Agathe Devaux-Spatarakis, Anne Revillard et Valéry Ridde

Au moment où nous avons lancé l’idée d’élaborer et de partager cette somme de textes fondamentaux en évaluation, le monde n’était pas encore aux prises avec une nouvelle pandémie ravageuse. La crise sanitaire mondiale liée à l’épidémie de SARS-CoV-2 a, entre-temps, révélé avec une acuité particulière la pertinence des questionnements analysés dans le champ de l’évaluation des interventions, mais aussi la diffusion encore trop confidentielle des acquis de cette discipline. Comment les actions initiées et réalisées par les gouvernements, les organisations et les populations ont-elles été en mesure d’endiguer la pandémie, d’en réduire les effets et leur répartition inégale entre différents groupes? Comment ces interventions ont-elles pris en compte l’état des connaissances scientifiques pour favoriser leur mise en œuvre, leur efficacité? Dans quelle mesure les responsables politiques ont-ils et elles intégré les apports des travaux d’évaluation dans leurs décisions?

Comme on le voit, si la pandémie est révélatrice des nombreux maux affectant le monde depuis des siècles, elle permet une nouvelle fois de poser la question de la place de l’évaluation dans nos sociétés, nos décisions, nos connaissances, nos enseignements et nos relations sociales. En effet, les multiples débats et controverses dans le contexte de la pandémie sur l’efficacité de telle intervention (par exemple, le couvre-feu) ou de tel traitement (l’hydroxychloroquine), ou encore sur l’impossible évaluation des actions entreprises (Paul et Ridde, 2020) du fait de leur complexité (Pawson, Manzano et Wong, 2020) montrent que non seulement la culture scientifique des responsables politiques reste faible, mais aussi que leurs connaissances en évaluation le sont tout autant.

Le contexte sanitaire a ainsi mis un coup de projecteur sur le constat à l’origine de ce recueil, à savoir le déficit de connaissances fondamentales et historiques concernant le domaine de l’évaluation. Nous utiliserons indifféremment les termes « évaluation de programmes », « évaluation des interventions » ou « évaluation des politiques publiques », pour désigner le champ de pratique professionnelle et de recherche qui s’est développé depuis une cinquantaine d’années autour de la détermination de la valeur d’un certain nombre d’interventions publiques, ou visant des objectifs d’intérêt général.

L’évaluation résiste depuis longtemps à une définition simple et unanime, qui refléterait à la fois son histoire, et la diversité des acteurs, des usages et des contextes dans lesquels elle s’inscrit. Notre objet n’est pas ici d’en formuler la définition ultime. Toutefois, nous observons que la plupart des définitions comprennent trois éléments indispensables (Demarteau, 2002) : l’élaboration d’un jugement sur la valeur, le recours à des méthodes spécifiques dans une démarche d’investigation systématique et  la volonté de favoriser l’utilité des travaux. Nous y ajouterions un quatrième : le souci de l’intérêt général ou du bien commun – ou, plus explicitement, de justice sociale (Mertens et Wilson, 2012). Ces « ingrédients » constituent la base d’une infinité de recettes et, partant, de débats sur l’évaluation en théorie et en pratique, lesquels trouveront une abondante illustration dans cet ouvrage.

Ainsi, la définition de la Société américaine d’évaluation (AEA) se place fortement sous l’égide de la valeur, dans la suite de Michael Scriven : « l’évaluation est le processus par lequel on détermine le mérite, l’intérêt (worth) et l’importance (significance) des choses » (Scriven, 1991 : 1). La notion de « mérite » renvoie aux qualités intrinsèques d’une intervention, « l’intérêt » à son apport dans un contexte précis, et « l’importance » à un jugement plus global sur l’intervention combinant mérite et intérêt – le tout constituant sa valeur (value). La particularité de l’évaluation se trouve dans le processus spécifique mis en place pour définir les critères au regard desquels la valeur est déterminée – processus ouvert et observable, impliquant de façon transparente des acteurs donnés, aboutissant à des critères explicites, et à une stratégie pour y répondre (Barbier, 1990 : 34).

D’autres définitions font de prime abord référence aux méthodes. Pour Peter Rossi et al., « l’évaluation de programme est le recours à des procédures issues des sciences sociales pour investiguer systématiquement l’efficacité des interventions sociales » (Rossi et al., 2004 : 4). La définition de la Société suisse d’évaluation, la SEVAL, s’inscrit elle aussi dans cette tradition, en définissant l’évaluation comme « une analyse et une appréciation systématique et transparente de la conception, de la mise en œuvre et/ou des effets d’un objet d’évaluation » (2016).

L’insistance sur l’utilité se retrouve dans la définition donnée par la Société française d’évaluation (2006) : « L’évaluation vise à produire des connaissances sur les actions publiques, notamment quant à leurs effets, dans le double but de permettre aux citoyens d’en apprécier la valeur et d’aider les décideurs à en améliorer la pertinence, l’efficacité, l’efficience, la cohérence et les impacts ». Si cette définition constitue un compromis entre une vision démocratique et une vision comptable de l’évaluation, notons que l’insistance sur la notion d’utilité pour certaines parties prenantes (qu’il s’agisse des décideurs et des décideuses, des opérateurs et opératrices, des intervenant-e-s de première ligne ou des citoyen-ne-s en général) est un élément fondateur de nombreuses approches évaluatives.

Ces différentes définitions ne s’opposent pas et constituent autant de constats valables concernant la théorie et la pratique évaluative. Pour en revenir à notre métaphore culinaire, c’est le poids respectif de chaque ingrédient, l’ordre et les modalités selon lesquels ils sont incorporés, qui rendent compte de la richesse du champ investigué.

Un accès difficile aux écrits anglophones sur l’évaluation

En 1995, Jacques Toulemonde s’intéressait à l’émergence d’une profession évaluative en Europe et identifiait quatre catégories de producteurs et productrices d’évaluation (Toulemonde, 1995) : les professionnel-le-s, les spécialistes (qui connaissent l’évaluation mais n’en font pas leur activité principale), les artisan-e-s (qui connaissent les techniques et ont une forte expertise d’usage, mais en ignorent les fondements théoriques) et les amateurs et amatrices. Il pensait alors assister à un glissement des amateurs/-trices vers les artisan-e-s, et des artisan-e-s vers les spécialistes. Vingt-cinq ans après, il n’est pas certain que, dans l’Europe francophone tout du moins, cette évolution ait porté ses fruits. Comme le constatait déjà Lee J. Cronbach en 1980, les personnes qui évaluent, qu’elles soient chercheur-e-s, consultant-e-s, ou fonctionnaires, continuent souvent à importer dans l’évaluation leurs propres cadres de pensée, qu’ils soient théoriques, conceptuels ou pratiques, et à considérer l’évaluation comme une activité technique et méthodologique (mener des entretiens, des enquêtes, écrire un rapport etc.) sans tenir compte de l’histoire ou des dernières réflexions  concernant ce champ de pratiques.

De nombreux facteurs contribuent à une telle méconnaissance, qui trouve ses racines dans l’enseignement secondaire et supérieur, dans la place de la science et de l’évaluation dans les discours et les pratiques, dans les priorités budgétaires et parlementaires, dans la professionnalisation des pratiques, etc. En ce qui nous concerne, si l’histoire de l’étude de l’action publique est relativement connue par les francophones (Laborier et Trom, 2003), celle de l’évaluation l’est certainement moins, à l’exception des ouvrages classiques d’introduction au sujet (Beaudry et Gauthier, 1992; Dagenais et Ridde, 2009; Perret, 2008) qui, faute de place, ont trop souvent fait l’impasse sur les écrits plus anciens. La faible accessibilité, pour un public francophone, des travaux internationaux en évaluation, notamment les plus anciens, est un enjeu majeur, ces travaux se trouvant à l’origine des réflexions et des pratiques actuelles. De nombreux freins existent quant à l’accès à ces écrits. Des freins linguistiques évidemment, tant il est vrai que le monde francophone éprouve encore des difficultés à lire la production anglophone. Mais aussi des freins matériels relevant de l’accession inégale du plus grand nombre à la connaissance (Piron et al., 2016), puisque la majeure partie de ces écrits sont encore diffusés par des éditeurs commerciaux qui en restreignent l’accès, imposant aux auteurs et autrices de céder leur droit de diffusion gratuite de leurs productions. De ce fait, on s’étonne parfois d’assister à des débats francophones dans le domaine de l’évaluation sur des sujets qui ont été abordés depuis longtemps dans le monde anglophone[1]. Un des objectifs de cette compilation est donc de favoriser une meilleure appropriation par les praticien-ne-s et théoricien-ne-s francophones en évaluation, des acquis des écrits anglophones à partir de quelques branches de « l’arbre de l’évaluation », et de ses trois grandes ramifications autour des méthodes, des valeurs et des usages de l’évaluation (Christie et Alkin, 2012).

Ajoutons que les efforts pour importer dans la pratique de l’évaluation des cadres théoriques issus du monde de la recherche n’ont pas toujours été soutenus. Ce déficit concernent également certaines équipes de recherche en santé mondiale (Ridde, Pérez et Robert, 2020) ou spécialisées dans l’étude des politiques publiques (Jones, Gautier et Ridde, 2021). Si les guides et modes d’emploi se multiplient, et sont maintenant de bonne qualité, ils tendent à présenter l’évaluation comme une succession d’étapes, sans la situer dans un ensemble plus vaste, et sans montrer la concomitance et l’imbrication de ses sous-processus (Dagenais et Ridde, 2009). Outre la barrière de la langue, les écrits en évaluation ne sont pas nécessairement d’un accès facile, du fait de leur nombre, et d’une tendance à l’inflation conceptuelle. Comment se repérer dans ce foisonnement? Et comment appréhender cet objet pour des francophones peu à l’aise dans la lecture de l’anglais? S’il est vrai que les outils de traduction automatique sont de plus en plus performants, il n’en reste pas moins que ceux-ci ne permettent pas de rendre compte de l’« épaisseur conceptuelle » des cadres et des théories (Berthoud, 2018). Ainsi, l’accès aux cadres théoriques est marqué par une triple barrière : l’accès aux écrits scientifiques, la langue et le champ lexical de la discipline. Notre recueil de traductions d’une série de textes anglophones ayant marqué l’histoire du champ de l’évaluation et posant les jalons de ses perspectives d’évolution vise ainsi à combler ce manque.

Un besoin de réflexivité et d’historicité

Au-delà du seul travail de traduction, il s’agit donc, dans cet ouvrage, d’accompagner les lecteurs et les lectrices dans l’exploration du champ de l’évaluation, en rendant compte des aspects des principaux débats qui le traversent. Nous considérons que pour les professionnel-le-s de l’évaluation, replacer celle-ci dans son cadre théorique et conceptuel permet de redonner du sens à la pratique, et d’échapper au risque de routine évaluative dans lequel peuvent être pris-e-s les praticien-ne-s, ou les organisations qui réclament des évaluations. Notre visée est d’enrichir les pratiques, et de permettre à l’évaluation de modifier en profondeur les points de vue sur les politiques publiques. Cela n’est possible qu’en combinant robustesse méthodologique et cadres évaluatifs de qualité. S’adressant également à un public académique, cet ouvrage cherche à mettre en lumière les apports des « théories issues de la pratique »[2] de l’évaluation, sur des questions que la recherche aborde parfois moins frontalement, telles que : quelle est l’utilité des nouvelles connaissances obtenues? Ou encore : à l’aune de quelles valeurs sont-elles produites? Notre ouvrage s’adresse bien sûr également aux commanditaires de l’évaluation, mais aussi et surtout à toutes celles et tous ceux qui sont concerné-e-s, affecté-e-s, subissent ou profitent des interventions publiques ou d’intérêt – c’est-à-dire chacun-e d’entre nous : il s’agit en effet de replacer l’évaluation dans le débat démocratique, afin de ne pas reproduire la défaillance constatée lors de la lutte contre la pandémie. Démocratiser l’évaluation, c’est proposer aux citoyen-ne-s des ressources intellectuelles pour réfléchir aux enjeux des interventions publiques, et disposer de diagnostics pertinents sur la mise en œuvre et les effets de celles-ci. Autrement dit, c’est ouvrir la discussion sur les valeurs, tout en appuyant les opinions avec des faits.

C’est donc à ce travail de sélection, de traduction, de synthèse et de mise en perspective que nous nous sommes attelé-e-s dans cet ouvrage, que nous proposons en accès libre. Nous avons sélectionné les grands thèmes et extraits de textes qui vont suivre, avec pour objectif de rendre compte de la longue histoire des débats évaluatifs. Étant donné la richesse du champ, la sélection n’a pas été facile. Nous avons notamment pris le parti de nous concentrer sur les enjeux généraux de la démarche d’évaluation (les valeurs qu’elle engage, son utilité, ses acteurs et actrices, ses liens avec la recherche), sans entrer dans le détail technique des méthodes d’évaluation[3]. Précisons ici que les textes traduits ne défendent pas nécessairement des positions que nous partageons; ils ont vocation à rendre compte de la diversité et de la richesse des débats qui traversent le champ de l’évaluation, pour permettre aux lectrices et aux lecteurs d’en saisir les enjeux et de définir le cas échéant leur propre position. Loin de constituer une liste arrêtée de références incontournables, ces textes doivent être pris comme autant d’éclairages que nous proposons sur les enjeux de la démarche d’évaluation de programme. Ajoutons que nous avons veillé à limiter la longueur des textes traduits, afin d’en faciliter l’accès pour les praticien-ne-s, mais aussi pour les chercheuses et chercheurs déjà confronté-e-s à l’abondance des ressources relevant de leur discipline d’appartenance. Ainsi, nous avons souhaité proposer une diversité d’approches et de réflexions, tout en donnant une dimension historique à notre démarche.

Ces textes ont été traduits, pour permettre aux lecteurs et lectrices francophones d’apprécier les débats qui agitent la communauté scientifique évaluative à l’échelle internationale. Le montant exorbitant des droits de traduction demandés par certains éditeurs (allant jusqu’à 29 750€ pour un article de 16 pages!) nous a conduit-e-s à abandonner certains textes initialement sélectionnés, ce qui montre, s’il en était besoin, la pertinence du combat actuel pour un libre accès aux publications scientifiques[4].

Enfin, pour mettre en perspective les quelque cinquante années de réflexion évaluative retracées par ces textes, des chercheurs, chercheuses et praticien-ne-s francophones contemporain-e-s (Manuela De Allegri, Tom Archibald, Yves Gingras, Marthe Hurteau, Nathalie Mons) ont généreusement accepté de discuter chacune des cinq parties. Ces discussions replacent les textes dans les débats actuels et introduisent de nouvelles perspectives, distinctes des nôtres. Nous souhaitons ainsi contribuer à ancrer la traduction comme processus de réflexion pour les évaluateurs/-trices nouveaux et nouvelles, souhaitant entrer dans ce champ; pour les autres, nous aimerions promouvoir durablement la réflexivité issue les des pratiques évaluatives comme processus essentiel à toute pratique professionnelle (Alexander et al., 2020).

Ainsi, grâce à cet ouvrage, nous espérons ouvrir des chemins d’exploration aux francophones pratiquant ou étudiant l’évaluation. Pour les personnes ayant déjà une expérience de l’évaluation, la lecture des textes choisis permettra de mettre en perspective les questionnements rencontrés dans de leur pratique, voire d’en susciter de nouveaux. Notre objectif est également de leur permettre de mieux se positionner parmi la diversité des points de vue tout en tenant compte de leur parcours sans avoir à relire toute la généalogie de l’évaluation, de ses fondements (Alkin, 2004) à ses derniers développements (Lemire, Peck et Porowski, 2020). Nous espérons ouvrir aux novices en évaluation le champ des possibles tant dans la pratique que dans la réflexion évaluative, en y incluant les conséquences des choix qu’ils et elles pourront être amené-e-s à faire dans l’exercice de ce qui est un métier à part entière. Libre ensuite à elles et eux d’élargir ou de prolonger les chemins qui contribuent à enrichir leur réflexion professionnelle En effet, bien loin d’une somme finie, ce recueil doit être considéré comme une pierre à l’édifice de la réflexion collective du monde francophone de l’évaluation.

Des textes essentiels concernant cinq domaines en évaluation

Ce recueil est divisé en cinq parties représentant cinq domaines essentiels à la compréhension du champ de la pratique de l’évaluation. Celles-ci peuvent être abordées indépendamment les unes des autres, et dans l’ordre souhaité par le lecteur ou la lectrice en fonction de ses intérêts personnels.

Partie 1/ À quoi sert l’évaluation?

Dans cette partie (à laquelle il sera fait référence dans le reste du texte sous le nom de « Partie Utilité »), nous présentons les travaux canoniques s’intéressant à l’utilité de l’évaluation, ou proposant des pratiques qui visent à la promouvoir. Ces réflexions sont centrales pour la communauté évaluative puisqu’elles interrogent la raison d’être de cette activité ainsi que sa place dans l’action publique. Considérer l’utilité de l’évaluation uniquement à l’aune de la prise en compte des rapports d’évaluation par les responsables politiques a graduellement fait place à une caractérisation de la diversité des usages. Cette diversité pose alors la question du degré d’influence que l’évaluation peut être en mesure d’exercer sur l’action publique, et des mécanismes pouvant la favoriser. Enfin, ces réflexions peuvent aussi fournir l’occasion de proposer des pratiques évaluatives mettant explicitement le développement des principes démocratiques et l’amélioration du bien-être de tou-te-s les citoyen-ne-s au cœur de leur action.

Partie 2/ Qui évalue et comment?

Qui évalue? Quel est le rôle de celles et ceux qui « font les évaluations » dans la pratique évaluative? Dans cette partie (« Partie Évaluatrice[5] ») nous nous intéressons à ces différentes questions en recontextualisant la transformation de l’évaluation. D’une activité parmi d’autres réalisée principalement par des équipes issues du monde académique, celle-ci est devenue une pratique, et même un métier en tant que tel, ouverts à un nombre grandissant d’acteurs et d’actrices : fonctionnaires, consultant-e-s, personnels associatifs. Si les premier-e-s évaluateurs/-trices se voyaient d’abord et avant tout comme les garant-e-s d’une objectivité scientifique permettant d’adosser la prise de décision à une vérité, très vite s’est posée la question de leur rôle véritable pour une évaluation utile, à même de prendre en compte le système de valeurs des différentes parties prenantes, et suffisamment robuste en dépit des contraintes (de données, de budget et de temps) souvent très fortes. Cette partie retrace donc les débats qui ont agité la communauté évaluative sur des questions fondamentales : que signifie bien faire son métier? Comment prendre en compte tous les points de vue? L’évaluateur ou l’évaluatrice doit-il ou elle prendre un rôle actif dans la défense du bien commun?

Partie 3/ Évaluer : en fonction de quelles valeurs?

Évaluer les interventions, c’est en déterminer la valeur. Cette partie (« Partie Valeurs ») revient sur ce qui est sans doute un des éléments les plus structurants de la pratique évaluative, à savoir la logique évaluative, c’est-à-dire le processus structuré par lequel des faits collectés dans le cadre de l’évaluation sont jugés à l’aune de « ce qui compte » dans le contexte de l’évaluation. Faut-il procéder à un jugement ou bien doit-on se contenter d’énoncer des faits? Qui est légitime pour porter un jugement? Quelles sont les valeurs au regard desquelles établir ce jugement? Dans cette partie, nous revenons notamment sur le glissement progressif d’une approche selon laquelle il revient à l’équipe d’évaluation de définir les critères de jugement ainsi que les niveaux de performance à atteindre à une démarche dans laquelle la définition des critères et la formulation des jugements deviennent partie intégrante d’un travail participatif incluant les différentes parties prenantes. Nous terminons en dressant un panorama des approches transformationnelles, lesquelles prennent parti pour les valeurs de celles et ceux qui sont dominé-e-s ou subissent les politiques publiques. Ainsi, les évaluations dites féministes, attentives aux différences culturelles, ou autochtones vont plus loin dans le processus visant à changer notre regard sur les interventions.

Partie 4/ L’évaluation est-elle une science?

Dans cette partie (« Partie Science ») nous nous interrogeons sur les liens entre évaluation et recherche scientifique : en quoi l’évaluation relève-t-elle d’une science, et quels sont, le cas échéant, ses apports au champ scientifique? L’évaluation a été historiquement définie comme une pratique de sciences sociales appliquées, mobilisant ses méthodes au service d’une analyse des enjeux et des conséquences des politiques publiques. De ce fait, elle relève d’abord de la science par ses méthodes. Pour autant, son institutionnalisation dans le champ universitaire reste limitée, notamment du fait de son caractère interdisciplinaire et largement appliqué. Or, l’évaluation ne se contente pas d’emprunter à des méthodes scientifiques : elle les enrichit en retour, et approfondit les questionnements concernant les valeurs et les critères de jugement, mais aussi l’utilité des savoirs produits, une notion qui reste trop souvent implicite dans la recherche scientifique. Ce chapitre retrace les enjeux épistémologiques et institutionnels de l’articulation entre évaluation et science, mais aussi les enjeux symboliques, particulièrement saillants dans un contexte où la démarche scientifique elle-même fait l’objet de remises en cause politiques virulentes.

Partie 5/ La pluralité des approches paradigmatiques

La question des paradigmes, centrale dans le domaine de la science, se retrouve en évaluation. Ce champ de pratique fait appel à des méthodes et des raisonnements scientifiques, surtout lorsqu’il est question d’évaluer l’efficacité des interventions, et donc d’effectuer une analyse de la causalité. Ainsi, la manière d’appréhender et de comprendre le monde vient-elle obligatoirement influencer la capacité de l’évaluatrice ou de l’évaluateur à affirmer qu’une intervention a été efficace. Il s’agit d’un sujet complexe, à propos duquel les débats sont aussi nombreux et anciens que le sont les points de vue. Les textes de cette partie (« Partie Paradigmes ») visent à en montrer la complexité avec une première évocation des approches expérimentales en évaluation, et des types de causalité qu’il est possible de dégager. Ensuite, d’autres textes sont présentés qui permettent de comprendre l’état des controverses sur des enjeux, contemporains en France mais abordés depuis longtemps dans la littérature – citons par exemple les essais contrôlés randomisés ou ECR. Pourtant, il existe une myriade d’approches de la causalité, et les données qualitatives peuvent être d’une grande utilité dans cette perspective. Enfin, il nous a semblé essentiel de donner accès au débat très intense entre celles et ceux qui suggèrent que les différentes approches de la causalité sont irréconciliables, et d’autres défendant un croisement de l’évaluation « expérimentale » avec une perspective sociologique du réalisme critique.

 

Notre recueil a donc pour ambition d’offrir une lecture historique et diversifiée des fondements, des controverses et des perspectives en évaluation des interventions. Nous croyons à l’importance d’inscrire nos pratiques évaluatives dans l’histoire de ce champ, dans des théories et des cadres conceptuels pertinents, sans s’y enfermer, ni y recourir par réflexe, habitude, opportunisme, lassitude ou obligation. Nous pensons aussi qu’il est essentiel que ces réflexions théoriques et conceptuelles soient nourries par les praticiens et praticiennes de l’évaluation -étudiant-e-s, expert-e-s, consultant-e-s, universitaires, responsables de programmes ou intervenant-e-s de première ligne. Nous espérons que la lecture approfondie et critique de ces textes permettra aux membres de cette vaste, diverse et multicolore communauté francophone de l’évaluation, de s’engager dans un débat à double sens entre pratiques et théories, fondé sur la connaissance des réflexions antérieures que nous avons le plaisir de proposer pour la première fois en français.

Bibliographie

Alexander, Stephanie A., Catherine M. Jones, Marie-Claude Tremblay, Nicole Beaudet, Morten Hulvej Rod et Michael T. Wright. 2020. « Reflexivity in Health Promotion : A Typology for Training ». Health Promotion Practice 21(4):499‑509. doi : https://doi.org/10.1177/1524839920912407.

Alkin, Marvin C. 2004. Evaluation Roots. Tracing Theorist’s Views and Influences. 6e éd. Thousand Oaks, Calif : Sage Publications.

Barbier, Jean-Marie. 1990. L’évaluation en Formation. Paris : PUF.

Beaudry, Jean, et Benoît Gauthier. 1992. « L’évaluation de programme ». in Recherche sociale : de la problématique à la collecte de données, édité par B. Gauthier. Sillery (Québec) : Presses de l’Université du Québec, p.425‑52.

Berthoud, Anne-Claude. 2018. « Des pratiques scientifiques plurilingues pour la qualité de la connaissance ». Repères DoRiF 17(7).

Christie, Christina A., et Marvin C. Alkin. 2012. « An evaluation theory tree ». in Evaluation Roots, édité par C. A. Christie et M. C. Alkin. London: Sage Publications.

Cronbach, Lee J., Sueann R. Ambron, Sanford M. Dornbusch, Robert D. Hess, Robert C. Hornik, Denis Charles Phillips, Decker F. Walker et Stephen S. Weiner. 1980. Toward Reform of Program Evaluation : Aims, Methods, and Institutional Arrangements. 1re éd. San Francisco : Jossey-Bass.

Dagenais, Christian, et Valéry Ridde. 2009. Approaches et pratiques en évaluation de programme. Montréal : Presses de l’Université de Montréal.

Demarteau, Michel. 2002. « A Theoretical Framework and Grid for Analysis of Programme-evaluation Practices ». Evaluation 8(4):454 473. doi : https://doi.org/10.1177/13563890260620649.

Jones, Catherine, Lara Gautier et Valéry Ridde. 2021. « A scoping review of theories and conceptual frameworks used to analyse health financing policy processes in sub-Saharan Africa ». Health Policy and Planning 36(7):1197‑1214. doi : https://doi.org/10.1093/heapol/czaa173.

Laborier, Pascale, et Danny Trom. 2003. Historicités de l’action publique. Paris : Presses Universitaires de France.

Lemire, Sebastian, Laura R. Peck, et Allan Porowski. 2020. « The growth of the evaluation tree in the policy analysis forest: recent developments in evaluation ». Policy Studies Journal 48(S1) : S47‑70. doi : https://doi.org/10.1111/psj.12387.

Mertens, Donna M., et Amy T. Wilson. 2012. Program Evaluation Theory and Practice : A Comprehensive Guide. New York : Guilford Press.

Paul, Elisabeth, et Valéry Ridde. 2020. « Evaluer les effets des différentes mesures de lutte contre le Covid-19, mission impossible? » The Conversation.

Pawson, Ray, Ana Manzano, et Geoff Wong. 2020. « The Coronavirus response : known knowns, known unknowns, unknown unknowns ».

Perret, Bernard. 2008. L’évaluation des politiques publiques. Paris : La Découverte.

Piron, Florence, Samuel Régulus, Marie Sophie Dibounje Madiba, Thomas Hervé Mboa Nkoudou, Dany Rondeau, Marie-Claude Bernard, Jean Jacques Demba, et al. 2016. Justice cognitive, libre accès et savoirs locaux. Québec : Éditions science et bien commun.

Ridde, Valéry, Dennis Pérez, et Emilie Robert. 2020. « Using implementation science theories and frameworks in global health ». BMJ Global Health 5(4). doi : https://doi.org/10.1136/bmjgh-2019-002269.

Rossi, Peter H., Mark W. Lipsey, et Howard E. Freeman. 2004. Evaluation : A systematic approach. 7e éd. Thousand Oaks: Sage Publications.

Scriven, Michael. 1991. Evaluation Thesaurus. 4e éd. Thousand Oaks : Sage Publications.

Shadish, William R., Thomas D. Cook et Laura C. Leviton. 1991. Foundations of Program Evaluation: Theories of Practice. Thousand Oaks: Sage Publications.

Société française d’évaluation (SFE). 2006. « Charte de l’évaluation ».

Société suisse d’évaluation (SEVAL). 2016. « Standards d’évaluation de la Société suisse d’évaluation (Standards SEVAL) ».

Toulemonde, Jacques. 1995. « The emergence of an Evaluation Profession in European Countries : Is there a provision of professionals? » Knowledge and Policy.


  1. L’inverse est évidemment aussi parfois valable, et nous n’avons ni préjugé ni complexe vis-à-vis de nos collègues qui n’écrivent qu’en anglais!
  2. Pour reprendre l’expression de William Shadish, Thomas Cook et Laura Leviton dans le titre de leur ouvrage Foundations of Program Evaluation: Theories of Practice, paru chez Sage (Londres) en 1991.
  3. Des approches de type expérimental (expérimentations avec assignation aléatoire, aussi appelée essais randomisés contrôlés ou ERC) aux démarches plus qualitatives d’analyse de la théorie du programme (aussi désignée sous les noms de théorie de l’intervention ou théorie du changement), le champ de l’intervention a été un lieu important d’innovation méthodologique.
  4. Le Laboratoire interdisciplinaire d'évaluation des politiques publiques (LIEPP) a dépensé un total de 5 560€ en droits de traduction versés aux différents éditeurs concernés.
  5. Nous optons ici pour un féminin générique afin d’alléger l’écriture.

Licence

Symbole de License Creative Commons Attribution - Partage dans les mêmes conditions 4.0 International

Introduction générale Copyright © 2021 by Thomas Delahais, Agathe Devaux-Spatarakis, Anne Revillard et Valéry Ridde is licensed under a License Creative Commons Attribution - Partage dans les mêmes conditions 4.0 International, except where otherwise noted.

Partagez ce livre