III. Comment juger de la valeur des interventions?

4. Lignes directrices et repères pour une évaluation constructiviste

Egon G. Guba et Yvonna S. Lincoln

[Traduit de : Guba, Egon G. et Yvonna S. Lincoln. 2001. « Guidelines and checklist for constructivist (a.ka. fourth generation) evaluation », Western Michigan University Evaluation Checklists (ressource en ligne). Traduction par Carine Gazier et Thomas Delahais. Article originellement publié en open access.]

[Remarque : Les lignes directrices et les listes de contrôle pour les évaluations constructivistes et les rapports, présentées ci-après sont basées sur Egon G. Guba et Yvonna S. Lincoln. 1989. Fourth Generation Evaluation [Evaluation de quatrième génération], Newbury Park, CA: Sage Publications. Des informations générales utiles peuvent être trouvées dans Yvonna S. Lincoln et Egon G. Guba. 1985. Naturalistic Inquiry [Enquête naturaliste] Beverly Hills, CA: Sage Publications.]

Définition de l’évaluation

L’évaluation est l’une des trois formes fondamentales d’enquête systématique, les autres étant la recherche et l’analyse des politiques publiques. C’est une forme d’enquête dont l’objet est un evaluanda[1] (un programme, un processus, une organisation, une personne, etc.) et qui aboutit à des constructions (jugements) portant sur son « mérite » [merit] ou son « intérêt » [worth]. Les constructions relatives au mérite se concentrent sur la qualité intrinsèque d’un evaluanda, indépendamment de l’environnement dans lequel il peut trouver des applications. Les constructions relatives à l’intérêt portent sur l’utilité ou l’applicabilité extrinsèque d’un evaluanda dans un contexte local concret. L’évaluation d’un evaluanda encore au stade de la proposition initiale ou en cours de développement est dite « formative », tandis que l’évaluation d’un evaluanda ayant atteint la maturité est dite « sommative ».

Définition de l’évaluation constructiviste

L’évaluation constructiviste est une forme d’évaluation basée sur les propositions (hypothèses de base) qui sous-tendent le paradigme constructiviste. Le paradigme constructiviste diffère des autres paradigmes de la connaissance couramment utilisés, y compris les paradigmes scientifiques, artistiques, religieux, juridiques et d’autres paradigmes similaires. Il repose sur trois hypothèses fondamentales, communément appelées ontologique, épistémologique et méthodologique, à savoir :

  • L’hypothèse ontologique de base du constructivisme est le relativisme, c’est-à-dire que la compréhension humaine (sémiotique) qui organise l’expérience pour la rendre apparemment compréhensible et explicable, est un acte d’interprétation et est indépendante de toute réalité fondamentale. Dans le cadre du relativisme, il ne peut y avoir de vérité « objective ». Cette observation ne doit pas être considérée comme une position « tout est permis »; voir la section sur les critères ci-dessous.
  • L’hypothèse épistémologique de base du constructivisme est le subjectivisme transactionnel, c’est-à-dire que les affirmations sur la « réalité » et la « vérité » dépendent uniquement des ensembles de signification (informations) et du degré de sophistication dont disposent les individus et les publics engagés dans la formation de ces affirmations.
  • L’hypothèse méthodologique de base du constructivisme est l’herméneutique-dialectique, c’est-à-dire un processus par lequel les constructions entretenues par les différents individus et groupes impliqués (parties prenantes) sont d’abord découvertes et sondées quant à leur signification, puis confrontées, comparées et contrastées dans des situations de rencontre. Le premier de ces processus est l’herméneutique; le second est la dialectique. Voir les sections « découverte » et « assimilation » ci-dessous. Notez que cette hypothèse méthodologique est silencieuse sur le sujet des méthodes et, en particulier, sur le sujet des méthodes « quantitatives » vs « qualitatives ». Les deux types de méthodes peuvent être et sont souvent pertinents pour toutes les formes d’enquêtes évaluatives.

Il n’est pas approprié de combiner les paradigmes dans la conduite d’une évaluation, par exemple en utilisant à la fois des propositions scientifiques (positivistes) et des propositions constructivistes dans le cadre d’une même étude. Il ne s’agit pas d’un appel à la « pureté » ni d’une volonté d’exclusion. Il s’agit simplement d’une mise en garde contre le fait que le mélange de paradigmes peut aboutir à des approches et des conclusions absurdes.

Les deux phases de l’évaluation constructiviste : découverte et assimilation

La phase de découverte de l’évaluation constructiviste représente l’effort de l’évaluateur pour décrire « ce qui se passe ici », « ici » étant l’évaluanda et son contexte. La phase de découverte peut ne pas être nécessaire (ou n’être nécessaire qu’à minima) s’il existe une ou plusieurs constructions préexistantes relatives au sujet évalué sur lesquelles on peut s’appuyer (par exemple, à partir d’une évaluation antérieure ou d’une proposition de projet), c’est-à-dire que certaines significations (informations) et un certain degré de sophistication dans leur interprétation sont déjà disponibles. Il existe de nombreuses façons de répondre à la question de la découverte, selon les constructions pertinentes et préexistantes que l’évaluateur et les informateurs et répondants locaux apportent à l’enquête. Les découvertes sont elles-mêmes des organisations sémiotiques, c’est-à-dire des constructions mentales. ATTENTION : Si les constructions préexistantes proviennent de sources extérieures à l’évaluation du sujet, et en particulier de la littérature professionnelle, il convient d’évaluer leurs bases paradigmatiques; si ces bases ne sont pas constructivistes, de graves disjonctions pourraient facilement être négligées. Ainsi, par exemple, tirer des données d’une étude conçue en termes positivistes confère à ces données une valeur de vérité, un caractère absolu, qu’elles ne méritent pas en termes constructivistes. Dans un cadre constructiviste, ces mêmes données sont considérées comme variables et transformables, selon le point de vue du constructeur. L’utilisation de ces données positivistes dans le cadre d’une évaluation constructiviste sape l’essence même de l’évaluation. Les auteurs et les autrices de la littérature en évaluation, y compris les rapports d’évaluation, qui sont basés sur des principes constructivistes, feront presque certainement ressortir leur intention. Dans d’autres cas, l’apparition de concepts clés comme la généralisabilité, l’objectivité, la preuve, etc., typiques du positivisme et d’autres approches non constructives, peut être un signal clé quant à l’intention de l’auteur.

La phase d’assimilation de l’évaluation constructiviste représente l’effort de l’évaluateur pour intégrer les nouvelles découvertes dans la ou les constructions existantes (ou, si la nouvelle découverte est suffisamment différente de la ou des constructions existantes ou en conflit avec celles-ci, les remplacer) de sorte que la « nouvelle » construction (plus informée et plus sophistiquée) s’adapte (subsume les significations plus anciennes et plus récentes), fonctionne (explique ce qui se passe), démontre sa pertinence (permet de résoudre les problèmes fondamentaux, ou de les améliorer, ou de mieux les définir) et soit modifiable (ouverte elle-même au changement).

La découverte et l’assimilation ne sont pas nécessairement des processus séquentiels, mais peuvent se chevaucher ou être menées en parallèle.

Le processus d’évaluation constructiviste : les responsabilités de l’évaluateur constructiviste

L’évaluation constructiviste est un processus d’évaluation qui répond à deux conditions : elle est organisée en fonction des revendications, des préoccupations et des problèmes des publics concernés, et elle utilise la méthodologie du paradigme constructiviste. Compte tenu de ce constat, il est possible d’énumérer les neuf principales responsabilités dont l’évaluateur ou l’évaluatrice constructiviste doit s’acquitter. Il ou elle doit :

  1. Identifier l’ensemble des parties prenantes qui sont à risque en raison des enjeux qu’elles détiennent dans l’entité faisant l’objet de l’évaluation. Ces enjeux peuvent comprendre, sans s’y limiter, l’argent, le statut, le pouvoir, les opportunités, ou autre; ces enjeux sont déterminés et définis par les parties prenantes (dans leurs propres termes) et pas seulement par l’évaluateur/-trice ou le/la client-e qui sollicite l’évaluation (bien qu’ils et elles soient eux aussi des parties prenantes et qu’ils et elles puissent identifier leurs propres enjeux et définitions). Les enjeux négatifs peuvent inclure l’exploitation, la déresponsabilisation et la privation des droits. Les parties prenantes ont le droit de recevoir et d’évaluer dans leurs propres termes toutes les informations que l’évaluation peut divulguer. Dans le processus herméneutique/dialectique qui s’ensuit, les différents enjeux qui entrent dans l’évaluation sont évalués et affinés dans le but de se rapprocher le plus possible de l’accord négocié. Il incombe à l’évaluateur de rechercher toutes les parties prenantes, y compris celles qui souhaitent rester discrètes ou s’absenter complètement.
  2. Obtenir des groupes de parties prenantes leurs réflexions sur la forme et le processus de l’évaluanda et la gamme des revendications, des préoccupations et des questions qu’ils souhaitent soulever à cet égard. La liste initiale peut être réorganisée, supprimée ou complétée au fur et à mesure de l’évaluation.
  3. Fournir un contexte et une méthodologie (herméneutique/dialectique) par lesquels différentes constructions du sujet évalué et, différentes revendications, préoccupations et enjeux peuvent être compris, soumis à la critique et pris en compte. Le processus est d’abord mené au sein de groupes spécifiques de parties prenantes; puis les produits de ces négociations intragroupes (constructions définies, revendications, préoccupations et enjeux) sont négociés dans des cercles herméneutiques qui transcendent les groupes de parties prenantes, si nécessaire, dans des contextes dialogiques, contradictoires ou conflictuels.
  4. Susciter un consensus sur le plus grand nombre possible de constructions, ainsi que sur les revendications, préoccupations et questions connexes. Le consensus devrait d’abord être recherché à l’intérieur d’un groupe, puis entre les groupes. S’il est possible de parvenir à un consensus sur un point, celui-ci peut être éliminé de la discussion, mais conservé pour une action ultérieure (et son inclusion dans le rapport d’évaluation) s’il y a accord sur celle-ci.
  5. Préparer un ordre du jour pour la négociation des points sur lesquels il n’y a pas de consensus ou un consensus incomplet. L’absence de consensus implique la poursuite de constructions concurrentes, dont la ou les disjonctions ne peuvent être améliorées que par l’introduction de nouvelles informations ou par une augmentation du niveau de sophistication analytique. La tâche de l’évaluateur est d’identifier les informations nécessaires. Étant donné qu’il peut être nécessaire d’obtenir plus d’informations qu’il n’est possible d’en collecter, compte tenu des contraintes de temps et/ou de ressources, l’évaluateur doit trouver un moyen (de préférence également par le biais d’un processus herméneutique/dialectique) de hiérarchiser les éléments qui posent problème. Les contributions des parties prenantes sont essentielles dans cette détermination, de peur que ce besoin ne soit pris comme une opportunité de déresponsabiliser certaines parties prenantes.
  6. Collecter et fournir les informations demandées dans l’ordre du jour des négociations. La fourniture des informations nécessaires ne peut être garantie, mais l’évaluateur doit faire tout ce qui est en son pouvoir pour y parvenir. En outre, si les parties prenantes n’ont pas les connaissances nécessaires pour traiter les informations obtenues, une formation doit être dispensée et organisée par l’évaluateur.
  7. Établir et arbitrer un forum de représentants des parties prenantes au sein duquel les négociations peuvent avoir lieu. Les différences non résolues dans les constructions, ainsi que les revendications, préoccupations et questions non résolues sont examinées à la lumière des nouvelles informations et du niveau de sophistication, dans l’espoir que leur nombre puisse être réduit. Il est probable que certains points ne seront pas résolus, ce qui ouvrira la voie à une autre série d’activités d’évaluation ultérieures. Les résultats de ce forum doivent comprendre des actions à prendre si l’on veut que la négociation soit considérée comme un succès.
  8. Élaborer un rapport, probablement plusieurs rapports ciblés, qui communiquent à chaque groupe de parties prenantes tout consensus sur les constructions et toute résolution concernant les revendications, les préoccupations et les questions qu’ils et elles ont soulevées (ainsi que celles soulevées par d’autres groupes qui semblent pertinentes pour ce groupe). La forme la plus utile pour ce(s) rapport(s) est l’étude de cas, qui peut fournir l’expérience indirecte nécessaire pour influencer les constructions des parties prenantes (voir ci-dessous des observations supplémentaires sur le processus d’établissement de rapports).
  9. Recycler l’évaluation pour tenir compte des constructions encore non résolues et de leurs revendications, préoccupations et questions connexes. De nouveaux aspects peuvent être explorés sur la base de l’évaluation initiale. Les évaluations constructivistes ne sont jamais achevées; elles s’arrêtent jusqu’à ce qu’un nouveau besoin ou une nouvelle occasion de révision et de réévaluation apparaisse.

[…]

Conduire l’évaluation constructiviste; l’utilisation de la méthodologie herméneutique/dialectique

L’évaluation constructiviste s’effectue par le biais d’une série d’étapes qui, tout en étant énumérées ici en série, peuvent être itératives et réitérées dans la pratique à mesure que les constructions évoluent et que des revendications, des préoccupations et des questions particulières sont traitées. La présentation en série ci-dessous est utilisée pour des raisons de commodité. La liste commence au moment où un contrat satisfaisant pour toutes les parties a été conclu.

  1. Organiser l’évaluation : sélectionner l’équipe initiale d’évaluateurs et d’évaluatrices, prendre des dispositions d’entrée, prendre des dispositions logistiques et évaluer les facteurs politiques et culturels locaux.
  2. Identifier les parties prenantes : identifier les agents et les agentes qui commanditent et réalisent l’évaluanda, identifier les « bénéficiaires » ainsi que les « victimes » de l’action du sujet évalué, monter des stratégies de recherche continue pour d’autres parties prenantes, évaluer les compromis et les sanctions, et formaliser les accords avec et entre elles et eux.
  3. Développer des constructions intragroupes de parties prenantes : former plusieurs cercles herméneutiques de 10 à 12 membres représentant chacun un public de parties prenantes; solliciter des descriptions (constructions) de l’évaluanda et identifier et approfondir les revendications, les préoccupations et les questions qui émergent, pour aboutir autant que faire se peut à des accords négociés sur tous les points identifiés.
  4. Élargir les constructions conjointement élaborées par les groupes de parties prenantes en utilisant les constructions antérieures de l’évaluateur ou de l’évaluatrice (mais sans leur accorder de privilège particulier), les informations documentaires existantes, une mise en regard des données issues des entretiens intragroupes avec les données d’observation, l’analyse de la littérature et d’autres sources jugées pertinentes.
  5. Trier les constructions, les revendications, les préoccupations et les questions résolues par consensus, en les mettant de côté comme éléments possibles dans les rapports de cas.
  6. Hiérarchiser les points non résolus au moyen d’un processus de hiérarchisation négocié, déterminé par les membres de chaque groupe de parties prenantes et impliquant des derniers.
  7. Recueillir des informations supplémentaires et s’en servir pour ajouter de la sophistication en formant les négociateurs et les négociatrices, en recherchant de nouvelles informations, en réalisant des études spéciales si nécessaire.
  8. Préparer l’ordre du jour des négociations en définissant et en élucidant les constructions concurrentes; en s’efforçant d’éclairer, de soutenir ou de réfuter les éléments (en fournissant une formation supplémentaire si nécessaire) et en testant l’ordre du jour obtenu.
  9. Développer des constructions inter-groupes. L’étape 8 aura abouti à un ordre du jour négocié pour chacun des groupes de parties prenantes. Cette étape 9 récapitule en fait les étapes 3 à 8 pour un cercle herméneutique nouvellement formé, composé de personnes choisies par les différents cercles comme leurs représentantes et représentants. Le résultat est une construction composite qui inclut toutes les formes de constructions du sujet évalué ainsi que leurs revendications, préoccupations et questions pertinentes. Il est pratiquement certain que certains points n’auront pas été négociés jusqu’à ce que tous les groupes de parties prenantes soient satisfait-e-s; ceux-ci/celles-ci sont mis-e-s de côté en vue d’un réexamen ultérieur dans le cadre d’un recyclage.
  10. Rapport sur les résultats de l’étape 9. Il peut y avoir plusieurs rapports adaptés aux revendications, aux préoccupations et aux questions de groupes de parties prenantes spécifiques. Les accords sur les éléments de ces rapports peuvent mener à des propositions de mesures à prendre. Le rapport devrait viser en particulier le(s) objectif(s) de l’évaluation, c’est-à-dire formatif/mérite, formatif/valeur, sommatif/mérite, et/ou la valeur sommative.
  11. Recycler l’ensemble du processus pour tenir compte en particulier des éléments mis de côté à l’étape 9 et qui n’étaient pas résolubles à l’époque.

Rapports d’évaluation constructiviste

Le rendu d’une évaluation constructiviste (mais jamais son produit final, puisqu’il est soumis à des itérations successives) est le rapport de cas. En un sens, une étude de cas n’est jamais terminée, elle est simplement due. Il peut y avoir de multiples rapports destinés à des publics de parties prenantes spécifiques; et ils peuvent prendre de nombreuses formes, possiblement sans y inclure ce que l’on pourrait normalement appeler un rapport « technique », si un tel rapport dépasse les compétences d’un public de parties prenantes. Le rapport n’aboutit pas à des jugements, des conclusions ou des recommandations, sauf dans la mesure où ceux-ci sont approuvés par les parties prenantes concernées.

Le rapport de cas est plutôt la construction conjointe qui émerge du processus herméneutique/dialectique. Tout au long de ce processus, les parties prenantes – individuellement, dans des groupes homogènes ou des groupes dans lesquels elles sont mélangées – sont choisies pour découvrir des points de vue très différents. Elles sont exposées à de nouvelles informations et à de nouvelles méthodes d’analyse et d’interprétation plus sophistiquées jusqu’à ce qu’un certain consensus soit atteint.

Le rapport de cas aide le lecteur à comprendre (dans le sens de rendre réel), non seulement l’état des choses que les parties prenantes croient exister, mais aussi les motifs sous-jacents, les sentiments et les raisons qui mènent à ces croyances. Le rapport de cas se caractérise par une description détaillée qui non seulement clarifie le contexte essentiel, mais qui permet au lecteur d’en faire l’expérience par procuration.

Le rapport de cas doit enfin contenir une annexe qui décrit en détail la méthodologie suivie et permet de juger dans quelle mesure les critères de qualité (ceux énumérés dans la section suivante) sont remplis.

Critères d’évaluation de la qualité des évaluations et des rapports constructivistes

Les normes habituellement appliquées pour juger de la qualité des évaluations, par exemple, les normes du Joint Committee ou les Guiding Principles for Evaluators [Principes directeurs pour les évaluateurs] de l’American Evaluation Association, ne conviennent pas aux évaluations constructivistes, précisément parce qu’elles reposent sur un paradigme théorique fondamentalement différent (comme expliqué dans les premiers paragraphes de ce texte). Deux approches différentes ont été élaborées pour faire face à ce dilemme; toutes deux sont utiles pendant le processus d’évaluation en tant que listes de contrôle procédurales et, par la suite, pour évaluer la qualité du rapport d’évaluation (produit) :

  1. Les critères « parallèles » (parfois appelés « critères de fiabilité » ou « fondamentaux »). Ils sont le fruit d’un effort visant à produire des critères plus ou moins parallèles à ceux utilisés de manière conventionnelle, c’est-à-dire la validité interne et externe, la fiabilité et l’objectivité. Ils sont probablement les plus utiles, d’abord pour orienter les décisions méthodologiques pendant l’évaluation, puis pour vérifier l’ensemble du processus d’évaluation (voir c et d ci-dessous). Cependant, leur « parallélisme » avec les principes positivistes ne les rend pas tout à fait adéquats pour déterminer la qualité d’une approche constructiviste. Ces critères parallèles sont les suivants (on trouvera des définitions complètes dans Fourth Generation Evaluation, p.233 à 243) :
  2. Crédibilité, à peu près parallèle à la validité interne, établie par un engagement prolongé sur le site, une observation persistante, un compte rendu par les pairs (une sorte de critique externe), une analyse des cas négatifs (un processus de reformulation des hypothèses), une subjectivité progressive (vérification continue des constructions en cours de développement par rapport aux constructions attendues avant la collecte des données) et (plus important encore), des vérifications par les membres, une évaluation continue des hypothèses, des données, des catégories préliminaires, et des interprétations avec les membres des publics concernés.
  3. Transférabilité, à peu près parallèle à la validité externe, établie non pas par l’évaluateur ou l’évaluatrice, mais par les destinataires des rapports d’évaluation qui jugent personnellement la mesure dans laquelle les résultats sont suffisamment similaires à leurs propres situations (à partir de la description détaillée) pour justifier la vérification de la viabilité de l’application locale (vérification de la localisation plutôt que la généralisation plus habituelle).
  4. Solidité [Dependability], à peu près parallèle à la fiabilité [reliability], établie grâce à l’audit de solidité avec l’aide d’une auditrice ou d’un auditeur externe, qui examine le dossier de l’enquête de la façon dont un auditeur fiscal examine les dossiers fiscaux, afin de déterminer les décisions méthodologiques prises et d’en comprendre les raisons.
  5. Confirmabilité, à peu près parallèle à l’objectivité, qui détermine dans quelle mesure les constructions, les affirmations, les faits et les données peuvent être retracés jusqu’à leurs sources, l’inspection étant effectuée par un auditeur ou une auditrice externe (qui peut être identique ou différent-e de l’auditeur/-trice de la solidité). Les « produits bruts » et les « processus utilisés pour les comprimer » sont inspectés et confirmés selon qu’il convient.
  6. Les critères d’authenticité. Alors que les critères parallèles sont ancrés dans les hypothèses de positivisme, les critères d’authenticité sont fondés directement sur les hypothèses de constructivisme et répondent aux aspects herméneutiques/dialectiques de ce paradigme. Ces critères sont les suivants (les définitions complètes se trouvent dans Fourth Generation Evaluation, p.245 à 250) :
  7. Équité, déterminée par une évaluation de la mesure dans laquelle toutes les constructions concurrentes ont été accessibles, exposées et prises en compte dans le rapport d’évaluation, c’est-à-dire dans la construction émergente négociée.
  8. Authenticité ontologique, déterminée par une évaluation de la mesure dans laquelle les constructions individuelles (y compris celles de l’évaluateur ou de l’évaluatrice) sont devenues plus informées et plus sophistiquées.
  9. Authenticité éducative, déterminée par une évaluation de la mesure dans laquelle les individus (y compris l’évaluateur ou l’évaluatrice) comprennent mieux (même s’ils ou elles ne sont pas plus tolérant-e-s) les constructions des autres.
  10. Authenticité catalytique, déterminée par une évaluation de la mesure dans laquelle l’action est stimulée et facilitée par l’évaluation (en clarifiant le centre d’intérêt, en éliminant ou en améliorant les problèmes, en affinant les valeurs).
  11. Authenticité tactique, déterminée par une évaluation de la mesure dans laquelle les individus sont habilités à prendre les mesures que l’évaluation implique ou propose.

Deux autres observations s’imposent en ce qui concerne la question de la qualité. Premièrement, il ne faut pas négliger la capacité du processus herméneutique/dialectique à agir comme une source puissante de contrôle de la qualité. Dans ce processus, les données saisies sont analysées dès leur réception. Elles sont « renvoyées », pour être commentées, élaborées, corrigées, révisées, développées ou modifiées, aux personnes qui les ont fournies quelques instants avant. Ces intrants seront en outre intégrés à la reconstruction conjointe et collaborative qui émerge à mesure que le processus se poursuit. Dans ces circonstances, les possibilités que des erreurs ne soient pas détectées ou contestées sont très faibles. C’est l’interaction immédiate et continue des informations qui empêche la possibilité de résultats non crédibles. Il est difficile de maintenir une façade factice ou de soutenir une tromperie délibérée lorsque l’information est soumise à des remises en question continues et multiples de la part de diverses parties prenantes. Le processus herméneutique/dialectique est par définition susceptible d’être inspecté et est en effet inspecté lui-même; ceci empêche une grande partie des types de secrets et de pauvreté de l’information qui ont caractérisé les évaluations se concentrant uniquement sur les attentes des clients [client-focused evaluations]. Enfin, toute intention de la part de l’évaluateur ou de l’évaluatrice de favoriser certaines parties prenantes est au moins tout aussi détectable.

Deuxièmement, pour qu’une évaluation de la qualité aboutisse, il est nécessaire que l’évaluatrice ou l’évaluateur joue un double rôle (et parfois contradictoire) : défenseur ou défenseuse et éducateur ou éducatrice. Dans pratiquement toutes les situations, les publics intéressés diffèrent grandement quant à la quantité d’informations qu’ils et elles fournissent, la mesure dans laquelle ils et elles peuvent articuler leurs constructions existantes du sujet évalué et les revendications, préoccupations et problèmes auxquels ils et elles sont confronté-e-s; et le degré de sophistication qu’ils et elles possèdent dans le traitement des nouvelles informations qui émergent, dont certaines peuvent être très techniques. En outre, le processus herméneutique/dialectique lui-même n’est pas un processus qu’ils et elles maîtrisent bien; il incombe donc à l’évaluateur ou à l’évaluatrice de leur fournir la formation (et, si nécessaire, la représentation) dont ils et elles ont besoin. L’équilibre requis entre ces rôles est délicat, et l’évaluateur ou l’évaluatrice devra faire preuve d’une grande prudence pour éviter tout parti pris et tout favoritisme.

Coda

L’évaluation constructiviste diffère fondamentalement des autres (nombreuses) formes d’évaluation. Dans Fourth Generation Evaluation, nous avons décrit l’évolution historique de la pratique de l’évaluation : une première génération était axée sur la mesure, une deuxième sur la description, une troisième sur le jugement et une quatrième sur la négociation (herméneutique/dialectique). C’est cette quatrième forme d’évaluation qui fait l’objet de cette liste de contrôle et de cet ensemble de lignes directrices, maintenant appelée évaluation constructiviste. Nous pensons que cette forme élimine les problèmes majeurs des trois premières générations : une tendance au managérialisme, c’est-à-dire une approche de l’évaluation qui favorise le point de vue du client ou de la cliente, du bailleur ou de la bailleuse de fonds, qui préserve indûment le ou la gestionnaire et qui prive certaines parties prenantes de leur pouvoir, de leur équité et de leurs droits; une incapacité à tenir compte du pluralisme des valeurs; et un engagement excessif envers le paradigme scientifique (positiviste) de l’enquête.

L’évaluation constructiviste est un modèle difficile à adopter. Elle demande beaucoup de travail. Elle est toujours récursive et nécessite de fréquentes récapitulations. Elle est souvent contradictoire et conflictuelle. Il s’agit d’un processus diffus impossible à spécifier en détail (sous forme de modèle); par conséquent, ses engagements en matière de personnel et de ressources peuvent au mieux être « estimés ». Ceci exige de l’évaluateur ou de l’évaluatrice qu’il ou elle joue de multiples rôles qui peuvent parfois sembler contradictoires. Elle nie la possibilité de généralisations fiables et de trouver des solutions « qui fonctionnent » partout. Pourtant, d’un point de vue axé sur les valeurs, c’est, selon nous, le meilleur moyen d’élaborer des solutions viables et acceptables aux revendications, aux préoccupations et aux problèmes largement ressentis, et à la formulation de constructions largement considérées comme adaptées, efficaces, pertinentes et modifiables en permanence. C’est l’une des approches les plus réalistes sur le plan social et politique pour réaliser des évaluations utiles et utilisées.

[…]


  1. NdT : Evaluanda (evaland) est un mot générique désignant tout objet de l’évaluation.

Licence

Partagez ce livre