Libre accès aux ressources scientifiques

5 Du libre accès à la littérature scientifique et de quelques enjeux de la recherche en contexte de développement

Jean-Claude Guédon

Docteur en histoires des sciences (University of Wisconsin, USA, 1974), Jean-Claude Guédon a enseigné successivement à l’université York (Collège universitaire Glendon), à Toronto (1970-1973), et à l’Université de Montréal depuis 1973. D’abord professeur à l’Institut d’histoire et de sociopolitique des sciences, il est passé en Littérature comparée lors de la fermeture de l’Institut en 1987. Ce département, à son tour fermé en 2015, il enseigne maintenant dans le Département Littératures et langues du Monde, dans la section de littérature comparée. Un des trois lauréats du Prix Charles-Hélou de la Francophonie en 1996, il a également été vice-président de la Fédération canadienne des sciences humaines et sociales (2006-8). Depuis 2008, il joue régulièrement le rôle d’expert auprès de la Commission européenne. Auteur de trois livres et de plus d’une centaine d’articles, il intervient régulièrement un peu partout dans le monde dans divers colloques dont beaucoup portent sur la question du libre accès aux publications savantes. Depuis 2010, il est Trustee du Nexa Center for Internet and Society du Politecnico de Turin en Italie.

Quelques remarques préliminaires

La recherche scientifique, depuis fort longtemps, se place résolument sous l’enseigne de l’universalité. Ce terme, fort général, couvre en fait deux perspectives complémentaires : d’une part, la recherche scientifique est ouverte à toutes et tous. Origine ethnique, genre, classe, etc. n’interviennent en rien dans l’aptitude à la recherche scientifique. Au contraire, tout individu, armé de ses connaissances et de son intelligence, peut prétendre s’engager dans la recherche scientifique et ainsi contribuer à cette « Grande Conversation » qui s’est graduellement mise en branle depuis au moins le XVIIe siècle. D’autre part, les résultats de la recherche scientifique, tant qu’ils ne sont pas réfutés, demeurent valides et acceptés partout, en tout cas sur la planète.

Cette universalité, essentielle pour une bonne pratique de la science, est parfois abusivement étendue à toutes les facettes de l’activité scientifique, au point de s’étendre à l’ensemble des questions dont traite la science. Se présente alors la fausse évidence d’une homogénéité fondamentale et essentielle de l’activité scientifique : l’ensemble des questions que poursuivent les scientifiques seraient les seules questions que peut poser la science dans son ensemble, à un stade donné de son développement. Or, nombre de question laissées en jachère viennent rapidement à l’esprit : la seule présence de maladies négligées démontre que la science mondiale poursuit seulement certaines questions et pas d’autres. Nous connaissons le virus Zika, pour reprendre un exemple brûlant actuellement, depuis 1947, mais il faut la menace de ce virus dans les pays riches pour que ce virus devienne un élément important du « front de la recherche ». Mais comment ce « front de la recherche se configure-t-il?

Une simple expérience de pensée permet de mieux aborder cette question. Imaginons que l’ensemble des scientifiques du monde, pour une raison inconnue, se trouve coupé en deux groupes, sans que ceux-ci puissent communiquer entre eux. L’équipement des laboratoires suit la même règle de division. Au moment initial T0, les deux groupes de scientifiques disposaient du même stock de connaissances ou de la même archive scientifique.

Nous pouvons maintenant imaginer ce qui va se passer après cette séparation dramatique. Pris dans la logique et la dynamique des problèmes en cours juste avant la grande séparation, les deux communautés de scientifique vont continuer de poser à peu près les mêmes questions, y compris celles émergeant après la grande rupture. À peu près, mais pas exactement, car le nombre de problèmes que l’on peut concevoir à tout moment du développement des recherches excède infiniment le nombre de projets que l’on peut mettre en œuvre pour tenter de résoudre ces problèmes. Et cette divergence initiale, si petite soit-elle, va affecter la possibilité de poser ultérieurement d’autres questions. En d’autres mots, le profil de l’évolution scientifique est, dans une certaine mesure, path dependent, dépendant du chemin suivi. Ainsi s’instaure une dérive conduisant à la création de deux fronts de recherche distincts, et même de plus en plus en plus distincts. Et ceci arrivera en dépit d’un attachement total, profond et entier à la célèbre méthode scientifique.

À ceux qui pourraient douter de l’existence d’un tel mouvement, il suffit de rappeler que toute recherche menée en secret, par exemple pour des raisons militaires ou de commerce, conduit à des résultats que personne n’est censé connaître hormis les détenteurs du secret. Après la fin de la Guerre froide, par exemple, on a pu ainsi documenter en Union soviétique la présence de programmes de recherche différents de ceux menés aux États-Unis ou en Europe de l’ouest. Par exemple, les études soviétiques sur la supercavitation (une technique de propulsion sous-marine) avaient permis la conception de torpilles évoluant à plusieurs centaines de kilomètres à l’heure dès les années 70.

Dès que l’on pose la question du choix des problèmes, une autre interrogation surgit immédiatement : qui décide? Comment ce choix est-il conçu? C’est là le sujet de la première partie de cet essai.

Comment s’organise le front de la recherche : petit retour sur la notion de paradigme de Thomas Kuhn

L’orientation de toute recherche s’articule fondamentalement sur des choix qui croisent une logique de questionnement et une logique de gestion de carrière. C’est donc dire que cette orientation, en dernier ressort, s’appuie sur un grand nombre de choix individuels. Il s’agit alors de déterminer les forces qui agissent sur cet agent particulier qu’est le ou la scientifique en activité. Pour Thomas Kuhn, dans son célèbre ouvrage sur les révolutions scientifiques paru en 1962, l’activité du ou de la scientifique s’inscrit à l’intérieur d’un cadre général lié à la formation à la recherche : méthodes, outils intellectuels (par exemple une certaine familiarité avec tel ou tel secteur des mathématiques) et appareils de laboratoire constituent un ensemble que maîtrise en principe tout scientifique. Cet ensemble d’éléments intellectuels, d’habitudes et de moyens se conjuguent pour guider la démarche du ou de la scientifique : grâce à sa formation, le ou la scientifique dispose d’une connaissance générale de la manière d’identifier un problème et d’imaginer une stratégie composées d’observations, d’expériences et de raisonnements pour résoudre le problème choisi. Inscrit dans ce que Kuhn appelle la science « normale », ce scientifique s’attend à certains types de résultats plutôt qu’à d’autres, et en confirmant ses prédictions, ce scientifique inscrit son travail dans la « science normale » où toute recherche étend un domaine déjà fortement balisé par un cadre théorique fort.

À cet ensemble quelque peu contraignant d’habitudes de recherche acquises au cours des années d’études et de formation à la recherche, Kuhn ajoute un élément psychologique chargé d’assurer une certaine stabilité à l’ensemble de la science normale. S’appuyant sur la psychologie de la « Gestalt », Kuhn tente de démontrer que le ou la scientifique qui regarde un ensemble de résultats empiriques ou théoriques a tendance à les percevoir d’une certaine manière et non d’une autre. Par exemple, une personne qui observe la représentation d’un cube sur une feuille de papier sait que cette observation peut la conduire à deux interprétation de la représentation du cube : ou bien le cube se projette en avant, ou bien il se projette en arrière. Et on sait aussi que, pour passer d’une représentation à l’autre, il faut faire un effort mental significatif, parfois difficile. Kuhn s’appuie sur des exemples analogues pour démontrer que l’habitude de se représenter le monde d’une certaine manière est renforcée par le fait que le cerveau humain ne laisse pas aisément percer par une autre façon de se représenter le monde. La science dite « normale » repose sur des habitudes de pensée qui conduisent les scientifiques à partager sans grande résistance une représentation commune du monde et de ses éléments constitutifs.

Intéressantes sans aucun doute, ces thèses de Kuhn laissent quand même filer un troisième élément important de l’activité scientifique : celui de la communication entre scientifiques. Ces processus de communication entre scientifiques, que d’aucuns (Garvey par exemple) présentent comme l’essence de la science[1], méritent d’être examinés avec un peu plus d’attention que ne leur accorde Kuhn.

Les formes de communication entre scientifiques sont multiples, mais elles convergent toutes vers ce qui permet finalement de constituer l’archive acceptée par tous de l’effort scientifique mondial : les publications – monographies ou articles – acceptées après sélection et évaluation par les pairs. Examinons de plus près ce que ce processus de communication implique.

L’évaluation par les pairs constitue le moment-clé de toute recherche scientifique. En quelque sorte, le texte soumis, après vérification, conseils reçus et révisions, prend sa forme stabilisée qui sera retenue par l’archive scientifique. Du même mouvement, et même si des versions antérieures ont déjà circulé de diverses manières – présentations orales, séminaires, conférences, circulation de premières moutures parmi des collègues de confiance – la version acceptée par une revue ou une maison d’édition, dans le cas d’une monographie, correspond à la version qui entre officiellement dans la « Grande Conversation » scientifique. On appelle souvent cette version particulière des résultats d’une recherche la version « de référence ». Elle est entrée dans le territoire scientifique et c’est elle qui sera citée pour étayer des travaux ultérieurs, ou qui sera attaquée, voire réfutée par des travaux révélant des faiblesses, des erreurs, des fautes de méthode, etc.

L’esprit dans lequel s’effectue l’évaluation par les pairs peut énormément varier d’un cas à un autre. Pour autant, on peut espérer que, règle générale, les évaluateurs cherchent à aider les auteurs à produire un meilleur travail. Mais, pour ce faire, l’évaluation dépend en partie d’un jugement où la familiarité avec le sujet traité est essentielle. Un travail réellement novateur, réellement différent, qui remet en question bon nombre de « vérités » – en passant, la science ne s’occupe pas de vérité, n’exprimant elle-même que des énoncés temporairement ou incomplètement valables – va heurter un certain nombre d’idées reçues et, partant, bon nombre de collègues. De ce fait, et tendanciellement, l’évaluation par les pairs joue un rôle plutôt conservateur, plutôt situé en faveur de la conservation de la science normale en vigueur au moment où l’évaluation prend place. Et si l’évaluateur ne joue pas bien le jeu, c’est-à-dire s’il utilise le processus d’évaluation pour bloquer un collègue perçu comme un concurrent, le résultat joue encore plus en faveur du conservatisme.

Cette tendance fondamentale qui, d’ailleurs, correspond parfaitement à la notion de « scepticisme organisé » dans la sociologie des sciences de Robert K. Merton, s’accentue à cause d’un autre jeu de concurrence qui s’est instauré, cette fois, entre les revues. Ce sera l’objet de la section suivante, mais, d’ores et déjà, on peut relier la stabilité relative de la « science normale » selon Kuhn aux pratiques tendanciellement conservatrices du jugement par les pairs, lui-même partie essentielle de la communication scientifique. Plus que la psychologie du Gestalt invoquée par Kuhn, l’esprit dans lequel s’effectue l’évaluation par les pairs soutient la « science normale » et résiste aux ruptures et révolutions qui remettent en question des pans plus ou moins vastes de la recherche scientifique.

Comment s’organise le front de la recherche : le rôle de la concurrence entre les revues

En un mouvement aussi vaste et profond que silencieux, la communication scientifique mondiale a vécu des transformations profondes dans la foulée de la Deuxième Guerre mondiale. En expliquer les contours en détails nous entraînerait trop loin, mais on peut noter, à grands traits, les étapes suivantes :

  1. Guerre techno-scientifique, la Deuxième Guerre mondiale s’appuie sur des structures de recherche de taille gigantesque par rapport à ce qui pouvait se faire avant la guerre. L’exemple du projet Manhattan pour la mise au point de la première bombe atomique constitue un exemple emblématique d’efforts qui se déploient sur des échelles que l’on appellera vite Big Science pour bien distinguer le nouveau régime de l’activité scientifique au sortir de la déflagration mondiale.
  2. Cette Big Science correspond évidemment à une accélération du rythme des publications scientifiques. Ce seul fait va engendrer plusieurs conséquences majeures dès la fin des années 40 et au cours des années 50.
    1. Les revues scientifiques, encore largement contrôlées un peu partout par les sociétés savantes, peinent à suivre le mouvement, d’autant plus que la présence des publications allemandes, importante avant la Guerre, a été très affectée par celle-ci. Ceci ouvre la porte à la présence de maisons d’édition commerciales qui, jusqu’ici, avaient surtout joué un rôle d’appoint aux structures d’édition scientifique.
    2. La croissance très rapide du nombre des publications va mettre les systèmes bibliographiques sous pression. Les recherches se révèlent de plus en plus interdisciplinaires, ne serait-ce que par l’accent mis sur la solution de problèmes complexes, militaires ou industriels. Cette nouvelle situation exige de retrouver de l’information à travers plusieurs disciplines, alors que les index bibliographiques sont le plus souvent disciplinaires. L’Union soviétique tente de se positionner sur ce terrain éminemment stratégique de l’information scientifique, ce qui intensifie l’importance attribuée à ces problèmes.
    3. L’intervention de scientifiques d’un nombre croissant de pays divers, utilisant des langues variées, pose de manière aiguë la question des langues : anglais, allemand, français, russe, entre autres, cherchent soit à dominer – cas de l’anglais – soit à occuper ou préserver une place significative dans le système scientifique mondial alors que celui-ci est en train de se reconfigurer dans le contexte d’une Guerre froide devenue une réalité avec le « Coup de Prague » en 1948 et le déclenchement de la guerre de Corée en 1950.

C’est dans ce contexte que Eugene Garfield entreprend de monter un nouveau type d’index bibliographique, le « Science Citation Index » (SCI) en utilisant les citations que l’on trouve dans l’appareil critique de tout article scientifique correctement rédigé. L’idée est de suivre la pensée scientifique partout où elle peut nous mener en retraçant les liens de citation entre les articles des revues scientifiques. Idéalement, cette perspective aurait dû couvrir tous les articles de toutes les revues scientifiques du monde, mais la taille du système de communication des sciences, de même les limites humaines, techniques et financières du projet de Garfield l’ont conduit à radicalement tronquer l’archive prise en compte de façon à pouvoir la traiter de manière à peu près exhaustive. Mais emprunter cette stratégie soulevait un nouveau problème, celui de la validité des résultats ainsi obtenus. Pour surmonter cet obstacle, Garfield partit d’une loi empirique de distribution des articles sur un sujet donné dans les revues scientifiques – la loi de Bradford – et, en quelque sorte, l’inversa pour en sortir quelque chose d’entièrement différent, la notion de core science (science d’élite) associée à un ensemble limité de revues scientifiques, les core journals (revues scientifiques d’élite). Ici encore, ce n’est pas le lieu de démontrer que cette notion de core science est essentiellement fantaisiste. Il importe en revanche d’en noter quelques conséquences extrêmement importantes qui contribuent encore à structurer les sciences et leurs moyens de communication à l’échelle mondiale.

  1. La notion de core journals coupe impérieusement l’ensemble mondial des revues scientifiques en deux ensembles disjoints alors que, jusque là, on n’avait affaire qu’à un seul ensemble de revues, vaguement structuré par un système de réputation qui pouvait d’ailleurs varier de pays à pays.
  2. La distinction très nette entre les core journals et les autres tend à focaliser l’attention de tout le monde sur les core journals.
    1. Du point de vue des scientifiques, ce sont les revues scientifiques à suivre de près. Mais, avec une « économie de l’attention » déjà très tendue, cela veut aussi dire que l’on peut largement se dispenser de perdre son temps sur les autres revues;
    2. Du point de vue des bibliothèques, ces core journals se doivent d’être les points d’ancrage de toute collection de revues digne de ce nom, ce qui conduit à un alignement des bibliothèques, en particulier en Amérique du Nord et en Europe, sur cet ensemble de revues savantes;
    3. Du point de vue des maisons d’édition, ces revues sont les plus profitables économiquement. En effet, leur nouveau statut (qui se confirme au cours des années 70) leur confère une vertu d’inévitabilité telle que, coûte que coûte, toute bibliothèque qui se respecte se doit de s’abonner à ces titres, quel qu’en soit le prix. Sans s’en rendre compte, Garfield et les bibliothèques, ensemble, ont contribué à transformer le marché des revues scientifiques en un marché inélastique : le coût de ces revues, même s’il augmente beaucoup, ne s’accompagnera pas d’une baisse des abonnements. Pour les maisons d’édition commerciales, cette nouvelle situation offre des occasions financières irrésistibles et la stratégie d’une telle entreprise se définit aisément : il faut posséder, contrôler, influencer le nombre maximum de titres qui se situent dans le cercle enchanté des revues d’élite (core journals).

Au total, l’opération notionnelle de Garfield, bien que généralement présentée comme la tentative d’identifier les revues scientifiques les plus significatives, ou les meilleures du monde, se résume mieux par sa capacité à exclure un nombre énorme de revues scientifiques. Auparavant, la « République des sciences », forte de sa « Grande Conversation » avait réussi à établir une société savante mondiale qui, sans être égalitaire, s’était révélée relativement propice à une forme de méritocratisme relativement ouvert. À cette République, le coup de force notionnel de Garfield substitua un système élitiste, d’autant plus élitiste que les frontières de ce club de revues scientifiques étaient désormais définies, contrôlées et aménagées par la compagnie privée qu’avait fondée Garfield, le « Institute for Scientific Information ».

Le nouvel élitisme scientifique instauré par Garfield s’est vu fortement renforcé par l’application d’analyses statistiques sur les citations pistées par le nouvel index. Rapidement, des chercheurs tel Derek de Solla Price ont commencé à étudier ces ensembles de citations et ont mis en évidence des structures citationnelles régulières, par exemple dans le cycle de vie de ces citations. Un nouveau domaine de recherche se développa donc autour du SCI, domaine qui s’institua en quelque sorte par la création d’une nouvelle revue savante – Scientometrics – en 1978. Mais surtout, ces études quantitatives ont rapidement évolué dans une direction particulière qui révélait des intentions gestionnaires : comment utiliser ces citations pour évaluer les revues savantes. C’est dans ce contexte qu’un indicateur particulier, le « facteur d’impact » ou, en anglais « impact factor » (IF) est apparu. Essentiellement, le facteur d’impact est une moyenne de citations. Il se calcule ainsi : une revue en, disons, 2015, calcule le nombre de citation reçues cette année-là pour tous les articles publiés les deux années précédentes. Ce nombre de citations est ensuite divisé par le nombre d’articles publiés pendant ceux mêmes années (2013 et 2014). Ensuite, pour mieux asseoir encore ce système, ISI publia le « Journal Citation Record » (JCR) à partir de 1975. Dans les paroles mêmes de Garfield[2], le succès du SCI n’a pas dépendu de ses qualités bibliographiques, mais bien de son aptitude à mesurer ce qu’il appelle la « productivité scientifique ». Bref, un outil quantitatif adapté aux tâches de gestion de la Big Science s’était imposé et, dès lors, les préoccupations des gestionnaires et leur logique administrative furent destinées à prendre le pas sur les questions beaucoup plus fondamentales de la surveillance interne de la qualité des travaux scientifiques. Un nouveau régime de production scientifique s’est ainsi, et silencieusement, instauré, régime qui, en bout de ligne, juge les gens non pas par ce qu’ils produisent, mais bien par le véhicule – c’est-à-dire la revue scientifique – où ils publient. En même temps, l’indicateur IF, même accompagné de précautions oratoires sur les limites de son utilisation, contribue à construire une mesure uniforme pour toutes les revues scientifiques. En termes humains, on peut imaginer construire un système un peu analogue de la manière suivante : un club (privé) visant quelque élite sociale choisit ses membres selon des règles peu transparentes, et procède ensuite à leur classement par quelque indicateur qui pourrait être, par exemple, le produit du poids de leur voiture par la longueur du même véhicule. En retour, le club offre à ses membres un bénéfice de visibilité et de prestige renforcé par un effet d’objectivité produit par l’utilisation d’une métrique.

L’importance d’appartenir au club défini par SCI (devenu entre-temps Web of Science ou WoS) est devenue évidente. La concurrence entre les revues savantes s’est alors déchaînée, d’autant plus que l’indicateur numérique se présente avec trois décimales, précisément pour éviter la possibilité de revues ex aequo dans les classements. Dans un tel contexte, l’obsession pour les classements atteint des sommets vertigineux et en vient à dominer toutes les stratégies, des individus aux institutions[3], voire aux pays entiers. Et, de la même façon qu’une compétition trop intense en sports conduit à diverses fraudes, la compétition scientifique conduit à des comportements contrevenant gravement à l’éthique scientifique : les chercheurs tentent parfois de manipuler leurs données tandis que les directeurs de revues et les maisons d’édition encouragent les citations internes pour améliorer le classement des revues. Pour ces dernières, ce classement est crucial car il permet aussi d’exiger des prix d’abonnements de plus en plus élevés, renforçant ainsi les effet délétères du marché inélastique des revues facilité par le SCI.

Ce nouveau régime de la production scientifique affecte aussi, et bien évidemment, les contours des fronts de recherche. Le remplacement d’un critère de qualité par un critère mixte et flou de visibilité/prestige/impact affecte les processus de sélection et d’évaluation des articles soumis. Décrire toutes ces conséquences excède l’ambition de ce petit essai, mais nous pouvons néanmoins en esquisser quelques traits :

  1. Le directeur de publication d’une revue se doit de maintenir un œil attentif sur le IF de sa revue. Dans ce but, il doit sélectionner les articles susceptibles d’attirer le maximum de lecteurs de manière à obtenir le maximum de citations. Pour ce faire, plusieurs variables sont importantes : le sujet de l’article soumis est-il à la mode ou « chaud »? Le ou les auteurs sont-ils déjà connus? Viennent-ils(elles) d’institutions prestigieuses et influentes disposant d’un coefficient d’autorité évident et situées dans un pays « sérieux »?
  2. Les « pairs » ne fonctionnent guère plus dans le registre de l’aide à l’amélioration d’un texte pour en faire une publication utile pour la communauté entière des scientifiques. Au contraire, le régime généralisé de la concurrence à outrance favorise d’autant plus l’esprit de critique (à distinguer soigneusement de l’esprit critique) que la « qualité » d’une revue est souvent corrélée à sa capacité de rejeter la grande majorité des articles soumis. Il y a prestige à gagner à déclarer un taux de rejet de 80 %. Du même mouvement, les tendances conservatrices, inhérentes au processus d’évaluation par les pairs, se trouvent intensément renforcées puisqu’une évaluation d’article, en fin de compte, peut s’assimiler à un investissement en faveur d’une revue donnée, et que la logique de l’investissement est profondément liée à celle de gestion du risque. Ce que cherche une revue désormais, ce n’est plus l’article le plus novateur possible, mais bien l’article susceptible de faire monter le IF le plus possible, ce qui conduit à des mouvements de mode scientifique dont la dynamique n’est pas, somme toute, tellement éloignée de celle d’une bulle financière.
  3. En bout de ligne, l’évaluation par le facteur d’impact conduit la revue savante à se comporter comme mandataire d’un exercice de qualité qui, par là-même, vise sa cible évidente, à savoir le contenu scientifique des articles dans la revue. Or, les articles publiés dans une même revue exhibent des niveaux de qualité très variables; la distribution de cette qualité est tellement loin d’être régulière qu’une moyenne appliquée à cet ensemble d’articles perd l’essentiel de sa signification. Une médiane serait plus utile qu’une moyenne, mais personne n’utilise cette métrique. Grâce à ce tour de passe-passe, la fonction-revue se trouve en quelque sorte dévoyée en signe unique et indubitable de la qualité scientifique, ce qui permet d’opérer en douceur le passage entre « capital symbolique » du travail scientifique et capital tout court de la valeur marchande de la revue. Inutile de dire que cette confusion des genres est très utile pour des entreprises commerciales qui doivent rendre des comptes à leurs actionnaires. C’est, par exemple, le cas du groupe RELX, mieux connu sous son nom historique d’Elsevier.

Toute succincte et incomplète que soit cette ébauche d’analyse, elle suffit déjà à montrer que la concurrence entre les revues scientifiques, gérée comme elle l’est par une métrique unique, conduit à un ensemble de conséquences dont les principales sont un renforcement des éléments propres à soutenir la science « normale » (au sens de Kuhn), un comportement des pairs lui aussi guidé par l’esprit de la compétition, et une survalorisation de la revue savante comme indicateur fiable de la qualité des travaux scientifiques qu’elle véhicule. Reste à voir les conséquences pour les pays qui ne font pas partie des pays riches de la planète.

Comment s’organise le front de la recherche : conséquences pour les pays en voie de développement ou émergents

Les pays émergents ou en développement savent depuis longtemps que, s’ils veulent atteindre un certain niveau de croissance, ils devront se doter d’un secteur scientifique et technique conséquent et préférablement doté d’une certaine autonomie quant au choix de ses priorités. En effet, le développement repose aussi sur la capacité de résoudre et ainsi surmonter des problèmes locaux ou régionaux. En même temps, le sens commun semble prescrire une stratégie évidente – celle de l’imitation. Après tout, la science telle que nous la pratiquons depuis plusieurs siècles, est d’abord née en Europe de l’ouest, et l’Europe de l’ouest a exploité les connaissances scientifiques et leurs applications techniques pour se lancer dans une trajectoire dominée par de grands processus sociaux et économiques tels l’urbanisation et l’industrialisation. Forte est donc l’idée d’imiter la trajectoire des pays de l’Atlantique Nord, d’autant plus que l’universalité de la science, brièvement discutée en tête de cet essai, semble bien montrer que la seule façon de développer des recherches scientifiques consiste à adopter les sciences en l’état actuel de leur développement, y compris les dynamiques conduisant à certaines sélections de problèmes scientifiques plutôt que d’autres.

Cette perspective est fortement partagée, et ce pour deux raisons principales :

  1. D’une part, une fraction importante des scientifiques les plus importants dans ces pays ont été formés à l’étranger, dans des pays du Nord. De ce passage aux États-Unis ou en Europe de l’ouest est restée une vision de la science devant être en tout précisément ce qu’elle est dans ces pays dits « développés ». Aider la science à se développer dans son pays d’origine revient à vouloir transplanter la science occidentale, y compris ses questions dominantes et ses centres d’intérêt. Cela donne, par exemple, l’envie en Afrique du Sud de participer au projet de radio-astronomie intitulé « Square kilometer array »[4]. Certes passionnant et important du point de vue de la production d’une meilleure connaissance de notre univers, ce méga-projet de radio-astronomie est-il bien le type de projet que devrait privilégier un pays comme l’Afrique du Sud?
  2. La concurrence entre revues telle que décrite plus haut, et ses effets sur l’identification de la qualité scientifique à travers les titres des revues – tout cela au nom de la quête de l’« excellence » -, ont conduit un certain nombre de pays à offrir des encouragements pécuniaires aux chercheurs nationaux pour qu’ils publient dans les « revues internationales » qui sont, le plus souvent, des revues indexées dans le Web of Science ou, peut-être dans Scopus. Ce statut ou titre de « revues internationales » leur confère une aura de qualité qui, malheureusement, contribue également à définir négativement les revues nationales ou régionales, non indexées dans ces outils bibliographiques. S’établit ainsi deux équations en parallèle : à l’opposition entre revues internationales et revues nationales (ou régionales) correspond l’opposition entre excellence et médiocrité.

Le doublé que constitue cette envie d’importer les pratiques scientifiques des pays du Nord et la survalorisation des revues dites internationales conduit les chercheurs des pays en développement ou en émergence à tout tenter pour se faire publier dans de telles revues. Mais ceci demande alors de bien choisir les problèmes posés puisque, du point de vue de la revue, l’auteur (ou les auteurs), l’institution, voire le pays seront considérés avec un certain degré de scepticisme, pour ne pas dire plus. Espérer que les problèmes les plus prometteurs du point de vue d’une revue internationale donnée corresponde au moins en partie aux problèmes les plus importants pour un pays donné relève alors d’une sorte de loterie qui, au bout du compte, garantit qu’une partie des ressources humaines, en équipement et financières du pays seront consacrés à des questions sans grand intérêt pour le pays où ces efforts se situent. De plus, si un chercheur d’un de ces pays commence à réussir à publier dans les revues internationales, il devient ipso facto beaucoup plus visible dans les pays du Nord et le pays pauvre risque alors de voir ce scientifique invité à prendre un poste à l’étranger, produisant ainsi une perte sèche pour le pays du Sud.

En Amérique latine, on entend régulièrement un petit slogan qui est d’ailleurs devenu la devise de la plate-forme de publication Redalyc : La ciencia que no se ve, no existe. La formule est, malheureusement, seulement partiellement juste : la science qui ne se voit pas n’existe effectivement pas. Mais il faut ajouter immédiatement : cette science se voit de quelle perspective? Si un article venant d’un pays du sud est publié dans une revue internationale suffisamment coûteuse pour ne pas être disponible dans ce même pays, la science produite ne se verra que dans les pays du Nord. Est-ce bien là le résultat recherché? Évidemment non!

Cela dit, publier dans une revue nationale ou régionale, même de bonne qualité, ne résout pas le problème non plus. En effet, l’absence de bons index d’articles publiés dans des revues de bonne qualité dans les pays en développement ou en émergence conduit à un autre paradoxe : publier dans une revue nationale, c’est largement accepter de se laisser circonscrire par la portée communicationnelle de ces revues savantes, et celle-ci est limitée, surtout si ces revues fonctionnent selon le principe traditionnel de l’abonnement payant. Il est peu probable qu’une bibliothèque du Sénégal accepte de payer un abonnement pour une revue du Pérou. Même si cela existe, cette hypothèse ne sera pas réfutée, car il s’agira alors d’une situation totalement exceptionnelle qui ne correspond en rien à un projet du type suivant : les pays africains aimeraient connaître la productions scientifique des pays de l’Amérique latine et des pays asiatiques.

On le voit, pour que la science se voit partout où cela compte, et pas seulement dans les clubs de l’élite scientifique mondiale, il faut effectivement remplir trois conditions :

  1. Enlever la barrière financière pour les lecteurs. C’est ici que le libre accès peut jouer son rôle. En plaçant les résultats de recherche sur des plates-formes de publication bien en vue, le libre accès commence la tâche de projeter la recherche de quelque pays que ce soit partout dans le monde, et en particulier dans les pays qui détiennent un intérêt particulier pour un problème précis, par exemple une maladie de peu d’intérêt pour les pays du Nord, mais courante et coûteuse en vies dans plusieurs pays pauvres.
  2. Pour autant, la disponibilité ou l’accessibilité n’est pas suffisante pour assurer la visibilité d’une recherche, et donc lui accorder une meilleure chance d’entrer significativement dans un secteur particulier de la Grande Conversation des sciences. Il faut aussi développer des outils de recherche performants sur ces ensembles de publication, et ce, au niveau des articles et pas seulement au niveau des revues elles-mêmes. Pour atteindre ce résultat, un effort commun, collaboratif, et en réseau des bibliothèques universitaires des pays en développement donnerait la solution. À partir de listes de revues comme celle de Latindex – revues répondant à un nombre important de critères de qualité et en activité évidente –, ces bibliothèques pourraient se diviser le travail de manière à constituer la bibliographie des articles publiés et les méta-données associées de façon à produire de façon continue ce repérage des productions scientifiques de l’Amérique latine. Des projets analogues, en parallèle, pourraient également voir le jour dans d’autres régions du monde. Tous ces articles, dès qu’ils sont publiés dans des revues en libre accès, pourraient également être recensés dans le Directory of Open Access Journals qui, ainsi, pourrait devenir la plus grande bibliographie scientifique du monde.
  3. Finalement, il ne faut jamais oublier que les scientifiques cherchent à gagner du temps et veulent pouvoir naviguer des océans de documentation de la façon la plus efficace possible. Le facteur d’impact, hélas, joue actuellement ce rôle également. Il faut donc envisager de créer des métriques simple et néanmoins adéquates qui permettront de pointer les chercheurs vers ce qui peut apparaître comme les ressources les plus prometteuses, les plus riches en possibilités.

On voit donc que les exclus du club de Web of Science ou de Scopus, devraient, plutôt que d’accepter leur sort et de se conformer aux canons de qualité imposés par ces outils, s’organiser pour créer des outils compensatoires leur permettant de se faire valoir d’abord entre eux, puis finalement, dans le monde entier. Au XIXe siècle, en France, des peintres fatigués par l’académisme et les contraintes des académies et écoles des beaux-arts décidèrent d’organiser des contre-salons intitulés, de façon amusante, « Salons des refusées ». De manière parallèle, les scientifiques du monde entier, exclus par les clubs du Web of Science et de Scopus, doivent envisager de créer des plates-formes d’exposition, d’identification et de valorisation qui pourraient facilement s’intituler les plates-formes des exclus scientifiques du monde. Du salon des refusés est né tout l’art contemporain, à commencer par l’impressionnisme; des plates-formes des exclus scientifiques naîtront sans aucun doute des extensions des pratiques scientifiques qui enrichiront notre connaissance du monde de manière tout aussi spectaculaire.

Quelques conclusions

Le développement des sciences, on l’a vu, a conduit à un mode de propagation qui, d’une certaine manière, a suivi les routes également empruntées par les routes du colonialisme européen et du commerce mondial. Ce type de développement qui, graduellement, a conduit à une certaine conception de l’économie mondiale généralement décrite par le terme « mondialisation » (globalization en anglais) se révèle être structure relativement centralisée. Son oligarchie composée de quelques pays, compagnies et centres de pouvoir organise le monde et ses activités dans le but de favoriser la préservation du système et les avantages de ceux qui en profitent.

Cette structure mondialisée peut aisément être étendue à la manière dont les scientifiques communiquent entre eux actuellement, et à la manière dont les fronts de recherche sont organisés à l’échelle de la planète. Fondée sur une concurrence intense et organisée un peu comme si l’activité scientifique pouvait se conformer à un idéal de type olympique – seuls les médaillés peuvent prétendre à l’excellence –, la science mondialisée en arrive à gérer tendanciellement, informellement et plutôt insidieusement les ressources scientifiques du monde entier à l’avantage des pays du Nord.

À cette vision de l’activité scientifique planétaire devrait s’opposer une autre forme d’organisation de l’activité scientifique qui inclurait les éléments suivants : la possibilité de définir des problèmes reconnus comme valables en diverses parties de la terre; l’évaluation de la qualité des réponses apportées à ces questions ne conduisant pas systématiquement à une dévalorisation des travaux ne comportant pas d’intérêt pour les pays du Nord; les recherches scientifiques réparties en grappes de questions qui, tout en se recoupant d’une région à une autre, offrent néanmoins la possibilité de développer des programmes de recherche relativement autonomes et plus en relation avec les besoins de pays, voire de régions entières.

Bref, à la vision centralisée, adossée à une interprétation abusive de l’universalisme de la science qui incorpore aussi les programmes possibles de recherche, on peut opposer une science encore plus universaliste et, en même temps, polycentrée. Pourquoi plus universaliste? Simplement parce qu’elle s’ouvrira réellement toute personne suffisamment formée et dotée d’une curiosité aiguisée, alors que le système mondialisé actuel barre essentiellement la route à d’excellents cerveaux susceptibles d’apporter des réponses importantes à des questions fondamentales pour la planète. Résumons tout ceci en une formule simple et courte : au système mondialisé de la science actuelle, opposons une vision réellement internationalisée des systèmes scientifiques où tous ceux qui interviennent dans ce processus, tous ceux qui peuvent contribuer à la recherche scientifique, peuvent faire entendre leur voix.

Pour citer ce texte :

Guedon, Jean-Claude. 2016. « Du libre accès à la littérature scientifique et quelques enjeux de la recherche en contexte de développement ». In Justice cognitive, libre accès et savoirs locaux. Pour une science ouverte juste, au service du développement local durable, sous la direction de Florence Piron, Samuel Regulus et Marie Sophie Dibounje Madiba. Québec, Éditions science et bien commun. En ligne à https://scienceetbiencommun.pressbooks.pub/justicecognitive1


  1. Garvey, William D. Communication, the Essence of Science: Facilitating Information Exchange among Librarians, Scientists, Engineers and Students. Pergamon International Library of Science, Technology, Engeneering and Social Studies. Oxford: Pergamon Press, 1979.
  2. « (...) the SCI’s success did not stem from its primary function as a search engine, but from its use as an instrument for measuring scientific productivity, made possible by the advent of its by-product, the SCI Journal Citation Reports (JCR) and its Impact Factor rankings. » International Microbiology (2007) 10:65-69, 65. 
  3. Sauder, M., and W. N. Espeland. “The Discipline of Rankings: Tight Coupling and Organizational Change.” American Sociological Review 74, no. 1 (February 1, 2009): 63–82. doi:10.1177/000312240907400104. Cet article donne une perspective particulièrement éclairante sur les effets pervers des classements en les interprétant comme la transposition institutionnelle du concept (individuel) de discipline chez Michel Foucault.
  4. Voir le site https://www.skatelescope.org./

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

Justice cognitive, libre accès et savoirs locaux Copyright © 2016 by Jean-Claude Guédon is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre

Commentaires/Errata

Les commentaires sont désactivés.