(Im)possible neutralité scientifique

Quand les résultats contredisent les hypothèses

La neutralité en question dans la production du savoir sur le cerveau

Giulia Anichini

La question de la neutralité dans les sciences se pose différemment selon le point de vue et les échelles d’analyse. Les sciences étant à la fois des acteurs et des réceptacles des systèmes économiques, politiques et sociaux dans lesquels elles se déploient, la réflexion sur la neutralité peut toucher divers niveaux, chacun ayant des enjeux spécifiques. Nous pouvons penser à la posture du savant ou de la savante et à son engagement envers certaines idées et valeurs (Bourdieu, 2001), aux inégalités qui traversent le système de production et de circulation des connaissances scientifiques, aux relations entre pays dominants et « non hégémoniques » (Losego et Arvanitis, 2008) ainsi qu’à l’utilisation et à l’orientation des résultats scientifiques par le secteur privé et l’industrie (Lamy et Shinn, 2006; Sismondo, 2007). Depuis l’essor des approches critiques envers le système technicien et la rationalité scientifique, formulées à partir des années 1960, la science cesse d’être pensée comme un « savoir pour lui-même » (Salomon, 1970), comme une entité autonome capable de se donner ses propres objectifs. La sociologie des sciences a ensuite questionné la relation entre science et société, en proposant diverses manières d’expliquer leur articulation. En particulier, les programmes relativistes et l’étude des laboratoires ont permis de s’éloigner d’une conception internaliste de la science et d’élucider les raisons du succès d’un « fait », la formation du consensus autour de certains résultats et la « flexibilité interprétative » dont les connaissances peuvent faire l’objet (Collins, 2004).

En continuité avec une tradition sociologique tournée vers l’analyse des pratiques scientifiques, je propose de suivre les chercheurs et chercheuses dans leur travail, et en particulier de mettre en évidence les stratégies que ces personnes adoptent lorsqu’elles sont confrontées à des résultats « récalcitrants ». La neutralité de la science est interrogée au prisme d’un ancrage du savoir dans une série d’enjeux dont les scientifiques sont inévitablement porteurs. Mon premier objectif est donc de rendre compte des contraintes qui orientent la gestion des anomalies dans la recherche et d’expliquer comment, au niveau épistémologique, les cadres de production du savoir sont en partie façonnés par des normes institutionnelles. Mon deuxième objectif est de discuter la neutralité du point de vue plus spécifique des technologies informatiques et de la science dirigée par les données. Selon les idéaux d’objectivité qui sont promus à l’ère du numérique, l’exploration automatique d’un grand nombre de données serait la garantie d’un savoir scientifique plus fiable et fournirait une représentation plus fidèle des phénomènes. Mon but sera de défier et de remettre en question la « neutralité théorique » de la science des données dans la recherche fondamentale. Pour ce faire, je vais m’appuyer sur une ethnographie de laboratoire réalisée dans le domaine des neurosciences cognitives en France, entre 2012 et 2015. Durant plus de trois ans, j’ai suivi les activités d’une équipe de recherche en neurosciences spécialisée dans une technique d’imagerie, soit l’imagerie par résonance magnétique (IRM). L’enquête a été répartie sur deux lieux : un centre d’imagerie consacré à la recherche et un laboratoire de neurosciences. Ce choix s’explique par la nécessité d’avoir un regard compréhensif sur le cycle de production des cartes du cerveau, de l’acquisition d’images à leur publication. En fait, si dans le centre d’imagerie j’avais accès aux toutes premières étapes de production des images IRM (conception du protocole, préparation des conditions expérimentales, passation des sujets dans la machine IRM), c’est surtout au sein du laboratoire que je pouvais observer les chercheurs et chercheuses traiter et interpréter leurs données. Les groupes de données « brutes » doivent être comparés au moyen d’analyses statistiques pour aboutir à une carte du cerveau dont le but est la localisation d’une activation cérébrale (il s’agit alors d’une carte fonctionnelle), ou des spécificités anatomiques (par exemple les fibres ou les sillons).

Je vais discuter les pratiques de traitement de données et la gestion d’anomalies à partir de deux cas : le traitement de données fonctionnelles issues d’une expérience d’IRM et l’utilisation d’images anatomiques du cerveau récupérées, cette fois, dans une base de données disponible en ligne. Dans les deux cas, on observe deux phénomènes corrélés : 1) les scientifiques peuvent faire varier les traitements ou la composition de groupes d’images dans le but de s’approcher le plus aux résultats escomptés; 2) pour les scientifiques, rendre manifeste un résultat non attendu n’est pas une opération simple, car cela est assimilé à un échec qui peut nuire à leur carrière, en particulier à celle des plus jeunes. Pour ce qui concerne le premier point, l’observation de pratiques qui visent à explorer les résultats autrement – quand ils ne sont pas « satisfaisants » suite au travail avec les bases de données – amène au constat d’une orientation théorique des explorations automatiques et de l’articulation entre normes épistémiques hétérogènes. En ce qui concerne le deuxième point, on verra que si publier des résultats « négatifs » est un acte perçu comme potentiellement nuisible à la carrière scientifique, on peut choisir la prudence et opter pour des canaux de communication informels pour en rendre compte.

Bricolage dans le traitement et l’exploration de données IRM

Après avoir acquis les images lors d’une expérience de recherche, les ingénieur-e-s qui sont responsables du centre d’IRM vérifient les données pour qu’elles soient exploitables par l’équipe de recherche. Ils et elles procèdent au « contrôle qualité », c’est-à-dire à la correction des artefacts qui peuvent compromettre la fiabilité des images. Les artefacts en question agissent sur le signal qui est mesuré par la machine IRM et sont causés par exemple par des problèmes de détection du signal dans certaines zones de la tête du sujet. Après cette étape, les scientifiques récupèrent les données converties dans un format standard appelé NIFTI (Neuroimaging Informatics Technology Initiative).

Avant de réaliser des analyses statistiques au moyen desquelles on compare les activations des groupes étudiés, l’équipe de recherche doit prétraiter les données. Les prétraitements constituent un ensemble de procédures automatisées qui entraînent des transformations aux images pour réduire les variabilités spatiales et temporelles et permettre leur comparaison. Les principaux prétraitements sont : le slice-timing, qui supprime le décalage temporel entre les coupes, le realignment, qui corrige les mouvements de tête du sujet, le unwarping, qui vise à réduire l’hétérogénéité du champ magnétique, la normalization, qui permet de traiter la variabilité morphologique des cerveaux à l’aide d’un cerveau modèle (un template), et le smoothing, soit l’application d’un lissage gaussien visant à favoriser la visibilité de la corrélation entre voxels (pixels volumiques) attenants. L’équipe de recherche prétraite les données à l’aide d’un logiciel appelé SPM (Statistical Parametric Mapping), très largement utilisé dans le domaine de la neuro-imagerie. Elle peut laisser les paramètres « par défaut » (choisis par les développeurs du logiciel) ou les changer à sa convenance. L’application des prétraitements est souvent considérée par les chercheurs et chercheuses comme une étape bien établie et non problématique. Pourtant, leurs pratiques de prétraitement sont très variables, car « chacun-e a sa recette de cuisine », c’est-à-dire que chacun-e intègre ou élimine certains traitements à sa guise. Cela est possible parce qu’il y a un flou qui se dessine autour de certains paramètres.

Concernant le slice timing, traitement qui entraîne la correction automatique du décalage temporel d’acquisition des coupes du cerveau, il n’y a pas de véritable consensus sur l’influence possible sur les données. Cela ressort clairement de cet échange où un des ingénieurs du centre IRM explique à un chercheur comment utiliser les prétraitements.

Chercheur : Donc, je voulais te demander sur le slice-timing… parce qu’il y en a qui…

Ingénieur : Oui, il y en a qui n’aiment pas…

C : Est-ce que tu peux m’en dire plus?

I. : Franchement je ne pourrais pas répondre à cette question. C’est des philosophies, des pratiques, le slice-timing est-ce que tu vois ce que ça fait? [Explication], Mais après, le slice-timing ça perturbe tes données […] donc c’est pas génial… non, mais effectivement, c’est très difficile d’évaluer de façon générale l’influence que tous ces processus peuvent avoir sur les données, mais aujourd’hui ma recette de cuisine c’est plutôt celle-là…

C. : Ben, Fred ne le fait pas…

I. : T’es sûre?

C. : Oui, il m’a envoyé toutes ses batchs

À partir de son explication, que je n’ai pas rapportée en entier, on comprend que l’ingénieur conseille finalement d’inclure le slice-timing dans sa « recette », mais l’incertitude qui entoure ce traitement et la constatation d’autres pratiques dans son entourage amèneront le chercheur à ne pas l’utiliser.

Pour ce qui concerne la normalisation des images, un neuro-imageur explique à son étudiant :

Tu peux choisir de normaliser soit sur un template fonctionnel soit sur l’anatomie du sujet. Du point de vue théorique, c’est mieux de normaliser sur l’anatomie du sujet… Mais du point de vue empirique, moi, je trouve qu’on a toujours une meilleure normalisation quand on utilise un template fonctionnel standard.

Le choix du template repose ici sur la familiarité avec la technique, acquise au fur du temps par le chercheur. Pour expliquer le choix des prétraitements, il invoque parfois son expérience, d’autres fois, l’habitude, ou encore les consignes standards du manuel.

Un autre exemple concerne le unwarping, traitement qui corrige l’hétérogénéité du champ magnétique et qui peut provoquer une perte du signal et des distorsions spatiales dans l’image. En réunion, des scientifiques ont fait remarquer que, dans les images traitées sans unwarping, les activations étaient particulièrement « visibles » alors que celles traitées avec unwarping montraient une activation plus faible des zones attendues, mais aussi des activités dans des zones du cerveau non prédites par les hypothèses de départ.

 Dans ce dernier exemple, on commence surtout à comprendre que le flou dans la composition du batch (la série prédéfinie de commandes) et l’opacité autour des transformations qui sont apportées aux images lors des traitements peuvent amener les chercheurs et chercheuses à modifier ad hoc les traitements en les adaptant à leur « lot » de données. Ils peuvent, par exemple, choisir tel ou tel autre prétraitement qui fait ressortir le mieux les activations prévues par les hypothèses. Pour comprendre comment ces personnes emploient les prétraitements, je vais évoquer ma première étude de cas.

Étude en IRM pour localiser les aires cérébrales impliquées dans une tâche conflictuelle

Un utilisateur du centre IRM rentre en possession de données qui ont été acquises par une doctorante quelques années auparavant, mais qui n’ont jamais fait l’objet d’une publication, car elles ne corroborent pas les hypothèses. Le nombre de publications des chercheurs et chercheuses est un indicateur de l’activité du centre IRM et donc un atout pour celui-ci. Pour cette raison, un des ingénieurs propose d’exploiter ces anciennes données « même si elles ne sont pas belles… ».

Le chercheur qui récupère ce lot d’images essaie plusieurs paramètres et adopte ceux qui marchent le mieux pour ses données. Il écrit les différentes tentatives dans un document informel auquel j’ai pu avoir accès. Notamment, concernant la normalisation des images, il adopte plusieurs méthodes, car celle qu’il utilise d’habitude ne fonctionne pas. Il écrit :

Alors que ce que je fais d’habitude fonctionne généralement assez bien, nous avons un problème avec cet ensemble de données, car la taille des images anatomiques chez certains sujets ne correspond pas complètement à la taille des images fonctionnelles.

Il essaie d’autres méthodes de normalisation et pour chaque opération, il écrit les pour et les contre. Le choix final se rabat sur la méthode qui s’adapte le mieux à ses images même si les cerveaux traités ainsi résultent légèrement rétrécis dans le lobe occipital postérieur. Il écrit :

Je vais présenter ici les résultats réalisés avec l’approche de normalisation « segAnat », parce que la majeure partie de l’analyse correspond à ces données. Et entre la peste et le choléra…

Concernant les activations, la tâche cognitive de l’expérience cherchait à faire activer des zones du cerveau traitant les informations « visuelles » : la zone traitant le mouvement appelée V5 ou MT (middle temporal) située dans la partie dorsale du cortex, et une zone que les neuroscientifiques associent au traitement de la couleur nommée V4 et placée dans la partie ventrale. L’expérience prévoyait aussi une tâche préliminaire d’observation passive de stimuli très colorés et de stimuli en mouvement, dans le but de repérer les zones qui auraient dû être activées ensuite par la tâche expérimentale. Cette tâche « contrôle », appelée localizer, est rajoutée dans l’espoir que les zones « allumées » par le localizer soient les mêmes que celles impliquées dans la véritable tâche expérimentale. Mais les activations localisées par la tâche « contrôle » ne correspondent pas à celles activées dans le reste de l’expérience. Quand l’activation de V5 est attendue, on observe des zones plus antérieures, et pour V4, les activations sont faibles et placées antérieurement.

Les zones activées sont visualisées dans un espace antérieur à celui identifié par le localizer et ce dernier est donc problématique pour circonscrire les régions d’intérêt. Afin de « sauver » l’expérience, le chercheur cherche à délimiter autrement les zones visibles dans les images, pour pouvoir avancer des hypothèses sur leur activation. Le chercheur essaie alors plusieurs méthodes pour définir les zones activées par l’expérience mais souvent, les méthodes qui ciblent les parties activées dans la voie ventrale ne permettent pas d’« inclure » celles de la voie dorsale. Encore une fois, il opère plusieurs tentatives. Il a par exemple tracé une sphère autour d’une région délimitée par des cordonnées anatomiques définies par la littérature, puis il a essayé de délimiter les zones en fonction des activations de la « manip » ou en fonction des activations du localizer. Mais aucune méthode ne lui permet d’inclure les données de l’expérience. À la fin, il renonce aux prédictions initiales en choisissant le test statistique le plus « restrictif ».

Je voudrais me concentrer ici sur la démarche du chercheur qui, face à un premier échec dans le prétraitement et ensuite dans la délimitation des activations de l’expérience, réitère les procédures automatisées en les faisant varier pour aboutir à des résultats qui correspondent aux prédictions. Même si, finalement, ces tentatives ne lui permettent pas de conserver les hypothèses, nous voyons que l’application de plusieurs méthodes aux mêmes données est une stratégie adoptée par le chercheur quand il fait face à des résultats « négatifs » et que ces derniers doivent être minimisés, voire évités. J’ai utilisé la notion de « bricolage » (Anichini, 2014) pour me référer à ces pratiques qui sont de plus en plus prégnantes dans le travail in silico (Gallezot, 2002) et dans les neurosciences en particulier, où les outils de traitement, de visualisation et de stockage des données se démultiplient. La possibilité du choix entre plusieurs « pipelines » de traitement d’images couplée à une maîtrise inégale des technologies informatiques expliquent en partie la variabilité des pratiques.

Katherine Button et ses collègues (2013) et John Ioannidis (2008) utilisent l’expression « vibration des effets » (vibration of effects) pour indiquer la pratique qui consiste à faire varier l’amplitude des effets en changeant les options statistiques. Les chercheurs et chercheuses peuvent par exemple modifier le modèle statistique qui définit les analyses, changer les variables ou agir sur le seuil statistique pour inclure ou exclure certains effets. Pour les deux auteurs, cette « flexibilité » stratégique est en partie la cause d’une crise due à l’impossibilité de reproduire les résultats.

Ma deuxième étude de cas fournira un autre exemple de bricolage de données et m’aidera à montrer les formes que celui-ci peut assumer, les conséquences qu’il entraîne ainsi que quelques raisons qui l’expliquent.

Étude des réseaux cérébraux chez des autistes et des sujets « sains »

Un des chercheurs que j’ai suivi lors de mon enquête s’intéresse à la morphométrie du cerveau de sujets autistes. Dans un projet qu’il réalise avec deux stagiaires, il compare des groupes d’images du cerveau de sujets « normaux » et autistes. Le but du chercheur est de fournir la preuve d’éventuelles différences anatomiques entre les deux groupes. Pour comparer les images, il utilise une méthode particulière permettant d’« extraire » des images les réseaux cérébraux qui sont ensuite confrontés entre eux au moyen d’analyses statistiques. Les données utilisées dans ce projet sont issues de la base de données ABIDE (Autism Brain Imaging Data Exchange) qui réunit un millier d’images du cerveau, dont la moitié de personnes autistes et l’autre moitié de sujets « sains ».

Les données de la base ne sont pas exploitables telles quelles; des traitements et des sélections sont nécessaires pour pouvoir les soumettre aux analyses du logiciel. Les images sont produites dans des établissements différents, ce qui explique leur forte hétérogénéité. Il faut alors d’abord effectuer des analyses statistiques pour évaluer leur comparabilité. Les images doivent également subir un traitement, la segmentation en régions cérébrales, pour que le logiciel puisse ensuite générer des réseaux.

Une fois ces étapes achevées, les scientifiques composent des groupes d’images pour les comparer. Mais un problème relatif à la classification proposée par la base de données complique la tâche. Dans la base de données, les images IRM sont associées à des informations sur le sujet qui renseignent sur son âge, son sexe et sur le type de diagnostic. Mais les scientifiques s’aperçoivent que les critères de classification ne sont pas toujours respectés. En particulier, les indications sur le diagnostic peuvent être absentes ou contradictoires. Par exemple, selon la légende utilisée dans la base de données, le chiffre 1 désigne les sujets autistes et le chiffre 0, les sujets « sains ». Dans la colonne réservée au diagnostic élaboré à partir du DSM (Manuel diagnostique et statistique des troubles mentaux), il y a des sujets qui ont été classifiés avec une note de 1 (autiste), mais aussi des sujets dont on connaît l’autisme en dehors du DSM, qui reçoivent une note de 0 les faisant apparaître comme des sujets « sains ». L’hétérogénéité des informations oblige alors les chercheurs et les chercheuses à un travail d’interprétation, de tri, de vérification et d’assemblage des données « compatibles ».

Une des stagiaires regroupe les images selon deux interprétations du diagnostic : une « large », qui prend en compte les formes particulières du spectre autistique (le syndrome d’Asperger et les troubles envahissants du développement non spécifiques) ainsi que les cas où le DSM ne donnait pas de diagnostic, et une plus « restreinte » regroupant seulement les données avec diagnostic basé sur le DSM, donc avec une note de 1.

Outre le diagnostic, deux autres variables sont prises en compte dans la composition des groupes à comparer : l’âge et les établissements où les images ont été acquises. Normalement, la stagiaire doit réunir les images provenant des établissements compatibles selon les indications de sa collègue, mais elle n’en tient compte que partiellement à cause du risque d’une perte de puissance statistique :

Si je prends que les centres qu’elle me dit de regrouper, que la tranche d’âge qui m’intéresse, que les garçons, que les droitiers et tous ceux dont le diagnostic est sûr, j’ai des groupes qui sont trop petits.

La stagiaire essaie donc de comparer plusieurs groupes en faisant varier les contraintes dont elle dispose (âges, établissements, diagnostic). Plus précisément, elle compare 12 groupes en faisant varier l’âge (de 7 à 15 ans, de 7 à 26 ans, jusqu’à 35 ans, de 8 à 18 ans, de 7 à 30 ans, entre 8 et 13 ans), le diagnostic (strictement autistes et autistes), et les centres (par exemple en les incluant tous, que trois centres, ou seulement ceux qui sont comparables selon l’évaluation de la stagiaire).

Les différentes comparaisons sont effectuées dans une logique exploratoire qui vise à trouver, entre les divers résultats produits, des différences morphologiques « significatives » défendues par les hypothèses de l’équipe de recherche. Plus précisément, les hypothèses préconisent une covariation de l’épaisseur corticale entre plusieurs régions du cortex, mais les diverses tentatives ne permettent pas de confirmer ces prédictions ni d’aboutir à des résultats interprétables, ce qui amène les chercheurs et chercheuses à remettre en cause la méthode.

Ce qui m’intéresse en premier lieu, c’est le processus de composition de divers groupes d’images dans le but de multiplier les possibilités d’obtenir, au moyen de plusieurs tentatives, les corrélations espérées. Cette démarche est perçue par les scientifiques eux-mêmes comme « hors-norme » car idéalement, après une première comparaison entre groupes d’images, « s’il n’y a pas de résultats, il n’y a pas de résultats! », me dit une des stagiaires. L’idéal d’une science « dirigée par les données » qui prône un vide théorique, se heurte ici à des pratiques d’exploration orientées par certains a priori qui aident les scientifiques à maîtriser l’incertitude liée au domaine de recherche et aux méthodes de traitement, et à répondre à des impératifs de productivité qui leur sont imposés. La mobilisation de la théorie dans la fouille des données démontre une rencontre entre normes épistémologiques différentes, qui sont souvent perçues comme étant en opposition. En fait le bricolage, qui implique une démarche exploratoire dans le traitement de données issues d’une expérience, mais aussi l’utilisation d’hypothèses dans la fouille automatique des bases de données, attestent de la coprésence de la méthode expérimentale et d’une approche empirique plutôt orientée par les données.

Garder secrets certains résultats

À l’issue des analyses effectuées sur les réseaux cérébraux, le responsable de l’étude et les deux stagiaires estiment que les diverses corrélations ne sont pas interprétables. Ils décident de tester la méthode, car ils commencent à douter de son fonctionnement. Tout d’abord, ils comparent des groupes d’images de sujets « sains » entre eux. Mais les analyses aboutissent aux mêmes différences issues de la comparaison entre images de sujets autistes et de sujets « normaux ». Dans un examen de la littérature scientifique employant cette même méthode de traitement d’images, les chercheurs et chercheuses repèrent aussi des résultats très variables et contradictoires, ce qui confirme leurs doutes quant au bon fonctionnement du logiciel.

Rendre publiques ces observations n’est pas chose aisée, car la remise en question de l’outil informatique est perçue comme une action dangereuse qui pourrait déclencher un conflit avec le laboratoire où le logiciel a été conçu. Vue la faible reconnaissance du statut du chercheur responsable de l’étude (il est post-doctorant), l’équipe de recherche dont il fait partie décide de ne pas prendre de « risques » et de renoncer à une critique frontale. Dans une réunion d’équipe, les chercheurs et chercheuses décident collectivement de ne pas officialiser ces résultats, mais plutôt d’organiser une visite dans le laboratoire pour rendre compte du problème de manière informelle. Un autre facteur rentre en jeu dans la décision de ne pas publier les résultats : la responsable d’équipe estime que la découverte d’une défaillance technique n’a pas le même intérêt qu’une éventuelle découverte de différences significatives entre cerveaux « normaux » et cerveaux « pathologiques ». Cette dernière, plus spectaculaire, contribuerait davantage au rayonnement du laboratoire. La « désidérabilité » d’une découverte dépend en partie des retombées qu’elle laisse entrevoir en termes de prestige et de financements. Voici comment le chercheur responsable de la découverte justifie le choix de ne pas la rendre officielle :

Démontrer qu’une méthode ne marche pas, c’est au moins aussi dur que démontrer qu’il y a une différence entre autistes et contrôles ou qu’on a des choses intéressantes à dire. Tu fais le choix, au lieu d’avancer dans la compréhension de la pathologie, tu fais le choix de démontrer un truc purement méthodologique…

Malgré le rôle central des technologies informatiques dans la mesure des organes biologiques, la critique des instruments, nécessaire à leur perfectionnement, semble être reléguée au deuxième plan par rapport à des découvertes confirmatoires, qui prouveraient par exemple la différence entre cerveaux de sujets « normaux » et d’autistes.

Le bricolage et le secret dans le laboratoire

Je vais avancer plusieurs raisons qui expliquent l’adoption du bricolage que je viens d’illustrer par mes études de cas. Le bricolage est d’abord une réponse à l’incertitude à laquelle le travail scientifique doit faire face, mais c’est aussi une manière de faire au mieux avec ce qu’on a à disposition. On peut évoquer la notion de faisabilité introduite par Karin Knorr-Cetina (1981) et reprise par Joan Fujimura (1987) pour décrire cet ajustement de la réalité expérimentale aux objectifs des scientifiques et aux contraintes circonstancielles. La méconnaissance des transformations que chaque traitement entraîne sur les données et le manque de consensus autour de certains paramètres sont deux des facteurs qui rendent compte de l’approche exploratoire adoptée par les chercheurs et chercheuses. La nature de la technique est aussi primordiale, la possibilité de réitérer différentes analyses sur les mêmes données conduit les scientifiques à faire varier leur traitement. Le bricolage et le secret répondent à une autre contrainte : la pression de la publication. Dans le domaine de la neuro-imagerie, celle-ci contribue à la mise en circulation de résultats non significatifs, voire faussés (Ioannidis, 2005). Un de mes informateurs du centre IRM me dit :

le problème plus typique de l’IRM, c’est que quand des personnes ont fait une manip qui a été mal ficelée et que les données n’ont pas grand-chose à l’intérieur, il faut quand même en faire quelque chose, il y a la pression de la publication, donc les gens publient des analyses qui sont soit erronées, soit avec une très faible valeur statistique ou soit complètement fausses.

Il y a, à plusieurs niveaux, une divergence entre les « idéaux » de production de connaissances véhiculée par une science qui se veut de plus en plus dirigée par les données (l’automatisation des traitements, le partage désintéressé, la transparence, la neutralité théorique) et les normes pratiques (de Herdt et Olivier de Sardan, 2015) qui sont adoptées dans les laboratoires.

Des pratiques « à la marge », comme le bricolage des données ou le secret autour des anomalies, témoignent de l’engagement du chercheur ou de la chercheuse dans la production de la connaissance, les scientifiques devant composer avec des contraintes économiques, techniques et sociales fortes.

Références

Anichini, Giulia. 2014. « Quand c’est la science qui bricole, c’est du sérieux ». Dans Vivre le sable! Corps, matière et sociétés. Sous la direction de Sébastien Boulay & Marie-Luce Gélard, 212-235. Paris : Maison des sciences de l’homme.

Bourdieu, Pierre. 2001. Science de la science et réflexivité. Paris : Éditions Raisons d’agir.

Button, Katherine S., John P. A. IoannidisClaire MokryszBrian A. NosekJonathan FlintEmma S. J. Robinson et Marcus R. Munafò. 2013. « Power failure: why small sample size undermines the reliability of neuroscience ». Nature Reviews Neuroscience 14 : 365-376.

Collins, Harry. 2004. Gravity’s Shadow: the search for gravitational waves. Chicago : University of Chicago Press.

Fujimura, Joan. 1987. « Constructing Doable Problems in Cancer Research: Articulating Alignment ». Social Studies of Science 17 : 257-293.
https://journals.sagepub.com/doi/abs/10.1177/030631287017002003

Gallezot, Gabriel. 2002. « La recherche in silico ». Dans Les chercheurs et la documentation numérique : nouveaux services et usages, 229-253. Sous la direction de Ghislaine Chartron. Paris : Éditions du Cercle de la Librairie.

Herdt, Tom de et Jean-Pierre Olivier de Sardan, dir. 2015. Real governance and practical norms in Sub-Saharan Africa. The game of the rules. Cheltenham : Routledge.

Ioannidis, John P. A. 2008. « Why most discovered true associations are inflated ». Epidemiology 19 : 640-648.
https://journals.lww.com/epidem/Fulltext/2008/09000/Why_Most_Discovered_True_Associations_Are_Inflated.2.aspx

Knorr-Cetina, Karin. 1981. « The manufacture of knowledge : an essay on the constructivist and contextual nature of science ». Oxford/New York : Pergamon Press.

Lamy, Erwan et Terry Shinn. 2006. « L’autonomie scientifique face à la mercantilisation ». Actes de la recherche en sciences sociales 164 : 23-49.
https://www.cairn.info/revue-actes-de-la-recherche-en-sciences-sociales-2006-4-page-23.htm

Losego, Philippe et Rigas Arvanitis. 2008. « La science dans les pays non hégémoniques ». Revue danthropologie des connaissances 2 (3) : 334-342.
https://www.cairn.info/revue-anthropologie-des-connaissances-2008-3-page-334.htm

Salomon, Jean-Jacques. 1970. Science et politique. Paris : Éditions du Seuil.

Sismondo, Sergio. 2007. « Ghost Management: How Much of the Medical Literature Is Shaped Behind the Scenes by the Pharmaceutical Industry? ». PLoS Med 4 (9) : e286.
https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0040286