libéralisme ou démocratie : accueil

[Plan du site maniprop.com]
Accueil du site > Sciences sociales et sciences humaines : culture et épistémologie > La bibliométrie : une nouvelle addiction à l’esclavage (...)

Le modèle étasunien s’impose aux sciences humaines françaises

La bibliométrie : une nouvelle addiction à l’esclavage ?

Classification des revues et normalisation

jeudi 25 septembre 2008, par Marie-josé Del Volgo, Roland Gori

« Aucune méthode d’évaluation n’est entièrement objective, ni ne présente de valeur universelle. Il est à la fois illusoire et dangereux de vouloir valider une méthode d’évaluation au nom de prétendues « normes » qui ne sont dans la plupart des cas que des concepts arbitraires ou des critères en fait autovalidés. » [1]

L’évaluation de la production scientifique des chercheurs et des laboratoires détermine à l’Université l’habilitation des diplômes, l’accréditation des équipes et la carrière comme la promotion des enseignants-chercheurs.

Cette évaluation se fondait en toute légitimité sur l’évaluation des travaux de recherche par les pairs et pouvait donner lieu à de larges débats tant en ce qui concerne la qualité de la recherche que les supports de publication (revues, livres etc.). Cette époque "préhistorique" est terminée. A l’époque de l’homme numérique et à l’heure de la google-civilisation on tend à lui préférer aujourd’hui l’évaluation bibliométrique qui évite aux évaluateurs d’avoir à lire les travaux qu’ils expertisent en ne fondant leur jugement que, par exemple pour l’Impact factor, sur le niveau de citation des revues pour l’essentiel nord-américaines. Dans ce changement de civilisation, nous voici tous astreints à une forme d’« addiction », au sens étymologique, autrement dit « cet état de dépendance et d’esclavage, de contrainte par corps sanctionnant un sujet qui n’avait pu payer ses dettes ». Nous voilà donc transformés en esclaves par une société gestionnaire et bureaucratique qui nous fait payer fort cher le fait de ne pas avoir su payer nos dettes à l’égard de la politique à laquelle depuis 30 ans nous renonçons au profit des experts, des coachs et autres petits maîtres de la revanche technocratique et administrative.

Le pourquoi et le comment de la bibliométrie scientifique

La production scientifique se mesure par la publication des résultats scientifiques. Les méthodes d’évaluation des publications utilisent habituellement les critères d’évaluation des revues scientifiques. Or pour de nombreux scientifiques, le temps serait venu « de dépasser l’utilisation simple des facteurs d’impact des revues et de préférer des indices basés sur les vraies citations des articles comme les indices H et M introduits » en 2005 [2]. La bibliométrie scientifique se définit comme « l’application des mathématiques et des méthodes statistiques » (Pritchard, 1969) aux publications scientifiques. Cette analyse est censée rendre compte de l’activité des producteurs (chercheur, laboratoire, institut, faculté, etc.) ou des diffuseurs (périodique, éditeur, etc.) de l’information scientifique, tant d’un point de vue quantitatif que qualitatif. La bibliométrie scientifique permet d’évaluer par exemple la qualité d’une revue par son impact.

Le facteur d’impact est l’indicateur bibliométrique le plus connu. Le terme et la fonction ont été inventés par Eugène Garfield, Consultant en information et conseiller de documentation pour une entreprise pharmaceutique avant la mise en œuvre de son projet de bases de données scientifiques. C’est en 1958 qu’Eugène Garfield crée l’ISI, Institute for Scientific information, avec le soutien de l’administration américaine de la recherche et celui de sociologues comme Robert King Merton. Le premier volume de Science Citation Index voit le jour en 1963. Pour les sciences sociales, le Social Science Citation Index paraît en 1972 et le Citation index en1975 pour les arts et les humanités.

Le facteur d’impact correspond au rapport entre le nombre de citations obtenues par une revue pendant deux ans et le nombre d’articles publiés par ce périodique pendant la même période. Il mesure donc la fréquence moyenne avec laquelle l’ensemble des articles de ce journal est cité pendant une durée définie. C’est un indice de mesure rétrospective de l’impact d’une revue à relativement court terme. Cet indicateur, tout comme les autres indicateurs d’ailleurs et en tant que mesures, caractérise le contenant, la structure formelle, et non le contenu, la valeur. Par exemple, l’impact factor (IF) de Science (21,911 en 1995) a été calculé de la manière suivante :

citations en 1995 d’articles publiés en 1993 : 24 979 ; 1994 = 20 684 ; total = 45 663.

nombres d’articles publiés en 1993 : 1 030 ; 1994 = 1 054 ; total = 2 084-

IF = nombre de citations/nombre articles (45 663/2 084) : 21,911

On peut donc dire que les articles de Science publiés en 1993 et 1994 ont été cités un peu moins de 22 fois en moyenne.

On relève les critiques suivantes à l’encontre du facteur d’impact :

Le nombre de citations ne mesure pas réellement la qualité de la publication. La fenêtre temporelle est trop courte. Les articles classiques sont cités fréquemment même après plusieurs décennies.

La nature des résultats dans les différents domaines scientifiques implique une quantité de publication différente à un rythme différent. Ceci a un effet direct sur le facteur d’impact. Par exemple, les revues médicales ont des facteurs d’impact bien supérieurs aux revues de mathématiques. Relevant la fréquence de citation par article et négligeant le prestige de la revue, le facteur d’impact est une mesure de popularité, non de prestige.

Le facteur d’impact peut être artificiellement augmenté par une politique éditoriale adéquate [3]. Le facteur d’impact est lié à la revue et non à l’article. Un article publié dans une revue à fort impact peut avoir un nombre de citation très bas, voire nul. Bien que le facteur d’impact ait été créé à l’origine comme mesure de la réputation d’une revue, il est de plus en plus employé comme mesure de la productivité des chercheurs. Si bien que pour certains comme Etienne Hirsch, Président de la Commission des « Neurosciences et organe des sens » à l’Inserm en 2006, « il semble important de ne pas utiliser l’IF lors de l’évaluation mais plutôt [pour] le choix du support de publication de nos travaux car il est gage d’un nombre élevé de lecteurs potentiels » [4]. Dans la recherche d’indices fiables d’évaluation des publications elles-mêmes, de nouveaux indices de citations voient le jour. Les indices H et M peuvent être attribués individuellement à chaque scientifique et sont simples à calculer à condition d’avoir accès au nombre de citations de chaque publication dudit scientifique via, précise-t-on [5], ISI Web of Science (accès via BiblioVie et BiblioInserm). Il suffit alors de classer les publications en fonction du nombre de citations. L’indice H fait glisser deux curseurs en sens inverse : l’un sur une échelle du nombre de publications, l’autre sur une échelle du nombre de citations, et il les fait coïncider. Cet indice individuel de Hirsch (indice H) établit une relation entre un nombre total de publications et leurs citations. C’est en novembre 2005 que Jorge E. Hirsch [6] a publié dans Proceedings of the National Academy of Sciences of the United States of America un article intitulé An index to quantify an individual’s scientific research output dans lequel il propose le concept d’« indice h » ainsi que des algorithmes de pondération. Pour calculer l’indice M, il suffit de diviser H par le nombre d’années depuis la première publication.

Si l’usage des indicateurs bibliométriques n’est plus contesté dans le domaine des sciences dures, les choses sont plus compliquées en sciences humaines et sociales. En 2002, Johan Heilbron [7] fait état d’un rapport ayant fait scandale aux Pays-Bas et dont les auteurs rattachés à un centre de scientométrie (Leyde) avaient simplement éliminé les livres des listes de publication et avaient par conséquent déclassé certains laboratoires au profit d’autres. Or un indice mesurant la productivité d’un chercheur et d’une équipe doit lui-même être évalué en fonction du dispositif qui le produit pour déterminer sa fiabilité et sa validité.

De manière générale, toute évaluation doit obéir aux trois qualités suivantes : validité, commodité et robustesse [8].

La validité reste la notion la plus délicate à préciser alors même qu’elle devrait être la qualité première de toute évaluation. Une évaluation est d’autant plus valide qu’elle traduit bien ce qu’il importe d’analyser, en l’occurrence que l’indicateur bibliométrique évalue bien la qualité d’une publication. On se situe très loin de cet objectif en la matière. Dans le champ de l’évaluation, Jean-Michel Chabot observe qu’il « est préférable de renoncer à une évaluation dont la validité serait trop faible ou même incertaine », et il considère que cette démarche se justifie d’autant plus que « la commodité [de l’évaluation] serait elle-même médiocre ». Or dans le domaine qui nous intéresse, celui de la bibliométrie, la commodité autrement dit la faisabilité de l’évaluation et son acceptabilité (du point de vue des experts), sont des plus aisées. Johan Heilbron encore, observe que « Dans les années à venir, il sera plus simple et bien moins coûteux de calculer le facteur d’impact d’une revue ou de construire un classement des laboratoires en fonction du nombre de publications et de citations » [9] On voit que ce faisant, on passe, comme le souligne encore Jean-Michel Chabot, d’une évaluation critériée à une évaluation normée, on « établit un classement, (une hiérarchie) sans se soucier de la valeur intrinsèque de chacun des objets évalués. »

Ces dérives portent atteinte aussi bien à l’évaluation en elle-même qu’à l’intérêt de toute bibliométrie dont on finit par ne repérer que ses défauts. Pour Nicole Haeffner-Cavaillon, responsable de la cellule bibliométrie à l’Inserm, « Il est important d’indiquer que la bibliométrie ne remplace pas l’avis des pairs mais contribue à enrichir le débat et apporte une vision « objective » sur la visibilité des recherches » [10]. Aujourd’hui force est de constater que nous allons dans le sens d’un appauvrissement, même si les scientifiques tiennent à déclarer le sérieux et l’indépendance de leurs évaluations vis-à-vis des contraintes gestionnaires et bureaucratiques. Jean-René Cazalets, Président de la section 27 du CNRS « Comportement cognition cerveau », par exemple, fait état de la souveraineté des différentes disciplines dans l’évaluation des revues : « nous nous appuyons dans chaque discipline sur les compétences des membres de la section qui connaissent dans leur domaine la valeur des différentes revues » [11] Jean-Marc Monteil, actuel conseiller auprès du premier ministre français, directeur de l’enseignement supérieur entre 2002 et 2007 et nommé en mars 2007 Président du conseil de l’AERES [12] concluait un « séminaire sur les indicateurs de production scientifique des établissements » le 22 novembre 2006 sur ces mots « il conviendrait, c’est bien le moins, que dans l’évaluation par les pairs, on n’oublie pas que l’évaluation la plus scientifique, la plus sérieuse, et la plus objective réclame que l’on lise les papiers à partir desquels on porte un jugement ».

L’évaluation bibliométrique : un dispositif de servitude

Alors quels que soient les biais méthodologiques de l’Impact factor, la normalisation des recherches et des chercheurs qu’il produit en les conformant aux intérêts scientifico-économiques américains, le quasi monopole qu’il confère aux organismes scientifiques et éditoriaux américains sur le "marché" scientifique, le pouvoir de domination idéologique, linguistique et culturel qu’il apporte au "rêve américain" [13], il est sans doute des disciplines scientifiques où sa commodité l’impose sans compromettre le devenir des recherches et des chercheurs. Mais il en est d’autres où ce système d’évaluation constitue une normalisation idéologique à l’intérieur même de la discipline en favorisant certains courants de pensée (soluble dans le modèle anglo-saxon) et en en stigmatisant d’autres (les plus européens). Après avoir été longtemps rétive au "rêve américain", l’establishment de la psychologie à l’Université s’engouffre dans l’évaluation bibliométrique, dispositif par lequel la Nomenklatura de la psychologie pourra assurer à terme la promotion des idéologies cognitivo-comportementales de l’homme performant et l’exclusion définitive de la psychanalyse de l’université. Une commission dite AERES/CNRS/CNU a consacré au début de l’été ce formidable pouvoir de normalisation et de destruction massive, non sans devoir ménager quelques susceptibilités "françaises". Conscient de la gravité de la situation, le SIUEERPP [14] a adressé une lettre à Ewa Drozda, Présidente de la 16e section du CNU et à Elisabeth Demont, Vice-Présidente, seules élues syndicales de cette commission.

Le principal opérateur de ce dispositif pour normer, contrôler et conformer les comportements des praticiens et des universitaires c’est d’abord et avant tout une manière de parler, une manière de dire, une novlangue. Comment ici ne pas penser à ce qu’écrivait Victor Klemperer à propos de la langue du IIIe Reich : « Et qu’arrive-t-il si cette langue cultivée est constituée d’éléments toxiques ou si l’on en a fait le vecteur de substances toxiques ? Les mots peuvent être comme de minuscules doses d’arsenic : on les avale sans y prendre garde, ils semblent ne faire aucun effet, et voilà qu’après quelque temps l’effet toxique se fait sentir. » [15]

La psychologie constitue à l’Université une discipline rhapsodique rassemblant des espèces théoriques et méthodologiques très hétérogènes. En particulier, deux de ses composantes, la psychologie expérimentale et la psychologie clinique, négocient depuis 1947, date de la création de la licence de psychologie, chacune à leur façon des parts de cotation en bourse sur le marché universitaire. Jusqu’à une date récente, cette partie se menait avec d’un côté pour la psychologie « scientifique » les atouts d’une méthode imitant celle des sciences de la vie et de l’autre pour la psychologie clinique les atouts de la demande sociale étudiante. Au niveau de cette partie de cartes entre les courants de la psychologie, schématiquement référés pour l’un aux sciences du comportement et pour l’autre aux cliniques de l’intersubjectivité, les atouts se distribuaient avec plus ou moins de bonheur au moment de la donne selon que les exigences sociales et professionnelles prévalaient sur les réquisitions scientifiques et inversement. Alors selon les moments historiques, ces deux moments tendaient plus ou moins à l’unité centripète ou à la sécession centrifuge. Mais grosso modo, comme le dit notre ami Jean-Léon Beauvois, il y avait un accord tacite pour que les cliniciens fournissent les gros bataillons des effectifs étudiants susceptibles de peser dans la dotation de postes universitaires et qu’en échange, les expérimentalistes habillent la discipline d’un label de scientificité qui puisse la voir doter en crédits de recherche et en reconnaissance institutionnelle ( type CNRS).

Cet équilibre, fragile il est vrai mais en même temps suffisamment consistant lorsque les personnes et les institutions se respectent, a commencé à se rompre à la fin des années 1980 lorsque certains « experts », nourris de la « pensée-mammouth » de Claude Allègre, ont essayé de normaliser le modèle français de la psychologie (en particulier la psychologie clinique et la psychologie sociale) en l’alignant sur le modèle anglosaxon. Or, il faut savoir que si aux Etats-Unis la psychanalyse a pu constituer une référence majeure en psychiatrie, elle n’est quasiment jamais parvenue à infiltrer le champ de la psychologie universitaire américaine qui lui est toujours resté fortement rétif. Bien au contraire, c’est en se servant de la psychologie, en particulier de la psychologie différentielle que la psychiatrie américaine a fabriqué le fameux DSM III dont la publication et la référence d’autorité en 1980 ont signé l’acte de décès de la psychopathologie classique.

A suivre cette analyse, il faut bien comprendre que lorsque les experts nous demandent de nous soumettre aux critères internationaux, c’est-à-dire états-uniens et au modèle anglosaxon en général, cela veut dire qu’ils nous invitent purement et simplement à disparaître… Nous demander d’adhérer à une « évaluation » de nos recherches à partir des critères des sociétés et des publications « nord-américaines », c’est purement et simplement nous inciter à consentir à notre extermination.

C’est justement ce dispositif de l’évaluation, dans le champ qui est le nôtre, qui a permis de transformer un rapport de forces entre les différentes théories et les différentes pratiques en rapports de légitimité. Prenons un exemple des plus récents. Depuis le début des années 1990, l’évaluation des équipes de recherche et des dossiers de candidature à des qualifications ou à des nominations s’est toujours davantage fondée sur le taux numérique de productivité d’articles dans des revues dites « qualifiantes » de la psychologie. Et au fur et à mesure des années, les experts qui souhaitaient éliminer la psychanalyse du champ universitaire ont tenté de ne retenir comme revues qualifiantes, par exemple en psychopathologie, que les revues a minima indexées dans PsycINFO, banque de données de l’American Psychological Association. Un débat véritablement démocratique au sein de certaines commissions d’évaluation, comme celle de la 16e section du CNU a permis jusqu’à une époque récente de faire reconnaître d’autres revues « actives » en psychopathologie. Mais la pression institutionnelle s’est sans cesse accrue au cours de ces dernières années jusqu’à tout récemment exiger l’indexation des revues dans ISI [16], Medline ou PsycINFO. Manifestement pour les « exécuteurs » [17] de la psychanalyse et de la psychopathologie clinique, il fallait aller plus loin. Dernier acte en date du début de l’été :

Une commission conjointe AERES/CNRS/CNU a établi « une première classification des revues de psychologie dont l’objectif explicite était de proposer aux comités d’évaluation de l’AERES, aux responsables des unités de recherche (UMR et EA) et à la communauté des enseignants-chercheurs et chercheurs en psychologie un outil commun d’évaluation et d’auto-évaluation des publications sous forme d’articles scientifiques. » On aura compris l’importance de cet « outil » d’évaluation qui vise à définir la taille des mailles du filet du contrôle social par lesquelles peuvent passer les laboratoires, les chercheurs et les enseignants en psychologie pour pouvoir continuer à travailler dans une équipe de recherche universitaire reconnue, donc validée pour recevoir des doctorants. Première étape, nous citons, « la couverture du champ disciplinaire a été assurée à partir d’une liste des revues la plus exhaustive de l’APA [18] ». Là rien de nouveau sous le soleil puisque cet énoncé réaffirme — sans jamais être interrogé — le principe selon lequel seules les revues indexées dans PsycINFO, c’est-à-dire la banque de données de l’APA, ont une existence institutionnelle pour la communauté française de psychologie. Ce qui d’entrée de jeu exclut la majorité des revues françaises de psychanalyse et de psychopathologie clinique. Deuxième étape, ladite commission décide un classement des revues en fonction de son impact factor. Après « le pied dans la porte [19] » de l’exigence d’une indexation, c’est là le coup de pied dans la porte pour ouvrir définitivement le contrôle institutionnel des formations et des recherches en psychologie au magister des scientistes et la claquer définitivement au nez des cliniciens. Résultat des courses : avec le classement A, B, C et D, toutes les revues francophones se trouvent reléguées au plus bas de l’échelle C et D, à l’exception de L’Évolution psychiatrique qui avec un faible Impact factor de 0,57 maintient de justesse sa position en B. Très peu de revues anglosaxonnes sont classées A en psychologie clinique et en psychopathologie et quelques unes se retrouvent en B.

Adopter un tel classement des revues par Impact factor, c’est à terme non seulement la psychanalyse et la psychopathologie clinique qui disparaîtraient mais sans doute la plupart des publications situées dans le champ des humanités. Sauf à ce que les universitaires de ces différentes disciplines ne développent des stratégies pragmatiques et cyniques, consistant par exemple à « gérer » les citations mutuelles. La pièce n’est pas terminée et nous ignorons encore quel sera le dénouement de cette farce aux conséquences potentiellement tragiques. On retiendra pour l’instant que la prévalence du modèle états-unien, le handicap de la langue française, les traditions de notre communauté peu habituée à développer des « stratégies » de « marques » issues directement de la logique du marché, conduisent avec une évaluation par Impact factor à notre pure et simple extinction à l’université et dans les institutions de soin.

Le débat a, semble-t-il, été rude et la pression de l’AERES aurait été dirigée par certains bureaucrates du CNRS qui, eux-mêmes placés sous la menace d’une politique de démantèlement, auraient tenté de justifier la supériorité de leurs équipes de recherche (EPR et UMR) sur les laboratoires de l’Université. Pour pouvoir faire la preuve de cette supériorité, il convenait d’appliquer aux laboratoires et aux chercheurs universitaires les grilles d’évaluation du CNRS afin de mettre en évidence que si ces chercheurs étaient à l’Université c’était bien parce qu’ils étaient incapables d’être au CNRS… Dans cette commission, la résistance de certains universitaires à cette nouvelle OPA scientiste a permis que provisoirement soit établie une liste B’ incluant, pour chaque sous-discipline des revues, francophones, indexées, psycINFO en général, classées C autrement dit sans Impact factor. Ce qui exclut de fait les revues non francophones (par exemple sud-américaines) ou encore les revues francophones reconnues dans notre communauté mais non indexées dans psycINFO.

Cette récente et sinistre tentative de mise au pas de la psychanalyse, de la psychopathologie, de la psychologie et d’une manière générale des humanités, révèle une fois encore que c’est le rapport de force politique qui détermine un classement dont la forme quantitative et commensurable n’est que le prétexte, l’alibi et le fétiche [20]. On appréciera au passage qu’à propos de la concession conduisant à classer en B’ des revues initialement classées en C, la formulation des « censeurs » fut qu’elles ont été « relevées par la commission »…

L’ironie de l’histoire veut que les gestionnaires de la recherche ne sauraient bénéficier de cette excuse de minorité que l’on pourrait généreusement accorder à ces « fraîchement convertis » que sont nos « nouveaux psys » des instances de recherches. Les gestionnaires de la recherche ne peuvent ignorer qu’au sein même des sciences dures, la place de la bibliométrie dans l’évaluation fait l’objet d’études et de critiques sérieuses. Tout en reconnaissant la commodité de l’évaluation bibliométrique, les scientifiques se montrent beaucoup plus prudents que leurs « administrateurs ». Donc ces « bureaucrates » de la Recherche sont inexcusables, il faut le répéter, ils se comportent comme des « exécuteurs » capables de « modaliser » des critères par un système d’exclusion de certaines disciplines pour maintenir le fonctionnement d’un appareil ou la consistance d’une idéologie. Ce qui ne préjuge en rien de leurs convictions éthiques personnelles ou de leur dignité politique. Cela veut dire simplement qu’adopter, pour une communauté, une standardisation technique d’allure professionnelle la conduisant à exclure une partie d’elle même mérite que l’on s’interroge au delà des profits personnels ou idéologiques que l’on peut en tirer. Ce qui exige un effort supplémentaire dans la culture du nouveau capitalisme [21].

A contrario de ce cynisme de cette rationalité technique, nous pouvons saluer la prudence et l’humour d’un Philippe Vernier, Président de la section 24 du CNRS « Interactions cellulaires », écrivant : « Pour l’évaluation, la bibliométrie est un peu comme le sel dans la soupe. Sans lui on a du mal à savoir si elle est bonne ou mauvaise. Mais il ne fait pas le plat pour autant, et point trop n’en faut. », ou encore « il faut bien sûr de la vertu pour vraiment lire ces articles (et pas seulement le titre) […]. C’est pourtant la démarche qui est de loin la plus utile à une évaluation efficace et juste [22]. »

Non sans devoir rajouter avec de Tocqueville que le despotisme qui est venu s’établir de nos jours dans nos régimes démocratiques possède d’autres caractères que ceux que l’on accordait traditionnellement aux régimes autoritaires : « il serait plus étendu et plus doux, et il dégraderait les hommes sans les tourmenter. [23] ». D’ailleurs ce despotisme qui asservit nos contemporains concerne moins les grandes affaires, les grandes choses, que les petits détails de leur existence quotidienne. C’est d’ailleurs, ce despotisme -là qu’avait également anticipé de Tocqueville en dénonçant son plus puissant, son plus dangereux et son plus secret ressort : « La sujétion dans les petites affaires se manifeste tous les jours et se fait sentir indistinctement à tous les citoyens. Elle ne les désespère point ; mais elle les contrarie sans cesse et elle les porte à renoncer à l’usage de leur volonté. Elle éteint peu à peu leur esprit et énerve leur âme [24] ». Ce que n’avait pas anticipé de Tocqueville, C’est que les illusions libérales puissent nous rendre heureux dans cette sujétion [25].

Notes

[1] AVIS 101 du CCNE pour les sciences de la vie et de la santé « Santé, éthique et argent : les enjeux éthiques de la contrainte budgétaire sur les dépenses de santé en milieu hospitalier ». p. 16.

[2] Luc Buée, Jacques Brocard, Francis Castets, Thierry Galli, 2006, « La bibliométrie est une science ? » La Lettre des Neurosciences, n° 30, p. 7.

[3] voir l’analyse des pratiques par Beauvois et Pansu (2008). Facteur d’impact et mondialisation culturelle. Psychologie Française, 53, 211-222

[4] Etienne Hirsch, 2006, « Bibliométrie : l’avis des Présidents de section ». La Lettre des Neurosciences, n° 30, p. 14.

[5] Luc Buée, Jacques Brocard, Francis Castets, Thierry Galli, 2006, « La bibliométrie est une science ?

[6] www.pnas.org/cgi/doi/10.1073/pnas.0507655102

[7] Johan Heilbron, 2002, « La bibliométrie, genèse et usages ». Actes de la recherche en sciences sociales, 2, 141, p. 78-79.

[8] Cf. Jean-Michel Chabot, 2007, « Évaluation : vademecum ». Communication personnelle. Jean-Michel Chabot est Professeur de santé publique et conseiller médical auprès du directeur de la Haute Autorité de Santé (HAS).

[9] Johan Heilbron, op. cit., p. 79, souligné par nous.

[10] Nicole Haeffner-Cavaillon, 2006, « Les indicateurs bibliométriques à l’Inserm ». In : La Lettre des Neurosciences, n° 30, p. 12, souligné par nous.

[11] Jean-René Cazalets, 2006, « Bibliométrie : l’avis des Présidents de section ». La Lettre des Neurosciences, n° 30, p. 15.

[12] AERES : Agence d’Évaluation de la Recherche et de l’Enseignement

[13] voir Tiberghien et Beauvois (2008). Domination et impérialisme en psychologie. Psychologie Française, 53, 135-155

[14] SIUEERPP : Séminaire Inter-Universitaire Européen d’Enseignement et de Recherche en Psychopathologie Clinique.

[15] Victor Klemperer, 1975, LTI La langue du IIIe Reich. Paris ; Albin Michel, 1996, p. 40.

[16] Information Sciences Institute.

[17] Harald Welzer, 2005, Les Exécuteurs Des hommes normaux aux meurtriers de masse. Paris : Gallimard, 2007.

[18] American Psychological Association

[19] Robert-Vincent Joule, Jean-Léon Beauvois, 1998, La soumission librement consentie, Paris, puf.

[20] Alain Abelhauser, 2008, « le chiffrage de la clinique ». LNA, N° 8, p. 52.

[21] Cf. Roland Gori et Marie-José Del Volgo, 2008, Exilés de l’intime. Paris : Denoël.

[22] Philippe Vernier, 2006, « Bibliométrie : l’avis des Présidents de section ». La Lettre des Neurosciences, n° 30, p. 17.

[23] Alexis de Tocqueville, De la Démocratie en Amérique. Paris : Garnier-Flammarion, 1981, p. 384.

[24] Alexis de Tocqueville p. 387

[25] Beauvois, Les illusions libérales, individualisme et pouvoir social, Presses Universitaires de Grenoble

Répondre à cet article

386 Messages de forum


Suivre la vie du site RSS 2.0 | libéralisme-démocraties : Plan du site | Espace privé | SPIP