TR : [TERRA-Quotidien] Dossier : Refuser le classement des revues SHS

L=?ISO-8859-1?B?6Q==?=da Mansour lmansour at FREE.FR
Thu Sep 25 16:15:27 UTC 2008




------ Message transféré
De : Jerome Valluy <jerome.valluy at univ-paris1.fr>
Société : http://terra.rezo.net
Date : Wed, 24 Sep 2008 12:30:49 +0200
À : TERRA <terra at cines.fr>
Objet : [TERRA-Quotidien] Dossier : Refuser le classement des revues SHS


Dossier : 
Refuser le classement des revues SHS

Sommaire du dossier (ordre chronologique inversé) :
1. "Refuser le classement des revues" par Sylvain Piron sur [revues_shs],
20.09.2008
2. "Il faut refuser le classement des revues." par Sabine Rommevaux
3. "Y a-t-il une conscience à l¹AERES ?", Sophie Basch, sur Fabula.Org,
20.09.2008
4. "³The State We¹re In² : le classement des revues par l¹AERES", par C.
Bouillaud sur Bouillaud's Weblog, 11.09.2008
5. "Aeres - Revues science politique"  et "Note sur le classement des revues
de science politique par l'AERES", par J.L Briquet sur [ancmsp] 05.20.2008
6.  "La liste des revues scientifiques du domaine des sciences humaines et
sociales" sur  Aeres-evaluation.fr, le 28.07.2008
7. "Journals under Threat: A Joint Response from History of Science,
Technology and Medicine Editors" appel publié dans les revues signatrices
puis sur SLU le 16.07.2008
8. "Vos papiers ! la science à l¹aune de la raison comptable", par G.
Debrégeas & F. Jobard, sur Vacarmes, 30.05.08
9. "Critères d'identification des chercheurs et enseignants-chercheurs
"publiants"" AERES 06.03.2008



1. "Refuser le classement des revues" par Sylvain Piron sur [revues_shs],
20.09.2008
Chers collègues,

Au cours de ces derniers mois, les procédures de classements des revues
en catégories ABC, au niveau européen avec l'ERIH (European Reference
Index for the Humanities) et en France avec celui que prépare l'AERES
(Agence d¹évaluation de la recherche et de l¹enseignement supérieur),
ont suscité des réactions en chaîne qui dénoncent autant les conditions
dans lesquelles ces listes sont établies (le plus souvent de façon
opaque et sur la base de critères incertains) que le principe même d'un
tel classement dont les effets nocifs sont assez facilement prévisibles,
dès lors qu'il est prévu d'employer une telle classification dans
l'évaluation individuelle des chercheurs - la sinistre division entre
"publiants" et "non-publiants" - qui déterminera les financements
accordés aux équipes de recherche.

Des réflexions vigoureuses ont circulé ces derniers temps, en dernier
lieu une lettre ouverte de Sophie Basch (Paris IV), intitulée "Y a-t-il
une conscience à l¹AERES ?" ; pour ceux qui ne l'auraient pas encore
reçue, je la copie à la suite de ce message.
Ce matin même, Sabine Rommevaux, présidente de la Société française
d'histoire des sciences et des techniques, a diffusé sur la liste Theuth
(histoire et philosophie des sciences) un appel à emboîter le pas à la
démarche des directeurs de revues anglaises d'histoire des sciences,
techniques et médecine, qui demandent en bloc à être retirés des listes
de l'ERIH. Je vous copie son message ci-dessous, et vous joins la
version définitive de l'appel "Journals under Threat".

Au point où en est la montée de l'indignation dans la communauté
scientifique française, il me semble que le moment est venu d'une
véritable mobilisation sur ce thème. Pour avoir la moindre efficacité,
elle ne peut consister qu'à énoncer un refus collectif des responsables
de revues scientifiques de figurer dans le classement de l'AERES. Mais
puisque cette institution ne fait que reproduire à l'échelle nationale
une démarche engagée à l'échelon européen, la démarche véritablement
significative serait l'expression d'un refus, de la part des
responsables de revues européennes, toutes disciplines confondues, de
figurer sur la liste de l'ERIH.

Pour commencer, je propose à ceux d'entre vous qui partagent ce point de
vue de me contacter, afin que nous rédigions collectivement le texte
bref et percutant d'un appel, énonçant un refus collectif de voir nos
revues figurer sur ces listes (et j'inclus la mienne dans cette
protestation, en raison même de son insignifiance et de son excessive
spécialisation), et d'organiser sa diffusion rapide.

bien cordialement à tous,

Sylvain Piron
Maître de Conférences à l'EHESS
Rédacteur en chef de la revue électronique Oliviana. Mouvements et
dissidences spirituels XIIIe- XIVe siècles


Source : -------- Message original --------
Sujet :  [revues_shs] Refuser le classement des revues.
Date :  Sat, 20 Sep 2008 13:11:02 +0200
De :  Sylvain Piron <sylvain.piron at ehess.fr> <mailto:sylvain.piron at ehess.fr>
Répondre à :  revues_shs at cru.fr
Pour :  revues_shs at cru.fr

2. "Il faut refuser le classement des revues." par Sabine Rommevaux


Une quarantaine de directeurs de revues d'histoire des sciences, des
techniques ou de la médecine ont demandé à ce que leurs revues soient
rayées de l'European Reference Index for Humanities (ERIH), établi par
la Fondation européenne pour la science, index sur lequel s'appuie
l'AERES pour constituer ses propres listes. Ces directeurs de revues,
parmi les plus prestigieuses, presque toutes classées A ont dénoncé
l'opacité, voire l'arbitraire avec lesquels cet index avait été établi.
Une version non officielle de cette lettre avait été diffusée avant
l'été sur Theuth. Robert Fox (directeur de Notes & Records of the Royal
Society), à l'initiative de la protestation, m'a autorisée à diffuser
largement la dernière version de cette lettre. Je l'ai ainsi envoyée à
un membre du conseil de l'AERES, qui l'a lu avec beaucoup d'intérêt et
va la transmettre à ses collègues chargés de l'évaluation. Robert Fox
souhaite aussi que de nouveaux directeurs de revues s'associent à cette
protestation.

Je vous demande donc de diffuser largement cette missive.
Bien cordialement.

Sabine Rommevaux, Présidente de la Société française d'histoire des
sciences et des techniques

Source : -------- Message original --------
Sujet :  [revues_shs] Refuser le classement des revues.
Date :  Sat, 20 Sep 2008 13:11:02 +0200
De :  Sylvain Piron <sylvain.piron at ehess.fr> <mailto:sylvain.piron at ehess.fr>
Répondre à :  revues_shs at cru.fr
Pour :  revues_shs at cru.fr



3. "Y a-t-il une conscience à l¹AERES ?", Sophie Basch, sur Fabula.Org,
20.09.2008


Depuis quelques mois, l¹AERES, Agence gouvernementale chargée de
l¹évaluation de la recherche et de l¹enseignement supérieur, créée en
2006, s¹efforce d¹établir un classement qualitatif des revues en
sciences humaines, sur le modèle des palmarès des sciences dures. Cette
démarche a suscité une vive contestation Outre Manche : les philosophes
des sciences britanniques ont dénoncé cette entreprise de
standardisation dont ils démontent les fondements et les aboutissements
(Journals under Threat : A Joint Response from HSTM Editors). Les
directeurs de revues éminentes ont prié les rédacteurs de l¹ERIH
(European Reference Index for the Humanities) de retirer leurs
publications d¹un inventaire dont ils récusent la pertinence, achevant
ainsi d¹en infirmer la validité.
Les Français doivent leur emboîter le pas. Olivier Boulnois, directeur
d¹études à l¹École Pratique des Hautes Études, s¹est récemment exprimé
sur ces classements dont le principe même lui paraît biaisé. Le seul
moyen d¹évaluer la qualité et le « rayonnement » (ce critère reste
insaisissable) d¹un article est de le lire, non de le classer en A, B ou
C selon le support qui l¹a accueilli. Les historiens, les philosophes et
les littéraires ne passeraient pas tant d¹heures dans les bibliothèques
s¹ils ne devaient dépouiller des revues anciennes, souvent obscures, à
faible tirage, éditées en marge des dogmes dominants et qui ont
néanmoins hébergé des contributions importantes. Le temps n¹est pas un
facteur d¹évaluation négligeable. Les classements réducteurs de l¹ERIH
et de l¹AERES ne tiennent aucun compte de cette décantation : ils
balisent non seulement la recherche du présent mais celle du futur.
Le but de l¹opération est simple : l¹évaluation individuelle et
collective (chercheurs et équipes de recherche) requiert des compétences
spécifiques ; elle demande du temps et des moyens. Le classement des
publications en trois catégories présente un inestimable avantage
puisqu¹il permet l¹évaluation machinale. Il suffira à l¹évaluateur de
tourner la manivelle, comme le joueur d¹orgue de barbarie lorsqu¹il
introduit les cartes de papier perforé dans un instrument qui n¹a pas la
prétention de produire de grande musique. Les historiens, les
philosophes, les littéraires ne peuvent accepter cette orchestration.
Mais le problème est aussi ailleurs. Le malaise règne à l¹AERES. Déjà,
inévitables, des bruits de marchandage circulent : si vous renoncez à
rendre publiques vos récriminations, nous pourrions remonter de B en A
telle revue que vous dirigez ou dont vous êtes le collaborateur
régulierŠ La défaite de la pensée s¹accompagne d¹une abdication de la
conscience, favorisée par l¹anonymat : l¹ERIH et l¹AERES, dont le maître
mot est la « transparence », ne publient pas les noms de ceux qui,
discipline par discipline, ont constitué leurs listes. Qui fixe ce canon
et qui en assume la responsabilité ? L¹ineptie de la démarche a été
suffisamment dénoncée ; peut-être n¹a-t-on pas assez insisté sur la
compromission qu¹elle suppose.
Les commissions disciplinaires chargées de procéder aux classements sont
constituées de chercheurs et d¹universitaires chevronnés. Mais leur
composition change au fil des réunions : beaucoup de ceux qui sont venus
ne reviennent pas, bannis pour indiscipline ou volontairement exilés.
L¹atmosphère de ces assemblées est cordiale. La gêne est cependant
patente : la pertinence de ces classements ne convainc personne. Des
voix s¹élèvent pour défendre une politique du moindre mal : puisque le
Ministère impose l¹établissement de ces listes, mieux vaut confier la
sélection aux plus compétents (ceux qu¹on a choisi de convoquer et qui
ont répondu à la convocation). La rengaine est connue : « cette décision
est mauvaise, mais elle sera encore pire si ce n¹est pas nous qui
l¹appliquons ». Le raisonnement, qui éveille de mauvais souvenirs, est
aussi vicieux que le principe même du classement : comment exécuter de
basses ¦uvres sans se discréditer ? Ceux qui refusent le statut de
petits fonctionnaires de la censure n¹ont plus qu¹à quitter les lieux.
Car il n¹y a pas de compromis, comme la suite le montrera : écrémage de
plus en plus rapide à mesure que l¹heure tourne ; élimination des revues
publiées dans des lieux improbables comme Vilnius, Bergen, Ankara,
Budapest ou Bratislava (qui a jamais entendu parler de ces publications
?), aux titres plus imprononçables encore que ceux des périodiques
allemands, néerlandais ou italiens dont le comité écorche les syllabes ­
les revues anglaises ou américaines, A dans le classement de l¹ERIH,
sont rarement rétrogradées. À l¹heure où la France s¹inquiète du déclin
de sa culture (mais diminue les crédits de ses Instituts de recherche à
l¹étranger), ce mépris est particulièrement malvenu. L¹AERES a-t-elle
pensé à l¹humiliation que ces listes imposeront à ceux qui, dans des
régions lointaines et aux ressources souvent limitées, font l¹effort de
publier en français ou sur la France, chassées du tableau d¹honneur sans
autre forme de procès ? Nul n¹est besoin d¹un répertoire pour savoir
qu¹il est plus prestigieux de publier dans telle vénérable revue que
dans un bulletin paroissial. Faut-il pour autant succomber à la manie du
fichage et au démon de l¹explicitation, aussi offensants qu¹inutiles ?
Le vrai provincialisme n¹est pas où on le traque mais dans l¹ignorance
de l¹étranger.
Quand tous ces arguments auront été avancés, voire admis, des voix
s¹élèveront pour rappeler un impératif : le regroupement des universités
françaises en PRES (Pôles de recherche et d¹enseignement supérieur), où
les Facultés de sciences humaines ne bénéficieront plus de leur glorieux
isolement. « Que répondre à l¹incompréhension des collègues de médecine,
de physique, de chimie, excédés par l¹absence de critères objectifs de
classement ? Nos disciplines sont vouées à la disparition dans ce
contexte. » Mais c¹est précisément alors qu¹elles seraient laminées. Les
sciences humaines ne sont pas exactes par définition. Elles ne sont pas
pour autant dépourvues de rigueur mais aucune « objectivité » autre que
l¹honnêteté intellectuelle ne peut présider à leur évaluation. Il ne
s¹agit pas de s¹abriter derrière une loi d¹exception mais de partir de
la réalité. L¹honneur des humanités est la curiosité : le seul critère
admissible est celui de la diversité et de la variété des publications.

Sophie Basch
Professeur de littérature française à l¹université Paris IV-Sorbonne,
membre de l¹IUF


Source : 
209.85.129.104/search?q=cache:Yb_7FwX9ZIMJ:www.fabula.org/actualites/article
25688.
php+Y+a-t-il+une+conscience+%C3%A0+l%E2%80%99AERES&hl=fr&ct=clnk&cd=1&gl=fr&
client=firefox-a

4. "³The State We¹re In² : le classement des revues par l¹AERES", par C.
Bouillaud sur Bouillaud's Weblog, 11.09.2008
11 septembre 2008 

Jean-Louis Briquet (par ailleurs une vieille connaissance que je salue bien
amicalement s¹il vient à me lire ici) en tant que Délégué scientifique
adjoint Aeres pour la science politique, a fait passer sur la liste de
l¹ANCMSP le 5 septembre 2008 une anticipation du classement par l¹AERES des
revues de science politique et une explication des critères retenus pour
opérer ce classement en A, B, et C. Ce classement des revues doit ensuite
servir à évaluer pour chaque laboratoire et pour chaque individu son niveau
d¹excellence. Un laboratoire qui contient beaucoup de ³publiants²
(néologisme de la novlangue administrative) dans des revues de rang A sera
bien évalué, et celui qui ne contiendrait que des ³publiants² dans des
revues de rang B et C serait condamné à terme. Au niveau individuel, cette
grille devrait aussi déterminer là terme les carrières à venir de chacun.
Les non-²publiants² ne sont eux même pas à évoquer : ils seront sans doute
éradiqués comme  les parasites qu¹ils sont. D¹après ce que dit Jean-Louis
Briquet, pas plus de 25% des revues évaluées par l¹Aeres dans chaque champ
disciplinaire ne doit être classé en A.

Je voudrais d¹abord réagir sur le principe même d¹un classement établi des
revues, des Universités, des personnes. Cette tendance existe depuis fort
longtemps - aprés tout, un Jean-Jacques Rousseau n¹a-t-il pas percé dans la
vie intellectuelle de son temps grâce à des concours de ce genre? La remise
de prix d¹excellence est une  banalité du monde académique depuis trois
siècles au moins. Simplement nous sommes dans une phase ultérieure de
³rationalisation² du classement. Nous y ajoutons en plus cette dose de
cruauté qui semble venir du monde des entreprises : 25% des revues en A pas
plus, cela m¹a fait penser à ces notations du personnel dont la presse avait
parlé il y a quelques années chez IBM qui entraînait une obligation  pour
les cadres de trouver parmi leurs subordonnés des faibles dont se
débarasser. Il y a ainsi quelque chose aussi comme un jeu d¹élimination (des
³tournois successifs² comme disent joliment les économistes) qu¹on organise
ainsi, ou pour être plus populaire, un style de pensée semblable à celui du
³Maillon faible². Il ne suffit pas d¹être correct, il faut être dans les 25%
des meilleurs, voire ³le meilleur².  Et il n¹en restera qu¹un. En réalité,
nous sommes ici dans du pur Spencer, dans du ³darwinisme social² appliqué à
la science. Nous n¹osons certes plus théoriser comme Spencer en son temps
l¹élimination pure et simple du plus faible, nous nous contentons de faire
l¹éloge de l¹innovation socialement et économiquement utile à tous (en
principe ) apporté par le plus fort - avec le thème de l¹excellence
créatrice de richesses. Ce genre de classement casse donc bien sûr le mythe
de la ³communauté scientifique² pour bien mettre en lumière la ³rat race² en
cours en son sein à chaque instant. Dans le fond, cela veut dire que les
principes moraux (le grand mot!) qui devraient mouvoir un scientifique ne
sont pas différents de celui d¹un gestionnaire d¹un fonds collectif de
placement (une SICAV par exemple) : il faut être parmi les meilleurs en
fonction d¹une performance mesurable objectivement. Je pense qu¹il peut y
avoir là une contradiction forte avec la motivation première qui incite des
jeunes à se lancer dans un doctorat en sciences humaines. Celle-ci me semble
souvent fondé d¹abord sur une interrogation personnelle sur un point de la
réalité, et encore pire sur un goût (altruiste) de la transmission du
savoir. Grâce à la mise en lumière de ces classements, par une agence comme
l¹Aeres, qui n¹est que la version française d¹un phénomène mondial, les
jeunes doctorants sont désormais prévenus : il ne vous suffira pas d¹être
bon, ni même très bon comme vous l¹êtes souvent, il vous faudra avoir un
esprit de compétition digne d¹un tennisman face au classement ATP.
J¹ajouterais une considération plus philosophique si l¹on veut : je me
demande comment le monde académique (en sciences sociales) peut-il concilier
des pratiques darwiniennes en son sein avec une certaine tendance
(kantienne) à faire l¹éloge de l¹égalité entre les hommes, ou à s¹inquiéter
(pour la société) de l¹égal ³respect² dû à chacun? Des sciences sociales
régies par de tels principes internes de compétition peuvent-elles être
qualifiées d¹humanistes?  Ne devraient-elles pas réhabiliter ce cher
Spencer, et affirmer clairement l¹inégalité naturelle entre les hommes?

Une fois rappellé tout ce doit à l¹esprit du ³darwinisme social² ce genre de
classement, on peut aussi s¹interroger sur ses effets à terme sur la
production scientifique de notre discipline. Il devient évident qu¹un jeune
impétrant doit chercher à tout prix à publier dans une revue classée en A,
doit accepter de publier faute de mieux dans une revue classée en B, et doit
refuser comme une insulte et une perte de temps préjudiciable à sa carrière
de publier dans une revue classée en C. (Significativement, Jean-Louis
Briquet ne reproduit même pas la liste des revues classées en C dans son
mailŠ) En dehors de la soumission aux puissances établies que cela implique,
cela veut surtout dire qu¹une approche vraiment innovante pourrait avoir
quelques difficultés à s¹imposer. En effet, un groupe de doctorants ou de
jeunes docteurs qui s¹apercevraient qu¹ils ont quelque chose à dire qui
n¹est pas audible par les comités de lecture des revues classées en A
n¹auraient guère intérêt à publier dans les revues classées en B ou C, et
encore moins dans une revue nouvelle qu¹ils créeraient, puisqu¹elle ne leur
apporterait que peu de ³points de vie² pour leur carrière. Bref, un tel
classement fige la situation, sauf si on suppose que les comités de lecture
des revues classées en A sont parfaitement ouverts aux innovations proposées
par les jeunes. La situation n¹est  certes pas complétement figée, une revue
peut monter en A ou une autre descendre en B ou C, mais le premier
classement aura sans doute un fort effet d¹hystérèse. (Je ne compte pas ici
l¹effet éventuel de découragement sur les comités de rédaction des revues
classées en B ou en C, à leur sens injustement, face un revue classée en A).
Il est bien sûr ironique que ce classement soit annoncé aux jeunes lecteurs
de la liste de l¹ANCMSP par un chercheur qui lui-même fut l¹une des
personnes clés de l¹ouverture de la discipline à de nouvelles approches dans
les années 1980-90 à travers la création de Politix.

Dernier point (à mon sens le moins important) : le choix des revues mises en
A. La RFSP participe au premier rang, si j¹ose dire ³de droit². Il est
facile de constater une représentation  significative  de la ³sociohistoire
du politique² avec deux revues : Politix et Genèse. Comme le dit Jean-Louis
Briquet, pour le reste, il s¹agit essentiellement du choix de la revue
³majeure² dans chaque sous-champ disciplinaire (Critique internationale pour
les RI, Raisons politiques pour la théorie politique, PMP pour les
politiques publiques). Politique africaine est classée en A pour des raisons
liées à une autre discipline. Tous les relégués en B auront sans doute
quelques raisons de se plaindre, et, franchement, l¹écart de contenu entre
ce qui est classé en A et en B ne me saute pas aux yeux si je raisonne
article par article. Du point de vue de l¹innovation, je doute par exemple
que PMP soit vraiment une revue importante, elle est sans doute centrale par
son réseau social, mais un article important en politiques publiques (cf.
les biblographies des manuels sur ce point) sera plutôt publié dans la RFSP.
La distinction entre revues classées en A et en B (je ne connais pas celles
classées en C) me paraît surtout statutaire, et elle ne traduit de fait que
l¹état actuel des luttes au sein des divers sous-champs qui structurent la
discipline. On dispose là en effet une belle objectivation des luttes de
classement comme dirait P. Bourdieu qui structurent le champ, mais pas d¹une
boussole fiable pour savoir où lire ce qu¹il y aurait d¹intéressant à lire
si on est à l¹affût d¹une nouveauté significative. On pourrait enfin noter
que cette objectivation souligne bien un écart entre la science politique
française et la science politique internationale : de ce point de vue,
Politix et Genèse devraient se trouver en B ou même C, et inversement la
RIPC et peut-être  Pôle Sud en A, et, si j¹ose me moquer, PMP en DŠ On
devrait aussi voir apparaître dans le classement les revues anglophones sur
la France, étrangement absentes du classement. De toute façon, chacun aura
son classement personnel en fonction de ses intérêts de recherche, de ses
goûts éditoriaux, de ses croyances sur ce que doit apporter un article en
science politique,  de son histoire de publication (ou de non-publication)
dans telle ou telle revue. Face à un tel classement, chacun est simplement
ramené à sa place objective au sein du champ.

En somme, nous savons désormais ³the State We¹re In².

_________________________________________
Source : 
http://bouillaud.wordpress.com/2008/09/11/the-state-were-in-le-classement-de
s-revues-par-laeres/

4. "Aeres - Revues science politique"  et "Note sur le classement des revues
de science politique par l'AERES", par Jean-Louis Briquet (AERES) sur
[ancmsp] le 05 septembre 2008

Bonjour, ci-dessous une note précisant la manière dont a été établie la
liste des revues de science politique par l'Aeres.

A noter que cette liste n'a pas encore été intégrée à la liste générale des
revues scientifiques SHS publiée sur le site de l'Aeres
(http://www.aeres-evaluation.fr/La-liste-des-revues-scientifiques) et
qu'elle le sera très vite (dans le courant de la semaine prochaine).

A noter également que chaque direction scientifique disciplinaire à
l'intérieur des SHS a procédé à son propre classement et que, quand une
revue est évaluée par plusieurs disciplines, c'est la note la plus haute qui
lui est attribuée. Le classement tel qu'il apparaît actuellement sur la
liste générale des revues SHS sera donc modifié selon ce principe.

Cordialement

Jean-Louis Briquet
Délégué scientifique adjoint Aeres
Science politique

*****

NOTE SUR LE CLASSEMENT DES REVUES DE SCIENCE POLITIQUE PAR L'AERES

L'Aeres a souhaité disposer d'une liste de revues scientifiques SHS classées
en A, B et C. Cette liste servira aux experts pour l'évaluation des unités
(taux de « publiants » et production scientifique globale). Les délégations
scientifiques concernées ont été chargées d'élaborer une liste pour la (ou
les) discipline(s) de leur ressort. Une "liste des revues scientifiques du
domaine des sciences humaines et sociales" a été publiée sur le site de
l'Aeres fin juillet 2008
(http://www.aeres-evaluation.fr/La-liste-des-revues-scientifiques),
regroupant les diverses listes disciplinaires. Lorsqu'une revue a été
examinée par plusieurs disciplines, c'est le classement le plus élevé qui a
été retenu.

Important : La liste des revues de science politique n'a pas encore été
intégrée (4 septembre 2008)  à la "liste des revues scientifiques du domaine
des sciences humaines et sociales". Elle le sera dans la première quinzaine
du mois de septembre.

Procédure suivie pour le classement des revues de science politique

Un groupe de travail a été constitué, composé de : 2 représentants de
l'Aeres ; 2 représentants du CNU section 04 ; 2 représentants de la section
40 du Comité national du CNRS ; 2 représentants de l'AFSP ; 2 présidents de
comités de visite Aeres.  Les principales institutions et associations
disciplinaires ont donc été parties prenantes de l'élaboration du
classement.

Le classement a été, pour le moment, limité aux revues françaises
appartenant strictement à la science politique. Un groupe de travail sera
mis en place cette année afin de disposer d'un panorama plus précis des
revues non françaises (anglophones et non anglophones) dans lesquelles sont
amenés à publier les politistes français. Dans l'attente, les experts sont
invités à se référer aux classements internationaux, en particulier celui du
Web of Science ou l'ERIH. En ce qui concerne les revues d'autres disciplines
dans lesquelles publient fréquemment les chercheurs et
enseignants-chercheurs en science politique (sociologie, histoire,
anthropologie, droit, etc.), ce sont les classements établis dans ces autres
disciplines (et donc ceux de la liste générale SHS) qui seront utilisés.

Une liste de revues a été soumise au groupe de travail, composée des revues
de science politique de la liste des revues SHS établie cette année par le
CNRS (ont été ajoutées certaines revues n'apparaissant pas sur cette liste,
mais dans lesquelles les politistes évalués par la section 40 du comité
national du CNRS ont publié au cours des deux dernières années). Les membres
du groupe ont attribué une note à chacune des revues, selon les critères
suivants :

A : Revue généraliste de tout premier plan dans la discipline et revues
spécialisées de tout premier plan dans leur domaine
B : Revues généralistes et spécialisées importantes
C : Revues de second rang ou revues non scientifiques (vulgarisation, etc.)

Remarques 

Il a été jugé préférable d'utiliser les critères ci-dessus plutôt que les
seuls critères de visibilité internationale (cf. European Science Foundation
: European Reference Index for Humanities), cela pour la raison principale
que très peu de revues françaises pourraient être classées selon ces
derniers critères et qu'il serait alors impossible de réaliser une
évaluation raisonnable de la production scientifique effective des
politistes français.

Il a été décidé de ne classer les revues que en A et en B. Il s'agit
d'individualiser un noyau de revues scientifiques de la discipline, qui
seront considérées de manière égale (que leur note soit A ou B) pour le
calcul des "publiants" lors de l'évaluation des unités de recherche par
l'Aeres.

Le classement est susceptible d'évoluer et sera réexaminé chaque année. Un
forum sera bientôt créé sur le site Internet de l'Aeres, pour recevoir toute
remarque, réaction, contestation, etc., concernant cette liste.


Liste des revues de science politique Aeres

Le classement a été établi à partir des notes attribuées par les membres du
groupe de travail et discuté collectivement lors d'une réunion de ce groupe
le 24 juin 2008. Au cours de la discussion, la direction de l'Aeres a
rappelé que, d'un point de vue général pour toutes les disciplines, les
revues classées en A ne devaient pas excéder 25% du total. Nous avons dès
lors été amené à effectuer en réunion une certaine reventilation à partir de
l'optique suivante : ont été classées A les deux revues les plus
généralistes (Revue française de science politique, Politix) ainsi qu'une
revue centrale dans chacun des domaines de la science politique (Critique
internationale pour les relations internationales, Genèses pour la
sociologie politique, Politique et management public pour les politiques
publiques, Raisons politiques pour la pensée politique). La revue Politique
africaine ayant déjà été classée A sur la liste anthropologie/ethnologie,
c'est ce classement qui a été adopté.

Revues classées A

Critique internationale
Genèses
Politique africaine
Politique et management public
Politix
Raisons politiques
Revue française de science politique

Revues classées B

Cemoti 
Communications 
Cultures et conflits
Droit et société 
Lien social et politique
Lusotopie 
Mots 
Pôle sud 
Politique européenne
Pouvoirs
Problèmes d'Amérique latine
Quaderni 
Réseaux 
Revue d'études comparées Est Ouest
Revue d'étude méditerranéenne et des mondes musulmans
Revue française d'administration publique
Revue française des affaires sociales
Revue internationale de politique comparée

(4 septembre 2008)
_________________________________________
Source :  -------- Message original --------
Sujet :     [ancmsp] Aeres - Revues science politique
Date :     Fri, 05 Sep 2008 14:15:31 +0200
De :     Jean-Louis Briquet <briquet at ceri-sciences-po.org>
<mailto:briquet at ceri-sciences-po.org>
Pour :     listancmsp at lists.apinc.org


5. La liste des revues scientifiques du domaine des sciences humaines et
sociales sur  Aeres-evaluation.fr, le 28.07.2008

La liste des revues scientifiques du domaine des sciences humaines et
sociales indique pour chacune son champ disciplinaire et, le cas échéant,
son niveau d¹audience. On y accède en cliquant sur l¹initiale du nom de la
revue (liste générale) ou sur le libellé qui ouvre également une notice
explicative et une liste par champ disciplinaire. Les listes ont été
établies pour chaque champ par des comités d¹experts comprenant des
représentants des instances d¹évaluation de la recherche et d¹associations
ou sociétés savantes, ainsi que des documentalistes. La liste constitue une
aide à l¹évaluation de la production des unités de recherche, au sein des
comités organisés par l¹AERES. Dans l¹ensemble, la classification A, B, C
correspond à l¹étendue du rayonnement des revues. Un forum de discussion
ouvert pour chaque champ permettra d¹adresser des remarques ou des
recommandations. La liste sera actualisée.

N.B1 : l¹AERES remercie toutes les personnes ayant contribué à établir ces
listes, ainsi que le CNRS et l¹ERIH de la Fondation Européenne pour la
Science pour avoir mis à sa disposition des listes déjà recensées par ces
organismes.

NB2 : Pour déterminer le nombre de publiants dans un laboratoire, les revues
ici classées A et B sont considérées comme des « publications de rang A » au
même titre que d¹autres formes de production scientifique (voir la note
relative aux publiants sur le site de l¹AERES, section 2).

Lire le classement :
http://www.aeres-evaluation.fr/La-liste-des-revues-scientifiques
________________________
Source : http://www.aeres-evaluation.fr/La-liste-des-revues-scientifiques

6. "Journals under Threat: A Joint Response from History of Science,
Technology
and Medicine Editors" appel publié dans les revues signatrices puis sur SLU
le 16.07.2008

We live in an age of metrics. All around us, things are being standardized,
quantified,
measured. Scholars concerned with the work of science and technology must
regard
this as a fascinating and crucial practical, cultural and intellectual
phenomenon.
Analysis of the roots and meaning of metrics and metrology has been a
preoccupation
of much of the best work in our field for the past quarter century at least.
As
practitioners of the interconnected disciplines that make up the field of
science studies
we understand how significant, contingent and uncertain can be the process
of
rendering nature and society in grades, classes and numbers.

We now confront a situation in which our own research work is being
subjected to
putatively precise accountancy by arbitrary and unaccountable agencies. Some
may
already be aware of the proposed European Reference Index for the Humanities
(ERIH), an initiative originating with the European Science Foundation. The
ERIH is
an attempt to grade journals in the humanities ­ including ³history and
philosophy of
science². The initiative proposes a league table of academic journals, with
premier,
second and third divisions. According to the European Science Foundation,
ERIH
³aims initially to identify, and gain more visibility for, top-quality
European
Humanities research published in academic journals in, potentially, all
European
languages². It is hoped ³that ERIH will form the backbone of a fully-fledged
research
information system for the Humanities². What is meant, however, is that ERIH
will
provide funding bodies and other agencies in Europe and elsewhere with an
allegedly
exact measure of research quality. In short, if research is published in a
premier
league journal it will be recognized as first rate; if it appears somewhere
in the lower
divisions, it will be rated (and not funded) accordingly.

This initiative is entirely defective in conception and execution. Consider
the major
issues of accountability and transparency. The process of producing the 
graded list of
journals in science studies was overseen by a committee of four (the 
membership is
currently listed at 
http://www.esf.org/research-areas/humanities/researchinfrastructures-
including-erih/erih-governance-and-panels/erih-expert-panels.html).
This committee cannot be considered representative. It was not selected in
consultation with any of the various disciplinary organizations that 
currently represent
our field such as the European Association for the History of Medicine and 
Health,
the Society for the Social History of Medicine, the British Society for the 
History of
Science, the History of Science Society, the Philosophy of Science 
Association, the
Society for the History of Technology or the Society for Social Studies of 
Science.
Journal editors were only belatedly informed of the process and its relevant 
criteria or
asked to provide any information regarding their publications. No indication 
has been
given of the means through which the list was compiled; nor how it might be
maintained in the future.

The ERIH depends on a fundamental misunderstanding of conduct and 
publication of
research in our field, and in the humanities in general. Journals¹ quality 
cannot be
separated from their contents and their review processes. Great research may 
be
published anywhere and in any language. Truly ground-breaking work may be 
more
likely to appear from marginal, dissident or unexpected sources, rather than 
from a
well-established and entrenched mainstream. Our journals are various, 
heterogeneous
and distinct. Some are aimed at a broad, general and international 
readership, others
are more specialized in their content and implied audience. Their scope and
readership say nothing about the quality of their intellectual content. The 
ERIH, on
the other hand, confuses internationality with quality in a way that is 
particularly
prejudicial to specialist and non-English language journals. In a recent 
report, the
British Academy, with judicious understatement, concludes that ³the European
Reference Index for the Humanities as presently conceived does not represent 
a
reliable way in which metrics of peer-reviewed publications can be 
constructed²
(Peer Review: the Challenges for the Humanities and Social Sciences, 
September
2007: http://www.britac.ac.uk/reports/peer-review). Such exercises as ERIH 
can
become self-fulfilling prophecies. If such measures as ERIH are adopted as 
metrics by
funding and other agencies, then many in our field will conclude that they 
have little
choice other than to limit their publications to journals in the premier 
division. We
will sustain fewer journals, much less diversity and impoverish our 
discipline.

Along with many others in our field, this Journal has concluded that we want 
no part
of this dangerous and misguided exercise. This joint Editorial is being 
published in
journals across the fields of history of science and science studies as an 
expression of
our collective dissent and our refusal to allow our field to be managed and 
appraised
in this fashion. We have asked the compilers of the ERIH to remove our 
journals¹
titles from their lists.

Hanne Andersen (Centaurus)
Roger Ariew & Moti Feingold (Perspectives on Science)
A. K. Bag (Indian Journal of History of Science)
June Barrow-Green & Benno van Dalen (Historia mathematica)
Keith Benson (History and Philosophy of the Life Sciences)
Marco Beretta (Nuncius)
Michel Blay (Revue d¹Histoire des Sciences)
Cornelius Borck (Berichte zur Wissenschaftsgeschichte)
Geof Bowker and Susan Leigh Star (Science, Technology and Human Values)
Massimo Bucciantini & Michele Camerota (Galilaeana: Journal of Galilean 
Studies)
Jed Buchwald and Jeremy Gray (Archive for History of Exacft Sciences)
Vincenzo Cappelletti & Guido Cimino (Physis)
Roger Cline (International Journal for the History of Engineering &
Technology)
Stephen Clucas & Stephen Gaukroger (Intellectual History Review)
Hal Cook & Anne Hardy (Medical History)
Leo Corry, Alexandre Métraux & Jürgen Renn (Science in Context)
D.Diecks & J.Uffink (Studies in History and Philosophy of Modern Physics)
Brian Dolan & Bill Luckin (Social History of Medicine)
Hilmar Duerbeck & Wayne Orchiston (Journal of Astronomical History & 
Heritage)
Moritz Epple, Mikael Hård, Hans-Jörg Rheinberger & Volker Roelcke (NTM:
Zeitschrift für Geschichte der Wissenschaften, Technik und Medizin)
Steven French (Metascience)
Willem Hackmann (Bulletin of the Scientific Instrument Society)
Bosse Holmqvist (Lychnos)
Paul Farber (Journal of the History of Biology)
Mary Fissell & Randall Packard (Bulletin of the History of Medicine)
Robert Fox (Notes & Records of the Royal Society)
Jim Good (History of the Human Sciences)
Michael Hoskin (Journal for the History of Astronomy)
Ian Inkster (History of Technology)
Marina Frasca Spada (Studies in History and Philosophy of Science)
Nick Jardine (Studies in History and Philosophy of Biological and Biomedical
Sciences)
Trevor Levere (Annals of Science)
Bernard Lightman (Isis)
Christoph Lüthy (Early Science and Medicine)
Michael Lynch (Social Studies of Science)
Stephen McCluskey & Clive Ruggles (Archaeostronomy: the Journal of Astronomy 
in
Culture)
Peter Morris (Ambix)
E. Charles Nelson (Archives of Natural History)
Ian Nicholson (Journal of the History of the Behavioural Sciences)
Iwan Rhys Morus (History of Science)
John Rigden & Roger H Stuewer (Physics in Perspective)
Simon Schaffer (British Journal for the History of Science)
Paul Unschuld (Sudhoffs Archiv)
Peter Weingart (Minerva)
Stefan Zamecki (Kwartalnik Historii Nauki i Techniki)
__________________________
Source : http://www.sauvonsluniversite.com/spip.php?article591

8. "Vos papiers ! la science à l¹aune de la raison comptable", par G. 
Debrégeas & F. Jobard, sur Vacarmes, 30.05.08



Évaluer la recherche, après tout, c¹est la science même. Mais si son 
évaluation se réduit à une exigence de performance individuelle et à une 
traque aux oisifs ‹ ce sont les objectifs à peine voilés des réformes en 
cours ‹, elle aura le même résultat que partout où elle s¹applique de cette 
manière : la transformation du chercheur en entrepreneur de soi, et un 
formidable appauvrissement de son travail. Et si les meilleurs garants de la 
création scientifique étaient, au contraire, la liberté qu¹on lui accorde et 
les collectifs qu¹elle se donne ?

L¹évaluation de l¹activité scientifique est aujourd¹hui le lieu d¹une 
inventivité bureaucratique remarquable. D¹un côté, les chercheurs qui 
exercent à l¹université (en langage indigène, les « enseignants-chercheurs 
») n¹étaient jusqu¹à présent évalués (par le Conseil national des 
universités) qu¹à l¹occasion des demandes de promotion, soit une fois dans 
la carrière, tandis que les chercheurs exerçant dans les établissements dits 
techniques et scientifiques (epst) type cnrs, Inserm, etc., le sont à 
intervalles réguliers depuis des décennies. Présenter ainsi les choses 
revient toutefois à taire une autre évaluation, au c¦ur du métier : celle 
que produisent les scientifiques eux-mêmes lors des colloques ou dans les 
revues. Ce sont pourtant les lieux centraux de l¹évaluation des producteurs 
de savoir, significativement ignorés en tant que tels par les réformes de 
l¹évaluation.

En 2006, la loi d¹orientation de la recherche a créé une agence d¹évaluation 
(Aeres), dont les membres sont nommés, et qui se superpose aux organes 
internes, comme le Comité national du cnrs, dont les membres sont pour leur 
majorité élus par leurs pairs. Ces institutions sont le c¦ur de la vindicte 
gouvernementale : électives, elles le seraient dans les deux sens du terme 
et favoriseraient l¹entre-soi ‹ l¹évaluation française, ou des copains qui 
s¹évaluent entre eux [1]. Toutefois, personne n¹a à ce jour été capable de 
substituer d¹autres principes de légitimité scientifique que celle de 
l¹appréciation portée par les scientifiques eux-mêmes. Si ce n¹est la 
légitimité du Prince (les membres nommés par le ministre), ou une légitimité 
importée, le plus souvent du champ industriel ou managérial, via ces « 
personnalités qualifiées » introduites en surnombre dans les lois récentes.

Il faut replacer cette ligne de front propre au champ scientifique dans le 
contexte plus vaste d¹une guerre qui se joue sur deux théâtres plus larges. 
Le premier est le contrôle par le gouvernement, ou l¹industrie et 
l¹entreprise, de l¹activité scientifique. C¹est souvent ce que cache le 
vocable « innovation », terme préféré à celui de « recherche » en ce qu¹il 
désigne d¹abord la recherche brevetable ‹ c¹est-à-dire monnayable à court ou 
moyen terme. Or les instances d¹évaluation, comme le Comité national du 
cnrs, sont également les instances de co-élaboration des choix 
scientifiques. Doubler ces instances par une agence externe (dite « autonome 
») dont les membres sont nommés asphyxie la capacité de libre détermination 
scientifique des établissements scientifiques. Le second terrain est celui 
du culte général rendu à l¹indicateur chiffré : culture dite « du résultat » 
dans toutes les organisations, privées ou publiques, indicateurs de la loi 
de finances (lolf) pour les politiques publiques, audit de l¹action 
ministérielle ou, en ce qui concerne la science, évaluation standardisée 
sous forme bibliométrique. Cette évolution est porteuse d¹une réforme au 
long cours de la fonction publique, qui embrasse l¹ensemble des agents et 
pas seulement, bien sûr, ceux de la recherche.

L¹un des points cruciaux de l¹évaluation est son objet. S¹agit-il de 
sanctionner ? Si oui, s¹agit-il de ne sanctionner que négativement ? 
Autrement dit, de ne destiner le système d¹évaluation qu¹au repérage des 
chercheurs à problèmes ? C¹est l¹un des objectifs à peine dissimulés de la 
réforme, qui vise en fait les chercheurs à productivité nulle, réputés plus 
nombreux dans les établissements scientifiques du seul fait que les 
chercheurs y sont fonctionnaires dès l¹âge de 30 ans (cas de figure presque 
unique au monde). Si l¹évaluation poursuit cette fin, il s¹agit d¹un gâchis 
considérable. Pour elle-même, d¹abord, car a-t-on besoin de commissions pour 
repérer les chercheurs problématiques ? Pour la science française ensuite, 
car on peut soutenir qu¹en réalité, un taux de « non publiants » (ailleurs, 
on dirait « oisifs ») de 5 à 10 % est le prix à payer, en l¹espèce 
raisonnable, pour la liberté laissée à l¹ensemble des agents de mener leurs 
recherches librement au sein de collectifs stables ‹ liberté inestimable, 
quand on sait les dommages de l¹instabilité des statuts sur les parcours 
scientifiques ‹ qui ont d¹ailleurs pour effet l¹attractivité très forte du 
cnrs à l¹égard des docteurs étrangers (et l¹ouverture considérable du cnrs à 
l¹international, puisqu¹un cinquième des chercheurs recrutés actuellement 
sont étrangers).

La perte de sens induite par une évaluation seulement orientée vers la 
sanction négative nous fait toucher du doigt un deuxième problème : celui de 
la sanction positive. L¹essentiel du travail demandé aux équipes 
d¹évaluation consiste à produire des classements : du classement de revues 
et supports de publication au classement des chercheurs. Mais produire du 
classement à partir d¹échelles multiples (prise en compte, par exemple pour 
un universitaire, de ses recherches, de ses enseignements et de sa 
participation à la vie collective et l¹administration de son département) 
est extrêmement compliqué. On demande alors aux évaluateurs de se rabattre 
sur des indicateurs quantifiés. Mais au-delà du choix de l¹indicateur, se 
pose le problème de la finalité du classement. En effet, le travail 
d¹évaluation des équipes devrait porter sur les qualités et les défauts, les 
avancées et les impasses, les espoirs et les fausses pistes des 
laboratoires. Autrement dit, ce sont moins les agents et les institutions 
qu¹il s¹agit d¹évaluer, que ce qu¹ils produisent et la manière dont ils 
produisent. Ce qu¹ils produisent : décèle-t-on des pistes innovantes dans 
les activités menées ? Comment ils produisent : travaillent-ils avec les 
doctorants, avec les ingénieurs et les techniciens, les savoir-faire 
sont-ils tous valorisés, etc. ?

L¹essentiel de l¹évaluation doit ou devrait tendre à la production de 
comportements vertueux, tandis que les efforts visent aujourd¹hui à ce 
qu¹elle ne produise que de la sanction (négative, d¹abord, positive, 
parfois). Le risque inhérent est de voir se mettre en place des stratégies 
de contournement ou de détournement dont on sait les résultats délétères [2] 
: sur-publication (publier plusieurs fois des résultats quasi-identiques), 
auto-citation ou citation entre collègues, publication précoce de résultats 
non stabilisés, auto-génération de bruits de fond artificiels (et négligence 
des pistes silencieuses mais fructueuses), court-circuitage des lieux 
d¹évaluation non administratifs (les colloques ou séminaires), etc. Tout 
privilégie ici une science bling-bling, une science caisse-enregistreuse, 
une science pointeuse, où les bips de citation se substituent à l¹examen des 
avancées et des promesses réelles de l¹activité.

Plus grave encore, l¹évaluation-sanction exerce des effets sur le contenu 
même de la production. Ainsi, dans les sciences expérimentales, il s¹agit 
désormais de ne présenter que la face valorisante de l¹activité que l¹on a 
menée. On tait ainsi les erreurs, les fausses pistes, les hypothèses non 
vérifiées. L¹essentiel est de montrer que le temps n¹a pas été gâché, que 
l¹investissement est resté rentable : un budget, une hypothèse, une 
validation empirique. Les effets de ces comportements individuels sur le 
collectif sont coûteux : car à taire systématiquement les fausses pistes ou 
hypothèses non vérifiées, on ne les signale pas à la communauté, qui du coup 
peut tout aussi bien les réitérer dans l¹ignorance qu¹elles sont 
infructueuses. Une fois encore, l¹évaluation qui ne se pose pas la question 
de sa finalité légitime (aider à produire de la bonne science, produire 
ainsi des comportements vertueux) engendre des coûts considérables, bien 
évidemment jamais pris en compte.

Les impasses des systèmes d¹évaluation actuellement imposés ne sont jamais 
aussi visibles que dans la bibliométrie, portée par une logique de 
production de classements standardisés. La bibliométrie désigne le comptage 
des citations d¹un article par d¹autres articles. Elle est l¹instrument par 
lequel les bureaucraties d¹évaluation aujourd¹hui en compétition évitent le 
conflit des jugements, et se fondent sur l¹objectivité supposée de critères 
fixés en dehors d¹elles [3]. Du coup, on assiste à un alignement des 
instances d¹évaluation : les chercheurs cnrs doivent désormais remplir des « 
fiches de données individuelles » en 17 points, qui mentionnent le nom du 
chercheur, le nombre d¹ouvrages ou de chapitres scientifiques, le nombre 
d¹articles et de citations référencés sur Web of Science, le taux 
d¹autocitations, le taux de citations par article, le facteur h [4] , le 
facteur d¹impact moyen de la discipline, son top ten, ses Highly Cited 
Papers. Que révèle cette standardisation apparente de l¹évaluation par la 
bibliométrie, si ce n¹est l¹extraordinaire pouvoir d¹attraction du nombre, 
qui a l¹immense avantage de conjurer les questions fondamentales de 
l¹évaluation : qui évalue ? comment évaluer ? qu¹évaluer ? à quelles fins ?

Un mauvais papier, de par sa capacité fédératrice (même négative), a ainsi 
plus de chances d¹être cité qu¹un article innovant, derrière lequel un 
consensus disciplinaire ne peut, dans un premier temps, se dégager. Les 
effets les plus dramatiques se repèrent aujourd¹hui chez les jeunes 
chercheurs qui ne disposent pas de postes sécurisés. Ainsi de ces collègues 
aspirants à un poste ‹ pre-tenure track ‹ aux États-Unis qui, voyant 
approcher le couperet qui décidera s¹ils y accèdent ou non, doivent en 
quelques années « cracher du papier », c¹est-à-dire publier au-delà du 
raisonnable quitte, bien souvent, à mettre en veilleuse leur éthique 
scientifique. L¹activité même des revues s¹en trouve affectée, qui se dotent 
d¹outils publics de mesure « en temps réel » de fréquence de citation ou de 
téléchargement de leurs papiers. Ainsi, fin mai 2008, le quatrième 
most-frequently read article de la revue Politics and Society (éditeur Sage, 
classée dans les indices internationaux) est un article intitulé « Police 
powers and race riots in Paris », nonobstant le recensement par nos soins 
d¹une vingtaine d¹erreurs factuelles ‹ il n¹y a pas eu d¹élections 
législatives en France en 1985, non pas trois mais deux morts en 2005, etc. 
‹ dont trois dans la présentation de l¹article immédiatement disponible sur 
le site de la revue. Ironie de la bibliométrie : si la communauté ne repère 
pas ces erreurs, l¹article est fréquemment cité ; si elle les repère, il le 
sera plus encore [5].

De manière générale, des indices élevés peuvent tout à fait masquer des 
situations de forte stérilité scientifique, de reproduction de l¹existant, 
sur lesquels les collègues s¹appuieront d¹autant mieux dans leurs propres 
citations que la production conforte en retour soit leur propre inertie, 
soit leur innovation. De plus, un excellent indice masque les voies de 
garage, les voies non ou mal exploitées, les manques des labos en question, 
sous l¹apparence d¹une production florissante.

Aujourd¹hui, les voies de résistance sont étroites, mais depuis longtemps 
clairement dessinées. D¹abord, l¹outil bibliométrique doit être circonscrit 
et circonstancié : il doit être un des éléments d¹appréciation des 
collectifs, laquelle doit toujours être qualitative. L¹évaluation passe par 
la lecture des contributions, puis la restitution et la délibération autour 
de leurs mérites scientifiques. Demander au chercheur ou au laboratoire de 
fournir un ensemble de trois ou quatre publications qu¹ils estiment les plus 
intéressantes, leur demander de montrer en quoi, à leurs yeux, elles le 
sont, permet d¹engager un vrai dialogue sur l¹activité scientifique telle 
qu¹elle est menée au sein du collectif ‹ sans négliger, pour autant, le 
repérage des problèmes ou des chercheurs problématiques. Mais le filtre 
premier reste le collectif et la finalité première l¹activité scientifique.

L¹évaluation (au-delà ou sans bibliométrie) doit ensuite être 
scientifiquement légitime, c¹est-à-dire conduite par des chercheurs 
méritants et innovants. Le panachage de l¹élection et de la nomination en 
est le meilleur garant. L¹évaluation de l¹individu ne doit être séparée de 
celle de son unité : ce sont des collectifs qui produisent la science, et 
l¹un ne peut être mené sans l¹autre (la loi précise aujourd¹hui, à rebours 
de cela, que l¹évaluation des unités est menée par l¹Aeres, celle des agents 
par le cn-cnrs). Enfin, l¹évaluation doit être délibérative, publique et 
ouverte à une procédure d¹appel, qui permette au laboratoire ou au chercheur 
de contester les résultats de cette évaluation. Souligner ces points 
d¹ingénierie bureaucratique de l¹évaluation permet de saisir combien le 
combat engagé pour une évaluation au service de la science et de 
l¹innovation prend aujourd¹hui les allures d¹une guerre de tranchées ; ce 
d¹autant que le gouvernement refusant de prendre une loi sur ces 
dispositions, l¹essentiel de la réforme de la recherche publique est 
aujourd¹hui soustrait à la discussion parlementaire, c¹est-à-dire à 
l¹évaluation par la société elle-même.

Georges Debrégeas, physicien au cnrs, est vice-président de Sauvons la 
recherche. Fabien Jobard, politiste au cnrs, est élu au Comité national, 
Syndicat national des chercheurs scientifiques. Cet article paraîtra dans le 
n°44 de Vacarme, en librairie le 18 juin, au sein d¹un dossier sur cette 
grande fièvre évaluatrice qui a saisi tous les domaines de la vie, du savoir 
au travail, du privé au public, du physique au psychique, et sur les 
manières d¹y faire face.

[1] On ne peut, faute de place ici, exposer dans le détail les répertoires 
argumentatifs des partisans de la destruction des organismes existants. On 
renverra néanmoins le lecteur aux chroniques d¹Alain Perez, journaliste aux 
Échos affecté aux questions scientifiques, qui propose, à défaut d¹un 
journalisme d¹information, un journalisme d¹anticipation dont la seule mais 
systématique vertu est de renseigner avec une grande exactitude sur les 
réformes gouvernementales à venir.

[2] Pour une critique de ces effets au-delà de la seule recherche, voir « Le 
gouvernement des conduites. L¹expérience blairiste du pouvoir », entretien 
avec Patrick Le Galès et Florence Faucher-King, Vacarme, 38, hiver 2007, p. 
57-61.

[3] Une partie d¹entre eux est accessible au public comme 
www.webometrics.info/top1000_r&d.asp 
<http://www.webometrics.info/top1000_r&d.asp> ou 
http://scholar.google.fr. Si la lecture des rangs ou indices est immédiate, 
celle des modalités de construction des échelles est nettement plus longue, 
cause de redoublement du pouvoir magique du chiffre.

[4] Le facteur h fonctionne comme un indice synthétique de deux échelles 
croisées, tel que h = 12 signifie que le chercheur compte douze articles 
cités douze fois.

[5] Au passage, la publication d¹un article scientifique présentant un taux 
d¹erreur démesuré au regard, par exemple, de la page Wikipedia anglophone 
consacrée au même sujet (les émeutes françaises de 2005), montre à quel 
point les sciences sociales américaines, loin d¹être le lieu de production 
de cette science internationale tant vantée, sont des sciences éminemment 
locales. Ne pas faire relire un article sur la France à un chercheur 
français ou un chercheur travaillant sur la France est une faute 
scientifique que peu de revues européennes de sciences sociales commettent.

__________________________
Source TERRA : http://www.vacarme.org/article1600.html


9. "Critères d'identification des chercheurs et enseignants-chercheurs 
"publiants" ", AERES 06.03.2008

Doc d'origine en PDF : 
http://www.aeres-evaluation.fr/IMG/pdf/Criteres_Identification_Publiants.pdf


  
 L¹activité d¹une unité de recherche fait l¹objet d¹une appréciation 
qualitative, fondée principalement sur l¹évaluation par les pairs, complétée 
par un certain nombre d¹indicateurs aussi objectifs que possible. A 
l¹estimation globale de la qualité de la production scientifique et du 
rayonnement d¹un laboratoire, s¹ajoute la prise en considération de 
l¹organisation et de la répartition des travaux entre ses membres. L¹un des 
indicateurs est une estimation de la proportion des chercheurs et 
enseignants-chercheurs "publiants".  

Est considéré comme chercheur ou enseignant-chercheur « publiant », celui 
qui, dans le cadre d'un contrat quadriennal, satisfait à un nombre minimal 
de « publications ». Ce nombre est à pondérer en fonction du contexte défini 
par sa situation dans la carrière et son engagement dans des tâches 
d¹intérêt collectif pour la recherche. La mesure chiffrée de cette 
production est complétée par d'autres indicateurs tels que : le rayonnement 
scientifique (la possibilité de sa mesure à partir du nombre total de 
citations des travaux, ou d¹indices comme le facteur H, sera testée au fur 
et à mesure que seront constituées des bases bibliométriques pertinentes 
pour les différents domaines, notamment celles incluant les ouvrages en 
SHS), la participation active à des réseaux et programmes nationaux et 
internationaux, la prise de risque dans la recherche (notamment aux 
interfaces disciplinaires), l'ouverture vers le monde de la demande sociale, 
les responsabilités dans la gestion de la recherche (nationales, 
internationales) ou dans la publication de revues (rédacteur en chef) ou de 
collections internationales (directeur), l'investissement dans la diffusion 
de la culture scientifique, la recherche appliquée ou l¹expertise.

Le poids relatif des différents types de "publication" est propre à chaque 
discipline. Les appréciations de chaque support de publication scientifique 
et des formes de contribution à la recherche sont différenciées en fonction 
des pratiques de chaque communauté disciplinaire. Un chercheur ou un 
enseignant-chercheur est considéré comme publiant si sa production 
scientifique de rang A est au moins égale en quatre ans à celle apparaissant 
dans le tableau suivant :

  
 Secteur  Chercheur  Enseignant-Chercheur  
 Mathématiques  2
  2
   
 Physique, Chimie, Sciences de la Terre et de l¹Univers 4
  2
   
 Sciences pour l¹Ingénieur, Sciences et Technologies
de l¹Information et de la Communication 3
  2
   
 Sciences du Vivant  4
  2
   
 Sciences de l¹Homme et de la Société 4
  2
   
Remarque : Un enseignant-chercheur est considéré ici sous cette appellation 
s¹il satisfait à ses obligations statutaires d¹enseignement. La même 
remarque s¹applique à tous les personnels ayant des obligations statutaires 
de service (exemple les tâches d¹observation du corps des astronomes et 
physiciens).

Est considéré comme une production scientifique de rang A :
- une publication dans une revue internationale avec comité de lecture (ou 
une revue considérée
comme de très bon niveau par la communauté dans certaines disciplines),
- un chapitre d¹ouvrage ou un ouvrage de recherche reconnu 
internationalement (ou de portée
nationale en SHS),
- pour le secteur STIC ou SHS, un article long dans un congrès international 
à comité de sélection
considéré comme sélectif par la communauté,
- pour le secteur SHS, la constitution de bases de données accessibles ou de 
corpus de référence, les
éditions critiques
- un brevet déposé à l¹international.

Il est clair que la participation à des colloques est un indice de 
l¹activité scientifique mais la très grande
variabilité qualitative de l¹évaluation des actes des colloques ne permet 
pas de les retenir comme élément
pertinent d¹appréciation.

Quelques remarques permettant de tenir compte du domaine et du contexte : 

1) Dans le secteur Mathématiques, les directions de thèses peuvent, dans 
certains cas, être prises en compte dans l¹appréciation de la production 
scientifique du chercheur.

2) Dans le secteur des Sciences de la Vie, de la Santé et de 
l¹Environnement, l¹AERES est sensible à la notion de prise de risque dans la 
recherche, et analysera chaque cas ne répondant pas aux critères. Ainsi, 
alors que trois publications dans des journaux d'impact moyen suffisent pour 
une activité standard, une publication dans Nature, Cell ou Science va 
suffire à cataloguer le chercheur ou enseignant-chercheur comme publiant. De 
même la place en premier auteur dans un journal d'audience importante (J. 
Biol. Chem., Nature, Science, EMBO J., ...) peut suffire à classer le 
chercheur ou l'enseignant-chercheur comme publiant. 

3) Pour tenir compte de la diversité des publications dans le secteur SHS, 
la liste ci-dessous donne à titre indicatif des équivalences possibles de 
publications, selon les disciplines: 
‹ Un article dans une revue à comité de lecture (ou considérée comme de très 
bon niveau par la communauté) est évalué selon la difficulté d¹accès à la 
publication et le nombre des co-auteurs. Ce type de revues implique une 
procédure explicite de sélection et de révision des articles; n¹entreront 
dans ce décompte que les revues de portée internationale ou nationale ; une 
liste établie avec le concours de la communauté scientifique, comportant, 
lorsqu¹un consensus peut être construit, une classification en trois 
catégories (internationales, nationales et locales ou professionnelles) sera 
affichée et révisable. Les articles publiés dans des revues locales ou 
professionnelles sont comptabilisés, tantôt au titre de la recherche, tantôt 
au titre de la diffusion de la culture scientifique ou de la valorisation 
selon les disciplines.
‹ Un bon ouvrage scientifique de recherche ou d¹érudition est une 
publication de rang A (les éditions critiques, les manuels, traités, précis, 
essais, compilations sont appréciés au cas par cas). La direction d¹ouvrages 
collectifs est comptabilisée dans les disciplines où elle est une forme de 
production 
essentielle.
‹ Une communication à un colloque ou un congrès ne peut pas être comptée 
deux fois si elle est publiée par ailleurs.

4) La valorisation des résultats de recherche comme par exemple le dépôt de 
brevets, le développement ou la diffusion de logiciels, l'appartenance 
active à des laboratoires communs public-industriel, la participation à la 
création d'entreprises seront prises en compte.

5) Les prises de responsabilités scientifiques ou administratives 
importantes peuvent compenser une production scientifique modeste.

6) Pour les collègues récemment nommés, il faut bien sûr considérer la date 
de nomination pour apprécier la production scientifique.

_________________________
Source TERRA : 
http://www.aeres-evaluation.fr/IMG/pdf/Criteres_Identification_Publiants.pdf

-- 
Ce message a été vérifié par MailScanner <http://www.mailscanner.info/> 
pour des virus ou des polluriels et rien de 
suspect n'a été trouvé.

Appel (permanent) du réseau TERRA  à ouvrir un chantier national de 
recherche, débat et réflexion 
sur les orgines des nationalismes, xénophobies et discriminations et les 
causes de leurs 
exacerbations périodiques dans l¹histoire de l¹humanité

6402 signataires... et vous ? et vous  ? et vous ?
SIGNEZ ICI : http://terra.rezo.net/article602.html

-------------------------------------------------
Une diffusion faite sur [TERRA-Quotidien] vous informe de l'existence dans  
l'espace 
public (sur un site web, un journal, une autres liste de diffusion ou 
discussion...), 
d'un texte ou document susceptible de vous intéresser.

Elle ne signifie pas que la personne de l'équipe éditoriale qui assure cette 
diffusion, 
le modérateur qui la valide ou le réseau TERRA qui gère ce dispositif 
partage le 
contenu politique du texte dont l'existence vous est signalée.

Nous faisons attention aux "effets d'opinion" que produisent nos diffusions 
en cherchant
à en réguler collectivement les tendances mais le principe qui prévaut est 
celui du 
pluralisme et d'une information la plus complète possible d'abonnés tenus 
pour doués 
d'esprit critique.

Les modérateurs valident les messages envoyés par les abonnés en fonction 
des contenus 
(au regard des centres d¹intérêts du réseau TERRA), du soin donné à la 
présentation 
des messages (au regard du Guide de diffusion : 
http://terra.rezo.net/rubrique131.html) 
et des flux quotidiens et mensuels de messages (au regard des capacités 
estimées de 
réception et lecture des abonnés de la liste). 

L'Equipe Editoriale  : Khadidja ATTOU - Pascale ARRAOU - Eric CARLIER - 
Claire BRIDE 
- Charlotte DE LAUBIER - Estelle D¹HALLUIN - Estelle DURAND - Claire 
ESCOFFIER - 
Jane FREEDMAN (Modérateur) - Dominique ISSELIN - Jamila LAMANI - Narguesse 
KEYHANI - Jacques 
LOBJOIT - May MAALOUF - Fabienne MESSICA - Jean Claude OULAI - Franck 
PINAY-RABAROUST - Amandine POIRSON - Claire RICHARD Gwénola RICORDEAU - 
Roselyne ROCHEREAU - Jérôme VALLUY (Modérateur) - Laurent VANNINI
-------------------------------------------------
ABONNEMENT/DESABONNEMENT, ARCHIVES...   
http://listes.cines.fr/info/terra
-------------------------------------------------
AIDE et RECLAMATIONS :    groupe.de.pilotage at terra.lautre.net






























------ Fin du message transféré

-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://listserv.linguistlist.org/pipermail/parislinguists/attachments/20080925/da8fbd1e/attachment.htm>


More information about the Parislinguists mailing list