ПРНД
« previous entry | next entry »
Oct. 2nd, 2007 | 10:52 pm
у нас пытаются внедрить h-number.
Chers collègues,
Nous apprenons par la direction de notre laboratoire la mise en place,
par le CNRS et dans le cadre de sa mission d'évaluation, d'une fiche
individuelle contenant des "indicateurs" bibliométriques, dont le fameux
"h-number".
Cette nouvelle nous surprend, et pour tout dire elle nous inquiète.
Elle nous inquiète d'abord parce que d'autres organismes de recherche
ont considéré l'utilisation de techniques bibliométriques, et, les
ayant préalablement évaluées (voir http://) se sont aperçu de
l'impossibilité de calculer de façon fiable les valeurs de ces
"indicateurs" "bibliométriques", qui ne mesurent donc rien de précis.
Elle nous inquiète encore parce que la même étude montre
l'impossibilité qu'il y a à tirer quelque élément d'analyse ou de
comparaison que ce soit de ces valeurs, très variables selon les
domaines, facilement corrompues par des effets de manipulation. Cette
remarque vaut au moins pour l'informatique, et a fortiori quand on
compare différents domaines scientifiques. Ces "indicateurs" n'indiquent
donc rien d'utilisable.
Elle nous inquiète enfin parce qu'elle substitue à une analyse en
profondeur, intelligente et contradictoire de la production scientifique
l'arbitraire réducteur d'un simple nombre d'ores et déjà décrédibilisé.
L'évaluation est un passage obligé et important du travail de
recherche. C'est le pendant d'un statut autorisant un large degré
d'initiative professionnelle. C'est également un moment enrichissant,
le moment de voir reconnaître ses succès, mais aussi de se soumettre,
individuellement ou collectivement, à une critique constructive.
En bref, nous avouons notre incompréhension. Le CNRS dispose d'une
politique d'évaluation intelligente, rigoureuse, réfléchie, réalisée
par des pairs reconnus, au vu de documents détaillés. Pourquoi
ajouter à ceci des indicateurs dont la valeur et la fiabilité sont
contestables ? Quelque mince que soit l'utilisation qui en sera faite,
ce sera leur accorder trop d'importance, et jettera le discrédit sur
l'ensemble du processus d'évaluation.
Pour toutes ces raison, nous avons décidé de ne pas fournir les
"indicateurs" bibliométriques demandés qui sont clairement incompatibles
avec le maintien d'un processus d'évaluation rigoureux, contradictoire,
capable de prendre en considération la complexité et la diversité des
situations individuelles. L'évaluation est une chose trop sérieuse pour
être confiée à des "indicateurs".
Chers collègues,
Nous apprenons par la direction de notre laboratoire la mise en place,
par le CNRS et dans le cadre de sa mission d'évaluation, d'une fiche
individuelle contenant des "indicateurs" bibliométriques, dont le fameux
"h-number".
Cette nouvelle nous surprend, et pour tout dire elle nous inquiète.
Elle nous inquiète d'abord parce que d'autres organismes de recherche
ont considéré l'utilisation de techniques bibliométriques, et, les
ayant préalablement évaluées (voir http://) se sont aperçu de
l'impossibilité de calculer de façon fiable les valeurs de ces
"indicateurs" "bibliométriques", qui ne mesurent donc rien de précis.
Elle nous inquiète encore parce que la même étude montre
l'impossibilité qu'il y a à tirer quelque élément d'analyse ou de
comparaison que ce soit de ces valeurs, très variables selon les
domaines, facilement corrompues par des effets de manipulation. Cette
remarque vaut au moins pour l'informatique, et a fortiori quand on
compare différents domaines scientifiques. Ces "indicateurs" n'indiquent
donc rien d'utilisable.
Elle nous inquiète enfin parce qu'elle substitue à une analyse en
profondeur, intelligente et contradictoire de la production scientifique
l'arbitraire réducteur d'un simple nombre d'ores et déjà décrédibilisé.
L'évaluation est un passage obligé et important du travail de
recherche. C'est le pendant d'un statut autorisant un large degré
d'initiative professionnelle. C'est également un moment enrichissant,
le moment de voir reconnaître ses succès, mais aussi de se soumettre,
individuellement ou collectivement, à une critique constructive.
En bref, nous avouons notre incompréhension. Le CNRS dispose d'une
politique d'évaluation intelligente, rigoureuse, réfléchie, réalisée
par des pairs reconnus, au vu de documents détaillés. Pourquoi
ajouter à ceci des indicateurs dont la valeur et la fiabilité sont
contestables ? Quelque mince que soit l'utilisation qui en sera faite,
ce sera leur accorder trop d'importance, et jettera le discrédit sur
l'ensemble du processus d'évaluation.
Pour toutes ces raison, nous avons décidé de ne pas fournir les
"indicateurs" bibliométriques demandés qui sont clairement incompatibles
avec le maintien d'un processus d'évaluation rigoureux, contradictoire,
capable de prendre en considération la complexité et la diversité des
situations individuelles. L'évaluation est une chose trop sérieuse pour
être confiée à des "indicateurs".
Comments {5}

From:Date: Oct. 3rd, 2007 - 08:35 am
Link
"if h of his papers have at least h citations each,
and the other N-h papers have at most h citations each"
Там не надо куда-нибудь еще дохлых жаб и кошачьи глаза
добавлять?
Reply | Thread

From:Date: Oct. 3rd, 2007 - 05:55 pm
Link
При всём при том, народу нравится мериться аш-намберами, можно встретить списки по computer science, по физике и т.п. В computer science на вершине списка какие-то сплошные ACM fellows, занимающиеся чем-то полуинжинерным. Первый мне знакомый человек - Pnueli - явно не фдисятке.
Reply | Parent | Thread

From:Date: Oct. 12th, 2007 - 11:53 pm
Link
Reply | Parent | Thread

From:Date: Oct. 13th, 2007 - 12:24 pm
Link
есть скрипт, который может рассчитать h-number конкретного человека, используя данные из Google Scholar:
http://hview.limsi.fr/
Естественно, много обсуждений по поводу индекса у известных людей (в основном физиков). Известно, что у Виттена, например, 110. Зато у Фейнмана получается довольно низкий показатель (35):
http://units.sla.org/division/dpam/p
Reply | Parent | Thread

From:Date: Oct. 16th, 2007 - 12:09 am
Link
Reply | Parent