И лучшие ученые могут быть плохими рецензентами
("Frankfurter Allgemeine Zeitung", Германия)
Йоахим Мюллер-Юнг (JOACHIM MÜLLER-JUNG)

© РИА Новости Михаил Воскресенский
24/10/2013
Коллективный сбой? То, что отличает хороших исследователей от плохих, вряд ли можно надежно оценить при помощи системы цитирования, факторов влияния и рецензий коллег.
Основываясь на голом числе публикаций, вряд ли можно определить, что наука в кризисе. Согласно статистическим данным, каждые 20 секунд публикуется одна научная статья. Тот, кто знает, сколько работы уходит на одну публикацию с участием нескольких авторов, скажем, по астрофизике или молекулярной биологии, тот удивится такой высокой продуктивности, особенно если исходить из хорошего качества работ. Отделять зерна от плевел – это, скажете Вы, рутина для ученых. Также как можно было бы предположить, что апелляционные комиссии, спонсорские организации и жюри конкурсов довольно просто могут отличить хорошего ученого от середнячка. Но не тут-то было.
Если коснуться дискуссий последних лет о том, как можно надежнее всего измерить качество публикуемых материалов, быстро возникают сомнения. И виновен в этом не только поток новых сомнительных журналов, большинство из которых не имеют открытый доступ и обещают потенциальным авторам и спонсорам быструю - и якобы гарантирующую защиту качества - публикацию материалов. Если коснуться вопроса о том, достиг ли своего предела метод рецензирования работ как надежный инструмент, использующийся на протяжении веков, тут же закрадываются сомнения. С одной стороны, все чаще попадаются такие случаи как с физиком-обманщиком Яном Хендриком Шеном (Jan Hendrik Schön), который более десяти лет публиковался в признанных журналах Nature и Science и, по всей видимости, сумел обойти все механизмы безопасности. Есть также статьи, которые в первые недели после публикации активно цитируются, а спустя год будто забываются, потому что их тезисы опровергаются. Но есть и оригинальные статьи, например, Грегора Менделя (Gregor Mendel), которые на протяжении нескольких лет будто не замечаются, но, в конце концов, приводят к смене парадигмы в науке. Другими словами: Распознать, что является выдающейся статьей, - это тяжелейшая работа в научной сфере. Потому что, в конце концов, от этой оценки зависит не только слава и размер гонорара отдельного исследователя, но и целые институты с сотнями или тысячами сотрудников.
То, что введение различных статистических, то есть библиометрических методов оценки, например, факторов влияния журналов и цитируемость не решило в целом проблему, отражается не в последнюю очередь в растущем количестве новых концептов и идей, которые лишь частично исходят из соответствующих дисциплин – библиометрии или наукометрии. Подобный подход появился около десяти лет назад в биологии и позднее в медицине с основанием сайта научных публикаций Faculty of 1000. Несколько тысяч исследователей со всего мира дают определения, оценивают, комментируют, по их мнению, самые важные публикации и создают из них банк данных. Статьи в банке данных могут быть помечены как «рекомендованные», «необходимые к прочтению» или «выдающиеся». По мнению критиков, данный подход является хотя и дополнительным, но субъективным методом оценки.

Наибольшую пользу сайт приносит необязательно благодаря защите качества статей, говорит основатель ресурса F1000 Витек Трач (Vitek Tracz) репортеру издания Science. Это сокровищница. Исследователи из смежных дисциплин ищут в банке данных важнейшие публикации за пределами их профессиональной области. Контроль качества не является моделью бизнеса, потому что основные идеи сосредоточены в новых проектах, таких как F1000Research. За счет быстрой проверки качества редакторами он позволяет быстро публиковать исследования и рецензии на них с указанием имен рецензентов.
Долгие, затяжные и нервирующие методы анонимного рецензирования, а авторы отзывов, как правило, являются конкурентами в этой сфере, отпадают. Вместо того, говорится в блоге F1000, некоторые статьи сразу оцениваются в банке несколькими рецензентами, что должно положительно сказаться на качестве.
Но действительно ли все так происходит? Двое ученых решили опробовать этот метод и проверить альтернативные методы оценки. Биолог Адам Эйр-Волкер (Adam Eyre-Walker) из университета Сассекса в Брайтоне вместе со своей коллегой из Ганновера Ниной Столецки (Nina Stoletzki) взяли для исследования 5811 публикаций, находящихся с 2005 года в банке F1000. Более 1300 статей были рецензированы более чем одним ученым. Также для исследования были взяты 716 докладов из британского банка Welcome Trust, которые также подвергались рецензированию после публикации в классических журналах. Список цитируемости каждой из более 6500 статей в течение шести лет после их опубликования прослеживался при помощи Google Scholars. Результат: «Ни один из рассмотренных критериев оценки не является надежным. Прежде всего, субъективный метод оценки, осуществляемый коллегами, таит в себе много ошибок и является дорогостоящим». Другими словами: Эксперты всегда допускают ошибку, когда им приходится оценивать значение труда своего коллеги. Если двое высокоуважаемых коллег оценивают одну и ту же статью, они максимум в половине случае приходят к одному и тому же результату. «В статистическом плане это не лучше, чем случайное совпадение», - таково резюме обоих исследователей в их работе, опубликованной в Plos Biology.
Цитирование в других статьях также не является лучшим методом оценки. То, как часто одна статья цитируется в течение многих лет, представляет собой в массе своей стохастический процесс. То есть случай определяет, будет ли у статьи молниеносный старт. Многое зависит от того, в каком журнале появляется статья, в какое время, из какого региона автор, говорит ли он по-английски, мужчина или женщина – количество факторов, играющих свою роль, безгранично. Ни один из них не коррелируется с частотой цитирования. И оценил ли рецензент статью как «рекомендованную к прочтению» или «выдающуюся», роли здесь не играет.
Интересен пример американской инициативы San Fransisco Declaration of Research Assessment, в которой некоторое время назад институтам были рекомендованы к использованию именно эти два слабых критерия оценки – субъективное рецензирование и цитируемость. Предостережения высказывались, напротив, относительно фактора влияния журналов. Он измеряет, как часто статьи из определенного журнала цитируются в других изданиях в соотношении к общему количеству публикаций. Материалы, публикуемые в уважаемых журналах с большим фактором влияния, обладают научным весом, поскольку препятствия при публикации довольно высокие. Фаза отбора материала является существенным и довольно жестким критерием.
В исследовании обоих биологов фактор влияния журнала рассматривается как самый содержательный из трех критериев оценки, но вместе с тем как недостаточный. «Многие журналы получают более высокий фактор влияния за счет положительных откликов». Кто уже однажды оказался на верхних строчках, получает больше претендентов на публикации, но не обязательно лучшие публикации. Оценит ли исследователь высоко работу своего коллеги, больше зависит от фактора влияния определенного журнала, а не от долгосрочного эффекта научного исследования. Основной итог работы Эйр-Волкера и Столецки: «Исследователи, вероятно, лучше всего годятся для оценки научных работ, но сами они в них не особо плодотворны».
Оригиналпубликации: Auch die besten Wissenschaftler sind schlechte Gutachter
Опубликовано: 23/10/2013 17:01
Комментарии
Комментарий удален модератором
Комментарий удален модератором
Даже так: публикация непременно не имеет качества ЗАРАНЕЕ. Ее качество не может оценить никто и ничто - разве только время. Цитируемость определяет не качество публикации, а популярность тематики этой публикации. Отношения между учеными одного направления натянуты - они ревнивы, недоброжелательны, если не враждебны. Рецензент всегда недостаточно квалифицирован (хотя бы потому, что, вообще говоря, новая публикация означает новое явление - открытие, большое или малое, в котором не автор мало что понимает). Резенизирование нужно только для придания изданию искусственного климата "хорошести" с целью привлечь не столько ученых, сколько покупателей. "Качественный" журнал, как все знают, хвастает тем, что отвергнуты 85 или 93% предложенных рукописей!!!
Вот почему (и по миллиону иных причин) рецензирование следует вообще запретить. Пусть рецензируют, кому захочется, уже опубликованную работу. Согласно авторскому праву, никто не вправе пользоваться авторским трудом - само собой, никто не вправе его читать, пока "его нет", т.е. пока он не опубликован.
Лучшие - это те, кто знает всё ни о чем?
Лучшие - это те, кто глубоко углубились в свою знакомую отрасль деятельности и у них нет времени ни для чего другого!
Но, если человек виртуозно пришивает всю свою жизнь пуговицы, то от него не дождаться пользы в исследованиях атома.
И, чаще всего - наоборот, атомщик не сможет виртуозно пришивать пуговицы восемь часов подряд и каждый день.
Дальше продолжать?
А юмор в том, что рецензию, как правило, просят на новую разработку.
Новое - это всегда за пределами отрасли знаний "лучшего специалиста".
Вот в той же области знаний он мог бы чего-то сказать, но если новое говорит не он, а кто-то, то, значит учёный, к которому обратились за рецензией - уже не лучший?
А этого он себе позволь не могёт!
Вот и даёт отрицательную рецензию.
А положительную может дать только в случае, если рецензируемая работа не передовая и не ставит под сомнение то, что рецензент - лучший по профессии!
Здорово я круг замкнул?
Комментарий удален модератором
Сегодня смотрела "Время" - там шла речь о беседе Путина по поводу имущества РАН - прилично, скажу я вам - отдача какая от такого богатства ?
А ВЫ?
Мне это хорошо знакомо. Когда я начал делать диссертацию один из научных руководителей задолбал требованиями найти ему литературу для литобзора конкретно по моей теме. А литературы такой не было в принципе, потом пришлось существенно расширить тематику поиска, чтобы найти хотя бы чего -нибудь и хотя бы притянуть за уши.
Даже разобщение производителя интеллектуальной продукции от продукта мало что даст.
Мона издать кардинальный АНтиавторский закон, что любые открытия и научные результаты не могут иметь персональной принадлежности - они принадлежат народу и Богу. Но может появиться всякой туфты без рецензирования. Мона ввести уголовную ответственность за научный результат - открытие не подтвердилось - голова с плеч.
Всё равно будет диктат догмата власти что считать наукой, а что нет.
А во власти у нас сплошные идиоты, исключая разве что В.В.Путина.
Информация не поступает в двухслучаях:
1) когда её мизерно мало
2) когда её до неприличия много - приёмник захлёбывается, не успевая перерабатывать
Спасибо
Платон «Седьмое письмо».
----- Михаил Белевцев, заведующий лабораторией иммунологии РНЦП детской онкологии и гематологии, кандидат медицинских наук.............