Российских учёных проверят

На модерации Отложенный

   29.11.12      Σ Боровикова Екатерина | Σ Горбатова Анна | Σ Муравьёва Марина | Σ Огнёв Алексей
   Министерство образования и науки Российской Федерации намерено провести всесторонний аудит сектора исследований и разработок, включая институты РАН, государственные научные организации и высшие учебные заведения, – таким было одно из первых публичных заявлений министра Дмитрия Ливанова. Позднее он сообщил о планах реализовать весной 2013 года проект «Карта российской науки». Цель проекта – определить научные коллективы, работающие на высоком международном уровне, а также перспективные области науки. Критериями отбора лучших учёных будут публикации их работ и цитируемость этих работ коллегами. Предполагалось, что к составлению «карты» привлекут Совет молодых учёных РАН. Выявленным в науке лидерам министерство планирует оказать адресную поддержку.
   STRF.ru не раз поднимал тему финансирования науки, рассказывал о таких инструментах, как федеральные целевые программы, научные фонды, мегагранты и мегапроекты. Предваряя официальную презентацию проекта «Карта российской науки», мы обратились к аналитикам науки, руководителям научных организаций и непосредственно учёным, то есть к тем, кого будут каким-то образом ранжировать, измерять и мониторить. Комментарии согласились дать не все – некоторые учёные считают это пустой тратой времени, ибо уверены, что к их словам чиновники не прислушаются. Мы же считаем, что попытаться донести свою позицию до властей надо, к тому же новое руководство Минобрнауки не раз заявляло об открытости и готовности к диалогу с научным сообществом.
   Ирина Дежина, заведующая сектором экономики науки и инноваций Института мировой экономики и международных отношений РАН, доктор экономических наук:

   Ирина Дежина: «Серьёзная проблема заключается в том, что у нас нет нормального мониторинга реализации различных мер научной политики»

   – Предназначение карты науки – не очень мне понятно, и планы по её использованию пока звучат расплывчато. Я участвовала в ранних совещаниях Минобрнауки на эту тему, но так и не нашла для себя убедительного объяснения, зачем нужно проводить такое ресурсоёмкое мероприятие. При масштабах нашей науки выйти на уровень отдельных коллективов в институтах и понять, чем и насколько хорошо они занимаются, очень сложно. Нужно собрать не только количественные характеристики – допустим, индексы цитирования, данные о патентных заявках и патентах, об участии в конференциях и другие, ставшие уже стандартными, данные, но и качественные, экспертные. Выясняя, сильная это научная группа или нет, нужно руководствоваться разными факторами, вплоть до таких, насколько харизматичен её лидер и в чём состоит его харизма. Теоретически рассуждая, такую работу выполнить можно. Но, во-первых, это займёт массу времени, если этим заниматься не формально. Во-вторых, возвращаясь к началу – зачем это делать? Какие управленческие решения собирается предпринять министерство, получив в своё распоряжение всю эту обширную информацию? Здесь можно только фантазировать. Например, можно принимать решения в отношении не очень работоспособных коллективов. Но что с ними делать? Выгнать всех неэффективных, а эффективных перегруппировать в какие-то отдельные институты? Но это люди, а не предметы, и такие технические «перетасовки» вряд ли возможны без других серьёзных потерь, о которых пока, может быть, даже и неизвестно никому.
   Другое возможное управленческое решение – идентификация и поддержка сильных коллективов (Эту идею выдвинул и обосновал в статье «Кризис среднего возраста» генеральный директор ООО «Парк-медиа», главный редактор STRF.ru Констатин Киселёв. – STRF.ru). Хорошо, но зачем тогда делать карту науки? Выявить лидеров можно, объявив разного вида конкурсы. Но только предварительно следует подумать над тем, как изменить систему экспертизы, чтобы она была более объективной, международной. Может быть, привлечь для этого зарубежных специалистов. Лично я думала бы именно об этом.
   Наконец, на протяжении последних лет в России проводятся различные исследования состояния научного потенциала, в том числе по лотам Министерства образования и науки РФ. Где эти результаты? Почему ими нельзя воспользоваться?
   Сколько лет уже говорят о том, что все выполненные по лотам проекты будут выложены на сайте Минобрнауки, чтобы все желающие могли ознакомиться с результатами. Если нет результатов, которыми можно было бы воспользоваться, то надо выяснить, почему это произошло.
   Серьёзная проблема заключается в том, что у нас нет нормального мониторинга реализации различных мер научной политики. Ведь когда заканчиваются какие-то проекты или программы, очень сложно сказать, получилось ли то, что задумывалось, продолжать ли эту меру и в каком формате, что именно надо скорректировать. Мне знакомы единичные случаи таких глубоких оценок. Я всячески поддерживаю мониторинг – он должен быть обязательно, но для оценки мер политики, чтобы в них была последовательность и логика. Тогда, наверное, сама идея составления разовой карты науки не будет возникать.
   Алексей Хохлов, проректор Московского государственного университета имени М.В. Ломоносова, заведующий кафедрой физики полимеров и кристаллов физического факультета МГУ, заведующий лабораторией физической химии полимеров ИНЭОС РАН, академик РАН:

   Алексей Хохлов: «Наши подходы к составлению “карты российской науки” были предложены Минобрнауки РФ»

   – Составление «карты российской науки» – довольно интересный проект министерства, направленный на декларируемый (но пока не воплощённый на практике) принцип точечной поддержки отдельных научных групп, а не организаций. Да и реализация этого проекта не представляет особой сложности. Чтобы выявить лучшие научные коллективы и учёных мирового уровня, достаточно провести анализ их публикационной активности в высокорейтинговых международных журналах, а также анализ цитирования их статей коллегами. Последний, по инициативе физика Бориса Штерна, с 2001 года ведётся в рамках проекта «Кто есть кто в российской науке». Фактически один только анализ «списков Штерна» уже даст достаточно хорошее первое приближение для «карты».
   Для получения более точной картины необходимы новые подходы. Упомяну лишь две проблемы, с которыми неизбежно придётся столкнуться, анализируя «списки Штерна» или списки, полученные непосредственно из ведущих международных баз данных Web of Science или Scopus: а) очевидно, что поддерживать надо прежде всего группы, работающие в России, а не учёных, которые работают за рубежом и лишь сохраняют российскую аффилиацию; б) необходимо вычленить и справедливо учесть вклад в российскую науку так называемых коллабораций, публикующих практически в еженедельном режиме статьи в ведущих журналах с сотнями соавторов (такая картина особенно характерна для физики высоких энергий).
   С моей точки зрения, при решении подобных проблем важнейшим принципом является заявительный порядок саморегистрации научных групп. Члены таких групп могут работать в разных организациях, важно, чтобы они чувствовали себя единым коллективом, решающим определённый круг научных задач. И здесь ключевую роль играет удобный компьютерный интерфейс для онлайн-регистрации заявленных групп и последующего анализа введённой информации. Наработки по созданию такого интерфейса есть в Московском университете: это запущенная в 2012 году компьютерная система «Наука – МГУ» (старое название ИСТИНА), созданная в нашем Институте механики под руководством Валерия Васенина. Она сопряжена с автоматически обновляемой программой сравнения публикационной активности не только отдельных сотрудников, но и различных факультетов, институтов, кафедр.
   Наши подходы к составлению «карты российской науки» были предложены Минобрнауки России: МГУ участвовал в конкурсе по лоту 2012-2.1-14-521-0020 на выполнение НИР по теме «Формирование системы оценки и мониторинга результатов научно-исследовательской деятельности организаций и учёных для регулярной оценки состояния сферы науки», но в нём победила компания PricewaterhouseCoopers. Несмотря на то, что МГУ предложил цену практически в два раза ниже (50 миллионов рублей при заявленной стоимости работ 100 миллионов). Конкурсная комиссия сочла, что у нас недостаточная квалификация по теме лота*. Мы желаем упомянутой компании успеха. Посмотрим, удастся ли ей справиться с поставленной задачей.
   Важен и ответ на вопрос: для чего составляется «карта российской науки»? Если для того, чтобы выявленные научные коллективы и учёные – лидеры особым образом поощрялись, то здесь хотелось бы видеть прозрачную конкурсную процедуру получения соответствующих грантов, а не механизм пресловутых «лотов».
   Елизавета Бонч-Осмоловская, заместитель директора Института микробиологии РАН, заведующая лабораторией гипертермофильных микробных сообществ, доктор биологических наук:

   Елизавета Бонч-Осмоловская: «Что касается критериев оценки, то многое зависит от области науки»

   – Инструменты, используемые при составлении карты, мне остались непонятными. Я увидела длинный список патентов и число статей в реферируемых журналах по годам, причём по институтам. (Я посмотрела только свой институт, не найдя, кстати, себя как замдиректора.) Во-первых, почему патенты, если речь идёт об академической науке? Во-вторых, таким образом можно, наверное, выявить уж совсем никудышные заведения, но никак не мировые лидеры. В-третьих, как мне кажется, важнее говорить не об институтах, а о лабораториях. Всем известно, насколько инерционна и тяжеловесна система РАН, и институт может иметь приличное лицо за счёт работы двух–трёх лабораторий мирового уровня, а остальные десять за их спиной будут вести привычный расслабленный образ жизни, абсолютно не опасаясь за своё будущее. Нет грантов – и не надо, а для отчётов сгодятся и публикации в российских журналах, рецензируемые «в своём узком кругу». Так что, возвращаясь к карте, она, может быть, и нужна, но этого явно недостаточно.
   Что касается критериев оценки, то многое зависит от области науки. В динамичных, быстро развивающихся и сильно конкурентных областях прекрасно подойдут цифровые показатели, характеризующие уровень публикаций. Это внешняя экспертная оценка, которой можно доверять. Уже 10 лет существует программа «Молекулярная и клеточная биология», поддерживающая лаборатории, отбираемые на основании формальных показателей, и результаты, по-моему, замечательные: люди успешно работают в России, число высокорейтинговых публикаций и молодёжи в лабораториях растёт.
   А вот в классических разделах, где люди спокойно и любовно возделывают всю жизнь своё небольшое поле, публикуясь в не престижных российских журналах и делая их тем самым очень достойными, – там, наверное, нужно путём опросов выявлять национальных лидеров.
   Почитав прессу, я увидела, что Минобрнауки собирается делать ставку на молодёжь, и даже в роли эксперта будет выступать Совет молодых учёных РАН. Это, по-моему, неправильное решение. Во-первых, молодым учёным ещё самим учиться и учиться, а у кого, если «старых» вытеснят? Во-вторых, будущие крупные учёные в молодости не вылезают из лаборатории, а не заседают по советам. Там, наверное, будут хорошие, неравнодушные люди, но будут и те, кто решил таким образом сделать административную, а не научную карьеру; о профессиональном уровне вообще судить невозможно, по крайней мере, в экспериментальных областях науки, где он проявляется годам к 40 (я имею в виду уровень мирового класса).

Так что, мне кажется, такая стратегия будет ошибкой.
   Экспертами можно считать людей с максимальными формальными показателями, причём за последние, скажем, пять или десять лет, в «классической науке» – по опросам, как это делается в «Корпусе экспертов».
   Сергей Дмитриев, старший научный сотрудник НИИ физико-химической биологии имени А.Н. Белозерского МГУ имени М.В. Ломоносова, кандидат биологических наук:

   Сергей Дмитриев: «Унифицированными критериями руководствоваться нельзя, иначе всё будет “хоть и единообразно, зато безобразно”»

   – Такое решение можно только приветствовать! Странно, что идея рейтинга отечественных лабораторий по объективным научным показателям до сих пор никем не была осуществлена. Конечно, сделать это будет не просто – но эта работа нужна нашей науке как воздух! Как представитель естественно-научного направления (я молекулярный биолог), считаю уровень публикаций и их цитирование главным критерием, позволяющим оценить эффективность работы учёного-естественника. Это ведь, по сути, и есть количественное выражение того, насколько работа учёного востребована коллегами, насколько она полезна для современной науки.
   Однако совершенно ясно, что в других областях (гуманитарные и точные науки), а также в прикладных исследованиях критерии должны быть иными. Да и с цитированием не всё так просто: нельзя «ровнять всех под одну гребёнку». Дело в том, что абсолютные показатели импакт-факторов журналов и цитирования статей сильно разнятся по областям знания – причём даже в одной более-менее узкой дисциплине (например, в физико-химической биологии) есть разделы, в которых средние показатели цитируемости сильно выше или ниже, чем в других. Но это не означает, что критерии оценки в принципе нельзя выработать. На самом деле ведь каждый учёный, работающий в той или иной области, прекрасно знает, кто из коллег «круче» него, а кто – посредственность. Давно существуют отработанные алгоритмы, которые позволяют учесть все эти нюансы. Например, в МГУ с этого года работает очень неплохая система учёта и оценки публикаций – ИСТИНА. С её помощью среди всех публикаций, сделанных сотрудниками МГУ, выбираются те, которые попали в «топ 25%» научных журналов – причём для каждой узкой области науки абсолютные значения «порогов» импакт-фактора свои. Если министерская система будет основана на подобных принципах, то учёные, работающие в естественно-научных дисциплинах, скоро смогут увидеть, кто из коллег в какой части списка оказался: кто «герой нашего времени», а кто – «лузер». Думаю, рейтинг будет очень полезен не только для выявления лидеров, но ещё и с той точки зрения, что выведет на чистую воду некоторых наших «знаменитых учёных» – высокопоставленных «научных светил» и администраторов, чьи научные достижения на самом деле весьма сомнительны. Понятно, что такие «учёные» сейчас усиленно сопротивляются введению этой системы. Гениальные работы, опередившие время и потому не востребованные современниками, действительно бывают. Но нельзя строить систему оценки «массовой» науки, ориентируясь на единичные случаи типа Перельмана.
   По этой причине я считаю, что при оценке эффективности работы лабораторий министерство должно опираться не на субъективное мнение каких-то «признанных экспертов» (тем более отечественных, подчас связанных друг с другом «круговой порукой»), а на общепризнанные мировые критерии и международные инструменты, хорошо зарекомендовавшие себя в подобных программах. Если речь идёт о статьях, импакт-факторах журналов, цитировании и т.п. – то это прежде всего базы данных Web of Science и Scopus. Если прибегнуть к этому инструменту, то необходимость в дополнительной экспертизе отпадает: ведь каждую опубликованную работу научное сообщество уже оценило дважды – в первый раз, когда редактор и два-три рецензента допустили её к публикации в научном журнале соответствующего ей уровня (что выражается в импакт-факторе журнала), и во второй раз – когда опубликованные данные демонстрируют востребованность научным сообществом (что выражается в цитировании статьи).
   Однако опять же, повторю ещё раз – всё вышесказанное справедливо только для научных групп, проводящих фундаментальные исследования в области естественных наук. Как оценивать математиков, гуманитариев и «прикладников», лучше спросить у них самих. Главное – понимать, что унифицированными критериями руководствоваться нельзя, иначе всё будет «хоть и единообразно, зато безобразно».
   Валерий Рубаков, главный научный сотрудник теоретического отдела Института ядерных исследований РАН, заведующий кафедрой физики частиц и космологии физического факультета МГУ имени М.В. Ломоносова, академик РАН:

   Валерий Рубаков: «Выбирать экспертов для составления “карты науки”, думаю, должны хорошие, сильные российские учёные»

   – Критерий, на мой взгляд, только один – экспертное мнение научного сообщества. Велосипед изобретать тут незачем. В большинстве уважающих себя исследовательских институтов и университетов на Западе есть expert committee (экспертная комиссия) или advisory board (консультативный совет). В основном оценщиков приглашают из-за рубежа – и они высказывают свои соображения: какая команда работает сильно, какая нет, кто на уровне, кто не на уровне.
   Выбирать экспертов для составления «карты науки», думаю, должны хорошие, сильные российские учёные. В своих областях знаний они всем известны, они на виду. Скажем, близкая мне тематика – физика элементарных частиц. Я готов назвать 5–7 человек из разных институтов. Пусть они обозначат международный комитет наблюдателей, а те уже непредвзято разбираются, кто как работает, и дают свои рекомендации. Субъективности в науке, конечно, не избежать, но уважающий себя учёный – россиянин и тем более иностранец – лапшу на уши вешать не будет. Репутация дороже.
   Если будет политическая воля, реализовать эту идею легко. Деньги понадобятся не очень большие. Такие оценщики обычно не за гонорар работают. Хотя средства на оплату их проезда и проживания потребуются.
   В нашей стране подобный комитет в своё время работал в Лаборатории теоретической физики в Дубне. Или вспомним межведомственную программу по физике высоких энергий – сначала в СССР, потом в Российской Федерации. Ход её реализации рассматривал и корректировал международный комитет.
   Я сам вхожу в наблюдательный совет итальянской Международной школы продвинутых исследований (SISSA) в Триесте. Независимые эксперты – не коллаборанты, не друзья, не приятели – приезжают, заслушивают доклады, изучают материалы, встречаются с сотрудниками и постдоками, высказывают свои соображения.
   В наших реалиях всё особенно взвешенно надо делать. Очень легко по итогам такой проверки загробить 99% науки в России.
   Поэтому не так даже важно, кто именно попадёт в список экспертов. Учёных с мировыми именами немало, ошибиться в их выборе сложно. Самое существенное – правильно ставить задачу. От этого зависит результат. Можно оценивать соответствие мировому уровню. Но, по-моему, правильнее выявить точки роста. Где-то сейчас уровень невысокий – молодёжи мало или, наоборот, сплошная молодёжь – но видно, что направление способно развиваться. И, разумеется, должны быть рекомендации общего характера: как развивать организацию науки. У нас пока в этом плане просто каменный век.
   Владимир Разумов, член Президиума Научного центра РАН в Черноголовке, глава муниципального образования «Городской округ Черноголовка», член-корреспондент РАН:

   Владимир Разумов: «За уровень отечественной науки отвечает РАН, и этот уровень оставляет желать лучшего»

   – Вопрос аудита научного сектора – это внутреннее дело министерства, которое финансирует науку, и поэтому министр должен иметь объективную информацию, насколько эффективно используются средства. Другой вопрос – насколько объективно это будет сделано, какой результат ожидает получить заказчик аудита и какую цель он при этом преследует. Совершенно очевидно, что российская наука делается в РАН и переместить её силовым образом в университеты невозможно. Возьмите самый передовой форпост университетской науки – МГУ, он самым тесным образом связан с академией наук. За уровень отечественной науки отвечает РАН, и этот уровень оставляет желать лучшего. Это тоже бесспорно! Реформировать РАН административным образом бесполезно. Действительно нужно создавать условия поддержки передовых научных коллективов, а не больших научных учреждений, путем их категорирования. Да практически в каждом институте РАН есть такие передовые коллективы и за счёт них институт получит соответствующую первую категорию. Нужно шире внедрять грантовую систему. Институт должен содержать инфраструктуру для проведения научных исследований этими передовыми коллективами, но финансирование этой инфраструктуры должно в основном идти через гранты.
   Критерии отбора лучших коллективов общеизвестны. Это публикации, цитируемость и т.д. Какая здесь может быть роль Совета молодых учёных РАН? Для молодых учёных должна быть специальная поддержка и Совет может сформулировать критерии этих программ.
   Алексей Андреев, ответственный секретарь оргкомитета Международного молодёжного научного форума «Ломоносов», член Координационного совета по делам молодёжи в научной и образовательной сфере при Совете при Президенте Российской Федерации по науке и образованию, кандидат биологических наук:

   Алексей Андреев: «У карты есть один недостаток – она констатирует наличие крупных учёных, а их у нас не так много»

   – Мы с воодушевлением отнеслись к решению министерства сделать «карту российской науки». Мы сами уже давно этим фактически занимаемся. Совет организует вручение премий президента для молодых учёных. Сейчас уже идёт пятый цикл премий и практически все наиболее представительные научные школы в списке соискателей есть. Можно говорить о том, что у нас неплохое представление о реальной картине российской науки, имея в виду уровень молодых учёных.
   Уже очень давно – в 2008 году – мы предложили провести перепись молодых учёных. Идея была сделать это в рамках национальной информационно-аналитической системы «Молодые учёные России», чтобы всех их с их публикациями и достижениями собрать в одной базе. По крайней мере тех, кто работает по открытым тематикам. Для чего? У карты есть один недостаток – она констатирует наличие крупных учёных, а их у нас не так много. А такая база позволит управлять наукой, заводить горизонтальные связи между учёными, выявлять наиболее активные направления, соединять их интересы с интересами государства и бизнеса, напрямую направлять финансовые потоки, которые могли бы обеспечить дальнейшее развитие науки. Я говорю не столько о фундаментальной науке, сколько о прикладной.
   К сожалению, системной поддержки такая идея долго не находила – всё же это очень большая работа. Но хорошо, что сейчас хотя бы на идеологическом уровне возникло понимание необходимости «карты российской науки». Если нас привлекут, то мы готовы заниматься этим делом. В такой карте должна быть и вузовская, и частная наука. Она должна давать представление не только о том, кто что делает, но и кто что может делать.
   * Примечание редакции STRF.ru: На решение конкурсной комиссии мог повлиять тот факт, что Минобрнауки хотело бы видеть исполнителем данного проекта совершенно независимую от «внутренней кухни» сектора исследований и разработок и ВПО организацию. Кроме того, проведение аудита предполагает наличие аудиторских компетенций, которые у PwC, вероятно, выше, чем у МГУ.