Вестник РАН, 2021, T. 91, № 12, стр. 1183-1186

О КВАРТИЛЬНОМ РАНЖИРОВАНИИ НАУЧНЫХ ЖУРНАЛОВ

О. В. Михайлов *

Казанский национальный исследовательский технологический университет
Казань, Россия

* E-mail: olegmkhlv@gmail.com

Поступила в редакцию 13.04.2021
После доработки 26.04.2021
Принята к публикации 28.04.2021

Полный текст (PDF)

Аннотация

В статье представлены принципы ранжирования научных журналов по квартилям Q1–Q4. Отмечено, что включение журнала в конкретный квартиль зависит не только от импакт-фактора, но и от научной области, к которой он отнесён в базах данных Web of Science и Scopus, вследствие чего одно и то же издание может присутствовать в разных квартилях. По мнению автора, ранжирование журналов по квартилям носит более объективный характер, чем по значениям импакт-факторов.

Ключевые слова: квартиль, процентиль, цитируемость, журнал, публикационная активность, Web of Science, Scopus.

Особенности нового критерия. В последние годы в наукометрии утвердился критерий оценки научных журналов в рамках “квартильной” системы, которая по замыслу её инициаторов призвана устранить недостатки ранжирования по импакт-фактору, связанные с тем, что в разных областях науки исторически сложились и продолжают использоваться разные подходы к цитированию. Для того чтобы эту разницу нивелировать, руководство базы данных Scopus предложило сгруппировать периодические издания по научным областям, составить соответствующие перечни, а уже в них ранжировать журналы по величинам импакт-фактора (в Scopus этот параметр именуется CiteScore) в порядке убывания последнего. Далее для каждого из журналов остаётся рассчитать так называемый процентиль P с использованием формулы

$P = 100--100 \cdot \left( {n{\text{/}}N} \right),$
где n – порядковый номер журнала в перечне, N – общее число журналов в данном перечне. Полученное при расчёте величины 100 ⋅ (n/N) её значение округляется до ближайшего к нему целого числа, которое вычитается из 100, поэтому и Р всегда оказывается целым числом. С учётом процентиля в каждом из “отраслевых” перечней были выделены четыре категории журналов, или четыре квартиля – от Q1 до Q4. При значении Р в диапазоне 76–99 журнал включается в первый квартиль, то есть Q1, при процентиле 51–75 – в Q2, при 26–50 – в Q3, при значении Р от 0 до 25 – в Q4.

Заметим, что некоторые журналы с учётом их междисциплинарного характера могут фигурировать в двух и более подобных “отраслевых” перечнях, вследствие чего иметь разные процентили. Например, издающийся в России международный журнал “Форсайт” (англоязычная версия – “Foresight and STI Governance”), имевший в 2019 г. импакт-фактор 1.30, включён в квартиль Q2; его процентиль в “отраслевом” перечне Economics, Econometrics and Finance составил 73, в то время как в перечне Social Sciences – 66. Более того, ситуация, когда одно и то же издание может быть отнесёно к разным квартилям, уже реальность. Так, издающийся в Великобритании международный журнал “Applied Geochemistry” в базе данных Scopus за 2018 г. в перечне Pollution имел процентиль 79, в перечне Geochemistry and Petrology – 75, а в Environmental Chemistry – 70. Как следует из этих цифр, в первом из указанных перечней он попадает в квартиль Q1, во втором – в “пограничную зону” между Q1 и Q2, тогда как в третьем – однозначно оказывается во втором квартиле.

Министерством науки и высшего образования РФ наукометрическое новшество было воспринято положительно, о чём свидетельствует направленное в вузы инструктивное письмо № МН-8/6-ск от 14.01.2020, согласно которому при оценке публикационной результативности образовательных учреждений предпочтение должно отдаваться статьям в журналах, индексируемых в Web of Science и отнесённых к квартилям Q1 и Q2. Эта рекомендация уже используется при аттестации и избрании или переизбрании профессорско-преподавательского состава в некоторых российских университетах. Например, в одном из них, по моим сведениям, с профессоров при переизбрании требуют предъявления как минимум двух публикаций за последние пять лет в журналах квартиля Q1.

Об адекватной наукометрической оценке научной деятельности. Отметим симптоматичное обстоятельство: наукометрию в недрах российского научного сообщества, мягко говоря, недолюбливают, причём по разным причинам. С одной стороны, это связано с непониманием как существа наукометрического подхода к оценке научной деятельности, так и связанных с ним параметров (в частности, популярного ныне “хирша”, относительно которого, по моим наблюдениям, значительная часть сотрудников вузов и институтов РАН имеют весьма смутное представление). Это непонимание ведёт к неприятию. С другой стороны, использование наукометрии применительно к научным результатам конкретных учёных и преподавателей высвечивает весьма неприятную картину, ибо у многих из них показатели оказались не блестящими. Оценка особенно задела за живое тех сотрудников, которые заняты чисто педагогическим трудом, а научные исследования считают для себя делом обременительным, и таковых во многих российских вузах большинство. Ситуация усугубляется тем, что перестроиться с научно-педагогической деятельности на педагогическую относительно легко, а вот с педагогической на научно-педагогическую – много труднее. Ибо для этого требуется не только желание заниматься наукой, но и наличие ряда других условий, от среднестатистического преподавателя не зависящих. Прежде всего это сама возможность ведения научных исследований, немыслимых без современной специализированной приборной базы. Но даже если она есть, полученные с её применением данные ещё необходимо систематизировать и осмыслить, а затем изложить в статье или монографии. Если речь идёт о статье, то предпочтительнее, как уже сказано, её публикация в авторитетном российском (а еще лучше – в международном) научном издании, то есть в том, которое индексируются в международных базах данных цитируемости Web of Science и/или Scopus, причём отнесено к квартилям Q1 или Q2. А вот это уже под силу отнюдь не каждому преподавателю вуза и сотруднику научно-исследовательского института. Вот почему так удобно свои неуспехи в науке списывать на несправедливость наукометрических показателей, именно в них видя корень зла.

Недовольство незадачливых коллег критериями оценки их труда особенно усилилось в последнее время, когда в российских вузах, прежде всего в федеральных и национальных исследовательских университетах, стала вводиться рейтинговая система оценки деятельности преподавателей (решение было принято Союзом ректоров РФ ещё в 2012 г.). Показатели публикационной активности приобрели значительный вес на фоне других, включая и образовательную составляющую [1]. Коллизия ещё более обострилась, когда рейтинги преподавателей в отдельных российских вузах стали учитываться при определении уровня зарплаты. Негативизм усиливают многочисленные критические высказывания по поводу наукометрической оценки труда учёных. Например, математиков её критерии раздражают тем, что представители “царицы наук” по давней традиции не очень-то любят ссылаться на работы своих коллег, а потому и цитируемость учёных-математиков на фоне цитируемости, скажем, физиков или биологов, оказывается довольно низкой. А вот на публикационную активность учёных-гуманитариев в немалой степени влияют факторы, к науке отношения не имеющие, в частности, политические. К сожалению, именно политические факторы оказываются решающими, когда даже талантливые авторы из России получают отказ при попытке опубликовать свои статьи в международных журналах по истории или политологии, выпускающихся в странах Запада. Существуют и другие причины, затрудняющие публикацию статей гуманитарного и общественно-политического профиля в международных журналах с высоким рейтингом. Они связаны уже не с политическими предпочтениями, а со спецификой тематики исследований в этой сфере научного знания [2, 3]. А раз так, в общественных и гуманитарных науках из-за сильного влияния политического и других неблагоприятных для российских учёных факторов оценивать цитируемость и количество публикаций надо по иным алгоритмам, отличным от тех, что используются в науках, где влияние идеологии отсутствует или сведено к минимуму.

В связи с вышесказанным пристального внимания заслуживает цитируемость и связанный с ней “наукометрический авторитет” отечественных научных журналов.

О цитируемости российских научных журналов. Когда речь заходит об учёте числа публикаций, то в отчётных документах как российских федеральных государственных бюджетных образовательных учреждений высшего образования, так и федеральных государственных бюджетных учреждений науки принимаются во внимание в первую очередь публикации в журналах, имеющих достаточно высокую репутацию и востребованных мировым научным сообществом. Более десяти лет назад с подачи тогдашнего Минобрнауки РФ к таковым были отнесены научные издания, индексирующиеся в международных базах данных цитируемости Web of Science (WoS) и/или Scopus. Правда, приходится с грустью констатировать, что хотя, согласно оценке президента РАН А.М. Сергеева, в каждом из этих перечней фигурируют около 300 российских журналов, но лишь четыре из них входят в квартиль Q1 и семь – в квартиль Q2 [4]. Неслучайно в национальном проекте “Наука” в качестве одной из ключевых поставлена задача расширения не только перечня журналов, включённых в первые два квартиля, но и доли российских журналов (в %) в этих квартилях и, соответственно, в обеих международных базах данных цитируемости.

Необходимо изменить отношение к российским журналам в научном мире, освободить их от “мусорных” публикаций, чтобы они завоевали должный научный авторитет. Добиться этого трудно. Причина – не только весьма высокие планки, установленные администрациями WoS и Scopus для журналов, желающих получить прописку в базах данных, но и в том, что к цитированию российских журналов даже в их англоязычном варианте, не говоря уже о русскоязычном, учёные стран Запада не стремятся. Заимствовать (а то и просто красть) ценные идеи, присутствующие в статьях отечественных исследователей, – пожалуйста, а вот упоминать источники заимствования – извините. И потому настоятельное пожелание нашим учёным (не устаю это повторять): публикуйтесь в ведущих отечественных журналах. Они по возможности должны переводиться на английский язык, что будет способствовать их продвижению за рубежом. При таком подходе удастся сохранить как оригинальный русский научный язык, так и школу научного перевода. Нужно также постоянно заботиться о качестве статей, ибо именно оно – отражение уровня и авторитетности издания. И не забывать чаще цитировать статьи российских авторов из российских же журналов, ибо никто в мире за нас этого не сделает.

В связи с этим стоит напомнить, что ещё в начале 2000-х годов В.А. Маркусовой [5] был отмечен весьма красноречивый факт: американские авторы цитировали коллег (причём публиковавшихся преимущественно в американских же журналах) в 67% случаев своих цитирований, тогда как иностранных – в 33% (в том числе российских – не более чем в 5% случаев). А вот российские авторы цитировали американцев в 35% случаев, своих же соотечественников – вдвое реже (лишь в 17% случаев). Для сравнения: доля ссылок японцев на публикации их соотечественников в общем массиве цитирований достигала 37%, англичан – 30%, французов – 24% [5]. И хотя эти цифры характеризовали ситуацию рубежа веков, за прошедшие годы она едва ли претерпела сколько-нибудь значительные изменения.

В 2019 г. Российская академия наук опубликовала результаты опроса, проведённого среди действительных членов, членов-корреспондентов и профессоров РАН в связи с шестилетней годовщиной начала её реформирования. Задавался вопрос и о выборе критериев оценки уровня научных исследований в нашей стране. И вот что показательно: хотя наукометрию недолюбливают не только в российских вузах, но и в академической среде (пусть и по несколько иным причинам), 44.5% участников опроса поставили на первое место по значимости именно уровень цитирования российских учёных, фиксируемый международными базами данных. Тем самым подтвердилась значимость публикаций именно в высокорейтинговых журналах, потому что, как правило, только благодаря им и возможно обеспечить высокую валовую цитируемость. Справедливости ради надо отметить, что вопрос о необходимости публикаций в журналах квартилей Q1 и Q2 занял четвёртую по значимости позицию с 33.5% голосов, пропустив вперёд пункты “затраты на обеспечение рабочего места учёного” (36.7%) и “доля молодых учёных, остающихся работать в науке после получения учёной степени” (34.5%). В то же время такие немаловажные позиции, как “количество монографий по тематике фундаментальной науки” и “количество защищаемых кандидатских и докторских диссертаций” набрали значительно меньшее количество голосов (10.0% и 9.8% соответственно) [4].

Рискну предположить, что будь подобный опрос проведён среди профессоров и доцентов любого вуза, наибольшее число голосов получила бы позиция “затраты на обеспечение рабочего места учёного”, но однозначно не позиции, касающиеся публикаций в высокорейтинговых журналах или цитируемости научных работ. В пользу такого предположения говорит уже то, что любой работник высшей школы, независимо от научных достижений, вправе задать вопрос: а зачем преподавателю вуза вменять в обязанность заниматься наукой и тем более поощрять за это, если основная его задача – учить студентов? Это действительно так, и тем не менее, нравится кому-то или нет, но в мировой практике преподавания в высшей школе сформировалось устойчивое и, на мой взгляд, вполне обоснованное мнение, что преподаватель должен стремиться преподносить студентам знания, связанные с современными достижениями в соответствующей области науки. А для этого он сам должен быть в курсе этих достижений, что, в свою очередь, предполагает и личное участие в научных исследованиях. И ещё один не менее значимый фактор. В условиях жёсткой конкуренции в образовательной сфере авторитет вуза в решающей степени определяется его научной значимостью, то есть научными достижениями, становящимися достоянием общественности благодаря публикациям в авторитетных научных изданиях [6]. Эти показатели учитываются в российских и международных рейтингах высших образовательных учреждений [7].

Стоит отметить, что в зарубежных университетах и институтах не кичатся образовательными программами по преподаваемым в них дисциплинам, а при заключении контракта с преподавателем (в первую очередь с претендентом на должность профессора) решающее значение придаётся его публикационной активности. Именно она служит фактором оценки деятельности не только конкретного преподавателя, но и учреждения в целом. Так что повышенное внимание к наукометрическим показателям, исходящее от Минобрнауки РФ, представляется мне вполне обоснованным. Наука – феномен мирового масштаба, и здесь нам приходится играть по принятым в мире правилам.

Список литературы

  1. Михайлов О.В. Опыт определения рейтинга преподавателя с учётом его публикационной активности // Высшее образование в России. 2016. № 10. С. 71–78.

  2. Yurevich A.V. On the Problem of Assessing the Contribution of Russian Social Sciences and Humanities to World Science // Herald of the RAS. 2011. № 4. P. 406–414; Юревич А.В. К проблеме оценки вклада российской социогуманитарной науки в мировую // Вестник РАН. 2011. № 7. С. 613–625.

  3. Михайлов О.В. О принципах и специфике цитируемости в естественных и гуманитарных науках // Вестник РАН. 2016. № 2. С. 189–192.

  4. Наукометрия: за и против. http://www.sib-science.info/ru/ras/naukometriya-za-i-protiv (дата обращения 13.04.2021).

  5. Маркусова В.А. Цитируемость российских публикаций в мировой научной литературе // Вестник РАН. 2003. № 4. С. 291–298.

  6. Попова Н.Г., Меренков А.В., Шкуркин Д.В. Национальная специфика российских научных журналов в контексте их продвижения в международные базы данных // Социология науки и технологий. 2018. № 2. С. 31–48.

  7. Николаенко Г.А., Фёдорова А.А. Российские университеты в мировых рейтингах: успехи, провалы, перспективы // Социология науки и технологий. 2017. № 1. С. 96–112.

Дополнительные материалы отсутствуют.