
Поширення генеративного штучного інтелекту різко підвищило продуктивність вчених. Проте редакторам і рецензентам стає дедалі важче відрізнити реальні наукові прориви від добре відредагованого, але малозмістовного тексту.
Як повідомляє видання ScienceDaily, після появи ChatGPT наприкінці 2022 року дослідники почали сповіщати про зростання власної продуктивності.
Водночас редактори наукових журналів зафіксували наплив добре написаних статей із сумнівною науковою цінністю. Автори дослідження встановили, що саме великі мовні моделі, зокрема ChatGPT, змінюють підходи до підготовки рукописів. Вони збільшують кількість публікацій, проте ускладнюють оцінку їхньої якості.
"Це дуже поширена закономірність у різних галузях науки — від фізичних та комп’ютерних наук до біологічних та соціальних наук. У нашій сучасній екосистемі відбувся великий зсув, який вимагає дуже серйозного розгляду, особливо для тих, хто приймає рішення про те, яку науку нам слід підтримувати та фінансувати", — заявив доцент Корнелльського коледжу обчислювальної техніки Ян Інь.
Науковці вивчили понад два мільйони препринтів, опублікованих у 2018–2024 роках на платформах arXiv, bioRxiv та SSRN. Відповідні ресурси охоплюють фізичні, біологічні та соціальні науки й містять роботи без рецензування.
Дослідники порівняли тексти, написані до 2023 року, з імовірно згенерованими ШІ, і створили модель для виявлення використання великих мовних моделей (LLM). Вони відстежили динаміку публікацій авторів і перевірили, чи приймалися ці роботи журналами.
На arXiv науковці, які, ймовірно, використовували LLM, оприлюднили приблизно на третину більше статей. На bioRxiv і SSRN зростання перевищило 50%. Так, найбільший ефект виявили серед авторів, для яких англійська не є рідною мовою. Дослідники з азійських установ опублікували на 43–89% більше робіт після початку використання LLM.
Вчені також зафіксували вплив ШІ на пошук літератури. Інструменти на кшталт Bing Chat частіше пропонували новіші та тематично релевантні джерела, ніж традиційні пошукові системи.
"Люди, які використовують LLM, отримують доступ до більш різноманітних знань, що може спонукати до появи більш креативних ідей", — зазначив провідний автор дослідження Кейго Кусумегі.
Видання зазначає, що він планує перевірити, чи пов’язане це з більш інноваційною та міждисциплінарною наукою. Попри те, що мовні моделі дозволяють писати більше, вони руйнують звичні критерії оцінки якості. Раніше складна мова була ознакою сильного дослідження та підвищувала шанси на публікацію. Втім, наразі такий маркер не працює. Зазначається, що рецензенти через складні вислови помічають згенеровані ШІ статті та часто відхиляють їх, навіть якщо вони написані бездоганно. Добре відшліфований текст більше не є гарантією наукової цінності.
Науковці застерегли, що це може мати серйозні наслідки для науки. Кількість публікацій дедалі менше відображатиме реальний внесок дослідників. Надалі команда планує перевіряти причинно-наслідкові зв’язки за допомогою контрольованих експериментів.
Нагадаємо, раніше видання The Guardian повідомляло, що екстремістські та терористичні угруповання активно використовують генеративний штучний інтелект для поширення пропаганди. Вони клонують голоси, автоматично перекладають і синтезують мовлення для адаптації ідеологічних матеріалів різними мовами.