Шок в научния свят: Всеки пети преглед на водеща ИИ конференция е писан от алгоритъм

Шокиращо разкритие на конференцията ICLR 2026 показва, че 21% от рецензиите са генерирани от изкуствен интелект. Това повдига сериозни въпроси за интегритета на научното оценяване и доверието в академичната общност.

Шок в научния свят: Всеки пети преглед на водеща ИИ конференция е писан от алгоритъм

СНИМКА: ФРИЙПИК

Време за четене: 3 мин. 4 януари 2026

Скандал разтърси света на изкуствения интелект (ИИ) след разкритие, че 21% от рецензиите за престижната конференция ICLR 2026 са генерирани от алгоритми. Това повдига сериозни етични въпроси за интегритета на научното оценяване.

Международната конференция ICLR (International Conference on Learning Representations) е ключов форум за представяне на авангардни изследвания в областта на ИИ. Разкритието, подробно описано в научното издание Nature, предизвика шок сред академичната общност. То поставя под съмнение доверието и бъдещето на научната оценка.

Инцидентът ескалира през ноември, когато изследователи, включително Греъм Нойбиг от университета „Карнеги Мелън“, заподозряха нередности в своите рецензии.

„Подозирам, че рецензията на моята статия е написана от изкуствен интелект. Ще предложа награда на всеки, който анализира всички рецензии на материали, участващи в ICLR, за да се види дали те са писани от реални хора, или машини“, заяви той.

Според Нойбиг, рецензиите били прекалено общи, повтарящи се и неестествено звучащи, което подсказва намеса на алгоритъм. В отговор на призива му, компанията Pangram Labs, специализирана в откриване на ИИ-генерирани текстове, анализира 19 490 статии и 75 800 рецензии, подадени до ICLR.

Резултатите са тревожни: 21% от рецензиите са изцяло създадени от ИИ. Допълнителни 61% показват признаци на съвместна работа между човек и ИИ, а около 9% са частично написани с ИИ. Брадли Еми от Pangram Labs обяснява:

„Рецензиите, генерирани от изкуствен интелект, са склонни да дават по-високи оценки, вероятно защото той има склонност да ласкае своите потребители.“

Това може да доведе до приемане на нискокачествени научни трудове.

Този случай не е прецедент. По-ранни проучвания показват, че до 17% от рецензиите на водещи ИИ конференции през 2023-2024 г. са използвали мислещи машини. Случаят с ICLR обаче е повратна точка, тъй като изцяло написани от ИИ материали остават незабелязани и потенциално влияят на решенията за приемане или отхвърляне на статии.

Организаторите на ICLR 2026 реагираха бързо, публикувайки официално изявление за „сигурностен инцидент“ и описвайки предприетите мерки. Използвани са сложни детектори за разкриване на характерни белези като прекалено формален език. Източници, запознати с процеса, смятат, че проблемът се дължи на претоварване на рецензентите, които са използвали инструменти като ChatGPT, за да спестят време.

Това е системен проблем. Документ от университета „Корнел“ подчертава нарастващия обем на подадени материали за конференции като NeurIPS и ICML. Очаква се до края на 2025 г. над 10 000 научни труда да преминат през преглед. Рецензентите, често претоварени академици, са подложени на натиск да оценяват десетки статии, докато балансират с преподавателски и изследователски задължения. Това напрежение ги подтиква към ИИ за справяне със задачите.

Множество публикации в X (Twitter) потвърждават това. Изследователи в областта на ИИ изразяват недоволство от големия брой статии за оценка, което показва, че използването на чатботове за подпомагане на работата е станало норма в някои среди. Тук възниква голям етичен въпрос, тъй като рецензирането се основава на човешка експертиза и преценка, а ИИ може сериозно да повлияе на обективността на процеса. Например, потребител в X възторжено сподели, че негова ИИ-генерирана рецензия е била приета от ACL 2025, но други коментатори отбелязаха, че това подкопава достоверността на академичния труд.

Специалистите подчертават, че съществуващата система за рецензиране не е адаптирана към ерата на невронните мрежи и изисква реформи. Някои автори дори наричат използването на ИИ от рецензенти „флагрантно оскверняване на свещената длъжност на рецензента“. Анонимното рецензиране е под заплаха, тъй като вече не може да се критикува чужда работа анонимно.

Организаторите на ICLR планират въвеждането на по-строги правила за оценяване. Сред тях са задължителни декларации при използване на ИИ и подобрени процеси за проверка на достоверността.

„Рецензентите носят отговорност за публикуваното от тях съдържание. Следователно, ако използват ИИ, те ще са виновни за всички проблеми в публикуваните от тях рецензии. Текстове с много лошо качество, които съдържат неверни твърдения, неточности или измислени препратки, също представляват нарушение на етичния ни кодекс. Рецензентите, които си позволяват да предават оценки, които са били изцяло направени от ИИ, ще бъдат санкционирани с отхвърляне на подадения от тях текст“, се казва в изявление от ръководството на конференцията.

Този скандал е предупреждение за бъдещето на научните изследвания, особено за страни, които разработват национални ИИ стратегии, като Кения с нейната Национална ИИ стратегия 2025-2030, тъй като компрометира основата на международните изследвания. За повече информация относно потенциалните рискове, свързани с изкуствения интелект, можете да прочетете нашата статия за тъмната страна на изкуствения интелект.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *