Patterns: языковые модели типа ChatGPT облегчают создание поддельных исследований

В журнале Patterns опубликована статья, в которой ученые из нескольких университетов США пишут, что продвинутые языковые модели, такие как ChatGPT, могут облегчить мошенникам написание поддельных научных работ, пишет Lenta. ru. В качестве доказательства своей гипотезы исследователи продемонстрировали возможность создания научной работы с помощью ChatGPT, которая смогла создать хорошо оформленную, но полностью фиктивную научную работу. По их словам, любой мошенник может отправить созданную таким образом работу в научные издания для публикации.

Если издатели примут их, ChatGPT можно будет использовать для написания полностью сфабрикованной работы с ложными данными, несуществующими участниками клинических испытаний и бессмысленными результатами. Исследователи провели аналог теста Тьюринга, в котором экспертов-людей попросили просмотреть тексты, созданные искусственным интеллектом (ИИ) и человеком. Эксперты ошибочно распознали 32% научных статей, сгенерированных языковой моделью, и 14% статей, написанных людьми.

Затем сфабрикованные тексты были протестированы на трех онлайновых детекторах текстов. В этом случае распознавание сгенерированных машиной текстов было лучше. Но после того, как учёные сначала прогнали текст через онлайн-инструмент перефразирования на основе ИИ, статьи были признаны созданными людьми. Авторы говорят, что существует острая необходимость в разработке более совершенных инструментов обнаружения ИИ.

Фото: pixabay

Поделиться:

Подписывайтесь на краткие, но содержательные новости со всего мира
глазами молодого поколения в Телеграм и ВКонтакте.

Почитайте также

Музыкальные способности Людвига ван Бетховена остались загадкой для генетиков

6 Интернет-портал Current Biology опубликовал результаты исследования международной группы ученых из Института эмпирической эстетики Макса …