В журнале Patterns опубликована статья, в которой ученые из нескольких университетов США пишут, что продвинутые языковые модели, такие как ChatGPT, могут облегчить мошенникам написание поддельных научных работ, пишет Lenta. ru. В качестве доказательства своей гипотезы исследователи продемонстрировали возможность создания научной работы с помощью ChatGPT, которая смогла создать хорошо оформленную, но полностью фиктивную научную работу. По их словам, любой мошенник может отправить созданную таким образом работу в научные издания для публикации.
Если издатели примут их, ChatGPT можно будет использовать для написания полностью сфабрикованной работы с ложными данными, несуществующими участниками клинических испытаний и бессмысленными результатами. Исследователи провели аналог теста Тьюринга, в котором экспертов-людей попросили просмотреть тексты, созданные искусственным интеллектом (ИИ) и человеком. Эксперты ошибочно распознали 32% научных статей, сгенерированных языковой моделью, и 14% статей, написанных людьми.
Затем сфабрикованные тексты были протестированы на трех онлайновых детекторах текстов. В этом случае распознавание сгенерированных машиной текстов было лучше. Но после того, как учёные сначала прогнали текст через онлайн-инструмент перефразирования на основе ИИ, статьи были признаны созданными людьми. Авторы говорят, что существует острая необходимость в разработке более совершенных инструментов обнаружения ИИ.
Фото: pixabay
Ведущий автор рубрик «здоровье», «общество», «наука». Считаю, что журналист должен тщательно проверять информацию. А если ошибка все же произошла, нужно ее признать и извиниться.