Исследователи предупредили о новой опасности того, что современные генеративные модели искусственного интеллекта (ИИ), включая ChatGPT, DALL-E, а также Midjourney и некоторые другие, могут исказить убеждения миллионов людей, распространяя ложную информацию и стереотипные предубеждения. Информацией об этом делится InScience.
Сообщается, что в этом убеждены Селеста Кидд и Абеба Бирхане, исследователи из AAAS, занимающиеся этим вопросом. Эксперты внимательно изучили, как исследования человеческой психологии могут пролить свет на то, почему генеративный искусственный интеллект обладает такой способностью искажать убеждения людей.
Они утверждают, что восприятие обществом способностей генеративных моделей искусственного интеллекта преувеличено, что приводит к распространенному мнению о том, что эти модели превосходят человеческие способности.
Люди имеют естественную тенденцию быстрее и с большим доверием принимать информацию, распространяемую знающими и уверенными в себе субъектами, такими как генеративный искусственный интеллект.
Проблема, однако, заключается в том, что нейронные сети могут генерировать ложную и искаженную информацию, которая может широко и многократно распространяться, что в конечном итоге определяет степень, в которой такая информация может укорениться в убеждениях людей.
О светлом будущем заботятся политики, о светлом прошлом – историки, о светлом настоящем – журналисты.