Фото: phonoteka.org

Нейросети уличили в распространении негативных стереотипных предубеждений среди людей

Исследователи предупредили о новой опасности того, что современные генеративные модели искусственного интеллекта (ИИ), включая ChatGPT, DALL-E, а также Midjourney и некоторые другие, могут исказить убеждения миллионов людей, распространяя ложную информацию и стереотипные предубеждения. Информацией об этом делится InScience.

Сообщается, что в этом убеждены Селеста Кидд и Абеба Бирхане, исследователи из AAAS, занимающиеся этим вопросом. Эксперты внимательно изучили, как исследования человеческой психологии могут пролить свет на то, почему генеративный искусственный интеллект обладает такой способностью искажать убеждения людей.

Они утверждают, что восприятие обществом способностей генеративных моделей искусственного интеллекта преувеличено, что приводит к распространенному мнению о том, что эти модели превосходят человеческие способности.

Люди имеют естественную тенденцию быстрее и с большим доверием принимать информацию, распространяемую знающими и уверенными в себе субъектами, такими как генеративный искусственный интеллект.

Проблема, однако, заключается в том, что нейронные сети могут генерировать ложную и искаженную информацию, которая может широко и многократно распространяться, что в конечном итоге определяет степень, в которой такая информация может укорениться в убеждениях людей.

Поделиться:

Подписывайтесь на краткие, но содержательные новости со всего мира
глазами молодого поколения в Телеграм и ВКонтакте.

Почитайте также

Ректор Садовничий: нейросеть МГУ обладает «долговременной памятью», как человек

224 В рамках гранта «Мозг и информация: от естественного интеллекта к искусственному» в МГУ созданы …