Гендерно-нейтральный поиск в Интернете дает результаты, в которых преобладают мужчины, согласно новому исследованию группы ученых-психологов. Более того, эти результаты поиска влияют на пользователей, способствуя гендерной предвзятости и потенциально влияя на решения о приеме на работу.
Статья, опубликованная в журнале Proceedings of the National Academy of Sciences (PNAS), является одной из последних, показывающих, как искусственный интеллект (ИИ) может изменять наше восприятие и действия.
«Растет обеспокоенность тем, что алгоритмы, используемые современными системами искусственного интеллекта, дают дискриминационные результаты, предположительно потому, что они обучаются на данных, в которых заложены социальные предубеждения. Как следствие, их использование людьми может привести к распространению, а не уменьшению существующих различий». – рассказывает Мадалина Влашчану, аспирант факультета психологии Нью-Йоркского университета и ведущий автор работы.
Технологические эксперты выражают обеспокоенность тем, что алгоритмы, используемые современными системами искусственного интеллекта, дают дискриминационные результаты, предположительно потому, что они обучаются на данных, в которых укоренились социальные предубеждения.
«Некоторые идеи 1950-х годов о гендере фактически все еще заложены в наши системы баз данных», — говорит Мередит Бруссард, автор книги «Искусственный интеллект: Как компьютеры неправильно понимают мир» и профессор Института журналистики Артура Л. Картера при Нью-Йоркском университете.
Использование искусственного интеллекта людьми, принимающими решения, может привести к увеличению, а не уменьшению существующего неравенства, отмечают ученые.
Чтобы рассмотреть эту возможность, они провели исследование, определяющее, связана ли степень неравенства в обществе с предвзятыми алгоритмическими выводами, и если да, то могут ли последствия таких выводов повлиять на лиц, принимающих решения, чтобы они действовали в соответствии с этими предрассудками.
Во-первых, они использовали Глобальный индекс гендерного разрыва (GGGI), который оценивает степень гендерного неравенства в более чем 150 странах. GGGI отражает степень гендерного неравенства в экономическом участии и возможностях, образовании, здоровье и выживании, а также политических возможностях в 153 странах, таким образом, предоставляя оценки гендерного неравенства на уровне общества для каждой страны.
Затем, чтобы оценить возможную гендерную предвзятость в результатах поиска или алгоритмической выдаче, они проверили, чаще ли встречаются слова, которые с одинаковой вероятностью относятся к мужчине или женщине, такие как «мужчина», «студент» или «человек». Для этого они провели поиск изображений в Google по слову «человек» в стране (на доминирующем местном языке) в 37 странах. Результаты показали, что доля мужских изображений из этих поисков была выше в странах с большим гендерным неравенством, что свидетельствует о том, что алгоритмическая гендерная предвзятость связана с гендерным неравенством в обществе.
Психологи повторили исследование через три месяца с выборкой из 52 стран, включая 31 страну из первого исследования. Данные совпали с результатами первоначального исследования, подтвердив, что гендерные различия на уровне общества отражаются в результатах алгоритмов (т.е. в интернет-поиске).
Эксклюзивный перевод*
Ведущий автор рубрик «общество», «герои среди нас», «технологии». Считаю, что нужно бережно относиться к фактам и тщательно проверять информацию. Именно этим журналистика отличается от записей в блогах.