Гендерная предвзятость в поисковых алгоритмах влияет на пользователей

Гендерно-нейтральный поиск в Интернете дает результаты, в которых преобладают мужчины, согласно новому исследованию группы ученых-психологов. Более того, эти результаты поиска влияют на пользователей, способствуя гендерной предвзятости и потенциально влияя на решения о приеме на работу.

Статья, опубликованная в журнале Proceedings of the National Academy of Sciences (PNAS), является одной из последних, показывающих, как искусственный интеллект (ИИ) может изменять наше восприятие и действия.

«Растет обеспокоенность тем, что алгоритмы, используемые современными системами искусственного интеллекта, дают дискриминационные результаты, предположительно потому, что они обучаются на данных, в которых заложены социальные предубеждения. Как следствие, их использование людьми может привести к распространению, а не уменьшению существующих различий». – рассказывает Мадалина Влашчану, аспирант факультета психологии Нью-Йоркского университета и ведущий автор работы.

Технологические эксперты выражают обеспокоенность тем, что алгоритмы, используемые современными системами искусственного интеллекта, дают дискриминационные результаты, предположительно потому, что они обучаются на данных, в которых укоренились социальные предубеждения.

«Некоторые идеи 1950-х годов о гендере фактически все еще заложены в наши системы баз данных», — говорит Мередит Бруссард, автор книги «Искусственный интеллект: Как компьютеры неправильно понимают мир» и профессор Института журналистики Артура Л. Картера при Нью-Йоркском университете. 

Использование искусственного интеллекта людьми, принимающими решения, может привести к увеличению, а не уменьшению существующего неравенства, отмечают ученые.

Чтобы рассмотреть эту возможность, они провели исследование, определяющее, связана ли степень неравенства в обществе с предвзятыми алгоритмическими выводами, и если да, то могут ли последствия таких выводов повлиять на лиц, принимающих решения, чтобы они действовали в соответствии с этими предрассудками.

Во-первых, они использовали Глобальный индекс гендерного разрыва (GGGI), который оценивает степень гендерного неравенства в более чем 150 странах. GGGI отражает степень гендерного неравенства в экономическом участии и возможностях, образовании, здоровье и выживании, а также политических возможностях в 153 странах, таким образом, предоставляя оценки гендерного неравенства на уровне общества для каждой страны.

Затем, чтобы оценить возможную гендерную предвзятость в результатах поиска или алгоритмической выдаче, они проверили, чаще ли встречаются слова, которые с одинаковой вероятностью относятся к мужчине или женщине, такие как «мужчина», «студент» или «человек». Для этого они провели поиск изображений в Google по слову «человек» в стране (на доминирующем местном языке) в 37 странах. Результаты показали, что доля мужских изображений из этих поисков была выше в странах с большим гендерным неравенством, что свидетельствует о том, что алгоритмическая гендерная предвзятость связана с гендерным неравенством в обществе.

Психологи повторили исследование через три месяца с выборкой из 52 стран, включая 31 страну из первого исследования. Данные совпали с результатами первоначального исследования, подтвердив, что гендерные различия на уровне общества отражаются в результатах алгоритмов (т.е. в интернет-поиске).

Эксклюзивный перевод*

Поделиться:

Подписывайтесь на краткие, но содержательные новости со всего мира
глазами молодого поколения в Телеграм и ВКонтакте.

Почитайте также

Канадские химики предложили технологию получения нефти из отработанной резины

18 В научном журнале Waste Managment (WM) опубликованы результаты исследования, проведенного канадскими химиками из Университета …