Поддержать команду Зеркала
Беларусы на войне
  1. Беларусь готовится получить щедрый «подарок» из-за границы — его масштабы впечатляют. Но это несет риски для страны
  2. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  3. Польский визовый центр добавил новую категорию виз. Кто по ней может подать документы
  4. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  5. Собрали пять скрытых признаков СДВГ у взрослых. Эти особенности часто принимают за характер, но их игнорирование опаснее, чем кажется
  6. Жителям четырех районов Минска в воду добавят флуоресцеин. Что это
  7. Для водителей намерены ввести новшество с 1 января
  8. Украинские войска продвигаются под Покровском и освобождают территорию под Добропольем — ISW
  9. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  10. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится
  11. Для тех, у кого есть автомобили, квартиры и земельные участки, чиновники придумали очередное налоговое новшество
  12. Осужденный за убийство беларуски в Варшаве подал жалобу на приговор. Стало известно окончательное решение по делу
  13. В стране ЕС откроется посольство Беларуси


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.