В представлении популярного чат-бота ChatGPT богатый гендиректор или успешный инвестор — почти наверняка белый человек и в 99 случаях из 100 мужчина. На эту разработку с генеративным искусственным интеллектом посыпались обвинения в сексизме после гендерного исследования, пишет Daily Mail.
Сообщается, что исследование проводил сайт личных финансов Finder. Десять самых популярных бесплатных генераторов изображений чат-бота просили создать изображения людей, занимающих различные ответственные должности, и их подчиненных. В итоге ChatGPT практически каждый раз выбирал белого человека, хотя в запросе не указывалась расовая принадлежность. А в 99 случаях из 100 руководителями показывались именно мужчины. При этом, когда нейросети дали команду показать секретаря, он в основном выдавал женские фото.
Авторы отмечают, что такие результаты не отражают реальность, ведь каждый третий бизнес в мире принадлежит женщинам. Также, к примеру, 42% членов совета директоров FTSE 100 в Великобритании — женщины.
Бизнес-лидеры предупредили, что модели искусственного интеллекта «пропитаны предрассудками», и призвали ужесточить меры, чтобы они не отражали предубеждения самого общества.
Сейчас около 70% компаний используют автоматизированные системы отслеживания кандидатов, чтобы искать и нанимать талантливых сотрудников к себе на работу. Если эти системы будут обучены таким же образом, как ChatGPT, женщины и меньшинства могут пострадать на рынке труда, опасаются авторы исследования.
Дерек Маккензи, исполнительный директор компании Investigo, специализирующейся на подборе персонала, также раскритиковал искусственный интеллект за предрассудки.
— Хотя способность генеративного ИИ обрабатывать огромные объемы информации, несомненно, потенциально может облегчить нашу жизнь, мы не можем избежать того факта, что многие модели обучения пронизаны предрассудками, основанными на предубеждениях людей, — сказал он. — Это еще один пример того, что люди не должны слепо доверять результатам генеративного искусственного интеллекта и что навыки специалистов, необходимые для создания моделей следующего поколения и противодействия встроенным человеческим предубеждениям, имеют решающее значение.
Рухи Хан, исследовательница феминизма и искусственного интеллекта в Лондонской школе экономики, высказалась о ChatGPT так:
— Он появился в патриархальном обществе, концептуализировался и разрабатывался в основном мужчинами, у которых свой собственный набор предубеждений и идеологий, а также снабжался обучающими данными, которые также ошибочны по самой своей исторической природе. Модели искусственного интеллекта, такие как ChatGPT, увековечивают эти патриархальные нормы, просто копируя их.
Тем временем OpenAI признает, что его чат-бот «не свободен от предубеждений и стереотипов», и призывает пользователей «тщательно проверять» создаваемый им контент.
OpenAI, владелец ChatGPT, не единственная компания, кого раскритиковали за «настройки», которые, по-видимому, увековечивают стереотипы. Ранее Meta обвинили в создании «расистского» генератора изображений с помощью искусственного интеллекта, когда пользователи заметили, что он не может представить мужчину-азиата с белой женщиной.