tgoop.com/data_csv/1176
Last Update:
Генеративные нейросети, ожидаемо, впитывают все человеческие стереотипы. Журналисты Bloomberg составили тысячи запросов к Stable Diffusion (модели, которая создаёт изображения) и увидели, что в ответ на запрос «террорист» показывается выходец из Ближнего Востока, «преступник» — чернокожий, клинер — девушка-азиат.
На первый взгляд проблема может показаться несерьёзной, но модель сильно перекашивает реальную жизнь — например, в Штатах 39% докторов — женщины, а среди генерируемых картинок женщин всего 7%. В условиях, когда изображения в интернете будут генериться нейросетями, подобное поведение может только закреплять существующие стереотипы.
Читать: https://www.bloomberg.com/graphics/2023-generative-ai-bias/
Вероятно, для просмотра потребуется подписка, режим инкогнито или расширение Bypass Paywalls
BY data.csv

Share with your friend now:
tgoop.com/data_csv/1176