Искусственный интеллект все чаще принимает важные решения, влияющие на нашу повседневную жизнь. Международная группа исследователей изучила, как несправедливое распределение ресурсов искусственным интеллектом влияет на готовность людей противодействовать несправедливости, сообщает The Next Web.
Исследователи провели серию экспериментов и обнаружили, что люди, столкнувшиеся с несправедливым отношением со стороны ИИ, в дальнейшем менее склонны наказывать нарушителей-людей, чем те, кто столкнулся с несправедливостью со стороны человека. Этот эффект получил название “безразличие, вызванное ИИ”, поскольку несправедливое обращение со стороны искусственного интеллекта ослабляет чувство ответственности людей перед другими.
Результаты показывают, что реакция людей на несправедливость зависит не только от самого факта несправедливого обращения, но и от того, кто поступил несправедливо – ИИ или человек. Это явление наблюдалось как до, так и после выпуска ChatGPT в 2022 году, что говорит о устойчивости данного эффекта.
Исследователи рекомендуют разработчикам ИИ-систем сосредоточиться на минимизации предвзятости в обучающих данных. Также важно установить стандарты прозрачности, требующие от компаний раскрывать информацию о потенциально несправедливых решениях ИИ, чтобы пользователи понимали ограничения систем и могли оспаривать несправедливые результаты.