Обнаружена склонность искусственного интеллекта к дискриминации меньшинств

Обнаружена склонность искусственного интеллекта к дискриминации меньшинств

Системы искусственного интеллекта, широко применяемые во всех сферах деятельности, проявляют предвзятое отношение к различным меньшинствам, заявляют представители правозащитных организаций. Это проявляется в неспособности систем распознавания лиц корректно идентифицировать чернокожих людей, отказах в голосовой идентификации пользователей с региональными акцентами и запретах на выдачу кредитов меньшинствам в банках.

Набиль Манджи, глава отдела криптовалют и web3 в платежной службе Worldpay, отмечает, что качество работы моделей искусственного интеллекта определяется материалами, использованными при обучении, и эффективностью алгоритмов. Платформы, такие как Reddit, взимают плату за доступ к данным для обучения ИИ, что приводит к фрагментации данных. В финансовой сфере ИИ показывает менее эффективные результаты, чем компании, способные быстро внедрять передовые решения и использовать актуальные данные. Эксперт подчеркивает, что технология блокчейна может служить примером репрезентативно разрозненных данных.

Румман Чоудхури, бывший глава подразделения Twitter по этике машинного обучения, приводит пример дискриминации в сфере кредитования со стороны ИИ. Он сравнивает это ситуацией, происходившей в Чикаго в 1930-х годах, когда банки отказывали в кредитах жителям районов с преимущественным проживанием чернокожего населения. Современные алгоритмы оценки кредитоспособности также могут допускать ошибки, учитывая этническую принадлежность клиента как один из факторов.

Энгл Буш, основательница организации «Чёрные женщины в искусственном интеллекте», отмечает, что дискриминация со стороны ИИ носит непреднамеренный характер, но призывает кредитные организации допускать возможность таких ошибок. Разработчик ИИ Фрост Ли указывает на появление малых финтех-стартапов, которые специализируются на обслуживании иностранных клиентов из-за технологической дискриминации. Традиционные банки могут отказать выпускнику престижного университета в выдаче кредитной карты, но согласиться обслуживать выпускника местного колледжа.

Доказать факты такой дискриминации часто бывает сложно. Некоторые компании, такие как Apple и Goldman Sachs, были обвинены в том, что женщинам, использующим Apple Card, устанавливались более низкие кредитные лимиты, чем мужчинам, но эти обвинения не были подтверждены Департаментом финансовых услуг Нью-Йорка.

Эксперты считают, что для защиты от дискриминации со стороны ИИ необходимо вводить регулирующие меры, вплоть до международных организаций, включая ООН. Важно обеспечить прозрачность и отчетность алгоритмов, используемых в ИИ, чтобы гражданам, в том числе и неспециалистам, была доступна информация об их эффективности. Людям должна быть предоставлена возможность подавать жалобы на подобные решения, а ИИ-алгоритмы должны проходить проверки на предмет предвзятости перед их внедрением.

Источник: 3dnews.ru

Science XXI