Как доказательства с нулевым разглашением могут сделать ИИ более справедливым

Как доказательства с нулевым разглашением могут сделать ИИ более справедливым

Автор: Роб Вигльоне

Мнение: Роб Вигльоне, сооснователь и генеральный директор Horizen Labs

Можно ли доверять вашему ИИ в его беспристрастности? Недавнее исследование показывает, что это несколько сложнее. К сожалению, предвзятость — это не просто ошибка, а устойчивая особенность, требующая надлежащих криптографических мер защиты.

Исследование, проведенное в сентябре 2024 года Имперским колледжем Лондона, показывает, как доказательства с нулевым разглашением (Zero-Knowledge Proofs, ZKP) могут помочь компаниям проверить, относятся ли их модели машинного обучения (ML) ко всем демографическим группам одинаково, сохраняя при этом конфиденциальность деталей модели и пользовательских данных.

Доказательства с нулевым разглашением — это криптографические методы, которые позволяют одной стороне доказать другой, что утверждение истинно, не раскрывая никакой дополнительной информации, кроме достоверности самого утверждения. Однако, когда речь заходит о определении "справедливости", мы открываем целый ящик Пандоры.

Предвзятость в машинном обучении

Предвзятость в моделях машинного обучения проявляется по-разному. Она может заставить сервис оценки кредитоспособности оценивать человека по рейтингу кредитов его друзей и сообщества, что может быть дискриминационно. Она также может побудить генераторы изображений ИИ отображать Папу Римского и Древних греков представителями разных рас, как это печально прославился инструмент ИИ Google Gemini в прошлом году.

Обнаружить предвзятость в работе модели машинного обучения не так уж и сложно. Если вы подозреваете, что это происходит, вам нужно найти способ доказать это.

В обоих случаях, модель машинного обучения не «подкручивает» результаты ради справедливости, а просто гарантирует, что группы не подвергаются дискриминации. Это весьма разумное решение.

Справедливость становится стандартом, тем или другим

За последний год правительство США и другие страны выпустили заявления и мандаты, касающиеся справедливости ИИ и защиты населения от предвзятости в машинном обучении. Теперь, с новой администрацией в США, справедливость ИИ, вероятно, будет подходить по-другому, возвращая акцент на равенство возможностей и отходя от концепции справедливости.

По мере изменения политических ландшафтов меняются и определения справедливости в ИИ, переходя между парадигмами, ориентированными на справедливость, и парадигмами, ориентированными на возможности. Мы приветствуем модели машинного обучения, которые обращаются со всеми одинаково, не «подкручивая» результаты. Доказательства с нулевым разглашением могут служить надежным способом проверки работы моделей машинного обучения, не раскрывая при этом частные данные.

Хотя доказательства с нулевым разглашением сталкивались с многочисленными проблемами масштабируемости на протяжении многих лет, технология, наконец, становится доступной для использования в основном. Мы можем использовать ZKP для проверки целостности обучающих данных, защиты конфиденциальности и обеспечения того, чтобы используемые нами модели соответствовали заявленным характеристикам.

Поскольку модели машинного обучения становятся все более тесно переплетенными с нашей повседневной жизнью, а от них зависят наши будущие перспективы работы, поступление в колледж и ипотечные кредиты, нам всем хотелось бы немного больше уверенности в том, что ИИ относится к нам справедливо. Однако вопрос о том, можем ли мы все согласиться с определением справедливости, остается открытым.

_ Мнение: Роб Вигльоне, сооснователь и генеральный директор Horizen Labs._