Как защищать права человека при управлении рисками искусственного интеллекта?

Последнее обновление:

12 ноября 2024

  • Статьи
  • Как защищать права человека при управлении рисками искусственного интеллекта?

Права человека имеют уникальную ценность и перспективу для технологического развития, потому что обеспечивают международно признанную нормативную основу для оценки влияния технологий. Однако подход к технологиям через призму прав человека не всегда знаком тем, кто занимается проектированием, разработкой и использованием искусственного интеллекта, поэтому существует недостаток обсуждений на стыке концепции прав человека и технологий.

Летом 2024 года был разработан и опубликован подход по оценке и управлению рисками искусственного интеллекта (ИИ) для защиты прав человека — (NIST) AI Risk Management Framework («AI RMF»). Он направлен на работу с системами искусственного интеллекта на протяжении всего их жизненного цикла, чтобы сделать системы искусственного интеллекта безопасными и надежными и обеспечить выбор действий, которые организации могут использовать в рамках своих комплексных процессов.

Почему права человека важны для управления искусственным интеллектом?

  1. Права человека — это универсальная и общепринятая система, которая уже функционирует как общий язык. В марте 2024 года все 193 государства-члены Организации Объединенных Наций подтвердили это, приняв резолюцию, в которой подчеркивается, «что права человека и основные свободы должны уважаться, защищаться и поощряться на протяжении всего жизненного цикла систем искусственного интеллекта», и «призывает все государства-члены и, где это применимо, другие заинтересованные стороны воздерживаться от или прекратить использование систем искусственного интеллекта, которые невозможно эксплуатировать в соответствии с международным правом в области прав человека или которые представляют необоснованную опасность для осуществления прав человека».
  2. Ответственность в области прав человека актуальна как для правительств, так и для субъектов частного сектора, играющих важную роль в разработке, развертывании, использовании и управлении системами искусственного интеллекта. Государства обязаны защищать права человека. Частный сектор обязан уважать права человека и гарантировать, что его продукты и услуги не нарушают прав человека. На сегодняшний день рекомендации по системам искусственного интеллекта и правам человека недостаточно разработаны, а нормативные рамки в значительной степени не опираются на наработки сообщества в области прав человека.
  3. Многие риски, возникающие от систем ИИ, связаны с правами человека. Некоторые системы ИИ угрожают праву на неприкосновенность частной жизни, на недискриминацию, свободе выражения мнений, человеческому достоинству, защите личных данных (подробнее в статье «Как искусственный интеллект может угрожать правам человека?»).

Рекомендации по действиям для защиты прав человека в рамках комплексной оценки рисков искусственного интеллекта (через подход AI RMF):

1) Управление (Govern): создание процедур, процессов и политик для осуществления и проверки деятельности в соответствии с ценностями прав человека и законодательными требованиями.

  • Создать публично доступные политики об ИИ-деятельности и защите прав человека, которые должны описывать обязанности по защите прав человека, а также действия по предотвращению или смягчению рисков ИИ-систем для прав человека. Эти политики могут быть частью общей системы управления рисками в организации или учреждении.
  • Создать или усовершенствовать процессы для оценки рисков в области прав человека на всех этапах цепочки создания ценности ИИ, в том числе как учитываются права человека при определении рисков и в консультациях с заинтересованными сторонами.
  • Реализовать процедуры оценки алгоритмического воздействия, оценки конфиденциальности и проведения проверок в области прав человека в рамках систем управления рисками организации.
  • Разработать политики обучения, которые включают вопросы прав человека для персонала, участвующего в жизненном цикле ИИ. Например, обеспечить руководство по выявлению рисков для прав человека на этапах разработки, развития и развертывания ИИ. Обучение должно подготовить команды к распознаванию и смягчению вредных предубеждений.
  • Сделать информацию о том, как ликвидируются последствия, публично доступной, подчеркивая прозрачную коммуникацию о любых негативных последствиях для прав человека.

2) Мэппинг (Map): понимание и описание контекста, в котором могут материализоваться риски. Охарактеризуйте возможные последствия с учетом различных точек зрения.

  • Проводить на этапах разработки, развития и развертывания ИИ с различными командами, внешними сотрудниками, конечными пользователями и общинами, которые могут пострадать. Консультации с заинтересованными сторонами должны включать гражданское общество для обсуждения рисков, воздействия и возможностей для смягчения рисков.
  • Обеспечить конкретную и ограниченную цель для системы ИИ. Провести анализ, чтобы подтвердить, что система ИИ приносит чистую пользу для этой цели, с учетом потенциальных преимуществ и расходов.
  • Рассмотреть альтернативы ИИ и оценить, могут ли они достичь желаемого результата с меньшими рисками для прав человека. Задокументировать меры по смягчению рисков, необходимые для того, чтобы использование системы ИИ было лучшим выбором по сравнению с не-ИИ решениями.
  • Включить в анализ рисков возможные непредвиденные негативные последствия, такие как нарушения конфиденциальности из-за повторного использования данных или ограничения свободы выражения мнений и собраний.
  • Создать каналы для интеграции обратной связи относительно положительных, отрицательных и неожиданных воздействий, связанных с правами человека, в консультации с гражданским обществом и пострадавшими общинами.
  • Оценить известные и предсказуемые негативные последствия и ограничения, учитывая, как специфическая среда развертывания может создавать уникальные риски для прав человека.
  • Определить требования к системе, способствующие защите прав человека (например, «система должна сохранять конфиденциальность пользователей», «система не должна обучаться на нерепрезентативных наборах данных») и принимать решения, учитывающие эти требования.

3) Оценка (Measure): использование количественных и качественных методов для мониторинга рисков, включая индикаторы, связанные с правами человека.

  • Определить индикаторы рисков, связанных с правами человека. Эти индикаторы должны измерять воздействие на лиц, группы и общество, особенно на маргинализованные или уязвимые группы населения.
  • Регулярно обновлять индикаторы рисков, чтобы они отражали обратную связь по воздействиям, гарантируя учет изменяющихся рисков.
  • Использовать качественные методы оценки в тех случаях, когда сложно установить количественные метрики.
    Регулярно оценивать влияние систем ИИ на права человека, сосредотачивая внимание на таких аспектах, как безопасность, прозрачность, конфиденциальность, справедливость и предвзятость. Привлекать внутренних экспертов, не участвовавших в первоначальной разработке, или независимых оценщиков.

4) Управление рисками (Manage): расстановка приоритетов, работа с рисками, разработка и реализация плана по предотвращению рисков, оценка ресурсов, необходимых для снижения рисков для прав человека.

  • Расставить приоритетность рисков ИИ в зависимости от их вероятности и возможных последствий.
  • Ставить значительные риски в области прав человека в число приоритетных для реагирования и обеспечивать, чтобы ни один другой риск не содержал неприемлемых опасностей для прав человека.
  • Публично сообщать о любых инцидентах или ошибках, влияющих на права человека, включая инциденты, касающиеся конфиденциальности, свободы выражения мнений и собраний.
  • Создавать механизмы коммуникации, чтобы пользователи, чьи права могли быть нарушены системами ИИ, имели контактные пункты для получения помощи. Государство должно способствовать доступу к судебным и несудебным средствам защиты для лиц, пострадавших от технологий ИИ.
  • Выделять ресурсы для эффективного управления рисками ИИ, включая рассмотрение альтернативных систем.

При анализе потенциального влияния искусственного интеллекта на права человека следует стремиться к максимальной пользе для отдельных людей и групп и учитывать не только вероятность, но и размер вреда. Хорошо адаптированные и хорошо управляемые системы искусственного интеллекта могут ускорить доступ к эффективным средствам правовой защиты (например, помогая определять ущерб), уменьшить предвзятость в принятии решений человеком (например, предлагая соображения, которые они могли бы упустить из виду) или даже использоваться для приложений, которые по замыслу поддерживают уважение к правам человека (например, выявление показателей принудительного труда).