Как искусственный интеллект может угрожать правам человека?

Последнее обновление:

8 ноября 2024

  • Статьи
  • Как искусственный интеллект может угрожать правам человека?

В августе 2024 года вступил в силу акт об искусственном интеллекте (ИИ), который устанавливает общие границы для использования систем ИИ в Европейском союзе. Ожидается, что ИИ поможет оптимизировать и организовать процессы в различных сферах общества. Одновременно с этим ИИ может вызывать риски для безопасности людей, а некоторые процессы и системы могут ставить под угрозу даже фундаментальные права человека: право на недискриминацию, свобода выражения мнений, человеческое достоинство, защита личных данных и частная жизнь.

Во время активной работы над актом правозащитные организации полностью приветствовали подход к созданию регулирования ИИ, основанный на оценке рисков, однако видели и угрозы, которые призывали рассмотреть и регулировать более однозначно. Правозащитные организации призвали запретить неизбирательное или произвольное использование биометрии в общественных или общедоступных местах, а также ограничить использование систем искусственного интеллекта, в том числе для пограничного контроля и систем предсказуемой полиции.

Мы перевели открытое письмо от 61 правозащитной организации, в котором подробно и на примерах описано, как ИИ может угрожать правам человека.

___

12 января 2021 года

Открытое письмо: Призыв гражданского общества к введению ограничений в будущем предложении Европейской комиссии по искусственному интеллекту

Мы, нижеподписавшиеся, вновь заявляем о критической необходимости выразительных регуляторных ограничений для предотвращения использования искусственного интеллекта, которое нарушает фундаментальные права человека. В ожидании предложения Комиссии по законодательству об искусственном интеллекте, которое готовит Генеральный директорат CONNECT в первом квартале 2021 года, мы подчеркиваем, что ограничения являются необходимой частью регулирования искусственного интеллекта, основанного на уважении к правам человека.

Государства-члены ЕС и институты ЕС обязаны в соответствии с Хартией по правам человека и Европейской конвенцией по правам человека гарантировать, что права каждого человека на неприкосновенность частной жизни, защиту данных, свободу выражения мнений и собраний, недискриминацию, достоинство и другие фундаментальные права не будут необоснованно ограничены использованием новых и передовых технологий. Без соответствующих ограничений на использование технологий на основе ИИ существует риск нарушения наших прав и свобод как со стороны правительств, так и компаний.

Развитие ИИ имеет большой потенциал для пользы людям и обществу. Однако социально полезные инновации возможны только тогда, когда мы гарантируем, что их использование является безопасным, законным и не дискриминационным. Европейский союз сейчас имеет возможность и ответственность обеспечить демократический надзор и четкое регулирование до того, как технологии будут применены. Европейские отрасли — от разработчиков ИИ до автопроизводителей — также получат большую пользу от регуляторной определенности, которую обеспечат четкие юридические границы и равные условия для честной конкуренции.

Мы, нижеподписавшиеся, призываем ввести регуляторные ограничения на внедрение искусственного интеллекта, который необоснованно ограничивает права человека. Помимо строгого соблюдения Общего регламента о защите данных (GDPR) и таких мер предосторожности, как оценка влияния на права человека, прозрачность программного обеспечения и доступность наборов данных для общественного контроля, критически важно, чтобы будущее предлагаемое регулирование юридически устанавливало четкие ограничения в отношении того, что может считаться законным использованием ИИ, чтобы однозначно охватить следующие вопросы:

  • возможность биометрического массового наблюдения и мониторинга общественных пространств;
  • усиление структурной дискриминации, исключение и коллективный вред;
  • ограничение и дискриминационный доступ к жизненно важным услугам, таким как здравоохранение и социальная защита;
  • наблюдение за работниками и нарушение их фундаментальных прав;
  • препятствие справедливому доступу к правосудию и процессуальным правам;
  • использование систем, которые делают выводы и предсказания о наших самых чувствительных чертах, поведении и мыслях;
  • и, что особенно важно, манипулирование или контроль над поведением человека, а также угрозы человеческому достоинству, воле и коллективной демократии.

Мы обращаем особое внимание на конкретные (но не исчерпывающие) примеры использования, которые несовместимы с демократическим обществом и должны быть запрещены или юридически ограничены в законодательстве об искусственном интеллекте:

  1. Биометрическое массовое наблюдение:
    Использование технологий биометрического наблюдения для сбора и обработки данных о людях в общественно доступных местах (например, дистанционное распознавание лиц) позволяет осуществлять массовое наблюдение и создает «охлаждающий эффект» на основные права и свободы людей. Любые формы массового наблюдения с использованием биометрических данных в общественных местах должны быть юридически запрещены, поскольку такое использование вмешивается в психологическую целостность и благополучие людей, а также нарушает ряд фундаментальных прав. Как подчеркивается в законодательстве ЕС о защите данных и прецедентном праве, такое использование не является ни необходимым, ни пропорциональным достигаемой цели, и поэтому должно быть явно запрещено в законодательстве об ИИ посредством строго запрета на неограниченное или произвольное использование биометрии, которое может привести к массовому наблюдению. Это обеспечит, что правоохранительные органы, государственные органы и частные субъекты не смогут злоупотреблять нынешними широкими исключениями и интерпретациями, которые возможны в соответствии с общими юридическими принципами запрета на обработку биометрических данных.
  2. Использование ИИ на границах и в контроле над миграцией:
    Увеличение примеров использования искусственного интеллекта в области контроля над миграцией создает все большую угрозу для фундаментальных прав мигрантов, для законодательства ЕС и для человеческого достоинства. Среди других тревожных случаев использования ИИ проводились испытания для якобы выявления лжи в процессах подачи заявлений на иммиграцию на границах Европы и для мониторинга обмана в англоязычных тестах путем анализа голоса — все эти методы не имеют надежной научной основы. Кроме того, политика ЕС в области миграции все чаще опирается на системы ИИ, такие как распознавание лиц, алгоритмическое профилирование и инструменты прогнозирования для использования в процессах управления миграцией, включая принудительную депортацию. Эти случаи могут нарушать права на защиту данных, право на неприкосновенность частной жизни, право на недискриминацию и ряд принципов международного миграционного права, в том числе право на получение убежища. Учитывая эти проблемы и существенный дисбаланс власти, который такие внедрения усиливает и эксплуатирует, должен быть введен запрет или мораторий на использование автоматизированных технологий в контроле за границами и миграцией до тех пор, пока они не будут независимо оценены на соответствие международным стандартам в области прав человека.
  3. Социальное ранжирование и системы ИИ, определяющие доступ к социальным правам и льготам:
    Системы искусственного интеллекта используются в различных областях таким образом, что это ставит под угрозу распределение социальных и экономических прав и выгод. Например, в областях распределения ресурсов благосостояния, оценки права на помощь и выявления мошенничества использование систем ИИ для прогнозирования рисков, верификации личности и расчета выплат существенно влияет на доступ людей к жизненно важным государственным услугам и может иметь серьезные последствия для права на социальную защиту и помощь. Это происходит в результате вероятности дискриминационного профилирования, ошибочных результатов и присущих рисков для прав человека, связанных с обработкой чувствительных биометрических данных. Ряд примеров показывает, как автоматизированные системы принятия решений оказывают негативное влияние на бедных, мигрантов и рабочий класс, в том числе использование SyRI в Нидерландах и систем, основанных на данных, в Польше для профилирования безработных, что имеет серьезные последствия для прав на защиту данных и недискриминацию. Кроме того, использование в контексте занятости и образования подчеркивает чрезвычайно инвазивный надзор за сотрудниками и студентами, включая системы социального ранжирования, интенсивный мониторинг для достижения показателей и другие меры, которые ограничивают трудовую автономию, снижают уровень благосостояние и ограничивают частную жизнь и фундаментальные права сотрудников и студентов. Также были случаи дискриминационного использования технологий ИИ против людей с инвалидностью со стороны государственных и частных структур при распределении социальных льгот и доступе к образованию. Будущее законодательное предложение должно юридически ограничить использование и внедрение ИИ, которые необоснованно ограничивают доступ к социальным правам и выгодам.
  4. Полицейское прогнозирование:
    Использование моделей для прогнозирования, где и кем могут быть совершены определенные типы преступлений, часто приводит к тому, что бедные, рабочий класс, расово определенные сообщества и мигранты попадают в группу с высокой вероятностью предполагаемой преступности в будущем. Как подчеркнул Европейский парламент, использование таких систем полицейского прогнозирования может привести к «серьезным злоупотреблениям». Использование якобы «нейтральных» факторов, таких как почтовый индекс, на практике выступает в качестве номинальной замены расы и других защищенных характеристик, отражая истории чрезмерного контроля над определенными сообществами, усиливая расовые предрассудки и создавая ложную объективность в моделях расового профилирования. Ряд систем полицейского прогнозирования показали, что расово определенные лица часто подвергаются непропорциональному контролю, который не соответствует фактическим уровням преступности. Системы полицейского прогнозирования подрывают презумпцию невиновности и другие процессуальные права, ставя людей под индивидуальное подозрение на основании догадок о более широкой группе. Европейская комиссия должна юридически запретить использование систем полицейского прогнозирования для защиты фундаментальных прав.
  5. Инструменты оценки риска в системе уголовного правосудия и досудебного контроля:
    Использование алгоритмов в системе уголовного правосудия для профилирования лиц в процессах принятия правовых решений представляет серьезную угрозу для фундаментальных прав. Такие инструменты делают оценки на основе больших объемов личных данных, не связанных с предполагаемыми нарушениями со стороны подозреваемых. Сбор таких личных данных с целью прогнозирования риска рецидива нельзя считать необходимым или соразмерным поставленной цели, особенно учитывая последствия для права на уважение частной жизни и презумпции невиновности. Кроме того, убедительные доказательства показывают, что внедрение таких систем в уголовную правовую систему в Европе и других странах приводило к несправедливым и дискриминационным результатам. Более того, юридическим специалистам может быть невозможно понять логику, лежащую в основе результатов системы. Мы считаем, что в контексте уголовного правосудия необходимо ввести юридические ограничения на системы оценки риска на основе искусственного интеллекта.

Данные примеры подчеркивают необходимость амбициозного законодательства об искусственном интеллекте, которое ставит права человека на первое место. Подписанты этого письма призывают включить в законодательное предложение следующие положения:

  1. Явный запрет на неограниченное или произвольное использование биометрических технологий в общественных или общедоступных местах, что может привести к массовому наблюдению;
  2. Юридические ограничения или законодательные «красные линии» для применения технологий, нарушающих основные права, включая, но не ограничиваясь, использованием ИИ на границах, полицейского прогнозирования, систем, ограничивающих доступ к социальным правам и выгодам, а также инструментов оценки риска в контексте уголовного правосудия;
  3. Явное включение маргинализированных и затронутых сообществ в разработку законодательства и политики ЕС в области ИИ в будущем.

Мы с нетерпением ждем законодательства, которое ставит права людей в центр внимания, и ждем вашего ответа о том, как предложение об искусственном интеллекте будет рассматривать проблемы, изложенные в этом письме.

С уважением,

European Digital Rights (EDRi), а также

Access Now
Bits of Freedom
Chaos Computer Club
D3 — Defesa dos Direitos Digitais
Electronic Privacy Information Center (EPIC)
Fitug
Hermes Center
Homo Digitalis
IT-Pol Denmark
Iuridicum Remedium
Metamorphosis Foundation
Panoptykon Foundation
Privacy International
Statewatch

Другие подписанты:

AI Now Institute, NYU
Algorithm Watch
Amnesty International
App Drivers and Couriers Union (ADCU)
Associazione Certi Diritti
Associazione Luca Coscioni
Associazione per gli Studi Giuridici sull’Immigrazione
Big Brother Watch
Center for Intersectional Justice (CIJ)
Democratic Society
Digitale Freiheit
Dutch Section — International Commission of Jurists (NJCM)
Each One Teach One (EOTO) e.V.
Eumans
European Disability Forum
European Evangelical Alliance (EEA)
European Network Against Racism (ENAR)
European Network On Religion and Belief (ENORB)
European Roma Grassroots Organizations (ERGO) Network
European Youth Forum
Fair Trials
Federation of Humanitarian Technologists
Fundación Secretariado Gitano
Ghett’up
Greek Forum of Migrants
Human Rights Watch
ILGA-Europe
info.nodes
International Committee on the Rights of Sex Workers in Europe (ICRSE)
International Federation for Human Rights (FIDH)
International Decade for People of African Descent, Spain
Kif Kif
Liberty
Ligue des Droits Humains
Minderhedenforum
Montreal AI Ethics Institute
Open Society European Policy Institute
Platform for International Cooperation on Undocumented Migrants (PICUM)
Privacy Network
Ranking Digital Rights
Refugee Law Lab, York University
Save Space e.V.
Simply Secure
Stop Ethnic Profiling Platform Belgium
StraLi — for Strategic Litigation
UNI europa – European Services Workers Union
University College Dublin Centre for Digital Policy