Як штучны інтэлект можа пагражаць правам чалавека?

Апошняе абнаўленне:

8 лістапада 2024

  • Артыкулы
  • Як штучны інтэлект можа пагражаць правам чалавека?

У жніўні 2024 года уступіў у сілу акт аб штучным інтэлекце (ШІ), які ўсталёўвае агульныя межы для выкарыстання сістэм ШІ ў Еўрапейскім звязе. Чакаецца, што ШІ дапаможа аптымізаваць і арганізаваць працэсы ў розных сферах грамадства. Адначасова з гэтым ШІ можа выклікаць рызыкі для бяспекі людзей, а некаторыя працэсы і сістэмы могуць ставіць пад пагрозу нават фундаментальныя правы чалавека: права на недыскрымінацыю, свабода выказвання меркаванняў, чалавечая годнасць, абарона асабістых даных і прыватнасць.

Падчас актыўнай працы над актам праваабарончыя арганізацыі цалкам віталі падыход да стварэння рэгулявання ШІ, які заснаваны на ацэнцы рызыкаў, аднак бачылі і пагрозы, якія заклікалі разглядзець і рэгуляваць больш адназначна. Праваабарончыя арганізацыі заклікалі забараніць невыбіральнае або адвольнае выкарыстанне біяметрыі ў грамадскіх або агульнадаступных месцах, а таксама абмежаваць выкарыстанне сістэм штучнага інтэлекту, у тым ліку для памежнага кантролю і сістэм паліцэйскага прагназавання.

Мы пераклалі адкрыты ліст ад 61 правабарончай арганізацыі, у якім дэталёва і на прыкладах апісана якім чынам ШІ можа пагражаць правам чалавека.

___

12 студзеня 2021 года

Адкрыты ліст: Заклік грамадзянскай супольнасці да ўвядзення абмежаванняў у будучай прапанове Еўрапейскай камісіі па штучным інтэлекце

Мы, ніжэйпадпісаныя, паўторна заяўляем аб крытычнай неабходнасці выразных рэгуляцыйных абмежаванняў для прадухілення выкарыстання штучнага інтэлекту, якое парушае фундаментальныя правы чалавека. У чаканні прапановы Камісіі па заканадаўстве аб штучным інтэлекце, якую рыхтуе Генеральны дырэктарат CONNECT у I квартале 2021 года, мы падкрэсліваем, што абмежаванні з’яўляюцца неабходнай часткай рэгулявання штучнага інтэлекту, заснаванага на павазе да правоў чалавека.

Дзяржавы-члены ЕЗ і інстытуты ЕЗ абавязаны ў адпаведнасці з Хартыяй аб правах чалавека і Еўрапейскай канвенцыяй па правах чалавека гарантаваць, што правы кожнага чалавека на прыватнасць, абарону дадзеных, свабоду выказвання і сходаў, недыскрымінацыю, годнасць і іншыя фундаментальныя правы не будуць неабгрунтавана абмежаваны праз выкарыстанне новых і перадавых тэхналогій. Без адпаведных абмежаванняў на выкарыстанне тэхналогій на аснове ШІ існуе рызыка парушэння нашых правоў і свабод з боку як урадаў, так і кампаній.

Развіццё ШІ мае вялікі патэнцыял на карысць людзям і грамадству. Аднак сацыяльна карысныя інавацыі магчымыя толькі тады, калі мы гарантуем, што іх выкарыстанне з’яўляецца бяспечным, законным і не дыскрымінуе. Еўрапейскі звяз цяпер мае магчымасць і адказнасць забяспечыць дэмакратычны нагляд і выразнае рэгуляванне да таго, як тэхналогіі будуць ужытыя. Еўрапескія індыстрыі — ад распрацоўнікаў ШІ да вытворцаў аўтамабіляў — таксама атрымаюць вялікую карысць ад рэгуляцыйнай вызначанасці, якую забяспечаць выразныя юрыдычныя межы і роўныя ўмовы для сумленнай канкурэнцыі.

Мы, ніжэйпадпісаныя, заклікаем увесці рэгуляцыйныя абмежаванні на ўкараненне штучнага інтэлекту, які неабгрунтавана абмяжоўвае правы чалавека. Акрамя строгага выканання Агульнага рэгламенту аб абароне дадзеных (GDPR) і такіх мер засцярогі, як ацэнка ўплыву на правы чалавека, празрыстасць праграмнага забеспячэння і даступнасць набораў дадзеных для грамадскага кантролю, крытычна важна, каб будучае прапанованае рэгуляванне юрыдычна ўсталёўвала выразныя абмежаванні адносна таго, што можа лічыцца законным выкарыстаннем ШІ, каб адназначна ахапіць наступныя пытанні:

  • магчымасць біяметрычнага масавага назірання і маніторынгу публічных прастораў;
  • узмацненне структурнай дыскрымінацыі, выключэнне і калектыўная шкода;
  • абмежаванне і дыскрымінацыйны доступ да жыццёва важных паслуг, такіх як ахова здароўя і сацыяльная абарона;
  • назіранне за работнікамі і парушэнне іх фундаментальных правоў;
  • перашкода справядліваму доступу да правасуддзя і працэсуальных правоў;
  • выкарыстанне сістэм, якія робяць вывады і прадказанні аб нашых самых адчувальных рысах, паводзінах і думках;
  • і, што асабліва важна, маніпуляванне або кантроль над паводзінамі чалавека, а таксама пагрозы чалавечай годнасці, волі і калектыўнай дэмакратыі.

Асабліва звяртаем увагу на канкрэтныя (але не вычарпальныя) прыклады выкарыстання, якія не сумяшчальныя з дэмакратычным грамадствам і павінны быць забаронены або юрыдычна абмежаваны ў заканадаўстве аб штучным інтэлекце:

  1. Біяметрычнае масавае назіранне:
    Выкарыстанне тэхналогій біяметрычнага назірання для апрацоўкі збірання дадзеных аб людзях у грамадска даступных месцах (напрыклад, дыстанцыйнае распазнаванне твараў) дазваляе масавае назіранне і стварае “астуджальны эфект” на асноўныя правы і свабоды людзей. Любыя формы масавага назірання з выкарыстаннем біяметрычных даных у публічных месцах павінны быць юрыдычна забаронены, паколькі такія выкарыстанні ўмешваюцца ў псіхалагічную цэласнасць і дабрабыт людзей, а таксама парушаюць шэраг фундаментальных правоў. Як падкрэсліваецца ў заканадаўстве ЕЗ аб ​​абароне дадзеных і прэцэдэнтнае права, такое выкарыстанне не з’яўляецца ні неабходным, ні прапарцыйным дасягнутай мэты, і таму павінна быць выразна забаронена ў заканадаўстве аб AI праз выразную забарону на бязмежнае або адвольнае выкарыстанне біяметрыі, якое можа прывесці да масавага назірання. Гэта забяспечыць, што праваахоўныя органы, дзяржаўныя ўлады і прыватныя суб’екты не змогуць злоўжываць цяперашнімі шырокімі выключэннямі і меркаваннямі, якія магчымыя паводле агульных юрыдычных прынцыпаў забароны на апрацоўку біяметрычных дадзеных.
  2. Выкарыстанне ШІ на мяжы і ў кантролі міграцыі:
    Павелічэнне прыкладаў выкарыстання штучнага інтэлекту ў галіне кантролю над міграцыяй стварае ўсё большую пагрозу для фундаментальных правоў мігрантаў, для заканадаўства ЕЗ і для чалавечай годнасці. Сярод іншых трывожных выпадкаў выкарыстання ШІ праводзіліся выпрабаванні для нібыта выяўлення хлусні ў працэсах падачы заяў на іміграцыю на межах Еўропы і для маніторынгу падману ў англамоўных тэстах праз аналіз голасу — усе гэтыя метады не маюць надзейнай навуковай асновы. Акрамя таго, палітыка ЕЗ у галіне міграцыі ўсё часцей абапіраецца на сістэмы ШІ, такія як распазнаванне твараў, алгарытмічнае прафіляванне і інструменты прадказання для выкарыстання ў працэсах кіравання міграцыяй, уключаючы прымусовую дэпартацыю. Гэтыя выпадкі могуць парушаць правы на абарону дадзеных, права на прыватнасць, права на недыскрымінацыю і шэраг прынцыпаў міжнароднага міграцыйнага права, у тым ліку права на атрыманне прытулку. Улічваючы гэтыя праблемы і істотны дысбаланс улады, які такія ўкараненні ўзмацняюць і эксплуатуюць, павінна быць уведзена забарона або мараторый на выкарыстанне аўтаматызаваных тэхналогій у кантролі над межамі і міграцыяй да таго часу, пакуль яны не будуць незалежна ацэнены на адпаведнасць міжнародным стандартам па правах чалавека.
  3. Сацыяльнае ранжыраванне і сістэмы ШІ, якія вызначаюць доступ да сацыяльных правоў і выгад:
    Сістэмы штучнага інтэлекту выкарыстоўваюцца ў розных сферах такім чынам, што гэта ставіць пад пагрозу размеркаванне сацыяльных і эканамічных правоў і выгад. Напрыклад, у галінах размеркавання рэсурсаў дабрабыту, ацэнкі права на дапамогу і выяўлення махлярства выкарыстанне сістэм ШІ для прагназавання рызык, верыфікацыі асобы і разліку выплат істотна ўплывае на доступ людзей да жыццёва важных грамадскіх паслуг і можа мець сур’ёзныя наступствы для права на сацыяльную абарону і дапамогу. Гэта адбываецца ў выніку верагоднасці дыскрымінацыйнага прафілявання, памылковых вынікаў і ўласцівага рызыкі для правоў чалавека, звязанага з апрацоўкай адчувальных біяметрычных дадзеных. Шэраг прыкладаў паказвае, як аўтаматызаваныя сістэмы прыняцця рашэнняў негатыўна ўплываюць на бедных, мігрантаў і працоўны клас, у тым ліку выкарыстанне SyRI у Нідэрландах і сістэм, заснаваных на дадзеных, у Польшчы для прафілявання беспрацоўных, што мае сур’ёзныя наступствы для правоў на абарону дадзеных і недыскрымінацыю. Акрамя таго, выкарыстанне ў кантэксце занятасці і адукацыі падкрэслівае вельмі інвазіўны нагляд за супрацоўнікамі і студэнтамі, уключаючы сістэмы сацыяльнага ранжыравання, інтэнсіўны маніторынг для дасягнення паказчыкаў і іншыя меры, якія абмяжоўваюць працоўную аўтаномію, зніжаюць узровень дабрабыту і абмяжоўваюць прыватнасць і фундаментальныя правы супрацоўнікаў і студэнтаў. Таксама былі выпадкі дыскрымінацыйнага выкарыстання тэхналогій ШІ супраць людзей з інваліднасцю з боку дзяржаўных і прыватных структур пры размеркаванні сацыяльных выгод і доступе да адукацыі. Будучая заканадаўчая прапанова павінна юрыдычна абмежаваць выкарыстанне і ўкараненне ШІ, якія неабгрунтавана абмяжоўваюць доступ да сацыяльных правоў і выгад.
  4. Паліцэйскае прагназаванне:
    Выкарыстанне мадэляў для прагназавання, дзе і кім могуць быць здзейснены пэўныя тыпы злачынстваў, часта прыводзіць да таго, што бедныя, працоўны клас, расава акрэсленыя супольнасці і мігранты трапляюць у групу з высокай верагоднасцю меркаванай злачыннасці ў будучыні. Як падкрэсліў Еўрапейскі парламент, выкарыстанне такіх сістэм паліцыйскага прагназавання можа прывесці да «сур’ёзных злоўжыванняў». Выкарыстанне нібыта «нейтральных» фактараў, такіх як паштовы індэкс, на практыцы выступае ў якасці намінальнай замены расы і іншых абароненых характарыстык, адлюстроўваючы гісторыі празмернага кантролю над пэўнымі супольнасцямі, узмацняючы расавыя забабоны і ствараючы ілжывую аб’ектыўнасць у мадэлях расавага прафілявання. Шэраг сістэм паліцыйскага прагназавання паказаў, што расава акрэсленыя асобы часта трапляюць пад непрапарцыйны кантроль, што не адпавядае рэальным узроўням злачыннасці. Сістэмы паліцыйскага прагназавання падрываюць прэзумпцыю невінаватасці і іншыя працэсуальныя правы, ставячы людзей пад індывідуальнае падазрэнне на аснове здагадкаў аб больш шырокай групе. Еўрапейская камісія павінна юрыдычна забараніць выкарыстанне сістэм паліцыйскага прагназавання дзеля абароны фундаментальных правоў.
  5. Інструменты ацэнкі рызыкі ў сістэме крымінальнага правасуддзя і перадсудовага кантролю:
    Выкарыстанне алгарытмаў у сістэме крымінальнага правасуддзя для прафілявання асоб у працэсах прыняцця прававых рашэнняў уяўляе сур’ёзную пагрозу для фундаментальных правоў. Такія інструменты робяць ацэнкі на аснове вялікіх аб’ёмаў асабістых дадзеных, якія не звязаны з меркаванымі парушэннямі з боку падазраваных. Збор такіх асабістых дадзеных з мэтай прагназавання рызыкі рэцыдыву нельга лічыць неабходным або суразмерным пастаўленай мэце, асабліва ўлічваючы наступствы для права на павагу да прыватнага жыцця і прэзумпцыі невінаватасці. Акрамя таго, значныя доказы паказваюць, што ўкараненне такіх сістэм у крымінальную прававую сістэму ў Еўропе і іншых краінах прыводзіла да несправядлівых і дыскрымінацыйных вынікаў. Больш за тое, юрыдычным спецыялістам можа быць немагчыма зразумець логіку, якая стаіць за вынікамі сістэмы. Мы лічым, што ў кантэксце крымінальнага правасуддзя неабходна ўвесці юрыдычныя абмежаванні на сістэмы ацэнкі рызыкі на аснове штучнага інтэлекту.

Гэтыя прыклады падкрэсліваюць неабходнасць амбіцыйнага заканадаўства аб штучным інтэлекце, якое ставіць правы чалавека на першае месца. Падпісанты гэтага ліста заклікаюць уключыць у заканадаўчую прапанову наступныя палажэнні:

  1. Яўная забарона на неабмежаванае або адвольнае выкарыстанне біяметрычных тэхналогій у публічных або агульнадаступных месцах, што можа прывесці да масавага назірання;
  2. Юрыдычныя абмежаванні або заканадаўчыя “чырвоныя лініі” для прымянення тэхналогій, якія парушаюць фундаментальныя правы, у тым ліку, але не абмяжоўваючыся, выкарыстання ШІ на межах, паліцыйскага прагназавання, сістэмаў, якія абмяжоўваюць доступ да сацыяльных правоў і выгад, а таксама інструментаў ацэнкі рызыкі ў кантэксце крымінальнага правасуддзя;
  3. Яўнае ўключэнне маргіналізаваных і закранутых супольнасцяў у распрацоўку заканадаўства і палітыкі ЕЗ у сферы ШІ на будучыню.

Мы з нецярпеннем чакаем заканадаўства, якое ставіць правы людзей у цэнтр увагі, і чакаем вашага адказу адносна таго, як прапанова аб штучным інтэлекце будзе разглядаць праблемы, выкладзеныя ў гэтым лісце.

З павагай,

European Digital Rights (EDRi), а таксама

Access Now
Bits of Freedom
Chaos Computer Club
D3 – Defesa dos Direitos Digitais
Electronic Privacy Information Center (EPIC)
Fitug
Hermes Center
Homo Digitalis
IT-Pol Denmark
Iuridicum Remedium
Metamorphosis Foundation
Panoptykon Foundation
Privacy International
Statewatch

Іншыя падпісанты:

AI Now Institute, NYU
Algorithm Watch
Amnesty International
App Drivers and Couriers Union (ADCU)
Associazione Certi Diritti
Associazione Luca Coscioni
Associazione per gli Studi Giuridici sull’Immigrazione
Big Brother Watch
Center for Intersectional Justice (CIJ)
Democratic Society
Digitale Freiheit
Dutch Section – International Commission of Jurists (NJCM)
Each One Teach One (EOTO) e.V.
Eumans
European Disability Forum
European Evangelical Alliance (EEA)
European Network Against Racism (ENAR)
European Network On Religion and Belief (ENORB)
European Roma Grassroots Organizations (ERGO) Network
European Youth Forum
Fair Trials
Federation of Humanitarian Technologists
Fundación Secretariado Gitano
Ghett’up
Greek Forum of Migrants
Human Rights Watch
ILGA-Europe
info.nodes
International Committee on the Rights of Sex Workers in Europe (ICRSE)
International Federation for Human Rights (FIDH)
International Decade for People of African Descent, Spain
Kif Kif
Liberty
Ligue des Droits Humains
Minderhedenforum
Montreal AI Ethics Institute
Open Society European Policy Institute
Platform for International Cooperation on Undocumented Migrants (PICUM)
Privacy Network
Ranking Digital Rights
Refugee Law Lab, York University
Save Space e.V.
Simply Secure
Stop Ethnic Profiling Platform Belgium
StraLi – for Strategic Litigation
UNI europa – European Services Workers Union
University College Dublin Centre for Digital Policy