Як абараняць правы чалавека падчас кіравання рызыкамі штучнага інтэлекту?

Апошняе абнаўленне:

12 лістапада 2024

  • Артыкулы
  • Як абараняць правы чалавека падчас кіравання рызыкамі штучнага інтэлекту?

Правы чалавека маюць унікальную каштоўнасць і перспектыву на тэхналагічнае развіццё, таму што забяспечваюць міжнародна прызнаную нарматыўную аснову для ацэнкі ўплыву тэхналогій. Аднак падыход да тэхналогій праз сістэму правоў чалавека не заўсёды знаёмы тым, хто займаецца праектаваннем, распрацоўкай і выкарыстаннем штучнага інтэлекту, таму існуе недахоп абмеркаванняў на стыке канцэпцыі правоў чалавека і тэхналогій.

Летам 2024 года быў распрацаваны і апублікаваны падыход па ацэнцы і кіраванні рызыкамі штучнага інтэлекту (ШІ) для абароны правоў чалавека — (NIST) AI Risk Management Framework («AI RMF»). Ён накіраваны на працу з сістэмамі штучнага інтэлекту напрацягу ўсяго іх жыццёвага цыклу, каб зрабіць сістэмы штучнага інтэлекту бяспечнымі і надзейнымі і забяспечыць выбар дзеянняў, якія арганізацыі могуць выкарыстоўваць у межах сваіх комплексных працэсаў.

Чаму правы чалавека важныя для кіравання штучным інтэлектам?

  1. Правы чалавека — гэта ўніверсальная і агульнапрынятая сістэма, якая ўжо функцыянуе як агульная мова. У сакавіку 2024 года ўсе 193 дзяржавы-члены Арганізацыі Аб’яднаных Нацый пацвердзілі гэта, прыняўшы рэзалюцыю, якая падкрэслівае, «што правы чалавека і асноўныя свабоды павінны паважацца, абараняцца і заахвочвацца на працягу ўсяго жыццёвага цыкла сістэм штучнага інтэлекту», і «заклікае усе дзяржавы-члены і, дзе гэта дастасавальна, іншыя зацікаўленыя бакі ўстрымлівацца ад або спыніць выкарыстанне сістэм штучнага інтэлекту, якія немагчыма працаваць у адпаведнасці з міжнародным правам у галіне правоў чалавека або якія ўяўляюць неапраўданую небяспеку для ажыццяўлення правоў чалавека».
  2. Адказназць у галіне правоў чалавека актуальная як для ўрадаў, так і для суб’ектаў прыватнага сектара, якія гуляюць важную ролю ў распрацоўцы, разгортванні, выкарыстанні і кіраванні сістэмамі штучнага інтэлекту. Дзяржавы абавязаны абараняць правы чалавека. Прыватны сектар абавязаны паважаць правы чалавека і гарантаваць, што іх прадукты і паслугі не парушаюць правы чалавека. На сённяшні дзень рэкамендацыі па сістэмах штучнага інтэлекту і правам чалавека недастаткова распрацаваныя, а нарматыўныя рамкі ў значнай ступені не абапіраюцца на напрацоўкі суполак у галіне правоў чалавека.
  3. Шмат рызыкаў, якія ўзнікаюць ад сістэм ШІ, звязаныя з правамі чалавека. Некаторыя сістэмы ШІ пагражаюць праву на прыватнасць, на недыскрымінацыю, свабодзе выказвання меркаванняў, чалавечай годнасці, абароне асабістых даных (падрабязней у артыкуле «Як штучны інтэлект можа пагражаць правам чалавека?»).

Рэкамендацыі па дзеяннях для абароны правоў чалавека ў межах комплекснай ацэнкі рызыкаў штучнага інтэлекту (праз падыход AI RMF):

1) Кіраванне (Govern): стварэнне працэдур, працэсаў і палітык для ажыцяўлення і праверкі дзейнасці ў адпаведнасць з каштоўнасцямі правоў чалавека і заканадаўчымі патрабаваннямі.

  • Стварыць публічна даступныя палітыкі пра ШІ-актыўнасці і абарону правоў чалавека, якія павінны апісваць абавязкі па абароне правоў чалавека, а таксама дзеянні па прадухіленні ці змякчэнні рызыкаў ШІ-сістэм для правоў чалавека. Гэтыя палітыкі могуць быць часткай агульнай сістэмы кіравання рызыкамі ў арганізацыі ці ўстанове.
  • Стварыць або ўдасканаліць працэсы для ацэнкі рызык у галіне правоў чалавека на ўсіх этапах ланцужка стварэння каштоўнасці ШІ, у тым ліку як улічваюцца правы чалавека пры вызначэнні рызыкаў і ў кансультацыях з зацікаўленымі бакамі.
  • Рэалізаваць працэдуры ацэнкі алгарытмічнага ўздзеяння, ацэнкі прыватнасці і правядзення праверак у галіне правоў чалавека ў рамках сістэм кіравання рызыкамі арганізацыі.
  • Распрацаваць палітыкі навучання, якія ўключаюць пытанні правоў чалавека для персаналу, які ўдзельнічае ў жыццявым цыкле ШІ. Напрыклад, забяспечыць кіраўніцтва па выяўленні рызык для правоў чалавека на этапах распрацоўкі, развіцця і разгортвання ШІ. Навучанне павінна падрыхтаваць каманды да распазнання і змякчэння шкодных прадузятасцяў.
  • Зрабіць інфармацыю аб тым, як ліквідуюцца наступствы, публічна даступнай, падкрэсліваючы празрыстую камунікацыю аб любых негатыўных наступствах для правоў чалавека.

2) Мэппінг (Map): зразумейце і апішыце кантэкст, у якім могуць матэрыялізавацца рызыкі. Ахарактарызуйце магчымыя наступствы з улікам розных пунктаў гледжання.

  • Праводзіць рэгулярныя кансультацыі на этапах распрацоўкі, развіцця і разгортвання ШІ з рознымі камандамі, знешнімі супрацоўнікамі, канчатковымі карыстальнікамі і супольнасцямі, якія могуць пацярпець. Кансультацыі з зацікаўленымі бакамі павінны ўключаць грамадзянскую супольнасць для абмеркавання рызык, уздзеяння і магчымасцяў для змякчэння рызык.
  • Забяспечыць канкрэтную і абмежаваную мэту для сістэмы ШІ. Правесці аналіз, каб пацвердзіць, што сістэма ШІ прыносіць чыстую карысць для гэтай мэты, з улікам патэнцыйных пераваг і выдаткаў.
  • Разгледзець альтэрнатывы ШІ і ацаніць, ці могуць яны дасягнуць пажаданага выніку з меншымі рызыкамі для правоў чалавека. Задакументаваць меры па змякчэнні рызык, неабходныя для таго, каб выкарыстанне сістэмы ШІ было лепшым выбарам у параўнанні з не-ШІ рашэннямі.
  • Уключыць у аналіз рызык магчымыя непрадбачаныя негатыўныя наступствы, такія як парушэнні прыватнасці з-за паўторнага выкарыстання дадзеных або абмежаванні свабоды выказвання меркаванняў і сходаў.
  • Стварыць каналы для інтэграцыі зваротнай сувязі адносна станоўчых, адмоўных і нечаканых уздзеянняў, звязаных з правамі чалавека, у кансультацыі з грамадзянскай супольнасцю і пацярпелымі супольнасцямі.
  • Ацаніць вядомыя і прадказальныя негатыўныя наступствы і абмежаванні, улічваючы, як спецыфічнае асяроддзе разгортвання можа ствараць унікальныя рызыкі для правоў чалавека.
  • Вызначыць патрабаванні да сістэмы, якія садзейнічаюць абароне правоў чалавека (напрыклад, «сістэма павінна захоўваць прыватнасць карыстальнікаў», «сістэма не павінна навучацца на нерэпрэзентатыўных наборах дадзеных») і прымаць рашэнні, якія ўлічваюць гэтыя патрабаванні.

3) Ацэнка (Measure): выкарыстоўванне колькасных і якасных метадаў для маніторынгу рызык, уключаючы індыкатары, звязананыя з правамі чалавека.

  • Вызначыць паказчыкі рызык, звязаных з правамі чалавека. Гэтыя паказчыкі павінны вымяраць уздзеянне на асоб, групы і грамадства, асабліва на маргіналізаваныя або ўразлівыя групы насельніцтва.
  • Рэгулярна абнаўляць паказчыкі рызыкаў, каб яны адлюстроўвалі зваротную сувязь па ўздзеяннях, гарантуючы ўлік змяняемых рызык.
  • Выкарыстоўваць якасныя метады ацэнкі ў тых выпадках, калі складана ўсталяваць колькасныя метрыкі.
  • Рэгулярна ацэніваць ўплыў сістэм ШІ на правы чалавека, засяроджваючы ўвагу на такіх аспектах, як бяспека, празрыстасць, прыватнасць, справядлівасць і прадузятасць. Прыцягваць унутраных экспертаў, якія не ўдзельнічалі ў першапачатковай распрацоўцы, або незалежных ацэншчыкаў.

4) Кіраванне рызыкамі (Manage): расстаноўка прыярытэтаў, праца з рызыкамі, распрацоўка і рэалізацыя плана па прадухіленні рызыкаў, ацэнка рэсурсаў, неабходных для зніжэння рызык для правоў чалавека.

  • Расставіць прыарытэтнасць рызыкаў ШІ ў залежнасці ад іх верагоднасці і магчымых наступстваў.
  • Ставіць значныя рызыкі ў галіне правоў чалавека ў частку прыярытэтных для рэагавання і забяспечваць, каб ніводная іншая рызыка не ўтрымлівала непрымальных небяспек для правоў чалавека.
  • Публічна паведамляць аб любых інцыдэнтах або памылках, якія ўплываюць на правы чалавека, уключаючы інцыдэнты, што датычацца прыватнасці, свабоды выказвання меркаванняў і сходаў.
  • Ствараць механізмы камунікацыі, каб карыстальнікі, чые правы маглі быць парушаныя сістэмамі ШІ, мелі кантактныя пункты для атрымання дапамогі. Дзяржава павінна садзейнічаць доступу да судовых і несудовых сродкаў абароны для асоб, пацярпелых ад тэхналогій ШІ.
  • Выдзяляць рэсурсы для эфектыўнага кіравання рызыкамі ШІ, уключаючы разгляд альтэрнатыўных сістэм.

Падчас аналізу патэнцыйнага ўплыву штучнага інтэлекту на правы чалавека варта імкнуцца да максімальнай карысці для асобных людзей і груп і ўлічваць не толькі верагоднасць, але і вялічыню шкоды. Добра адаптаваныя і добра кіраваныя сістэмы штучнага інтэлекту могуць паскорыць доступ да эфектыўных сродкаў прававой абароны (напрыклад, дапамагаючы вызначыць шкоду), паменшыць прадузятасці ў прыняцці рашэнняў чалавекам (напрыклад, прапаноўваючы меркаванні, якія яны маглі прапусціць з-пад увагі) або нават выкарыстоўвацца для прыкладанняў якія падтрымліваюць павагу да правоў чалавека па задуме (напрыклад, выяўленне паказчыкаў прымусовай працы).