ЕС абароніць грамадзян ад штучнага інтэлекту законам: ніякіх «сацыяльных рэйтынгаў», распазнаванне твараў толькі па рашэнні суда
ЕС рыхтуецца ўвесці першы ў свеце закон, які рэгулюе выкарыстанне штучнага інтэлекту (ШІ): 11 мая профільныя камітэты Еўрапарламента падтрымалі праект, за якім замацавалася назва AI Act.
Калі дакумент прымуць, то ва ўсіх краінах Еўрасаюза ўвядуць беспрэцэдэнтныя абмежаванні, у тым ліку на сістэмы распазнання твараў у грамадскіх месцах, прагназаванне правапарушэнняў і сацыяльны рэйтынг на аснове ШІ. «Медуза» больш падрабязна распавядае пра гэты законапраект.
Еўрапейскі саюз вырашыў урэгуляваць штучны інтэлект яшчэ два гады таму, у красавіку 2021 года. Маргрэтэ Вестагер, віцэ-старшыня Еўракамісіі, тады тлумачыла гэта неабходнасцю «давяраць ШІ» і «пракласці шлях да этычнага ўжывання тэхналогій ва ўсім свеце», у той час як «на карту пастаўленыя бяспека і правы грамадзян».
ЕС пры гэтым не збіраўся цалкам забараняць развіццё штучнага інтэлекту — і, наадварот, падкрэсліваў, што ШІ валодае «велізарным патэнцыялам у ахове здароўя, транспарце, энергетыцы, сельскай гаспадарцы, турызме і кібербяспецы».
Спачатку краіны Еўрасаюза павольна абмяркоўвалі варыянты законапраекта, праводзілі даследаванні (напрыклад, аб этычнасці выкарыстання ШІ і захаванні правоў чалавека) і вялі дыскусіі са спецыялістамі. Але затым — на фоне імклівага развіцця тэхналогій і гонкі карпарацый у галіне генератыўнага штучнага інтэлекту — еўрачыноўнікам прыйшлося паспяшацца і ў апошні момант дадаць у дакумент найважнейшыя папраўкі.
Вось што за некалькі дзён да галасавання сказала агенцтву AP адна з ініцыятараў законапраекта, румынская дэпутатка Еўрапарламента Драгаш Тудараш:
Калі яшчэ [два гады таму] хтосьці сумняваўся, ці трэба нам наогул [нейкае рэгуляванне штучнага інтэлекту], то цяпер, я думаю, [ніякіх] сумневаў больш няма.
11 мая два камітэты, якія адказваюць за рэгуляванне ШІ, — па ўнутраным рынку і абароне правоў спажыўцоў, а таксама па грамадзянскіх свабодах — ухвалілі AI Act. Праект падтрымалі 84 еўрадэпутаты, сем выступілі супраць, 12 устрымаліся. Хоць новыя стандарты яшчэ далёкія ад уступлення ў сілу, галасаванне азначае велізарны крок наперад для заканадаўцаў — асабліва ў бягучай версіі дакумента.
Для паліцыі і судоў выкарыстанне ШІ абмяжуюць. А некаторыя сэрвісы забароняць зусім
Катэгорыі рызыкі
Еўрадэпутаты прапануюць падзяляць усе сістэмы, заснаваныя на штучным інтэлекце, на чатыры катэгорыі па рызыцы: мінімальная (ці ўвогуле яе адсутнасць), абмежаваная, высокая і непрымальная.
ШІ-сістэмы з «мінімальнай» рызыкай — пад гэтую катэгорыю павінна падыходзіць большасць інструментаў, напрыклад гульні або спам-фільтры, — будуць працаваць без абмежаванняў. Калі сістэма атрымае статус «абмежаванай» рызыкі (верагодна, чат-бот ChatGPT або фотагенератар Midjourney), то яго стваральнікі павінны перш за ўсё выконваць патрабаванні аб «празрыстасці»: мяркуецца, што карыстальнік павінен ведаць, што перад ім — умоўна — дыпфейк або створаны нейрасеткавы тэкст.
«Высокую» ступень рызыкі ЕС бачыць у больш спецыялізаваных ІІ-сістэмах. Еўрачыноўнікі прыводзяць у прыклад правасуддзе (напрыклад, калі ШІ ацэньвае доказы бакоў), ахову здароўя (медыцынскія прыборы), транспартную сферу (беспілотныя аўтамабілі), адукацыю (маюцца на ўвазе сітуацыі, калі ШІ вызначае, хто заслугоўвае паступіць, а хто не), працаўладкаванне (да прыкладу, аўтаматычнае сартаванне рэзюмэ), дзяржпаслугі і кантроль над міграцыяй (у тым ліку ацэнка сапраўднасці дакументаў). Усе такія сэрвісы, як мяркуецца, не трапяць да канчатковага карыстальніка, пакуль не пройдуць самую пільную ацэнку — і не будуць гарантаваць, што даюць вельмі дакладны і бяспечны для чалавека вынік.
Сістэмы, якія ў ЕС палічаць «непрымальнымі», проста забароняць праз пагрозы бяспекі. Пад гэтую катэгорыю падыходзяць ШІ-сэрвісы для выстаўлення «сацыяльнага рэйтынгу» на аснове добранадзейнасці грамадзян (так, як у Кітаі), а таксама для маніпуляцый (у прыклад прыводзяцца цацкі з галасавым асістэнтам, якія правакуюць дзяцей на «небяспечныя паводзіны»).
Распазнаванне твараў
«Высокую» ступень рызыкі ў ЕС атрымаюць сістэмы «дыстанцыйнай біяметрычнай ідэнтыфікацыі» — гэта азначае, што іх стваральнікам прад'явяць самыя строгія патрабаванні.
Пад татальнай забаронай апынецца падзел з дапамогай ШІ-біяметрыі па полу, расе, этнічнай прыналежнасці, грамадзянстве, рэлігіі і палітычных поглядах. Збор біяметрычных даных з сацсетак і з камер назірання для стварэння баз, па якіх потым можна было распазнаваць твары, таксама будзе нелегальны.
Хоць распазнаванне твараў на вуліцах у большасці выпадкаў забароненае, ЕС усё ж такі дапускае некалькі выключэнняў. Напрыклад, калі трэба знайсці ахвяру злачынства (дапусцім, зніклае дзіця), прадухіліць тэракт ці адшукаць падазраванага ў «сур'ёзным крымінальным злачынстве». У гэтых выпадках паліцыі спатрэбіцца дазвол суда — а яшчэ прыйдзецца паказаць канкрэтныя часавыя тэрміны і геаграфію пошуку, а таксама базы персанальных даных.
Сістэмы распазнання эмоцый — такія сэрвісы ідэнтыфікуюць міміку, вылічаючы, напрыклад, расчараваны чалавек ці раз'юшаны, — таксама падпадуць пад значныя абмежаванні. Іх нельга будзе выкарыстоўваць праваахоўным органам, памежнікам, працадаўцам і адукацыйным установам.
Прагназаванне злачынстваў
Для паліцэйскіх у краінах ЕС хочуць забараніць заснаваныя на штучным інтэлекце сістэмы прэдыктыўнай аналітыкі — інструменты, з дапамогай якіх на аснове статыстыкі і яе аналізу вызначаюць, хто, дзе і калі здзейсніць злачынства. З дапамогай гэтага паліцэйскія, напрыклад, выяўляюць ашуканскія схемы, знаходзяць сувязі паміж злачынцамі і вызначаюць, у якім менавіта месцы рызыка правапарушэння вышэйшая.
Адны крытыкі прэдыктыўных сістэм не бачаць, каб тыя прыносілі паліцэйскім істотную карысць, а іншыя адзначаюць, што алгарытмы непразрыстыя нават для саміх паліцэйскіх — і могуць «навучыцца» прадузятасці да той ці іншай часткі жыхароў.
У цяперашняй версіі законапраекта кампаніям у ЕС за парушэнні пагражаюць буйныя адміністрацыйныя штрафы — аж да 40 мільёнаў еўра або 7% ад агульнага гадавога абароту за папярэдні фінансавы год (у залежнасці ад таго, што больш).
Новыя абмежаванні пакуль не ўступілі ў сілу. Вось што для гэтага павінна адбыцца:
у законапраект аб штучным інтэлекце яшчэ могуць унесці папраўкі. Вось якія этапы павінен прайсці дакумент, каб уступіць у сілу:
- чэрвень 2023 года: галасаванне ў Еўрапарламенце;
- ліпень 2023-га: трохбаковыя перамовы ў Радзе Еўрасаюза (там цяпер старшынюе Швецыя, з ліпеня — Іспанія) з удзелам еўрадэпутатаў, Еўракамісіі і краін-дзяржаў ЕС;
- да канца 2023-га: прыняцце выніковай версіі законапраекта.
Трохбаковыя перамовы рызыкуюць зацягнуцца. Сара Чандэр з Асацыяцыі еўрапейскіх лічбавых правоў у размове з выданнем The Verge выказала здагадку, што некаторыя краіны-члены ЕС выступяць супраць забароны на біяметрыю і сістэму прэдыктыўнай аналітыкі ў паліцыі — і будуць сцвярджаць, што гэта нібыта неабходна для барацьбы са злачыннасцю.
Ёсць папярэднія даты, намечаныя ЕС, але яны могуць мяняцца: да прыкладу, першапачаткова профільныя камітэты Еўрасаюза павінны былі ўхваліць законапраект не ў маі, а ў лютым-сакавіку. Як мяркуецца, закон разлічваюць прыняць не пазней за май 2024 года, калі намечаныя наступныя выбары ў Еўрапарламент.
Каментары