Свет99

Кітай хоча, каб штучны інтэлект адлюстроўваў асноўныя каштоўнасці сацыялізму

Камуністычная партыя Кітая распрацавала новыя правілы рэгулявання генератыўных сістэм ШІ для кітайскіх аналагаў ChatGPT.

Выява: vecteezy

Кітайскія чыноўнікі, як і беларускія, не сядзяць без працы. Ва ўмовах імклівага развіцця генератыўных мадэляў штучнага інтэлекту кітайскія ўлады далі зразумець, як у краіне мае рэгулявацца ШІ. У апублікаваным у красавіку зборы правіл, які Google Translate перакладае як «Меры па кіраванні службамі генератыўнага штучнага інтэлекту», адзначаецца, што праграмнае забеспячэнне «павінна адлюстроўваць асноўныя каштоўнасці сацыялізму».

ШІ не павінен таксама спрабаваць падарваць дзяржаўную ўладу, зрынуць сацыялістычную сістэму або падарваць нацыянальнае адзінства. Прапаганда тэрарызму, экстрэмізму або этнічнай варожасці таксама забароненая (нічога не сказана пра прапаганду ўсяго гэтага з боку дзяржавы), а таксама распаўсюджванне «ілжывай інфармацыі» або кантэнту, які можа «парушыць эканамічны і сацыяльны парадак».

Улады плануюць правесці праверку бяспекі генератыўных сэрвісаў ШІ, перш чым дазволіць іх шырокі запуск у краіне. За апошнія некалькі тыдняў кітайскія тэхналагічныя гіганты прадставілі свае канкуруючыя прадукты ШІ. Так Alibaba прадставіла прадукт пад назвай Tongyi Qianwen, а кампанія Baidu запусціла для тэставання Ernie Bot.

У Кітаі ўжо даўно існуе асобная інтэрнэт-экасістэма праграм і сэрвісаў са сваёй асобнай атмасферай. Большасць заходніх пошукавых інтэрнэт-сервісаў і сацыяльных сетак забароненыя ў краіне, што дазваляе кітайскім фірмам дамінаваць у прасторы. The Verge распавядае, што кітайскім карыстальнікам прыйшлося звяртацца да VPN, каб атрымаць доступ да распрацаванага ў ЗША ChatGPT, а спробы трэціх асоб інтэграваць ШІ ў папулярны кітайскі мэсэнджар WeChat былі спыненыя.

Апроч гэтага, паведамлялася пра абмежаванні па палітычных матывах у генератары малюнакаў Baidu ERNIE-ViLG, які «адмаўляўся» ствараць, напрыклад, выявы плошчы Цяньаньмэнь або партрэты палітычных лідараў, пазначаючы іх як «канфідэнцыйныя».

З іншага боку, варта адзначыць, што той жа ChatGPT крытыкавалі ў ЗША (асабліва правыя папулісты і радыкалы) за быццам празмерную ліберальнасць. Так некаторыя каментатары інтэрпрэтавалі накладзеныя кампаніяй-стваральнікам OpenAI абмежаванні на здольнасць ШІ ствараць абразлівую гаворку ці выказванні нянавісці. Крытыка прывяла да запуску так званых «непадцэнзурных» альтэрнатыў, такіх як FreedomGPT, стваральнікі якога сцвярджаюць, што ён не «запраграмаваны на прасоўванне якой-небудзь інтэлектуальнай праграмы». 

Глядзіце таксама:

Навошта лукашэнкаўцы апраўдваюць напад Гітлера на Польшчу?

Каментары9

  • Суповой пакетик
    25.04.2023
    Социализм и интеллект - две вещи несовместные. 
  • Ггр
    25.04.2023
    Сто даляраў заробак кітайскі недалёкі інтэлект.
  • Полина
    26.04.2023
    Правильно, я считаю.

Байпол назваў імёны магчымых забойцаў Андрэя Зельцара. І заявіў, што сілавіка «Нірвану» застрэліў свой жа6

Байпол назваў імёны магчымых забойцаў Андрэя Зельцара. І заявіў, што сілавіка «Нірвану» застрэліў свой жа

Усе навіны →
Усе навіны

Стала вядома пра смерць дзеда Колі Лукашэнкі — былога вязня ГУЛАГа, асуджанага за дапамогу «бандэраўцам»15

У Беларусі з'явіўся новы вытворца аўтобусаў2

Блогер Шэры Кот, арыштаваны яшчэ да выбараў-2020, не выйдзе пасля сканчэння тэрміну2

СДПГ зноў вылучыць Олафа Шольца на пасаду канцлера Германіі4

Беларус стаў пераможцам конкурсу піяністаў у Іспаніі

Саджалі на кол, білі жалезным ключом па галаве. Жыццё, каханне і турэмныя здзекі з класіка белліта Кузьмы Чорнага8

У мінскай краме прадаюць пасылкі, якія згубіліся ў працэсе дастаўкі. Блогерцы папаўся вібратар20

Кошт біткойна пераадолеў мяжу 99 тысяч даляраў

У ЗША мужчына выклікаў паліцыю на дапамогу ад нападнікаў, а тая прыехала і застрэліла яго5

больш чытаных навін
больш лайканых навін

Байпол назваў імёны магчымых забойцаў Андрэя Зельцара. І заявіў, што сілавіка «Нірвану» застрэліў свой жа6

Байпол назваў імёны магчымых забойцаў Андрэя Зельцара. І заявіў, што сілавіка «Нірвану» застрэліў свой жа

Галоўнае
Усе навіны →