Высновы з 386-старонкавай справаздачы Стэнфардскага ўніверсітэта аб сённяшнім стане штучнага інтэлекту

Напісанне справаздачы аб стане ШІ падобна да будаўніцтва на зыбкіх пясках: да таго часу, як вы націснеце «Апублікаваць», усё можа ўмомант змяніцца пад вашымі нагамі. Выданне TechCrunch паспрабавала абагульніць асноўныя моманты і трэнды, якія былі вылучаныя экспертамі і даследчыкамі ў штогадовым дакладзе.

12.04.2023 / 21:10

Выява: pixabay

AI Index, незалежная ініцыятыва ад Stanford Institute for Human-Centered Artificial Intelligence (HAI), працавала над дакладам разам з разнастайнымі экспертамі з навуковых колаў і прадстаўнікамі прыватнай вытворчасці. Мэтай быў збор інфармацыі і прагнозаў, звязаных з развіццём ШІ. Хоць гэта можа быць ужо і не самым свежым поглядам на штучны інтэлект, але гэтыя перыядычныя (штогадовыя) апытанні важныя, каб трымаць руку на пульсе галіны, якая бурна развіваецца.

Сёлетні даклад сярод іншага ўключае аналіз асноўных мадэляў, выдаткаў на навучанне, уплыў сістэм ШІ на навакольнае асяроддзе, тэндэнцыі грамадскай думкі наконт ШІ, а таксама аналіз палітыкі краін адносна ШІ.

TechCrunch прыводзіць найважнейшыя, на іх погляд, высновы:

Справаздача падрабязна апісвае многія тэмы і падтэмы. TechCrunch, у прыватнасці, разглядае рост колькасці «інцыдэнтаў і супярэчнасцяў, звязаных са ШІ».

Графік, які ілюструе колькасць інцыдэнтаў і супярэчнасцяў са ШІ / Выява: Stanford HAI

Натуральна, тэндэнцыя ўзрастае, і гэтыя лічбы з'явіліся яшчэ да стварэння ChatGPT і іншых вялікіх моўных мадэляў, не кажучы ўжо пра значнае паляпшэнне генератараў малюнкаў. Таму можна з упэўненасцю казаць, што павелічэнне ў 26 разоў — гэта толькі пачатак.

Вялікія пытанні выклікае аптымізацыя моўных мадэляў па крытэрыях «справядлівасць і непрадузятасць», напрыклад, па гендарных, расавых і іншых сацыяльных прыкметах. Аналіз паказвае, што аптымізацыя не такая простая, як усе спадзяюцца. Няма простага рашэння для паляпшэння вялікіх мадэляў ШІ, часткова таму, што мы самі не да канца разумеем, як яны працуюць.

Праверка фактаў — адзін з варыянтаў, якія выглядалі б як натуральны падыход да вырашэння падобных праблем: праіндэксаваўшы вялікую частку інтэрнэту, ШІ мог бы ацэньваць канкрэтныя сцвярджэнні і вяртаць упэўненасць у тым, што яны зыходзяць з праўдзівых крыніц, разважаюць эксперты. Але гэта вельмі далёка ад таго, што адбываецца. 

Насамрэч асабліва дрэнна ШІ ацэньвае менавіта фактычнасць — і рызыка тут заключаецца не столькі ў тым, што мадэлі будуць ненадзейнымі фактчэкерамі, колькі ў тым, што яны самі стануць важнымі крыніцамі пераканаўчай дэзынфармацыі.

Праца над паляпшэннем праверкі фактаў штучным інтэлектам ужо вядзецца, але пакуль сітуацыя тут стаіць на месцы. Пры гэтым, аднак, пазітыўнай тэндэнцыяй выглядае вялікі ўздым грамадскай цікавасці: калі людзі адчуваюць, што не могуць давяраць штучнаму інтэлекту, уся галіна можа адкочвацца назад ці тармазіць.

Гэтыя асноўныя моманты пакідаюць на стале шмат дэталяў. Каманда HAI прарабіла выдатную працу, і кожны можа адкрыць поўную версію артыкула ды паглыбіцца ў любую тэму, якая выклікае цікавасць.

Nashaniva.com