«Хросны бацька» штучнага інтэлекту заявіў, што шкадуе аб сваім вынаходніцтве
Даследчык Джэфры Хінтан (Geoffrey Hinton), які адыграў вырашальную ролю ў распрацоўцы штучных нейронных сетак, папярэджвае аб патэнцыйных пагрозах сваіх распрацовак.
Гучная заява Джэфры Хінтана не засталася без увагі сусветных СМІ.
New York Times цытуе словы канадска-брытанскага даследчыка аб тым, што «частка мяне цяпер шкадуе аб працы майго жыцця».
У 2012 годзе доктар Хінтан і двое яго вучняў з Універсітэта Таронта стварылі тэхналогію, якая стала інтэлектуальнай асновай для сістэм штучнага інтэлекту.
У 2018 годзе вучоны разам з Янам Лекунам (Yann Le Cun) і Ёшуа Бэнжо (Yoshua Bengio) атрымаў самую прэстыжную ўзнагароду для даследчыкаў у галіне інфарматыкі — прэмію Цьюрынга. Даследаванні доктара Хінтана дазволілі распрацаваць такія інструменты штучнага інтэлекту, як ChatGPT, Google Bard і Midjourney.
У інтэрвʼю BBC вучоны назваў небяспеку чат-ботаў штучнага інтэлекту «даволі страшнай».
«Наколькі я магу меркаваць, цяпер яны не больш разумныя за нас. Але я думаю, што хутка яны могуць такімі стаць», — адзначыў Хінтан.
Як адзначае New York Times, вучоны заклапочаны небяспекай масавага распаўсюджання ў інтэрнэце фальшывых відэа, фота і артыкулаў, створаных з дапамогай штучнага інтэлекту. Ён асцерагаецца, што «звычайныя людзі ўжо не могуць адрозніць праўды ад фальшу».
Доктар Хінтан таксама заклапочаны тым, што тэхналогіі штучнага інтэлекту з часам перавернуць рынак працы і пазбавяць яго большага, чым проста «цяжкай працы».
У інтэрвʼю CBS Хінтан сцвярджае, што сістэмы штучнага інтэлекту, здольныя да інтэлектуальнай дзейнасці, будуць карысныя для ваенных або эканамічных мэтаў. Ён непакоіцца, што звычайна інтэлектуальныя сістэмы штучнага інтэлекту могуць «ствараць падмэты», якія не адпавядаюць інтарэсам іх праграмістаў. Вучоны адзначае, што «нам трэба добра падумаць, як кіраваць» сістэмамі штучнага інтэлекту, здольнымі самаўдасканальвацца.
Джэфры Хінтан выказаўся таксама аб небяспецы наўмыснага ўжывання штучнага інтэлекту «дрэннымі дзеячамі» для «дрэнных спраў».
У інтэрвʼю BBC ён заявіў, што «найгоршы» сцэнарый быў бы, калі такая дзяржава-захопнік, як Расія, атрымала б доступ да ўдасканаленых версій сучасных тэхналогій.
Як адзначае LeMond, крытыка доктара Хінтана сугучная з думкамі, выкладзенымі ў адкрытым лісце, які ў красавіку гэтага года падпісала тысяча экспертаў у сферы штучнага інтэлекту. Яны папрасілі на паўгода прыпыніць даследаванні, каб распрацаваць правілы для гэтага праграмнага забеспячэння, якое лічыцца «небяспечным для чалавецтва». Яго падпісалі Ёшуа Бэнжо (Yoshua Bengio) і Ілан Маск (Elon Musk).
Сам Джэфры Хінтан, якога называюць «хросным бацькам штучнага інтэлекту», не хацеў падпісваць гэты ліст, пакуль быў супрацоўнікам Google.
«Я сышоў, каб гаварыць пра небяспеку штучнага інтэлекту, не ўлічваючы, як гэта ўплывае на Google», — напісаў вучоны ў твітары пасля абвяшчэння аб сваёй адстаўцы.
LeMond цытуе заяву кіраўніка падраздзялення Google, якое займаецца штучным інтэлектам (Google IA), Джэфа Дына (Jeff Dean): «Мы па-ранейшаму адданыя адказнаму падыходу да штучнага інтэлекту. Мы пастаянна вучымся разумець новую рызыку, адначасова адважна ўносячы інавацыі».
Выказваючы перасцярогі аб будучыні распрацовак, на чале якіх ён стаяў, Джэфры Хінтан заявіў CBS: «Я суцяшаю сябе звычайным апраўданнем: калі я не зрабіў бы гэтага, зрабіў бы нехта іншы».
Чытайце яшчэ:
СМІ высветлілі, колькі можа каштаваць адзін дзень працы ChatGPT. І гэта сума астранамічная
Кітай хоча, каб штучны інтэлект адлюстроўваў асноўныя каштоўнасці сацыялізму
Каментары