Штучны інтэлект едзе з глузду пасля навучання на даных, якія згенераваў сам

Амерыканскія даследчыкі выявілі праблему ў генератыўных мадэлях накшталт ChatGPT або Midjourney. Тыя нейрасеткі, якія навучаюцца на даных, згенераваных самім штучным інтэлектам, маюць тэндэнцыю «вар'яцець» ужо пасля пяці цыклаў навучання.

13.07.2023 / 21:23

Тэрмін MAD (Model Autophagy Disorder), які выкарыстоўваецца даследчыкамі, апісвае працэс таго, як якасць вынікаў ШІ дэградуе пры такім навучанні. На малюнку — прыклад пагаршэння выяў на 5, 7 і 9 цыклах генерацый выяў.

Чытайце таксама:

Ілан Маск уступае ў гульню са штучным інтэлектам. Яго новая кампанія пачынае працу над стварэннем ШІ

Распрацоўнікі ChatGPT папярэджваюць аб тым, што штучны інтэлект можа прывесці да знікнення чалавецтва

Штучны інтэлект дапамог прачытаць таблічкі з клінапісам, якім пяць тысяч гадоў

Nashaniva.com