Штучны інтэлект едзе з глузду пасля навучання на даных, якія згенераваў сам
Амерыканскія даследчыкі выявілі праблему ў генератыўных мадэлях накшталт ChatGPT або Midjourney. Тыя нейрасеткі, якія навучаюцца на даных, згенераваных самім штучным інтэлектам, маюць тэндэнцыю «вар'яцець» ужо пасля пяці цыклаў навучання.
13.07.2023 / 21:23
Тэрмін MAD (Model Autophagy Disorder), які выкарыстоўваецца даследчыкамі, апісвае працэс таго, як якасць вынікаў ШІ дэградуе пры такім навучанні. На малюнку — прыклад пагаршэння выяў на 5, 7 і 9 цыклах генерацый выяў.
Чытайце таксама:
Ілан Маск уступае ў гульню са штучным інтэлектам. Яго новая кампанія пачынае працу над стварэннем ШІ
Штучны інтэлект дапамог прачытаць таблічкі з клінапісам, якім пяць тысяч гадоў