Штучны інтэлект едзе з глузду пасля навучання на даных, якія згенераваў сам
Амерыканскія даследчыкі выявілі праблему ў генератыўных мадэлях накшталт ChatGPT або Midjourney. Тыя нейрасеткі, якія навучаюцца на даных, згенераваных самім штучным інтэлектам, маюць тэндэнцыю «вар'яцець» ужо пасля пяці цыклаў навучання.
![](http://nashaniva.com/img/w840d4webp1/photos/z_2023_07/2023-07-13191251-xkfnn.jpg.webp)
Тэрмін MAD (Model Autophagy Disorder), які выкарыстоўваецца даследчыкамі, апісвае працэс таго, як якасць вынікаў ШІ дэградуе пры такім навучанні. На малюнку — прыклад пагаршэння выяў на 5, 7 і 9 цыклах генерацый выяў.
Каментары