Искусственный интеллект сошел с ума после обучения на данных, которые сгенерировал сам
Американские исследователи обнаружили проблему в генеративных моделях вроде ChatGPT или Midjourney. Те нейросети, которые обучаются на данных, сгенерированных самим искусственным интеллектом, имеют тенденцию «сходить с ума» уже после пяти циклов обучения.

Термин MAD (Model Autophagy Disorder), используемый исследователями, описывает процесс того, как качество результатов ИИ деградирует при таком обучении. На рисунке — пример ухудшения изображений на 5, 7 и 9 циклах генераций изображений.
Топовый переводчик поехал в Беларусь менять паспорт — и сел за донаты. «КГБ посмотрел на сумму и решил, что никто в здравом уме не может потратить столько собственных денег»
Комментарии