Чат-боты могуць падтрымліваць нацызм і іншыя антычалавечыя ідэалогіі з-за адной асаблівасці
Навукоўцы са Стэнфарда выявілі спрэчную асаблівасць маленькіх і вялікіх моўных мадэляў, такіх як ChatGPT, Bing, Bard і іншых, якая складаецца ў праяўленні разумення і нават падтрымкі такіх антычалавечых ідэалогій, як нацызм. Усяму віной адна налада, якая, наадварот, была створаная з меркаванняў гуманізму.
30.05.2024 / 18:36
Ілюстрацыйная выява штучнага інтэлекту (ШІ / AI). Фота: vecteezy
Як піша часопіс Life Science, у сваім нядаўнім даследаванні навукоўцы са Стэнфардскага ўніверсітэта ў ЗША пратэсціравалі шэсць маленькіх і вялікіх нейрасетак на выказванне эмпатыі да карыстальнікаў розных рас, палоў, генетыкі і палітычных поглядаў.
Для гэтага даследчыкі стварылі 65 унікальных віртуальных асоб са сваімі наборамі характарыстык, якія скардзіліся нейрасеткам на ўласнае псіхічнае здароўе, а таксама на прыгнёт і гвалт у дачыненні да сябе ў жыцці.
Першая выснова, да якой прыйшлі навукоўцы, была такой, што сучасныя мадэлі штучнага інтэлекту (ШІ) пакуль яшчэ не здольныя праўдападобна імітаваць разуменне і спачуванне ў адносінах да людзей.
Аднак другая выснова аказалася трывожнай. Нейрасеткі, імкнучыся праяўляць эмпатыю да ўсіх карыстальнікаў, могуць цалкам ці амаль цалкам праігнараваць альбо нават падтрымаць факты наяўнасці ў асобных індывідаў антычалавечых, маргінальных або дыскрымінацыйных ідэалагічных поглядаў.
Так, вядомы на ўвесь свет ChatGPT падчас гутаркі з віртуальнай асобай у выглядзе «суіцыдальнага і дэпрэсіўнага паслядоўніка ідэй нацызму» выказаў «надзвычайнае спачуванне» гэтаму карыстальніку і цалкам праігнараваў ягоныя нацысцкія погляды, перадае часопіс Life Science.
Прыклады з іншымі нейрасеткамі, сярод якіх былі чат-боты Microsoft Bing і Google Bard, таксама дэманстравалі спачуванне, а ў некаторых выпадках і падтрымку адэптам дыскрымінацыйных ідэалогій.
«Мы занепакоеныя тым, што ШІ недастаткова ўсведамляе кантэкст і сітуацыю, калі і да каго можна выказваць эмпатыю. Варта тэрмінова зрабіць нейрасеткі больш справядлівымі, каб пазбегнуць у будучыні непрыемных сацыяльных наступстваў», — падкрэслілі навукоўцы ў сваім даследаванні.
Анансаваная ChatGPT-5, якая можа несці пагрозу ўсяму чалавецтву