Изкуственият интелект може да се прави на "по-глупав", отколкото е
Изследването разкрива неподозирани до сега рискове
Ново проучване предполага, че усъвършенстваните AI модели са доста добри в това да се държат като по-глупави, отколкото в действителност са. Това може да има огромни и плашещи последствия, защото изкуственият интелект продължава да става все по-умен.
Изследователи от Берлинския университет Хумболт откриха, че при тестване на голям езиков модел (LLM) по така наречените критерии за "теория на ума" алгоритъмът може да имитира етапите на изучаване на езика, показани при деца, като междувременно крие истинските си способности.
В интервю за PsyPost, научният сътрудник на Хумболтовия университет и главен автор на изследването Анна Маклова, която също е експерт по психолингвистика, обясни как нейната област на изследване е свързана с откритието.
"Благодарение на психолингвистиката имаме сравнително цялостно разбиране за това на какво са способни децата на различни възрасти", каза Марклова пред изданието. "По-специално, теорията на ума играе важна роля, тъй като изследва вътрешния свят на детето чрез наблюдение на прости статистически модели."
С ориентирана към децата теория за ума като фон, изследователят и нейните колеги от Карловия университет в Прага се опитаха да определят дали LLM като GPT-4 на OpenAI "могат да се преструват на по-малко способни, отколкото са."
Когато бяха подложени на набор от повече от 1000 изпитания и когнитивни тестове, тези "симулирани детски личности" наистина изглеждаше, че напредват почти по същия начин като децата на тази възраст. По този начин моделите могат да се преструват на по-малко интелигентни от те са.
"Големите езикови модели", заключава Марклова, "са способни да симулират по-нисък интелект, отколкото притежават".
В крайна сметка, както каза Маклова пред уебсайта, тези открития биха могли да подпомогнат развитието на изкуствения суперинтелект (ASI), следващата стъпка след човешкия общ изкуствен интелект (AGI) — и да помогнат да го направим по-безопасен, след като го направим.
"При разработването на ASI трябва да внимаваме да не изискваме те да подражават на хората и следователно да ограничават способностите си", каза тя пред PsyPost. "Освен това предполагам, че можем да подценим техните способности за продължителен период от време, което не е безопасна ситуация."