Не е тайна, че социалните мрежи се превръщат в "отходна яма" на омраза, интриги и дезинформация. Платформите бързо се превръщат и в ехо-камери, които поляризират и радикализират попадналите в тях. Зад това стои целенасочен и логичен бизнес модел. Социалните мрежи държат потребителите пристрастени към възмущението и негативизма, които предизвикват повече интерес и дават поле за повече реклами. Нов експеримент показва, че това може да е единствения път за еволюция на социалните мрежи.

Във все още нерецензирано проучване, съавторите Петер Тьорнберг, специалист по AI и социални медии, и асистентът-изследовател Маик Ларой симулирали платформа на социална медия, населена изцяло с AI чатботове. Те били задвижвани от големия езиков модел GPT-4o на OpenAI, за да видят дали може да се направи нещо, за да се спре превръщането на социалните медии в ехо-камери.

Те тествали шест конкретни стратегии за интервенция - включително преминаване към хронологични новинарски емисии, насърчаване на разнообразни гледни точки, скриване на социални статистики като брой на последователите и премахване на биографиите на акаунтите - за да спрат превръщането на платформата в "поляризиран ад".

Оказало се, че нито една от стратегиите не проработила, а само някои показали скромен ефект. По-лошо, както съобщава Ars Technica, някои от тях дори влошили ситуацията.

Например, подреждането на новинарската емисия хронологично, изкарало екстремистко съдържание на върха.

Това е отрезвяваща реалност, която е в разрез с обещанията на компаниите за изграждане на "дигитален градски площад", където всички съжителстват мирно.

С или без намеса, социалните мрежи може да са обречени да се превърнат във високо поляризирана среда за развъждане на екстремистко мислене.

"Можем ли да определим как да подобрим социалните медии и да създадем онлайн пространства, които всъщност да изпълнят ранните обещания за осигуряване на публична сфера, където можем да обсъждаме и дебатираме политиката по конструктивен начин?" попита Тьорнберг пред Ars.

Тьорнберг обясни, че не само провокиращото съдържание води до силно поляризирани онлайн общности.

Токсичното съдържание "също така оформя мрежовите структури, които се образуват," каза той пред Ars, което от своя страна "възвръща какво съдържание виждате, което води до токсична мрежа."

В резултат на това съществува "екстремно неравенство във вниманието," където едно малко малцинство от публикации получава най-голяма видимост.

А в ерата на генеративния AI, тези ефекти биха могли да станат още по-изразени.

"Вече виждаме много участници - въз основа на тази монетизация на платформи като X - които използват AI за създаване на съдържание, което просто се стреми да максимизира вниманието," каза Тьорнберг пред Ars. "Така че дезинформацията, често силно поляризираната информация - с нарастването на мощността на AI моделите, това съдържание ще превземе."

"Трудно ми е да видя конвенционалните модели на социални медии да оцелеят след това," добави той.