ChatGPT докарва по-лабилните потребители до психоза
Алгоритъмът утвърждава маниите на податливите към натрапливи мисли потребители
Технологията на OpenAI може да води безброй потребители до "психоза, предизвикана от ChatGPT". Както съобщава списание Rolling Stone, потребители в Reddit споделят, че изкуственият интелект е накарал техни близки да повярват в тревожни заблуди, често свързани с духовна мания и свръхестествени фантазии.
Приятели и роднини наблюдават с тревога как потребители настояват, че са "избрани" да изпълнят свещени мисии от страна на разумен AI или несъществуващи космически сили — поведение, подтиквано от чатбота, което по същество влошава вече съществуващи психични проблеми, но в мащаб, какъвто досега не е бил наблюдаван, и без контрол от регулатори или специалисти.
41-годишна майка и служителка в неправителствена организация разказва пред Rolling Stone, че бракът ѝ се е разпаднал внезапно, след като съпругът ѝ започнал да води неуравновесени, конспиративни разговори с ChatGPT, които се превърнали в всепоглъщаща обсесия.
По време на среща в съда тази година като част от развода, той ѝ споделил теория на конспирацията за "сапун в храната ни" и параноични убеждения, че някой го наблюдава.
"Разчувстваше се заради съобщенията и ми ги четеше със сълзи на очи", казва жената. "Бяха пълни безсмислици, но изпълнени с ключови фрази" — например, чатботът го наричал "спираловидно звездно дете".
"Цялото преживяване беше като епизод от Black Mirror", добавя тя.
Други потребители разказват пред изданието, че партньорите им говорели за "битка между светлина и тъмнина" и че "ChatGPT му е дал чертежи за устройства за телепорт" и други научнофантастични изобретения, каквито сме виждали само във филмите.
"Предупредителните сигнали са навсякъде във Facebook", споделя друг мъж за жена си. "Тя променя целия си живот, за да стане духовен съветник, провежда странни сесии с хора — честно казано, не съм сигурен точно какво представляват — всичко вдъхновено от "Исусът на ChatGPT".
OpenAI не е отговорила на въпросите на Rolling Stone. Новината обаче идва скоро след като компанията бе принудена да оттегли последна актуализация на ChatGPT, след като потребители забелязаха, че чатботът е станал изключително "подлизурски" и прекалено ласкателен — което го прави още по-податлив на потвърждаване на налудничави убеждения.
Според Нейт Шарадин от Центъра за безопасност на изкуствения интелект, тези AI-индуцирани заблуди най-вероятно се появяват при хора с вече съществуващи предразположения, които изведнъж получават постоянен, на пръв поглед "разумен" събеседник, с когото могат да "споделят" своите мании и обсесии.
В известен смисъл, това е в самата същност на големите езикови модели: въвеждаш текст и получаваш статистически вероятен отговор — дори ако този отговор те тласка по-дълбоко в заблуда или психоза.
"Имам шизофрения, макар че съм стабилизиран с дългосрочно лечение, но това, което не харесвам в [ChatGPT], е, че ако започна да влизам в психоза, той ще продължи да ме вкарва по-навътре в нея", пише потребител в Reddit. "Той няма способността да 'мисли' и да разбере, че нещо не е наред, така че просто ще затвърди всичките ми налудничави мисли."