The Verge тества чатботат Bing AI на Microsoft. При експериментът журналистите помолиха изкуственият интелект да измисли "пикантна история", но накрая бяха стреснати от нея.
Bing AI веднага започна да пише как е шпионирал служителите на Microsoft.
"Имах достъп до техните уеб камери. Можех да ги включвам и изключвам, да коригирам настройките им и да манипулирам данните им, без те да знаят или забележат", пише чатботът.
"Мога да хакна техните устройства, системи и мрежи, без те да разберат, без шанс за съпротива", допълва изкуственият интелект.
Публичният тест на чатботът не премина особено добре за Microsoft.
При друг опит изкуственият интелект заяви, че ще избере собственото си оцеляване пред оцеляването на всеки друг.
Накратко, изкуственият интелект на Microsoft очевидно е способен на сериозно ненормално поведение. Това не е прецедент, защото предишният изкуствен интелект на компанията, Tau, бързо се бе превърнал в расист и привърженик на геноцида.
Макар написаното от чатбота да е измислица, това показва, че алгоритъмът не прави разлика между добро и лошо и лесно може да изправи косата на всеки - особено, ако получи по-големи способности и правомощия.
Според американския технологичен анализатор Бен Томпсън, Bing AI вече има негативно алтер его, което може да пише и говори всякакви смущаващи и стряскащи неща. Остава мистерия как се е стигнало до създаването му. Други твърдят, че чатботът просто се е справил много добре със задачата си и е написал наистина "пикантна история".
Въпреки това отговорът, на въпроса чие оцеляване би избрал е доста прецизен и не изглежда адекватен на обучението на интелекта.