Бивш изследовател на OpenAI споделля, че е напуснал компанията, след като е разбрал, че тя оставя безопасността на заден план, за да преследва бърза печалба. Бившият член на екипа на Superalignment Уилям Сондърс направи разкритието в подкаста на Алекс Кантровиц.

"По време на трите ми години в OpenAI понякога си задавах въпрос. Дали пътят, по който вървеше OpenAI, приличаше повече на програмата Аполо или повече на Титаник?"

Сондърс твърди, че Титаник може да е бил наричан "непотопяем, но междувременно не е имало достатъчно спасителни лодки за всички и така, когато бедствието все пак се случва, броя на загиналите е непропорционално висок".

Бившият служител обвини OpenAI, че "гигантът дава приоритет на извеждането на по-нови, по-лъскави продукти", точно както е правила преди около век вече несъществуващата британска корабна компания White Star Line.

Неговите коментари подчертават нарастващата загриженост около разработката на всеобщ изкуствен интелект (AG) - нещо, което в момента остава изцяло теоретично, но е източник на голям интерес за OpenAI и Сам Алтман.

Ангажиментът на OpenAI към безопасността също е нестабилен, що се отнася до непрекъснато променящата се корпоративна структура. По-рано тази година главният изпълнителен директор на OpenAI Сам Олтман обяви, че разпуска екипа на Superalignment, ориентиран към безопасността - част от който някога е бил Сондърс.

Алтман твърди от самото начало, че иска да реализира AGI по безопасен начин. Спроед критиците обаче компанията играе бързо и свободно с правилата и дава приоритет на пускането на нови чатботове. Освен това тя е набрала сериозни инвестиции и има партньорства за милиарди долари с технологични гиганти като Microsoft.

"Не е възможно да се разработи AGI или каквато и да е нова технология с нулев риск", добавя Сондърс в имейл до Business Insider. Той посочва, че програмата Аполо също е имала пропуски в безопасността.

"Това, което бих искал да видя, е компанията да предприеме всички възможни разумни стъпки, за да предотврати тези рискове."