Бивши и настоящи служители на OpenAI публикуваха отворено писмо, в което твърдят, че им се забранява да повдигат въпроси, свързани с безопасността на изкуственият интелект, предава Futurism.

Един от подписалите се направи още по-ужасяваща прогноза: шансовете AI да унищожи или катастрофално да навреди на човечеството, са значителни.

В интервю за The New York Times бившият изследовател на OpenAI Даниел Кокотайло обвини компанията, че пренебрегва монументалните рискове, породени от изкуствения общ интелект (AGI), защото хората, които вземат решения, са толкова очаровани от неговите възможности.

"OpenAI наистина се вълнува от изграждането на AGI", каза Кокотайло, "и те безразсъдно се надпреварват да бъдат първи там."

Според Кокотайло обаче има шанс от 70% AGI да доведе до края на човешката цивилизация.

31-годишният Кокотайло каза пред NYT, че след като се присъединил към OpenAI през 2022 г. ибил помолен да прогнозира напредъка на технологията. Той се убедил, че индустрията ще постигне AGI до 2027 г., но и че има голяма вероятност, че това да доведе до катастрофа.

Както е отбелязано в отвореното писмо, Кокотайло и неговите съмишленици - включително бивши и настоящи служители в Google DeepMind и Anthropic, както и Джефри Хинтън, така нареченият "кръстник на AI" - твърдят, че обществото трябва да е наясно с рисковете от изкуствения интелект.

Кокотайло стана толкова убеден, че изкуственият интелект ще се превърне във фундаментална заплаха, че в крайна сметка лично призова главния изпълнителен директор на OpenAI Сам Алтман да отдели повече време за внедряване на бариери, за да управлява технологията, вместо да продължи да я прави по-умна.

Изглежда Алтман изразил съгласие на думи, но на практика не искал да забави темповете на развитие за сметка на безопасността.

Уморен, Кокотайло напусна OpenAI през април, като каза на екипа си в имейл, че е "загубил увереност, че OpenAI ще се държи отговорно", тъй като продължава да се опитва да изгради AI почти на човешко ниво.

"Светът не е готов и ние не сме готови", пише той в имейла си, който беше споделен с NYT. "И съм загрижен, че бързаме напред независимо от това и рационализираме действията си."

Отговорът на OpenAI не закъсня, макар че според специалистите на практика не казва нищо.

"Гордеем се с нашия опит в предоставянето на най-способните и най-безопасни AI системи и вярваме в нашия научен подход за справяне с риска", се казва в изявление на компанията след публикуването на тази статия. "Съгласни сме, че строгият дебат е от решаващо значение предвид значението на тази технология и ще продължим да се ангажираме с правителствата, гражданското общество и други общности по света."

"Това е и причината, поради която имаме възможности за служителите да изразят своите опасения, включително анонимна гореща линия за почтеност и Комитет за безопасност и сигурност, ръководен от членове на нашия борд и ръководители по безопасността от компанията", продължава изявлението.