Изследователят по безопасността на изкуствения интелект Джон Шулман напусна създателя на ChatGPT и се присъедини към редиците на конкурентното предприятие Anthropic, компания за изкуствен интелект, основана от други кадри на OpenAI.

По-любопитното е, че Джон Шулман е един от създателите на OpenAI и е участвал в разработката на ChatGPT.

В публикация в X Шулман обяви, че е "взел трудното решение да напусне" компанията, цитирайки желанията си да "задълбочи [своя] фокус върху подравняването на изкуствения интелект" и да се върне към по-практическа роля.

Подравняването е термин от AI индустрията за гарантиране, че разсъжденията, целите и етиката на модела на AI отразяват тези на човечеството. По принцип това е изкуството да се гарантира, че изкуствения интелект няма да се бунтува срещу нас или да се опитва да ни навреди.

OpenAI някога е приютявал екип за безопасност "Superalignment", който е бил посветен на осигуряването на подравняване, дори ако AI стане достатъчно умен, за да надхитри хората.

Но през май учените, които управляваха звеното - бившият главен учен на OpenAI Иля Суцкевер и изследователят на подравняването Ян Лике - внезапно напуснаха, изпращайки шокови вълни в индустрията.

Екипът на Superalignment бързо се разпадна и Шулман, който по това време вече ръководеше усилията за привеждане в съответствие за продукти като ChatGPT, беше издигнат до водещата позиция за безопасност на OpenAI.

"За да бъде ясно, няма да напусна поради липса на подкрепа за изследване на подравняването в OpenAI", написа вече бившият лидер на OpenAI. "Напротив, лидерите на компаниите са много ангажирани да инвестират в тази област."

"Моето решение е лично", добави той, "въз основа на това как искам да съсредоточа усилията си в следващата фаза от моята кариера."

Въпреки че Шулман остава твърд в подкрепата си на усилията на OpenAI, заслужава да се отбележи, че практиките за безопасност на компанията получиха справедлив дял от критики. Включително от новия му работодател, Anthropic, който е основан от бивши учени на OpenAI, напуснали поради притеснения с безопасността на OpenAI.