Safe Superintelligence (SSI) — стартъпът в сферата на изкуствения интелект, ръководен от съоснователя и бивш главен учен на OpenAI Иля Суцкевер — е набрал допълнително 2 милиарда долара финансиране. Така фирмата е получила обща оценка от 32 милиарда долара, съобщава Financial Times.

SSI не е коментирала новото финансиране, което според източниците е било водено от инвестиционната фирма Greenoaks. Суцкевер напусна OpenAI през май 2024 г., след като изглеждаше, че е играл роля в неуспешен опит за отстраняване на изпълнителния директор Сам Алтман.

Той основа SSI заедно с Даниел Грос и Даниел Леви, като обявиха, че компанията има "една цел и един продукт: безопасен суперинтелект".

Наскоро стъртъпът на друг бивш високопоставен кадър на OpenAI, Мира Мурати, обяви инвестиционен кръг за милиарди без да има очертаващ се пазарен продукт.

Засега SSI няма готов продукт. А сайтът на компанията се състои от една страница с кратко описание и почти никакъв дизайн. Въпреки това стартъпът е оценен по-високо от Nokia, Warner Bros и химическия конгломерат Dow Chemical Company.

Всъщност, както вече се е хвалил Суцкевер, компанията никога няма да предлага продукт — докато, разбира се, не пусне напълно завършен суперинтелигентен AI в някакъв неопределен момент в близкото или далечното бъдеще.

"Тази компания е специална, защото първият ѝ продукт ще бъде безопасният суперинтелект. Тя няма да прави нищо друго до тогава", казва бившият служител на OpenAI пред Bloomberg, когато за първи път стартира инициативата. "Тя ще бъде напълно изолирана от външен натиск, свързан с поддръжката на голям и сложен продукт или с участието в конкурентна надпревара."

Не е необичайно, разбира се, рискови инвеститори да влагат средства в компании, които все още нямат продукти — но да се наливат милиарди в компания, чиято единствена цел е да създаде нещо, което дори може никога да не съществува е сериозно предизвикателство.

Няма особени основания да се смята, че изследователите в сферата на ИИ са близо до създаване на изкуствен общ интелект (AGI), още по-малко — на система, която надминава човешкия интелект. Макар че времевата линия за достигане на AGI е спорна, някои експерти твърдят, че тази "сингулярност", както я наричат някои, може никога да не бъде постигната — камо ли в срок, който би удовлетворил инвеститорите.

Както отбелязва Financial Times, оценката на Safe Superintelligence се е изстреляла от 5 милиарда до 30 милиарда долара от старта ѝ през юни миналата година. През това време концепцията за AGI все повече набира популярност в общественото въображение, особено след като изпълнителният директор на OpenAI Сам Алтман продължава да намеква, че компанията е на прага да го постигне — въпреки че почти не представя доказателства в подкрепа на тези твърдения.

ИЗБРАНО