Технологичната индустрия налива милиарди в "задънена улица" за AI изследвания
Парите не могат да решат всеки един проблем, смята мнозинството от специалистите
Запитани дали "мащабирането" на настоящите AI методи може да доведе до създаване на изкуствен общ интелект (AGI) - универсален AI, който да съперничи или надмине човешкото познание - цели 76% от анкетираните са заявили, че това е "малко вероятно" или "много малко вероятно" да се случи, предава Futurism.
Резултатите от проучването, проведено от учени от Асоциацията за напредък на изкуствения интелект и обхващащо 475 AI изследователи, са публикувани в нов доклад.
Те представляват категорично опровержение на предпочитания от технологичната индустрия метод за развитие на AI - осигуряването на все по-мощен хардуер за генериращи модели и центровете за данни, които ги обучават и поддържат. Като се има предвид, че AGI е обявената крайна цел на AI разработчиците, може да се каже, че мащабирането като стратегия се възприема като задънена улица.
"Огромните инвестиции в мащабиране, без съпътстващи усилия за разбиране на случващото се, винаги са ми изглеждали погрешно насочени", казва Стюарт Ръсел, компютърен учен от UC Berkeley и съавтор на доклада, пред NewScientist. "Мисля, че преди около година започна да става очевидно за всички, че ползите от традиционното мащабиране са достигнали своя лимит."
Огромни инвестиции, намаляваща възвръщаемост
В AI надпреварата се хвърлят колосални суми. Само през 2024 г. инвестициите в генеративен AI са достигнали над 56 милиарда долара рисков капитал, според TechCrunch.
Голяма част от тези средства отиват за изграждане и поддържане на масивни центрове за данни, необходими за AI моделите. Например Microsoft е обещала да похарчи 80 милиарда долара за AI инфраструктура през 2025 г.
Енергийните разходи също са огромни. Microsoft подписа договор за захранване на своите центрове за данни с цяла ядрена електроцентрала, а Google и Amazon също сключиха сделки за ядрена енергия.
Винаги е било съмнително дали AI може да се подобрява неограничено само чрез мащабиране. Доказателство за това е неотдавнашната криза в технологичния сектор, предизвикана от китайския стартъп DeepSeek, чийто AI модел успява да се конкурира със западните многомилиардни чатботове, но с много по-ниски разходи за обучение и енергия.
Признаците за ограничението на мащабирането са били налице и по-рано. През ноември 2023 г. излезе информация, че изследователи в OpenAI са открили, че следващата версия на техния модел GPT показва значително по-малко подобрения, а в някои случаи дори никакви, в сравнение с предишните версии.
През декември изпълнителният директор на Google, Сундар Пичай, заяви, че "лесните печалби от AI са приключили", но уверено добави, че индустрията няма причина да не "продължи да мащабира".
Нови методи - но не и "вълшебни решения"
По-ефективни и евтини подходи се изследват активно. OpenAI прилага метод, наречен test-time compute, при който AI отделя повече време, за да "мисли" преди да избере най-доброто решение. Изследователите твърдят, че този метод е довел до подобрения в производителността, които иначе биха изисквали значително мащабиране.
Но според Арвинд Нараянан, компютърен учен от Принстънския университет, този метод "едва ли ще бъде универсално решение".
DeepSeek от своя страна прилага стратегия, наречена mixture of experts ("смес от експерти"), при която се използват множество невронни мрежи, всяка специализирана в различна област. Вместо да разчитат на един общ модел, тези "експерти" работят заедно, за да намират най-добрите решения.
Въпреки това, ако Microsoft продължава да залага десетки милиарди долари на изграждане на нови центрове за данни, изглежда, че традиционният метод на мащабиране ще остане предпочитан от големите корпорации. А на по-малките, но иновативни стартъпи ще се наложи да търсят начини да постигнат повече с по-малко.