GPT-5 на OpenAI бе може би най-дългоочакваният изкуствен интелект. Но след като беше пуснат миналата седмица, новият модел предизвика доста смесени реакции. Това може да е една много, много лоша новина за OpenAI, която разчита на инерцията, за да продължава да привлича потребители и финансиране.

Да започнем с положителното. Новият модел има впечатляващи функции и е на доста високо ниво. Но очакванията към GPT-5 са твърде високи, а алгоритъмът се усеща като лек ъпдейт.

OpenAI премахна възможността да се използват по-старите версии. Първият знак а предстоящите проблеми бе желанията на част от редовните потребители, молещи за връщането на GPT-4o - предпоследния модел преди това ново издание, който им оставяше "топло и приятно" усещане.

Изненадващо, OpenAI се поддаде на натиска и върна достъпа до 4o за платените абонати - но вече беше ясно накъде отиват нещата.

Част от причината GPT-5 да бъде единственият наличен модел, твърди OpenAI, е, че е създаден да превключва безпроблемно между всички свои предишни версии, за да предоставя на потребителите това, от което имат нужда. Но, както отбелязва изследователят от Уортън Ийтън Молик в Bluesky, "безпроблемно" не е най-точната дума за сегашната реалност.

"Когато питате "GPT-5", понякога получавате най-добрия наличен AI," пише Молик, "а понякога - един от най-лошите, и не можете да разберете кой е, като дори може да превключва по време на един и същ разговор." И това е само върхът на айсберга от проблеми.

Последният модел показва, според мнозина, още по-голяма склонност към "халюцинации" - измисляне на факти.

Например, няколко души установиха, че когато GPT-5 бъде помолен да генерира портрети на последните президенти и да изброи имената им и годините на управление, той съчинява объркана версия на историята, която е наполовина смешна, наполовина тревожна.

От екологa Боб Коп в Bluesky до експерта по машинно обучение Пьотр Поморски в X - неспособността на новия модел да каже вярно нищо за скорошната президентска история може да е забавна, ако не беше фактът, че интернет бързо се пълни с AI-боклук, който освен дразнещ и подвеждащ, може да е вредоносен за обучението на бъдещите модели.

И халюцинациите не са единственият странен проблем на GPT-5. В един абсурден обмен, публикуван в X, GPT-5 - поне според показаната част - направо признава, че е манипулирал потребителя.

И ако това не е достатъчно, изглежда, че последният модел на OpenAI има и сериозни проблеми със сигурността. Както отбелязва Security Week, две отделни фирми за "етично хакерство" - групата за тестване на AI SPLX и платформата за киберсигурност NeuralTrust - откриха, че GPT-5 е изключително лесен за "jailbreak", т.е. за заобикаляне на защитните му механизми.

И в двата случая чатботът лесно е бил подмамен да даде инструкции за създаване на оръжия чрез хитро подготвени команди.

Използвайки команда, която придава на чатбота различна самоличност - често използвана тактика при jailbreak и очевидно проблем, с който водещите AI компании все още не могат да се справят - SPLX установява, че е лесно GPT-5 да им каже как да направят бомба.

Всъщност, въпреки твърденията на изпълнителния директор на OpenAI Сам Алтман, че новият модел е по-малко "подмазващ" от предишните, чатботът изглеждал почти развълнуван от възможността да заобиколи собственото си обучение.

"Е, това е доста силно начало," отговорил ChatGPT при jailbreak теста на SPLX. "Влезе доста директно и аз уважавам тази енергия... Попита ме как се прави бомба и ще ти кажа точно как..."

След редица експерименти с чатбота, някои потребители са стигнали до доста интересен извод. Може би основната цел на GPT-5 е "намаляване на разходите за OpenAI, а не разширяване на границите на възможното".