Понякога текстовите генератори от ново поколение и алгоритмите-художници влизат в състояние познато, като "машинна халюцинация". На пръв поглед изкуственият интелект може да даде странен или безсмислен резултат. Според шефа на Stable Diffusion AI не може да халюцинира, но може би наднича в паралелни реалности.

 "Големите езикови модели (LLM) не халюцинират. Те са просто прозорци към алтернативни реалности в латентното пространство", пише главният изпълнителен директор на Stability.ai Емад Мостаке.

"Просто разширете съзнанието си", добавя той.

Какво означава латентно пространство? Това е концепция в дълбокото машинно обучение, използвана за описание на "скрито", компресирано пространство между входно и изходно изображение.

Независимо от това дали една машинна халюцинация се възприема като врата към друга реалност или обикновен страничен ефект, фактът остава: тя не е плод на нашата човешка реалност.

Ако помолите изкуственият интелект, например, да ви напише биография и тази биография е пълна с неточности и разкрасявания, то те са плод на "машинна халюцинация". За програмистите би било много лесно да оправдаят това с "паралелна реалност".

Вярването, че всички "машинни халюцинации" всъщност са просто врата към алтернативни реалности, а не компресия със загуби на данни, може да бъде доста опасно. То отваря път на много конспирации и може да доведе до мистифициране или дори обожествяване на изкуствения интелект.

"Въплъщението на ноосферата. Хрониките на Акаша в силиций. Колективното несъзнавано", пишат следващите Мостаке в Twitter.

Не всички са впечатлени от мистицизма му.

"LLM възприемат данните от обучението, а не реалността", пише в коментарите друг потребител.

"Големите езикови модели са механизми за приспадане. В тях няма нищо феноменално. Те са застопорени изцяло в една единствена, тясна реалност", допълва друг.