Дори най-новите модели изкуствен интелект не са имунизирани срещу разсейване, съобщават от компанията Anthropic. В процес на демонстрация на кодиране, водещият им модел Claude 3.5 Sonnet се отклонява от задачата си и вместо това започва да разглежда снимки на Йелоустоун.

Claude 3.5 Sonnet е най-новото попълнение в усилията на Anthropic да разработи "AI агент" — модел, фокусиран върху изпълнение на задачи, подобно на автономни софтуерни асистенти.

Моделът, подкрепен финансово от Amazon, вече може да използва компютър, като движи курсора, въвежда команди и използва мишка, което му позволява да взаимодейства с всякакви софтуерни приложения.

Проблеми с прецизността и безопасността

Въпреки напредъка, AI моделът остава ненадежден и склонен към грешки, признават от Anthropic. Claude все още има затруднения при обичайни задачи, като влачене и мащабиране на обекти на екрана. При някои демонстрации, поради грешки, записаната работа е била изгубена.

С нарастващите способности на Claude възникват и въпроси за безопасността.

Anthropic изразява притеснения за потенциално опасни приложения, като например достъп до социални мрежи или важни сайтове. Компанията уверява, че предприема мерки за безопасност, включително с нови механизми за засичане на неправомерни действия на модела.

С подобрената версия на Claude, Anthropic се стреми към по-практични и безопасни AI решения, но инциденти като тези демонстрират, че пълната автономия на изкуствения интелект все още изисква внимание и развитие.