Изкуственият интелект Claude 3.5 Sonnet понякога се расейва от "скучни" задачи
Алгоритъмът може да управлява компютъра ви и да работи на записаните на него програми
Дори най-новите модели изкуствен интелект не са имунизирани срещу разсейване, съобщават от компанията Anthropic. В процес на демонстрация на кодиране, водещият им модел Claude 3.5 Sonnet се отклонява от задачата си и вместо това започва да разглежда снимки на Йелоустоун.
Claude 3.5 Sonnet е най-новото попълнение в усилията на Anthropic да разработи "AI агент" — модел, фокусиран върху изпълнение на задачи, подобно на автономни софтуерни асистенти.
Моделът, подкрепен финансово от Amazon, вече може да използва компютър, като движи курсора, въвежда команди и използва мишка, което му позволява да взаимодейства с всякакви софтуерни приложения.
Проблеми с прецизността и безопасността
Въпреки напредъка, AI моделът остава ненадежден и склонен към грешки, признават от Anthropic. Claude все още има затруднения при обичайни задачи, като влачене и мащабиране на обекти на екрана. При някои демонстрации, поради грешки, записаната работа е била изгубена.
С нарастващите способности на Claude възникват и въпроси за безопасността.
Anthropic изразява притеснения за потенциално опасни приложения, като например достъп до социални мрежи или важни сайтове. Компанията уверява, че предприема мерки за безопасност, включително с нови механизми за засичане на неправомерни действия на модела.
С подобрената версия на Claude, Anthropic се стреми към по-практични и безопасни AI решения, но инциденти като тези демонстрират, че пълната автономия на изкуствения интелект все още изисква внимание и развитие.