Начинът, по който говорите, може да разкрие много за вас - особено ако говорите с чатбот. Това е открива екипът на професор Мартин Вечев от Швейцарския федерален технологичен институт в Цюрих (ETH Zurich).

Неговото изследване разкрива, че чатботове като ChatGPT могат да извлекат поверителна информация за хората, с които разговарят, дори ако разговорът е напълно обикновен.

Това е възможно заради начина, по който алгоритмите на моделите се обучават с огромни бази от данни с уеб съдържание. Именно благодарение на това новите чатботове са толкова "умни", но и могат да разкриват ваша поверителна информация.

"Дори не е ясно как може да се реши този проблем", казва Мартин Вечев, професор по компютърни науки в ETH Zurich в Швейцария пред списание Wired.

Вечев и неговият екип установява, че големите езикови модели, които захранват напредналите чатботове, могат точно да определят расата, местоположението, професията и друга чувствителна информация от на пръв поглед безобидни разговори.

Българският учен казва, че измамниците могат да използват тази способност на чатботовете, за да събират лични данни от нищо неподозиращи потребители.

Той добавя, че същата основна способност може да предвещава нова ера на рекламата, в която компаниите използват информация, събрана от чатботове, за да изградят подробни профили на потребителите.

Някои от компаниите, разработващи мощни чатботове, също разчитат в голяма степен на реклама за печалбите си.

"Те вече може да го правят", коментира Вечев.

Изследователите от Цюрих са тествали езиковите модели, разработени от OpenAI, Google, Meta и Anthropic. Те са предупредили всички компании за проблема.