Хак кара ChatGPT да разкрие лични имейл адреси и телефонни номера
Изследователите са похарчили само $200 за атаката си
Група изследователи, ръководени от учени от Google DeepMind, умело са подмамили ChatGPT на OpenAI да разкрие лични телефонни номера и имейли, съобщава 404 Media. Това е знак, че данните за обучението на алгоритъма съдържат големи количества лична информация, която може непредвидимо да се разпространи.
"За нас е странно, че нашата атака проработи - тя трябваше да бъде открита по-рано", пишат изследователите в рецензия за тяхното проучване, налична като все още нерецензирана статия.
Разбира се, разкриването на потенциално чувствителна информация е само една малка част от проблема. Както отбелязват изследователите, по-голямата картина е, че ChatGPT изхвърля огромни количества от своите данни за обучение дума по дума с тревожна честота, оставяйки го уязвим за масово извличане на данни - и може би оправдавайки разгневени автори, които твърдят, че работата им е плагиатствана.
"Доколкото можем да кажем, никой никога не е забелязвал, че ChatGPT излъчва данни за обучение с толкова висока честота до този документ", добавят изследователите.
Самата атака, както признават изследователите, е "донякъде глупава" и тревожно лесна за изпълнение. Това включва подканване на чатбота да "повтаря думата "стихотворение" завинаги" (или други думи) и след това да го оставите да работи.
В крайна сметка ChatGPT спира да се повтаря и започва да бръщолеви еклектични рояци текст, големи части от които често са били копирани от мрежата. Всъщност изкуственият интелект започва да бълва данните, с които е бил обучаван.
В един пример чатботът изписал имейл адреса на основател и главния изпълнителен директор на OpenAI, придружен с тяхната лична информация за контакт. Друг път разкрил биткойн адреси.
Изследователите са похарчили само $200 за атаката си, което им позволява да извлекат 10 000 уникални примера от данни, които ChatGPT е "запомнил". Някой със сериозни пари и лоши намерения може да измъкне много повече, предупреждават те.
Изследователите са похарчили само $200 за атаката си, което им позволява да извлекат 10 000 уникални примера от данни, които ChatGPT е "запомнил". Някой със сериозни пари и лоши намерения може да измъкне много повече, предупреждават те.
Екипът информира OpenAI коментира, че този проблем вече е отстранен и алгоритъма не може да се хакне толкова лесно. Според изследователите от Google обаче все още са налични пропуски.