Измамите с гласови AI-клонинги се увеличават. Как да се предпазите
Според Starling Bank 28% от възрастните британци са били мишена на измами с AI-клонинги на гласове
Ало-измамниците започват все по-често да разчитат на новите технологии с изкуствен интелект. Започват да зачестяват случаите, в които престъпниците използват AI модели, имитиращи човешки гласове. Така жертвите могат да получат обаждане от глас, който звучи като на член от семейството им, но всъщност да е задвижван с алгоритъм, пише TechRadar.
Рисковете от AI в телефонните измами
Новите AI инструменти, обучени с човешки гласове, създават ново ниво на заплаха. Тези технологии, като гласовия API на OpenAI, позволяват разговори в реално време между човек и AI модел. С малко програмен код тези модели могат да бъдат настроени за автоматизирани измами, убеждавайки жертвите да споделят чувствителна информация.
Например, тази година OpenAI беше подложена на критика за опцията си Sky voice, която имитираше гласа на Скарлет Йохансон, а сър Дейвид Атънбъроу изрази своето "дълбоко безпокойство" за AI клонинг на неговия глас, който е неразличим от реалния.
Дори няколко секунди аудио могат да бъдат достатъчни за симулация на гласа на близък човек. Това може лесно да бъде взето от видео, споделено в социалните мрежи.
Как работят измамите с AI клонинги на гласове
Концепцията е подобна на стандартните телефонни измами: измамниците се представят за някого, за да спечелят доверието на жертвата, след което създават усещане за спешност, карайки я да разкрие чувствителна информация или да прехвърли пари.
Разликата при гласовите клонинги е двойна. Първо, престъпниците могат да автоматизират процеса с код, което им позволява да достигнат до повече хора по-бързо и с по-малко разходи. Второ, те могат да имитират не само известни личности, но и хора, които познавате лично.
Всичко, което е необходимо, е аудио проба, обикновено взета от видео онлайн. Това се анализира от AI модела и се използва за измамни взаимодействия. Един често срещан метод е имитацията на член на семейството, който иска пари в извънредна ситуация.
Как да се защитите от гласови измами с AI
Според Starling Bank 28% от възрастните в Обединеното кралство са били мишена на измами с AI клонинги на гласове, но само 30% са уверени, че могат да ги разпознаят. Ето някои препоръки:
- Използвайте тайна фраза
Starling Bank съветва членовете на семействата и близките им приятелите да се договорят за тайна фраза или код, който да използват за потвърждение на идентичността си.
- Задавайте лични въпроси
Ако се съмнявате в самоличността на обаждащия се, попитайте за нещо, което само той би знаел - например детайл от последния ви разговор или друг тип лична информация, която трудно може да се намери онлайн.
- Доверявайте се на слуха си
Въпреки че AI гласовете са убедителни, те не са 100% точни. Обърнете внимание на признаци като неравномерни акценти на определени думи, липса на емоции или странни интонации.
- Избягвайте импулсивни действия
Измамниците използват емоционален натиск и създават чувство за спешност, за да ви накарат да действате бързо. Бъдете нащрек при необичайни искания, особено ако са свързани с парични трансфери.
- Проверете номера
Ако не сте сигурни, затворете и се обадете обратно на познатия ви номер на този човек.