Измамниците все по-често използват изкуствен интелект за фишинг и кражба на пари | IT.dir.bg

17-11-2017 20-11-2018
Измамниците все по-често използват изкуствен интелект за фишинг и кражба на пари
Снимка: iStock by Getty Images

Измамниците все по-често използват изкуствен интелект за фишинг и кражба на пари

ИИ помага да се генерират персонализирани съобщения от името на доверени лица

| Редактор: Кристиан Антонов 2 1760

Проучване показва, че измамниците все по-често използват технологиите на изкуствения интелект (ИИ), за да извършват престъпления и да заобикалят защитите. ChatGPT и други подобни чатботове могат да генерират по-достоверни и грамотни текстове за фишинг имейли. Те трудно се разпознават по традиционните признаци на измама.

Според американския бизнес вестник The Wall Street Journal измамниците използват ИИ, за да имитират гласовете на истински хора и да създават т.нар. дълбоки фалшификати - фалшиви аудио и видеоклипове. Това помага да се представят за банкови служители, ръководители на компании и да изискват парични преводи или разкриване на поверителни данни. Според Мат Нийл, бивш агент на американското разузнаване, сега е много по-трудно да се разпознае кой всъщност говори. Престъпниците могат да водят смислен диалог, като използват личната информация на жертвата, за да изградят доверие.

Въпреки това големите американски банки, включително JPMorgan Chase, разработват свои собствени системи с изкуствен интелект за откриване на нови схеми за измами. Престъпниците обаче все още са напред - те атакуват все повече хора и кражбите стават все по-големи. По данни на Федералната търговска комисия на САЩ през 2023 г. американците ще загубят рекордните 10 млрд. долара от измамници, което е с 1 млрд. щ. долара повече, отколкото през 2022 г. В същото време само 5% от жертвите съобщават за загубите си, така че реалните щети може да достигнат 200 млрд. щ. долара.

Според експерти измамниците активно използват инструменти на изкуствения интелект за събиране на лични данни в социалните мрежи. По този начин ИИ помага да се генерират персонализирани съобщения от името на доверени лица, за да се убедят хората да предадат пари или чувствителна информация. Според проучване сред банкови специалисти 70% от тях смятат, че хакерите използват ИИ по-ефективно от финансовите организации. Освен това се прогнозира, че броят на измамите, използващи изкуствен интелект, ще продължи да нараства значително.

Измамниците също така активно използват инструменти на ИИ, за да автоматизират хакването на онлайн акаунтите на потребителите. Ако получат достъп до електронната поща и паролата за дадена услуга на жертвата, те използват програми, задвижвани от ИИ, които бързо проверяват дали тези данни са подходящи за достъп до други сметки на лицето, като например банкови сметки или профили в социалните мрежи.

За да противодействат на тази заплаха, банките внедряват собствени системи с изкуствен интелект, които следят поведението на клиентите, т.е. как точно се въвеждат данните, какви устройства се използват за влизане в приложението. Ако има отклонения от нормалното поведение, системата подава сигнал за тревога и може да изиска допълнителна автентикация.

Банките също така анализират скоростта на писане, за да определят дали дадено лице действа под натиск. ИИ също така открива подозрителни признаци, като например вмъкване на копиран текст или прекалено равномерно писане. Експертите препоръчват да се активира двуфакторно удостоверяване, за да се защитят онлайн акаунтите и да се прояви бдителност в ситуации, когато някой внезапно започне да изисква спешни действия за прехвърляне на парична сума.

Измамниците все по-често използват изкуствен интелект за фишинг и кражба на пари

Измамниците все по-често използват изкуствен интелект за фишинг и кражба на пари

ИИ помага да се генерират персонализирани съобщения от името на доверени лица

| Редактор : Кристиан Антонов 2 1760 Снимка: iStock by Getty Images

Проучване показва, че измамниците все по-често използват технологиите на изкуствения интелект (ИИ), за да извършват престъпления и да заобикалят защитите. ChatGPT и други подобни чатботове могат да генерират по-достоверни и грамотни текстове за фишинг имейли. Те трудно се разпознават по традиционните признаци на измама.

Според американския бизнес вестник The Wall Street Journal измамниците използват ИИ, за да имитират гласовете на истински хора и да създават т.нар. дълбоки фалшификати - фалшиви аудио и видеоклипове. Това помага да се представят за банкови служители, ръководители на компании и да изискват парични преводи или разкриване на поверителни данни. Според Мат Нийл, бивш агент на американското разузнаване, сега е много по-трудно да се разпознае кой всъщност говори. Престъпниците могат да водят смислен диалог, като използват личната информация на жертвата, за да изградят доверие.

Въпреки това големите американски банки, включително JPMorgan Chase, разработват свои собствени системи с изкуствен интелект за откриване на нови схеми за измами. Престъпниците обаче все още са напред - те атакуват все повече хора и кражбите стават все по-големи. По данни на Федералната търговска комисия на САЩ през 2023 г. американците ще загубят рекордните 10 млрд. долара от измамници, което е с 1 млрд. щ. долара повече, отколкото през 2022 г. В същото време само 5% от жертвите съобщават за загубите си, така че реалните щети може да достигнат 200 млрд. щ. долара.

Според експерти измамниците активно използват инструменти на изкуствения интелект за събиране на лични данни в социалните мрежи. По този начин ИИ помага да се генерират персонализирани съобщения от името на доверени лица, за да се убедят хората да предадат пари или чувствителна информация. Според проучване сред банкови специалисти 70% от тях смятат, че хакерите използват ИИ по-ефективно от финансовите организации. Освен това се прогнозира, че броят на измамите, използващи изкуствен интелект, ще продължи да нараства значително.

Измамниците също така активно използват инструменти на ИИ, за да автоматизират хакването на онлайн акаунтите на потребителите. Ако получат достъп до електронната поща и паролата за дадена услуга на жертвата, те използват програми, задвижвани от ИИ, които бързо проверяват дали тези данни са подходящи за достъп до други сметки на лицето, като например банкови сметки или профили в социалните мрежи.

За да противодействат на тази заплаха, банките внедряват собствени системи с изкуствен интелект, които следят поведението на клиентите, т.е. как точно се въвеждат данните, какви устройства се използват за влизане в приложението. Ако има отклонения от нормалното поведение, системата подава сигнал за тревога и може да изиска допълнителна автентикация.

Банките също така анализират скоростта на писане, за да определят дали дадено лице действа под натиск. ИИ също така открива подозрителни признаци, като например вмъкване на копиран текст или прекалено равномерно писане. Експертите препоръчват да се активира двуфакторно удостоверяване, за да се защитят онлайн акаунтите и да се прояви бдителност в ситуации, когато някой внезапно започне да изисква спешни действия за прехвърляне на парична сума.