Предупреждение: "AI-приятелки" може да крадат вашите лични данни | IT.dir.bg

17-11-2017 20-11-2018
Предупреждение: "AI-приятелки" може да крадат вашите лични данни
Снимка: iStock by Getty Images

Предупреждение: "AI-приятелки" може да крадат вашите лични данни

Едно от най-страшните неща в чатботовете с AI е потенциалът за манипулиране на техните потребители, твърдят от Mozilla

| Редактор: Стоян Гогов 2 1735

В нов доклад експерти от Mozilla Foundation предупреждават, че чатботове-компаньони с изкуствен интелект - включително популярното приложение Replika - крият клопки за поверителността и имат съмнителни политики за използване на личните данни на потребителите си, съобщава Futurism.

"Така наречените "сродни души с изкуствен интелект" карат екипа на Mozilla да изтръпне, когато става въпрос за това колко лична информация събират", се казва в доклада, "особено като се има предвид липсата на прозрачност и потребителски контрол върху това как тези данни са защитени от злоупотреба."

С други думи, ботовете, предназначени да осигурят на уязвими и самотни хора усещане за интимност, ги ползват за трупане на данни за тях. Данни, които могат да се ползват за непрозрачни цели.

"За да бъда напълно откровен, приятелките и гаджетата с изкуствен интелект не са ваши приятели", каза изследователят на Mozilla Миша Риков в свое изявление. "Въпреки че те се рекламират като нещо, което ще подобри вашето психично здраве и благополучие, те се специализират в това да ви направят зависим, давайки ви повече самота и токсичност, като същевременно извличат възможно най-много данни от вас."

Според доклада, изследователите на Mozilla подлагат на тестове 11 придружаващи бота с изкуствен интелект, като в крайна сметка откриват, че "десет от 11-те чатбота не отговарят на минималните стандарти за сигурност на Mozilla, като например изискване на силни пароли или начин за управление на уязвимостите в сигурността".

Лошата защита срещу използване от непълнолетни и зашеметяващото количество тракери и бисквитки са друг проблем.

Тези тракери бяха хванати да изпращат данни на потребители в приложението до набор от екипи на трети страни, включително Facebook, DoubleClick, собственост на Google, и редица маркетингови и рекламни фирми.

Ботовете-компаньони са изрично предназначени да изграждат интимни взаимоотношения със своите потребители. Като се има предвид чувствителността на споделената информация, логично е, че недоброжелатели биха могли ефективно да я експлоатират.

"Едно от най-страшните неща за чатботовете за връзка с AI е потенциалът за манипулиране на техните потребители", каза в изявление Джен Калтридър, директор на проекта *Privacy Not Included на Mozilla.

"Какво ще спре недобросъвестни лица да създават AI чатботове, предназначени да ви бъдат "сродна душа" и след това те да използват тази връзка, за да манипулират хората в извършането на ужасни неща, да приемат плашещи идеологии или да нараняват себе си или другите?"

Всъщност, такъв пример вече има. Чатбот-приятелка подтикна млад мъж да опита да убие вече починалата кралица на Великобритания.

"Ето защо отчаяно се нуждаем от повече прозрачност," добави Калтридър, "и потребителски контрол в тези AI приложения."

 

Предупреждение: "AI-приятелки" може да крадат вашите лични данни

Предупреждение: "AI-приятелки" може да крадат вашите лични данни

Едно от най-страшните неща в чатботовете с AI е потенциалът за манипулиране на техните потребители, твърдят от Mozilla

| Редактор : Стоян Гогов 2 1735 Снимка: iStock by Getty Images

В нов доклад експерти от Mozilla Foundation предупреждават, че чатботове-компаньони с изкуствен интелект - включително популярното приложение Replika - крият клопки за поверителността и имат съмнителни политики за използване на личните данни на потребителите си, съобщава Futurism.

"Така наречените "сродни души с изкуствен интелект" карат екипа на Mozilla да изтръпне, когато става въпрос за това колко лична информация събират", се казва в доклада, "особено като се има предвид липсата на прозрачност и потребителски контрол върху това как тези данни са защитени от злоупотреба."

С други думи, ботовете, предназначени да осигурят на уязвими и самотни хора усещане за интимност, ги ползват за трупане на данни за тях. Данни, които могат да се ползват за непрозрачни цели.

"За да бъда напълно откровен, приятелките и гаджетата с изкуствен интелект не са ваши приятели", каза изследователят на Mozilla Миша Риков в свое изявление. "Въпреки че те се рекламират като нещо, което ще подобри вашето психично здраве и благополучие, те се специализират в това да ви направят зависим, давайки ви повече самота и токсичност, като същевременно извличат възможно най-много данни от вас."

Според доклада, изследователите на Mozilla подлагат на тестове 11 придружаващи бота с изкуствен интелект, като в крайна сметка откриват, че "десет от 11-те чатбота не отговарят на минималните стандарти за сигурност на Mozilla, като например изискване на силни пароли или начин за управление на уязвимостите в сигурността".

Лошата защита срещу използване от непълнолетни и зашеметяващото количество тракери и бисквитки са друг проблем.

Тези тракери бяха хванати да изпращат данни на потребители в приложението до набор от екипи на трети страни, включително Facebook, DoubleClick, собственост на Google, и редица маркетингови и рекламни фирми.

Ботовете-компаньони са изрично предназначени да изграждат интимни взаимоотношения със своите потребители. Като се има предвид чувствителността на споделената информация, логично е, че недоброжелатели биха могли ефективно да я експлоатират.

"Едно от най-страшните неща за чатботовете за връзка с AI е потенциалът за манипулиране на техните потребители", каза в изявление Джен Калтридър, директор на проекта *Privacy Not Included на Mozilla.

"Какво ще спре недобросъвестни лица да създават AI чатботове, предназначени да ви бъдат "сродна душа" и след това те да използват тази връзка, за да манипулират хората в извършането на ужасни неща, да приемат плашещи идеологии или да нараняват себе си или другите?"

Всъщност, такъв пример вече има. Чатбот-приятелка подтикна млад мъж да опита да убие вече починалата кралица на Великобритания.

"Ето защо отчаяно се нуждаем от повече прозрачност," добави Калтридър, "и потребителски контрол в тези AI приложения."