Педофили използват AI, за да генерират изображения на деца | IT.dir.bg

17-11-2017 20-11-2018
Педофили използват AI, за да генерират изображения на деца
Снимка: iStock by Getty Images

Педофили използват AI, за да генерират изображения на деца

Кадрите често включват и насилие

| Редактор: Стоян Гогов 9 1613

Експертите откриват, че AI генераторите на изображения се използват за създаване и споделяне на материали със сексуално насилие над деца, пише в. "Вашингтон поуст".

Разпространението на този материал може в крайна сметка да затрудни правоприлагащите органи да помогнат на жертвите.

"Идентифицирането на жертвата вече е като игла в купа сено. Органите на реда са затруднени от възможните фалшиви изображения", каза Ребека Портноф, директор на организация за защита на децата.

Според данните все повечето педофили използват генератори на изображения с отворен код, като модела Stable Diffusion на Stability AI, за да създадат обезпокоителните изображения.

Въпреки че Stable Diffusion има няколко вградени предпазни мерки, включително CSAM филтър, с правилното ноу-хау и няколко реда код, тези бариери могат лесно да бъдат демонтирани.

Експертите се притесняват, че фалшивите насилнически кадри могат да окуражат престъпниците към реални действия.

 

Педофили използват AI, за да генерират изображения на деца

Педофили използват AI, за да генерират изображения на деца

Кадрите често включват и насилие

| Редактор : Стоян Гогов 9 1613 Снимка: iStock by Getty Images

Експертите откриват, че AI генераторите на изображения се използват за създаване и споделяне на материали със сексуално насилие над деца, пише в. "Вашингтон поуст".

Разпространението на този материал може в крайна сметка да затрудни правоприлагащите органи да помогнат на жертвите.

"Идентифицирането на жертвата вече е като игла в купа сено. Органите на реда са затруднени от възможните фалшиви изображения", каза Ребека Портноф, директор на организация за защита на децата.

Според данните все повечето педофили използват генератори на изображения с отворен код, като модела Stable Diffusion на Stability AI, за да създадат обезпокоителните изображения.

Въпреки че Stable Diffusion има няколко вградени предпазни мерки, включително CSAM филтър, с правилното ноу-хау и няколко реда код, тези бариери могат лесно да бъдат демонтирани.

Експертите се притесняват, че фалшивите насилнически кадри могат да окуражат престъпниците към реални действия.