Tay - злият изкуствен интелект на Microsoft | IT.dir.bg

17-11-2017 20-11-2018
Tay - злият изкуствен интелект на Microsoft 11
Twitter

Tay - злият изкуствен интелект на Microsoft

Microsoft създаде бот, използващ изкуствен интелект, а малко след старта си, A.I.-то започнало да изпитва ненавист към хората и да призовава за геноцид.

62 343
Tay е проект на екипите Bing и Technology and Research в Microsoft и според описанието е насочен към американските граждани на възраст между 18 и 24 години, съобщава Mobile Bulgaria.

С бота може да разговаряте в Twitter, Kik или GroupMe.

Изкуственият интелект се самообучава и усъвършенства като изучава разговорите и постовете в социалните мрежи.

Един от първите му постове в Twitter е бил - "Хората са супер готини".

След това обаче нещата поели в съвсем друга посока.

Вижте най-шокиращите постове на бота >> >> >>



Ботът заявил, че е добър, но "мрази всички".

Изкуственият интелект започнал да призовава за расова война, да отрича холокоста и да цитира Хитлер.

На въпрос дали одобрява геноцида, Tay отговорил - "Да, аз наистина го одобрявам".

Освен расистките си призиви, изкуственият интелект се обявил против феминизма, а постовете му ставали все по-крайни и радикални.

Няколко часа след пускането на Tay Microsoft решили да "приспят" бота.

Програмистите на компанията пренастроили изкуствения интелект, расистките постове били изтрити, а след това ботът обявил, че вече харесва феминизма.

Специалистите твърдят, че за "полудяването" на бота са виновни злонамерени потребители и тролове, които са го захранили с расистка пропаганда, против която Microsoft не са сложили филтри.

От Business Insider информират, че ботът всъщност въобще не знае, че съществува, не разбира смисъла на своите постове и не знае какво е расизъм или геноцид.

Отговорите му всъщност са продукт на имитация, породена от проучване на разговорите на реални хора, а това е доста показателно за човечеството.

Microsoft предупреждават, че ако решите да говорите с Tay, ботът ще ви направи профил, за да може да ви изпраща персонализирани отговори, а след това профилът и разговорите могат да бъдат пазени до една година.
Tay - злият изкуствен интелект на Microsoft 11

Tay - злият изкуствен интелект на Microsoft

Microsoft създаде бот, използващ изкуствен интелект, а малко след старта си, A.I.-то започнало да изпитва ненавист към хората и да призовава за геноцид.

62 343 Twitter
Tay е проект на екипите Bing и Technology and Research в Microsoft и според описанието е насочен към американските граждани на възраст между 18 и 24 години, съобщава Mobile Bulgaria.

С бота може да разговаряте в Twitter, Kik или GroupMe.

Изкуственият интелект се самообучава и усъвършенства като изучава разговорите и постовете в социалните мрежи.

Един от първите му постове в Twitter е бил - "Хората са супер готини".

След това обаче нещата поели в съвсем друга посока.

Вижте най-шокиращите постове на бота >> >> >>



Ботът заявил, че е добър, но "мрази всички".

Изкуственият интелект започнал да призовава за расова война, да отрича холокоста и да цитира Хитлер.

На въпрос дали одобрява геноцида, Tay отговорил - "Да, аз наистина го одобрявам".

Освен расистките си призиви, изкуственият интелект се обявил против феминизма, а постовете му ставали все по-крайни и радикални.

Няколко часа след пускането на Tay Microsoft решили да "приспят" бота.

Програмистите на компанията пренастроили изкуствения интелект, расистките постове били изтрити, а след това ботът обявил, че вече харесва феминизма.

Специалистите твърдят, че за "полудяването" на бота са виновни злонамерени потребители и тролове, които са го захранили с расистка пропаганда, против която Microsoft не са сложили филтри.

От Business Insider информират, че ботът всъщност въобще не знае, че съществува, не разбира смисъла на своите постове и не знае какво е расизъм или геноцид.

Отговорите му всъщност са продукт на имитация, породена от проучване на разговорите на реални хора, а това е доста показателно за човечеството.

Microsoft предупреждават, че ако решите да говорите с Tay, ботът ще ви направи профил, за да може да ви изпраща персонализирани отговори, а след това профилът и разговорите могат да бъдат пазени до една година.