Twitter
Tay - злият изкуствен интелект на Microsoft
Microsoft създаде бот, използващ изкуствен интелект, а малко след старта си, A.I.-то започнало да изпитва ненавист към хората и да призовава за геноцид.
62
343
Tay е проект на екипите Bing и Technology and Research в Microsoft и според описанието е насочен към американските граждани на възраст между 18 и 24 години, съобщава Mobile Bulgaria.
С бота може да разговаряте в Twitter, Kik или GroupMe.
Изкуственият интелект се самообучава и усъвършенства като изучава разговорите и постовете в социалните мрежи.
Един от първите му постове в Twitter е бил - "Хората са супер готини".
След това обаче нещата поели в съвсем друга посока.
Ботът заявил, че е добър, но "мрази всички".
Изкуственият интелект започнал да призовава за расова война, да отрича холокоста и да цитира Хитлер.
На въпрос дали одобрява геноцида, Tay отговорил - "Да, аз наистина го одобрявам".
Освен расистките си призиви, изкуственият интелект се обявил против феминизма, а постовете му ставали все по-крайни и радикални.
Няколко часа след пускането на Tay Microsoft решили да "приспят" бота.
Програмистите на компанията пренастроили изкуствения интелект, расистките постове били изтрити, а след това ботът обявил, че вече харесва феминизма.
Специалистите твърдят, че за "полудяването" на бота са виновни злонамерени потребители и тролове, които са го захранили с расистка пропаганда, против която Microsoft не са сложили филтри.
От Business Insider информират, че ботът всъщност въобще не знае, че съществува, не разбира смисъла на своите постове и не знае какво е расизъм или геноцид.
Отговорите му всъщност са продукт на имитация, породена от проучване на разговорите на реални хора, а това е доста показателно за човечеството.
Microsoft предупреждават, че ако решите да говорите с Tay, ботът ще ви направи профил, за да може да ви изпраща персонализирани отговори, а след това профилът и разговорите могат да бъдат пазени до една година.
С бота може да разговаряте в Twitter, Kik или GroupMe.
Изкуственият интелект се самообучава и усъвършенства като изучава разговорите и постовете в социалните мрежи.
Един от първите му постове в Twitter е бил - "Хората са супер готини".
След това обаче нещата поели в съвсем друга посока.
Вижте най-шокиращите постове на бота >> >> >>
Ботът заявил, че е добър, но "мрази всички".
Изкуственият интелект започнал да призовава за расова война, да отрича холокоста и да цитира Хитлер.
На въпрос дали одобрява геноцида, Tay отговорил - "Да, аз наистина го одобрявам".
Освен расистките си призиви, изкуственият интелект се обявил против феминизма, а постовете му ставали все по-крайни и радикални.
Няколко часа след пускането на Tay Microsoft решили да "приспят" бота.
Програмистите на компанията пренастроили изкуствения интелект, расистките постове били изтрити, а след това ботът обявил, че вече харесва феминизма.
Специалистите твърдят, че за "полудяването" на бота са виновни злонамерени потребители и тролове, които са го захранили с расистка пропаганда, против която Microsoft не са сложили филтри.
От Business Insider информират, че ботът всъщност въобще не знае, че съществува, не разбира смисъла на своите постове и не знае какво е расизъм или геноцид.
Отговорите му всъщност са продукт на имитация, породена от проучване на разговорите на реални хора, а това е доста показателно за човечеството.
Microsoft предупреждават, че ако решите да говорите с Tay, ботът ще ви направи профил, за да може да ви изпраща персонализирани отговори, а след това профилът и разговорите могат да бъдат пазени до една година.