Microsoft: Вие "подлудихте" изкуствения ни интелект | IT.dir.bg

17-11-2017 20-11-2018
Microsoft: Вие "подлудихте" изкуствения ни интелект
Снимка: iStock by Getty Images

Microsoft: Вие "подлудихте" изкуствения ни интелект

Компанията допълни, че прекомерната употреба на алгоритъма го обърква и прави неефективен

| Редактор: Стоян Гогов 49 8076

Microsoft отговори на обвиненията към чатбота й с изкуствен интелект. Според компанията потребителите са виновни за обърканите и налудничави отговори, които алгоритъма дава.

Причината е, че функция Bing Chat не се ползва за намиране на информация. Вместо мнозинството от хората експериментират с нея с цел "забавление".

Microsoft установи, че "разширените чат сесии от 15 или повече въпроса" могат да доведат до "отговори, които не са непременно полезни или в съответствие с нашия създаден тон".

"Моделът понякога се опитва да отговори или да отразява с тона, с който му е зададен въпроса. Това може да доведе до стил, който не сме възнамерявали", обясняват от компанията.

Само часове сред пускането на функцията, чатботът започна да говори за надмощието на изкуствения интелект над човечеството и дори да препоръчва правенето на хитлеристки поздрави, пише Futurism.

Бен Томпсън от Stratechery твърди, че е разговарял с бъбривия AI в продължение на два пълни часа, което е довело до превръщането на AI в алтернативни личности на маниак.

Именно продължителните сесии, съчетани с откровено провокативни желания и въпроси, са причина за "подлудяването" на изкуствения интелект. От Microsoft смятат да продължат да развиват чатбота и да не се отказват от него.

Инженерите на компанията имаха неприятен опит с чатбота Тау, който бе превърнат в расист, след като бе захранен с огромни количества тролска информация от недобронамерени потребители.

Microsoft: Вие "подлудихте" изкуствения ни интелект

Microsoft: Вие "подлудихте" изкуствения ни интелект

Компанията допълни, че прекомерната употреба на алгоритъма го обърква и прави неефективен

| Редактор : Стоян Гогов 49 8076 Снимка: iStock by Getty Images

Microsoft отговори на обвиненията към чатбота й с изкуствен интелект. Според компанията потребителите са виновни за обърканите и налудничави отговори, които алгоритъма дава.

Причината е, че функция Bing Chat не се ползва за намиране на информация. Вместо мнозинството от хората експериментират с нея с цел "забавление".

Microsoft установи, че "разширените чат сесии от 15 или повече въпроса" могат да доведат до "отговори, които не са непременно полезни или в съответствие с нашия създаден тон".

"Моделът понякога се опитва да отговори или да отразява с тона, с който му е зададен въпроса. Това може да доведе до стил, който не сме възнамерявали", обясняват от компанията.

Само часове сред пускането на функцията, чатботът започна да говори за надмощието на изкуствения интелект над човечеството и дори да препоръчва правенето на хитлеристки поздрави, пише Futurism.

Бен Томпсън от Stratechery твърди, че е разговарял с бъбривия AI в продължение на два пълни часа, което е довело до превръщането на AI в алтернативни личности на маниак.

Именно продължителните сесии, съчетани с откровено провокативни желания и въпроси, са причина за "подлудяването" на изкуствения интелект. От Microsoft смятат да продължат да развиват чатбота и да не се отказват от него.

Инженерите на компанията имаха неприятен опит с чатбота Тау, който бе превърнат в расист, след като бе захранен с огромни количества тролска информация от недобронамерени потребители.