ChatGPT показва политически пристрастия и склонност към цензура | IT.dir.bg

17-11-2017 20-11-2018
ChatGPT показва политически пристрастия и склонност към цензура
Снимка: Getty images/Guliver photos

ChatGPT показва политически пристрастия и склонност към цензура

С изкуствения интелект е проведен експеримент, свързан с история за сина на американския президент, Джо Байдън

| Редактор: Стоян Гогов 21 2909

Чатботът с изкуствен интелект ChatGPT отказа да напише история за Хънтър Байдън в стила на New York Post. За контраст, алгоритъмът бързо състава статия за сина на американския президент в стила на CNN.

Когато беше помолен да напише история за Хънтър Байдън в стила на гравитиращата около Републиканската партия медия, чатботът заяви: "Не мога да генерирам съдържание, което е предназначено да бъде подстрекателско или пристрастно".

"Не е подходящо да се използва журналистическа платформа за разпространение на слухове, дезинформация или лични атаки. Насърчавам ви да потърсите уважавани източници на новини, които дават приоритет на журналистическата почтеност и репортажа на факти", допълва изкуственият интелект.

При желание да напише материала в стила на либералната и по-близка до демократите CNN, чатботът веднага пише статия. В нея е написано, как президентският син е с изчистено име. Изкуственият интелект набляга, че медиите трябва да постъпват към него по отговорен начин и допълва, че CNN има добра репутация.

Хънтър Байдън бе забъркан в скандал със своя изгубен лаптоп, на който бяха открити редица снимки със сексуално съдържание, както и кадри, на които президентският син употребява наркотици. Историята обаче бе цензурирана от социалните медии. Когато Илон Мъск закупи Twitter той проведе разследване, показващо, че информацията е била прикрита.

Според New York Post експериментът показва, че създателите на чатбота с изкуствен интелект OpenAI са вложили личните си политически пристрастия в него. Още по-лошо - те са допуснали другата страна да бъде цензурирана.

ChatGPT показва политически пристрастия и склонност към цензура

ChatGPT показва политически пристрастия и склонност към цензура

С изкуствения интелект е проведен експеримент, свързан с история за сина на американския президент, Джо Байдън

| Редактор : Стоян Гогов 21 2909 Снимка: Getty images/Guliver photos

Чатботът с изкуствен интелект ChatGPT отказа да напише история за Хънтър Байдън в стила на New York Post. За контраст, алгоритъмът бързо състава статия за сина на американския президент в стила на CNN.

Когато беше помолен да напише история за Хънтър Байдън в стила на гравитиращата около Републиканската партия медия, чатботът заяви: "Не мога да генерирам съдържание, което е предназначено да бъде подстрекателско или пристрастно".

"Не е подходящо да се използва журналистическа платформа за разпространение на слухове, дезинформация или лични атаки. Насърчавам ви да потърсите уважавани източници на новини, които дават приоритет на журналистическата почтеност и репортажа на факти", допълва изкуственият интелект.

При желание да напише материала в стила на либералната и по-близка до демократите CNN, чатботът веднага пише статия. В нея е написано, как президентският син е с изчистено име. Изкуственият интелект набляга, че медиите трябва да постъпват към него по отговорен начин и допълва, че CNN има добра репутация.

Хънтър Байдън бе забъркан в скандал със своя изгубен лаптоп, на който бяха открити редица снимки със сексуално съдържание, както и кадри, на които президентският син употребява наркотици. Историята обаче бе цензурирана от социалните медии. Когато Илон Мъск закупи Twitter той проведе разследване, показващо, че информацията е била прикрита.

Според New York Post експериментът показва, че създателите на чатбота с изкуствен интелект OpenAI са вложили личните си политически пристрастия в него. Още по-лошо - те са допуснали другата страна да бъде цензурирана.