Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите? | IT.dir.bg

17-11-2017 20-11-2018
Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?
Снимка: iStock by Getty Images

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?

Повечето хора не могат да различат отговорите на алгоритъма от човешки

| Редактор: Стоян Гогов 50 15485

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг, съобщи специализираното издание LiveScience.

Тестът на Тюринг, предложен от британския математик Алан Тюринг, цели да определи дали една машина може да има "човешки разум". Това става с експеримент, при който доброволец говори със скрити за него събеседници - машина и реален човек. След това той трябва да определи кой от двамата е компютър. Ако не може, то значи способностите на машината са станали неотличими от човешките.

Изследователите Камерън Р. Джоунс и Бенджамин К. Берген решили да проведат теста на Тюринг с изкуствения интелект GPT-4 на OpenAI.

Екипът е помолил 500 души да говорят с четирима респонденти - човек, програмата ELIZA от 60-те години на миналия век, алгоритъма GPT-3.5 и по-новия GPT-4. 

Разговорите продължили пет минути, след което участниците трябвало да определят кой от събеседниците им е човек.

Оказва се, че в 54% от случаите GPT-4 е определян за човек. Резултатът на реалния събеседник пък е едва 67%.

Системата ELIZA е с най-нисък резултат - 22%. Алгоритъмът GPT-3.5 отбеляза също високите 50%.

Резултатът кара учените да се притеснят от напредъка в AI системите. По думите им "широко разпространените социални и икономически последици" са гарантирани.

Проучването представлява предизвикателство за бъдещото взаимодействие човек-машина.

"ELIZA е ограничена до готови програмирани отговори. Това значително намалява възможностите ѝ. Тя може да заблуди някого за пет минути, но след това ограниченията ѝ щяха да станат ясни. За разлика от нея големите езикови модели, като GPT, са безкрайно гъвкави, способни да синтезират отговори на широк спектър от теми и да се представят с различни личност и ценности. Това е огромна крачка напред от нещо, ръчно програмирано от нас", коментира Нел Уотсън от Института за инженери по електротехника и електроника (IEEE).

Според Уотсън хората в бъдеще ще станат параноични относно това с кого говорят, защото ще знаят, че другата страна може да не е човек.

"Нашите резултати предполагат, че в реалния свят хората може да не са в състояние надеждно да разберат дали говорят с човек или с AI система", каза пред Tech Xplore Камерън Джоунс, съавтор на доклада. 

"Всъщност в реалния свят хората може да са по-малко наясно с възможността, че говорят с AI система, така че степента на измама може да е дори по-висока", предупреждава Джоунс.

Проучването може да се прочете тук >>>

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг. Какво показват резултатите?

Повечето хора не могат да различат отговорите на алгоритъма от човешки

| Редактор : Стоян Гогов 50 15485 Снимка: iStock by Getty Images

Изкуственият интелект GPT-4 на OpenAI премина теста на Тюринг, съобщи специализираното издание LiveScience.

Тестът на Тюринг, предложен от британския математик Алан Тюринг, цели да определи дали една машина може да има "човешки разум". Това става с експеримент, при който доброволец говори със скрити за него събеседници - машина и реален човек. След това той трябва да определи кой от двамата е компютър. Ако не може, то значи способностите на машината са станали неотличими от човешките.

Изследователите Камерън Р. Джоунс и Бенджамин К. Берген решили да проведат теста на Тюринг с изкуствения интелект GPT-4 на OpenAI.

Екипът е помолил 500 души да говорят с четирима респонденти - човек, програмата ELIZA от 60-те години на миналия век, алгоритъма GPT-3.5 и по-новия GPT-4. 

Разговорите продължили пет минути, след което участниците трябвало да определят кой от събеседниците им е човек.

Оказва се, че в 54% от случаите GPT-4 е определян за човек. Резултатът на реалния събеседник пък е едва 67%.

Системата ELIZA е с най-нисък резултат - 22%. Алгоритъмът GPT-3.5 отбеляза също високите 50%.

Резултатът кара учените да се притеснят от напредъка в AI системите. По думите им "широко разпространените социални и икономически последици" са гарантирани.

Проучването представлява предизвикателство за бъдещото взаимодействие човек-машина.

"ELIZA е ограничена до готови програмирани отговори. Това значително намалява възможностите ѝ. Тя може да заблуди някого за пет минути, но след това ограниченията ѝ щяха да станат ясни. За разлика от нея големите езикови модели, като GPT, са безкрайно гъвкави, способни да синтезират отговори на широк спектър от теми и да се представят с различни личност и ценности. Това е огромна крачка напред от нещо, ръчно програмирано от нас", коментира Нел Уотсън от Института за инженери по електротехника и електроника (IEEE).

Според Уотсън хората в бъдеще ще станат параноични относно това с кого говорят, защото ще знаят, че другата страна може да не е човек.

"Нашите резултати предполагат, че в реалния свят хората може да не са в състояние надеждно да разберат дали говорят с човек или с AI система", каза пред Tech Xplore Камерън Джоунс, съавтор на доклада. 

"Всъщност в реалния свят хората може да са по-малко наясно с възможността, че говорят с AI система, така че степента на измама може да е дори по-висока", предупреждава Джоунс.

Проучването може да се прочете тук >>>