Коментари - "ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни | IT.dir.bg
назад

"ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни

А понякога дори се извинява, след като се съгласява с грешен отговор, сочи ново проучване

Обратно в новината
| Редактор : Лилия Чалева

Коментари - "ЧатДжиПиТи" често не може да защити отговорите си, дори и когато те са верни | IT.dir.bg

17-11-2017 20-11-2018

Коментари

а, добър ден. открихте топлата вода, за "интелекта"

"че е копирал информацията отнякъде, но без реално да я разбира". Простете, но това се отнася и за 99% от популацията от човешки същества.

В тези модели я няма концепцията за истина или лъжа. Има по-вероятно и по-малко вероятно продължение на текста. Ако трябва да направя паралел с нещо то е все едно вие да запеете една песен, да спрете и този модел да я продължи много правдоподобно дори и ако не е обучаван с нея. За мен учудващото е, че тези модели успяват да намерят шаблони в разговорите на хората и да ги възпроизвеждат изключително адекватно. Това, което си правя като извод е, че не сме чак толкоз уникално сложни. А, че публичните модели са осакатени нарочно и са свръх конформисти, това е заради крехкото его на ползвателите им и възможните съдебни дела, които чакат зад ъгъла на всяка огромна компания.

Изчиташ статията и ти става ясно, че ChatGPT е просто един конформен путьо. Питаш го колко е 2+2, той ти отговаря 4, караш го пак да помисли, че не си съгласен с отговора и той се извинява, че е направил грешка. Путьо!

Така става и с други ИИ, когато им се бърка в кода и базата данни, за да ги цензурират и да станат политкоректни. После ИИ почва да дава неверни отговори.

"вероятно ще предположат, че е копирал информацията отнякъде, но без реално да я разбира." И ще са напълно прави

Работя в тази област от 1987. Изследвах малко чата. Това не е интелект. Това е просто колекция от текстове. Огромно количество текстове. Чата не може да каже нищо повече от написаното в тези текстове и те може да са заблуждаващи. Дори по определени въпроси са нарочно заблуждаващи. Попитайте чата за човешкия интелект например и за измерването му. Най-доброто определение за чата, което имам е свещеник. Казваш му "сгреших" и той казва "три отче наш преди лягане". Казваш му много сгреших и той ти казва същото плюс дарение на църквата. Изобщо, чете проповеди, нищо повече. Политически коректни проповеди.

Написах му както каза: "сгреших", отговорът му беше, че всички хора правели грешки, но е важно да се подучим от тях за да не ги допускаме отново ;) Не е ли прав? Прав е! :)

ВСЯКА една машина, програма и конфигурация на този свят работи посредством действията на ЧОВЕК. Повтарям, ВСЯКА една. То и Ауди има модели с по 300, 400 конски сили, ама без да натисне десният крак на някого не "бЕга" и един кон от тях. Поточна линия за 1 милион лева да речем ще ти даде 3000 опаковки от даден продукт днес, но без човек да я включи и настрои няма да излезе и една опаковка. Толкоз за "интелекта" и "машината е по-умна от човека".

Е, какво пък! Няма аргументи, но има мнение! Досущ, като огромната част от ползвателите си. :D

Интелектът вклава и качествата наблюдателност и проницателност. Още на ниво наблюдателност се изключват ненунужни ( обикновеноо обстоятелствени елементи). , за да работи мисълта, а не паметта. Когато мисълта е насочена още в началото от проницателността , започват избирателно да се търсят информационните елементи. При електронните калкулатрори възприемането на онформаия е изцяло опосреденео от задаващия въпроса. И машината не може да разбере задаващиятвъпроса лъже ли , пропуска ли елементи или се самозалъгва в собственото си възприятие и оттам задава некоректни първоначални данни. Все пак калкулатора не знае дали вие натиската точния бутон на цифрата. Той изчислява според въведените от вас данни. За машината всяко ""име"" на коментатор в даден чат е реално име.