Експерт по изкуствен интелект: ChatGPT е много по-глупав, отколкото си мислим
„Големите езикови модели са добри в това да казват как трябва да звучи отговорът. Това обаче е различно от реалния отговор“
Обратно в новинатаКоментари - Експерт по изкуствен интелект: ChatGPT е много по-глупав, отколкото си мислим | IT.dir.bg
Коментари
Много малка част от IT са истинско Аай- тий и неавтоматизируеми .Огромната плява там до 1-2 години GPT ще ги прати в банята ,както и разни принцеси без кайма ,наричани 'Маркетолози ,които са абсолютно безполезни за цялата цивилизация ,но стават все по голяма тежест за всяка корпорация ,която съвсем скоро така ще ги обели с напълно автоматизиран маркетинг ,че свят ще им се завие.
Това не пречи да сменим всички държавни лайнари с AI ще върши в пъти по добра работа от тази безполезна пасмина ' герои'
Съгласен съм с тази теза. След направени няколко опита това което получих е една търсачка в интернет, която е по-зле от търсачката на Гугъл. Проблем се появи от това, че задавам въпрос на български, но отговора касае Румъния. Да, но получавам само информация, която я има в български сайтове. Всъщност не получавам информация.
Проблемът е, че и масовият потребител е прост колкото него. Мозъкът му действа по подобен начин, не защото няма потенциал, а защото така е обучен.
Не е тъп, доста по-умен е от малоумния Гугъл. Пести време и търсене плюс това, че реално помага в доста професии.
Не съм го гледал, само са ми го хвалили. Но Гугъл го развалиха от поне 5 години, май точно с някакъв изкуствен интелект. Например търсиш 4 думи и ти дава Уикипедия в която има 1 от тях. Преди имаше да търси до 3 думи, дори да си задал повече. Реално Гугъл преди бе по-добър от сега или поне по-ясен.
Мдааа помага на прооозтаците....които вярват на всяко нешо което му каже изкусвтения зад...ник...толкова си разбираш от професията щом си опрял до "изкуствен интелект"
Муахахха. а ти от къде мислиш че изкуствения ти ентелект извлича информацията бе маму...л от въздиха ли..използва и гоогле и википедия и всякаква информация която набара...дръпни му интернет кабела на ентелекта и е ..ка...пут достатъчно е да се бълва фалшива информация в нета и ентелекта ще ти я сервива тази информация..
Оня ден слушах някакъв тъпунгер от ИТ бранша. В общи линии тезата му беше: Разработчиците, ако не се съгласите на 2-но по-ниска заплата и двойно по-дълго работно време ще ви сменим с ChatGPT. И онази патка - водещата му се хилеше и кискаше като п-ка. Та това в общи линии е тази истерия в продажните медии напоследък за т.нар ИИ. Корпорациите страхуват работниците да приемат да им станат роби. Бачкане до припадък за стотинки.
аз как да съм сигурен че хората имат интелект? Може и те само да ми изглеждат така! Ако нещо изглежда червено какво значение има че предишната боя е била зелена? Ако нещо неизглежда интелигентно това незначи че не е. Обаче нас това какво ни интересува? Важното е как изглежда за нас тъй като само с това имаме досег. Сега аз имам ли интелект и какъв?
това което учения от статията споменава е че бота може да ти даде само отговор който който вече съществува, не отговор който не съществува. с други думи отговор на въпрос за който не може да открадне нечий отговор от нета. например не може да ти даде отговор на въпрос на който науката още няма отговор. не само, същото важи и за много по прости неща. това което казваш с цветовете например. предмет е зелен. някой е писал в нета че то е зелен. питаш бота какво е на цвят - отговор: зелено е. вярно е зелено. пребоядисваш го червено. никой не пише в нета за това. питаш бота какво е на цвят - зелено е. опс грешка не е зелено. питам пак какъв цвят е - бота отговаря: зелено е. и още 100 пъти да го питам все ще ми отговаря, че е зелено. просто за бота това нещо е само зелено, защото в базата му данни единственото свързано с това нещо е зелено. това което обяснява учения е, че реално за лингвистичния бот е че за него концепциите зелено и червено не съществуват. той не разбира какво е цвят. той не разбира, че цветът може да бъде променен. щом аз му отговоря "цвета не е зелен", той не може да каже: да цвета може да се е променил, трябва да пратя някой да провери какъв цвят е. бота е просто манипулатор на база данни. достижението на лингвистичните модели е това, че могат да подредят данни в смислено изречение. в смислена реч. те не генерират нови данни. те не анализират данни. не генерират нов смисъл. на бота не можеш да му зададеш въпрос от типа "и какво от това като на този предмет цвета е зелен?" за бота няма логическа връзка отвъд това, което вече е в базите му данни. това е разликата между общия интелект и това което са тези ботове. когато говорим за хора обикновено го наричаме - досещане. ти не знаеш отговора, но правиш предположение с малкото информация, която имаш. примерно дори да не знаеш цвета на нещото ти казваш зелен е, аз ти казвам не е зелен пробвай пак, ти ще кажеш ами ... явно е пребоядисан ... е реално не знам какъв е цвета ... щом трябва да отговоря пак без да знам какъв е цвета и щом не е зелен ... може би е жълт. отговора пак е грешен, но странното е че на един и същи въпрос ти даваш различен отговор. бота няма причина да направи такова предположение, той има вписано в базата си данни че предмета е зелен. за него въпроса е изчерпан. за бота друг логичен отговор не съществува. задавай си въпроса колкото искаш, за бота предмета е зелен. всъщност бота дори не може да осъзнае, че отговора му е грешен или че въобще може да бъде грешен.
Още миналата година инженер от Гугъл каза - край играта свърши, друг инженер или същия не помня каза ИИ проявява съзнание. После го уволниха. Малко след това направиха институт за изкуствен интелект в София и първите му клиенти бяха Амазон /заедно с Майкрософт чат жпт/ и Гугъл - Бард. След шест месеца бяха готови да викат ура. Защо - защото и "големият лингвистичен модел" и пълният интелект са два български патента за лингвистичния модел САЩ извадиха 5 дни след публикацията "таен патент" от преди 10 години, което е абсурд по света но не и в САЩ за истинския интелект - декомпозиция, обобщаване, причина и следствие, фокус на внимание и тн издадоха патент. С лингвистичен модел може да се интерпретира текст и да се генерира, програми от естествен текст, преводи. Другото по нищо не отстъпва на човешки мозък... Говорят за лингвистичен модел, но ползват в нарушение патента в САЩ, не че другото не беше кражба...
Тоя, който го уволниха от Гугъл, хал-хабер си нямаше какво говори и с право го уволниха. Търсеше си петте минути слава и си я получи. Това, което твърдеше, че било проява на разум, няма нищо общо с разум, просто на него така му изглежда, понеже не е инженер, а тестер и няма представа какво се случва отзад.