Илон Мъск е съгласен, че сме изчерпали данните за обучение на изкуствен интелект
А употребата на твърде много синтетични данни може да доведе до "колапс на модела"
Обратно в новинатаКоментари - Илон Мъск е съгласен, че сме изчерпали данните за обучение на изкуствен интелект | IT.dir.bg
Коментари
Много интелигент малко мъдрост. Мъск предлага този интелект да се рарови във фантазиите си за да търси истината. Подкрепям, аутизма и заглеждането в пъпа на ИИ ще помогне на хората да живеят в по-голямо спокойствие от ИИ. Да не забравяме че Буда, загледан в пъпа си и мислите си е пропуснал дори собствената си смърт.
Да ви преведа на български ситуацията. За да може ИИ да започне да си фантазира и да даде резултат - разбирай полюция - му е необходим хероин или казано общо някаква дрога, разбирай синтетични данни! пп Не признавам наименованието ИИ защото е нещо добро като постижение, но не е интелект! Може и да мине теста на Тюринг, но няма как и да се самовъзпроизвежда без човешка помощ! * Самостоятелно да мисли е абсурд! И нещо много важно все пак - за бояджия става и с някой китайски хуманоиден робот ще го взема в бригадата!
генерира купища неверни глупости, представям си като започне да се учи с инфо което сам е генерирал каква пълна небивалица ще настане
В момента ИИ е мода и му се възлагат, абсолютно неуместно, да решава и стандартни и нестандартни казуси. Естествено няма как да е полезен във всеки частен случай, за сметка на това ти губи времето, обтяга нервите, натоварва мрежите и в крайна сметка, ако си достатъчно упорит те прехвърля на човек, който да разреши проблема. Въвеждането на ИИ на много места е и неуместно, поддръжката му е по-скъпа, и вместо да подобри, влошава многократно обслужването на клиентите.-скъпо от човешкия труд.
поредна стратегическа зависимост на Човечеството от ИИ! Новите модели ще се самобучават предимно, тоест , ще ползват синтетични данни Човешкият контрол е все по-ефимерен, докато остане само пропагандна фикция - залъгалка за малоумни и лековерни гоим!
И за какво ти е контрол върху нещо което не разбираш? Как ще го контролираш, ако не можеш да го разбереш? Важно е да дава резултат, а как точно расъждава не е важно. Да, няма да можем да го контролираме - и какво от това? Политицте да не би да ги контролираме? А, очевидно са слабоумни, безотговорни и крадливи.
Парадокс. Откраднаха на хората труда за да обучават ИИ. Голяма част останаха без работа и сега вече няма материал за обучение на ИИ и няма хора да създават този материал. Ами ИИ да се самообучава. Ама не може. Това са Интелектуални Роботи а не ИИ.
Има и предел. ИИ може да е полезен и точен само там където действат строги правила, в ситуациите извън правилата може само да навреди. ИИ изисква скъпа поддръжка, несъмнено използването му извън масовите, стандартни казуси е модата на деня.
Колко халюцинации ще има в тези синтетични данни? И колко ще се мултиплицират те в обучението?