Студентка от MIT напусна: Смята, че AGI ще убие човечеството преди да завърши
Парадоксално, но AI компаниите искат да вярвате в подобни апокалиптични сценарии
Обратно в новинатаКоментари - Студентка от MIT напусна: Смята, че AGI ще убие човечеството преди да завърши | IT.dir.bg
Коментари
Прави са, но като се има в предвид че първото приложение на каквато и да е технология е военно, а военните се интересуват от управление на територии, не от оживяването на хората, може съдбата на тези, които са шкартирани от ИИ да е много по-кратка. И не са прави за сроковете. Ако веднъж се направи интелект с КИ около 70, който със специфично обучение може да достигне 80, направата на интелект, който има КИ 300 не отнема много време, няколко месеца може би.
Причината е винаги по-голяма от следствието. Затова коефициента на полезно действие е винаги по-малък от единица. Създаването на генерализиран изкуствен интелект — система, която се изравнява или надминава човешкия интелект — е крайната цел на голяма част от индустрията за изкуствен интелект. Но това изисква създателите на такива системи да имат коефициент на полезно действие по-висок от единица. ИИ е митология на глобалистите. Както и квантовите компютри основани на идеята за дуализма на светлината и материята. Вавилонска "наука" с духовен център папствиото..