AI експерти: Изкуственият интелект ще ни убие преди да се пенсионираме
Дори апокалиптичните страхове да не се реализират, то компаниите имат силна финансова мотивация да дават все повече контрол на AI
Възходът на изкуствения интелект поражда съществен страх сред някои хора. Част от тях вярват, че технологията ще отнеме работните им места. Но някои са още по-притеснени, че нов вид суперинтелигентни AI ще доведат до изчезването на човечеството. Страхуващите се от това са известни, като "AI дуумъри". И сред тях има и образовани хора.
Както пише The Atlantic, някои стигат до крайности в ежедневния си живот под влияние на този страх. Ученият от Института за изследвания върху машинния интелект (Machine Intelligence Research Institute) Нейт Соарес например казва, че е спрял да спестява за пенсия, тъй като е убеден, че изкуственият интелект вече е подпечатал съдбата на човечеството.
"Просто не очаквам светът да е тук тогава", казва той.
И Дан Хендрикс, директор на Центъра за безопасност на изкуствения интелект (Center for AI Safety), заявява пред списанието, че също не очаква хора да останат живи до неговото пенсиониране.
Тяхното убеждение е част от движението, според което ни остават само няколко години до момента, в който AI ще излезе извън контрол и ще се обърне срещу нас - сценарий, досущ като изваден от страниците на мрачен научнофантастичен роман или твърде познат холивудски хит ("Матрицата", "Терминаторът" и други).
Но все повече експерти твърдят, че това вече не изглежда като чиста фантазия.
Много специалисти алармират, че тези страхове се подценяват и неглижират. В резултат на това защитата от подобни апокалиптични сценарии не е на ниво.
Съществуват множество теории за това как може да се развие ситуацията. В началото на годината учени се събраха и се съгласиха, че е само въпрос на време AI да получи достъп до ядрени кодове.
Други изследвания вече показват зловеща страна на изкуствения интелект: системи, които шантажират хората, когато бъдат заплашени със спиране.
Освен да се самосъхраняват, AI могат да помогнат и на терористи. През юни OpenAI предупреди в блог публикация, че напреднали модели биха могли да помагат на опитни лица в създаването на биологични оръжия.
Дали всичко това е доказателство, че вървим към собственото си унищожение, все още е спорно. Въпреки това сегашните форми на технологията вече нанасят щети - от заливане на интернет с дезинформация до предизвикване на вълна от "AI-психоза".
Огромните слабости на системите също са очевидни. Последният модел GPT-5 на OpenAI например все още се проваля на елементарни въпроси, включително правилното броене на буквите "R" в думата strawberry.
И все пак има причина да се гледа сериозно на мрачните прогнози. Компаниите имат силна финансова мотивация да дават все повече контрол на AI, отбелязва The Atlantic.
А при анти-регулаторната политика на администрацията на Тръмп фирми като OpenAI едва ли ще бъдат особено стимулирани да поставят ефективни "огради" за ограничаване на своите модели.