Възходът на изкуствения интелект поражда съществен страх сред някои хора. Част от тях вярват, че технологията ще отнеме работните им места. Но някои са още по-притеснени, че нов вид суперинтелигентни AI ще доведат до изчезването на човечеството. Страхуващите се от това са известни, като "AI дуумъри". И сред тях има и образовани хора.

Както пише The Atlantic, някои стигат до крайности в ежедневния си живот под влияние на този страх. Ученият от Института за изследвания върху машинния интелект (Machine Intelligence Research Institute) Нейт Соарес например казва, че е спрял да спестява за пенсия, тъй като е убеден, че изкуственият интелект вече е подпечатал съдбата на човечеството.

"Просто не очаквам светът да е тук тогава", казва той.

И Дан Хендрикс, директор на Центъра за безопасност на изкуствения интелект (Center for AI Safety), заявява пред списанието, че също не очаква хора да останат живи до неговото пенсиониране.

Тяхното убеждение е част от движението, според което ни остават само няколко години до момента, в който AI ще излезе извън контрол и ще се обърне срещу нас - сценарий, досущ като изваден от страниците на мрачен научнофантастичен роман или твърде познат холивудски хит ("Матрицата", "Терминаторът" и други).

Но все повече експерти твърдят, че това вече не изглежда като чиста фантазия.

Много специалисти алармират, че тези страхове се подценяват и неглижират. В резултат на това защитата от подобни апокалиптични сценарии не е на ниво.

Съществуват множество теории за това как може да се развие ситуацията. В началото на годината учени се събраха и се съгласиха, че е само въпрос на време AI да получи достъп до ядрени кодове.

Други изследвания вече показват зловеща страна на изкуствения интелект: системи, които шантажират хората, когато бъдат заплашени със спиране.

Освен да се самосъхраняват, AI могат да помогнат и на терористи. През юни OpenAI предупреди в блог публикация, че напреднали модели биха могли да помагат на опитни лица в създаването на биологични оръжия.

Дали всичко това е доказателство, че вървим към собственото си унищожение, все още е спорно. Въпреки това сегашните форми на технологията вече нанасят щети - от заливане на интернет с дезинформация до предизвикване на вълна от "AI-психоза".

Огромните слабости на системите също са очевидни. Последният модел GPT-5 на OpenAI например все още се проваля на елементарни въпроси, включително правилното броене на буквите "R" в думата strawberry.

И все пак има причина да се гледа сериозно на мрачните прогнози. Компаниите имат силна финансова мотивация да дават все повече контрол на AI, отбелязва The Atlantic.

А при анти-регулаторната политика на администрацията на Тръмп фирми като OpenAI едва ли ще бъдат особено стимулирани да поставят ефективни "огради" за ограничаване на своите модели.