Експертът по изкуствения интелект, Елиезер Юдковски, отправя нова прогноза за бъдещето на човечеството в специално интервю за в. "Гардиън".

Юдковски е една от основополагащите фигура в развитието на изкуствения интелект. Преди повече от 10 години той работи по начини, които да гарантират безопасността на технологията. Неговият песимизъм обаче надделява.

"Ако ме поставите до стената", казва той, "и ме принудите да поставям вероятности за нещата, имам чувството, че сегашната ни оставаща времева линия изглежда повече като пет години, отколкото 50 години. Две години, може да са и 10."

"Машинно изкован апокалипсис, като от "Терминатора" или като адския пейзаж на "Матрицата", така си представя специалистът времето отвъд тези 2 или 10 години. Според него не трябва да забравяме колко бързо се развива изкуствения интелект.

"Трудността е, че хората не осъзнават", допълва Юдковски. "Те не могат да осъзнаят скокът, който предстои. Скокът от "уау, вижте какво може този бот" до суперинтелект на божествено ниво, твърде бърз и твърде амбициозен, за да бъде задържан или ограничен от хората. За да разберете на къде отиват нещата - представете си извънземна цивилизация, която мисли хиляди пъти по-бързо от нас".

Изкуственият интелект е коренно различен от човешкия. Той лесно може да надмогне ограниченията на човешкия морал и етика. Някои дават пример с хора, които развалят мравуняк, за да построят сграда. В случая мравките може да сме ние.

Преди година Юдковски призова за бомбардиране на центрове за данни, за да се спре възхода на AI. Той обаче е един от мнозината критици, които питат - Защо технологиите трябва да се разглеждат като неизбежни?

Защо, ако рисковете от AI надхвърлят многократно ползите, трябва да продължим да разработваме тази технология?

Юдковски съветва да се забрани разработката на всичко по-мощно от GPT-4. По думите му ограниченията са един от малкото спасителни лостове на човечеството, относно AI.