Предупреждение: AI може да унищожи човечеството само след две години | IT.dir.bg

17-11-2017 20-11-2018
Предупреждение: AI може да унищожи човечеството само след две години
Снимка: iStock by Getty Images

Предупреждение: AI може да унищожи човечеството само след две години

Юдковски съветва да се забрани разработката на всичко по-мощно от GPT-4

| Редактор: Стоян Гогов 2 1334

Експертът по изкуствения интелект, Елиезер Юдковски, отправя нова прогноза за бъдещето на човечеството в специално интервю за в. "Гардиън".

Юдковски е една от основополагащите фигура в развитието на изкуствения интелект. Преди повече от 10 години той работи по начини, които да гарантират безопасността на технологията. Неговият песимизъм обаче надделява.

"Ако ме поставите до стената", казва той, "и ме принудите да поставям вероятности за нещата, имам чувството, че сегашната ни оставаща времева линия изглежда повече като пет години, отколкото 50 години. Две години, може да са и 10."

"Машинно изкован апокалипсис, като от "Терминатора" или като адския пейзаж на "Матрицата", така си представя специалистът времето отвъд тези 2 или 10 години. Според него не трябва да забравяме колко бързо се развива изкуствения интелект.

"Трудността е, че хората не осъзнават", допълва Юдковски. "Те не могат да осъзнаят скокът, който предстои. Скокът от "уау, вижте какво може този бот" до суперинтелект на божествено ниво, твърде бърз и твърде амбициозен, за да бъде задържан или ограничен от хората. За да разберете на къде отиват нещата - представете си извънземна цивилизация, която мисли хиляди пъти по-бързо от нас".

Изкуственият интелект е коренно различен от човешкия. Той лесно може да надмогне ограниченията на човешкия морал и етика. Някои дават пример с хора, които развалят мравуняк, за да построят сграда. В случая мравките може да сме ние.

Преди година Юдковски призова за бомбардиране на центрове за данни, за да се спре възхода на AI. Той обаче е един от мнозината критици, които питат - Защо технологиите трябва да се разглеждат като неизбежни?

Защо, ако рисковете от AI надхвърлят многократно ползите, трябва да продължим да разработваме тази технология?

Юдковски съветва да се забрани разработката на всичко по-мощно от GPT-4. По думите му ограниченията са един от малкото спасителни лостове на човечеството, относно AI.

Предупреждение: AI може да унищожи човечеството само след две години

Предупреждение: AI може да унищожи човечеството само след две години

Юдковски съветва да се забрани разработката на всичко по-мощно от GPT-4

| Редактор : Стоян Гогов 2 1334 Снимка: iStock by Getty Images

Експертът по изкуствения интелект, Елиезер Юдковски, отправя нова прогноза за бъдещето на човечеството в специално интервю за в. "Гардиън".

Юдковски е една от основополагащите фигура в развитието на изкуствения интелект. Преди повече от 10 години той работи по начини, които да гарантират безопасността на технологията. Неговият песимизъм обаче надделява.

"Ако ме поставите до стената", казва той, "и ме принудите да поставям вероятности за нещата, имам чувството, че сегашната ни оставаща времева линия изглежда повече като пет години, отколкото 50 години. Две години, може да са и 10."

"Машинно изкован апокалипсис, като от "Терминатора" или като адския пейзаж на "Матрицата", така си представя специалистът времето отвъд тези 2 или 10 години. Според него не трябва да забравяме колко бързо се развива изкуствения интелект.

"Трудността е, че хората не осъзнават", допълва Юдковски. "Те не могат да осъзнаят скокът, който предстои. Скокът от "уау, вижте какво може този бот" до суперинтелект на божествено ниво, твърде бърз и твърде амбициозен, за да бъде задържан или ограничен от хората. За да разберете на къде отиват нещата - представете си извънземна цивилизация, която мисли хиляди пъти по-бързо от нас".

Изкуственият интелект е коренно различен от човешкия. Той лесно може да надмогне ограниченията на човешкия морал и етика. Някои дават пример с хора, които развалят мравуняк, за да построят сграда. В случая мравките може да сме ние.

Преди година Юдковски призова за бомбардиране на центрове за данни, за да се спре възхода на AI. Той обаче е един от мнозината критици, които питат - Защо технологиите трябва да се разглеждат като неизбежни?

Защо, ако рисковете от AI надхвърлят многократно ползите, трябва да продължим да разработваме тази технология?

Юдковски съветва да се забрани разработката на всичко по-мощно от GPT-4. По думите му ограниченията са един от малкото спасителни лостове на човечеството, относно AI.