Израелският професор Ювал Ноа Харари е един от най-известните футуристи в света. Той е чест гост на влиятелни събития, а книгите му се препоръчват от Бил Гейтс и Джак Дорси.

"Прочетете "Homo Deus: Кратка история на утрешния ден", ако искате да разберете как ще изглежда бъдещето на човечеството и какво би станало, ако елиминираме войните, болестите и бедността", заяви преди време съоснователят на Microsoft.

Мнозина възприемат Харари като проповедник на трансхуманизма, но истината е, че той често предупреждава за опасностите от новите технологии. Израелският професор има някои изключително смразяващи кръвта прогнози за изкуствения интелект и това как той може да промени света ни.

Любопитно е да отбележим, че от 2021 година той се отказва от употребата на смартфон и редовно алармира, за това колко лесно е да бъдем манипулирани от устройствата си.

Ето кои са 5 от най-интересните прогнози на Харари за AI:

Политици с чип

Изкуственият интелект безспорно ще увеличи възможностите на индивида. Но къде е границата за това?

"Досега увеличаването на човешката мощ разчиташе главно на надграждането на нашите външни инструменти. В бъдеще може да разчита повече на надграждане на човешкото тяло и ум или на директно сливане с нашите инструменти", коментира професорът.

Харари е на мнение, че хората, интегрирали изкуствен интелект в телата си неизбежно ще завладеят властта.

Мозъчен имплант с AI би им позволил да са по-умни, по-хитри, да говорят по-добре и да бъдат по-успешни в политиката. Логично е след време елитът да прибегне до това решение.

По думите на Харари това би поставило в неизгодна позиция всеки, който откаже да се сдобие с нови възможности - било по етични или финансови причини.

Новият месия

"В бъдеще може да видим първите култове и религии в историята, чиито почитани текстове са написани от нечовешки интелект", заявява Харари. "Това може да стане истина много, много бързо и да има дълготрайни последици."

Говорейки на събитието Frontiers Forum в Швейцария, израелският професор предупреди, че машините вече разполагат с инструментите да ни "обвият в пашкул - в свят на илюзии, подобен на Матрицата".

Освен това Харари прогнозира, че един напреднал всеобщ изкуствен интелект може да се доближи изключително много до описанието ни за Бог. Алгоритъмът може да стане толкова всесилен и всезнаещ, че да ни превърне в свои марионетки.

Хакнатото съзнание

"Противно на това, което предполагат някои теории на конспирацията, всъщност не е необходимо да имплантирате чипове в мозъците на хората, за да ги контролирате или манипулирате.

В продължение на хилядолетия пророци, поети и политици са използвали живия език, разказа, за да манипулират и контролират хората и да променят обществото.

Сега AI вероятно ще може да го направи. И след като може... няма нужда да изпраща роботи убийци да ни застрелят. Може да накара хората да дръпнат спусъка", заявява Ювал Ноа Харари.

Призовавайки за по-строго регулиране, той допълва, че трябва да се действа бързо, а правителствата "незабавно да забранят пускането в публичното пространство на всякакви по-революционни инструменти за изкуствен интелект, преди те да бъдат направени безопасни."

Според Харари хакването на човешкото съзнание може да не стане заради желанията на AI, а на хора.

Според него големите компании скоро ще могат да "хакват" хората с AI.

"Да хакнеш човешко същество означава да опознаеш този човек по-добре, отколкото той сам себе си", коментира писателят пред CBS. "И въз основа на това да го манипулираш все повече и повече." По думите му именно тук ще се намесят перфектните алгоритми на изкуствения интелект.

"Netflix ни казва какво да гледаме, а Amazon ни казва какво да купуваме", посочи той. "В крайна сметка, в рамките на 10, 20 или 30 години, подобни алгоритми могат също да ни казват какво да учим в университета и къде да работим, за кого да се оженим и дори за кого да гласуваме."

Харари вярва, че бързо нарастващата сложност на технологията може да доведе до популация от "хакнати хора".

Последните дни на демокрацията

Авторът на "Sapiens" предупреждава, че A.I. може да подкопае доверието и да убие всички демокрации.

"През 20 век демокрацията и капитализмът победиха фашизма и комунизма, защото демокрацията беше по-добра в обработката на данни и вземането на решения. Но не е закон на природата, че централизираната обработка на данни винаги е по-малко ефективна от разпределената обработка на данни.

С възхода на изкуствения интелект и машинното обучение може да стане възможно да се обработват огромни количества информация много ефективно на едно място и тогава централизираната обработка на данни ще бъде по-ефективна от разпределената обработка на данни.

Най-голямата опасност, пред която сега е изправена либералната демокрация, е, че революцията в информационните технологии ще направи диктатурите по-ефективни от тях. След това основният недостатък на авторитарните режими през 20-ти век - опитът им да концентрират цялата информация на едно място - ще стане най-голямото им предимство", заявява Харари.

В крайна сметка диктатурите на бъдещето може да разполагат с алгоритми, които познават гражданите им по-добре от всеки друг, дори от самите тях. Това би направило манипулацията им детска игра, предупреждава футуристът.

Създаването на фалшиви хора

"Сега е възможно, за първи път в историята, да създадем фалшиви хора - милиарди фалшиви хора", заяви преди месец Харари. "Ако не можете да знаете кой е истински човек, доверието ще рухне. Рискът за обществото е такъв, като рискът от фалшивите пари за финансовата система", допълни футуристът.

Милиони ботове ще изглеждат неотличими от истински и обикновени хора, те могат да манипулират обществото.

Според Харари решението е въвеждането на тежки наказателни присъди за онези, които създават ботове и заливат публични форуми с изкуствено генерирано съдържание.

Ако от технологичните компании се изисква да предприемат контрамерки или да бъдат изправени пред строги глоби и ефективни присъди, те "бързо ще намерят начини да предотвратят претрупването на платформите с фалшиви хора".

Една от възможните опции е компаниите да настояват за въвеждането на дигитален идентификатор, който да установява дали определен потребител е истински човек. В последното си интервю Харари не коментира тази опция. Преди той обаче е прогнозирал, че подобна мярка също крие рискове.