Стотици влиятелни личности подписаха писмо с призив за забрана на развитието на суперинтелигентен изкуствен интелект
"Никой, който разработва тези AI системи, не е попитал човечеството дали това е приемливо"
Стотици публични фигури - включително няколко "кръстници" на изкуствения интелект, както и изключително пъстра група от религиозни, медийни и технологични личности - подписаха писмо, в което се призовава за "забрана" на надпреварата за създаване на суперинтелигентен AI.
Писмото, озаглавено "Заявление относно суперинтелигентността" (Statement on Superintelligence), е публикувано от Института за бъдещето на живота (Future of Life Institute - FLI) и е изключително кратко и ясно - то призовава за "забрана върху разработването на суперинтелигентност", която не бива да бъде отменяна, докато не бъде постигнат широк научен консенсус, че това може да се прави безопасно и под контрол, и докато не бъде получена силна обществена подкрепа.
В писмото се посочва проучване на FLI (основан от професора от MIT Макс Тегмарк), според което само 5% от американците подкрепят бързото и нерегулирано развитие на напреднал AI, докато над 73% подкрепят "строги" регулаторни мерки.
Около 64% смятат, че суперинтелигентност - AI, който надминава човешкия интелект - не трябва да се създава, докато не бъде доказано, че е безопасен и управляем.
Сред подписалите са технологични и бизнес фигури като съоснователя на Apple Стив Возняк и основателя на Virgin Ричард Брансън. Тук са влиятелни военни, като Майк Мълън - адмирал от Военноморските сили на САЩ и бивш председател на Обединения комитет на началник-щабовете при президентите Джордж Буш и Барак Обама. Под писмото са се подписали още консерватори, като Стив Банън, и либерали, като Джоузеф Гордън-Левит. Дори принц Хари застава зад призива.
Най-важни може би са учените, сред които носителят на наградата "Тюринг" Йошуа Бенджио и нобеловият лауреат Джефри Хинтън - двама от най-влиятелните изследователи, известни като "кръстниците на AI".
"Граничните AI системи може да надминат повечето хора по повечето когнитивни задачи само след няколко години," казва Бенджио, професор в Университета в Монреал.
"Тези постижения могат да отключат решения на големи глобални проблеми, но също така носят сериозни рискове."
"За да напредваме безопасно към суперинтелигентност, трябва научно да определим как да проектираме AI системи, които по своята същност не могат да навредят на хората - било чрез неправилно подравняване или злонамерена употреба," добавя той. "Трябва и да гарантираме, че обществото има много по-силен глас в решенията, които ще оформят бъдещето ни."
Писмото приема като изходна позиция, че суперинтелигентността е технически постижима цел, макар някои експерти да са скептични или да смятат, че тя е твърде далеч.
Заслужава да се отбележи, че в писмото не се уточнява, че AI не е нужно да достигне суперинтелигентност, за да причини хаос. Още днес генеративните AI инструменти - чатботове и системи за създаване на изображения и видеа - макар и примитивни спрямо въображаемите бъдещи суперинтелигентни системи, вече преобразяват образованието, насърчават дезинформацията в интернет, улесняват създаването на незаконна и неетична порнография, и водят до кризи в психичното здраве, разпад на семейства, бездомност, арести, хоспитализации и дори смърт.
Също така е интересно кой не е подписал писмото: сред липсващите са изпълнителният директор на OpenAI Сам Алтман, съоснователят на DeepMind и шеф на Microsoft AI Мустафа Сюлейман, CEO на Anthropic Дарио Амодей, държавният AI и крипто координатор Дейвид Сакс и основателят на xAI Илон Мъск.
Последният обаче подписа предишно писмо на FLI през 2023 г., в което се призоваваше за пауза в разработването на AI модели по-напреднали от GPT-4. (Това писмо, разбира се, не доведе до резултат - GPT-5 беше пуснат това лято.)
Алтман също е подписвал подобни апели за осъзнаване на рисковете от мащабни AI системи, което прави мълчанието му сега особено забележимо.
Дали това ново писмо ще има реален ефект е въпрос, за чийто отговор може лесно да се досетим . След пускането на ChatGPT в края на 2022 г. се появиха множество призиви за спиране или регулиране на напредналия AI, но до момента нито един не е довел до конкретни действия.
Все пак последното писмо на FLI подчертава широкия идеологически спектър на хората, които вярват, че AI трябва да бъде регулиран, и че въпросът как и от кого се създава AI трябва да бъде по-демократичен процес.
С други думи, обществото трябва да има думата за технологичното бъдеще на човечеството, а развитието на AI не бива да се случва в условията на "Дивия запад" на Силициевата долина - без регулации и отчетност.
"Много хора искат мощни AI инструменти за наука, медицина, продуктивност и други ползи," казва съоснователят на FLI Антъни Агийре.
"Но посоката, в която поемат AI корпорациите - надпревара към по-умен от човека AI, създаден да замени хората - е напълно несъответстваща на това, което обществото иска, което учените смятат за безопасно или което религиозните лидери считат за правилно."
"Никой, който разработва тези AI системи, не е попитал човечеството дали това е приемливо," добавя Агийре. "Ние попитахме - и хората смятат, че не е."