До 2030 г. ще останат само 5 професии. Д-р Роман Ямполски прогнозира 99% безработица
Експертът говори за своите страхове относно развитието на технологията
Д-р Роман Ямполски, водещ световен експерт по безопасност на изкуствения интелект, гостува в YouTube канала "The Diary Of A CEO" с водещ Стивън Бартлет. В разговора Ямполски разкрива своите апокалиптични прогнози за бъдещето на човечеството, включително масова безработица и рисковете от неконтролируем супер интелект.
"Способността да се заменят повечето хора в повечето професии ще дойде много бързо. След 5 години ни очаква свят с невиждани досега нива на безработица. Не говоря за 10%, а за 99%. И това е без супер интелект - система, по-умна от всички хора във всички области", предупреждава Ямполски.
"Сам Алтман наруши всяко едно правило за безопасност. Той залага 8 милиарда живота, за да стане по-богат и по-могъщ. В момента, в който включим супер интелекта, най-вероятно ще съжаляваме ужасно", коментира Ямполски.
Водещият Стивън Бартлет: Д-р Роман Ямполски, каква е мисията, на която сте се посветили в момента? Защото ми е съвсем ясно, че сте на мисия и сте на нея от поне две десетилетия.
Д-р Роман Ямполски: Надявам се да се уверя, че супер интелектът, който създаваме в момента, няма да убие всички.
Стивън Бартлет: Дайте ми малко контекст на това твърдение, защото е доста шокиращо.
Д-р Роман Ямполски: Разбира се. През последното десетилетие всъщност разбрахме как да направим изкуствения интелект по-добър. Оказва се, че ако добавите повече изчислителна мощ и повече данни, той просто става по-умен. И сега най-умните хора в света, милиарди долари, всичко отива за създаването на възможно най-добрия супер интелект. За съжаление, докато знаем как да направим тези системи много по-способни, не знаем как да ги направим безопасни. Как да се уверим, че няма да направят нещо, за което ще съжаляваме. И това е състоянието на нещата в момента. Когато погледнем пазарите за прогнози, колко скоро ще стигнем до напреднал ИИ? Сроковете са много кратки - няколко години, две-три години, според пазарите за прогнози и според изпълнителните директори на водещите лаборатории. В същото време не знаем как да се уверим, че тези системи са в съответствие с нашите предпочитания. Така че ние създаваме този извънземен интелект. Ако извънземни идваха на Земята и имахте три години да се подготвите, сега щяхте да сте в паника. Но повечето хора дори не осъзнават, че това се случва.
Стивън Бартлет: Някои от контрааргументите може да са, че това са много, много умни хора. Това са много големи компании с много пари. Те имат задължение, морално задължение, но също и законово задължение да се уверят, че не причиняват вреда. Така че съм сигурен, че всичко ще бъде наред.
Д-р Роман Ямполски: Единственото им задължение е да правят пари за инвеститорите. Това е законовото им задължение. Те нямат морални или етични задължения. Освен това, според тях, те все още не знаят как да го направят. Най-съвременните отговори са "ще го измислим, когато стигнем дотам" или "ИИ ще ни помогне да контролираме по-напреднал ИИ". Това е лудост.
Стивън Бартлет: По отношение на вероятността, каква според вас е вероятността нещо да се обърка катастрофално?
Д-р Роман Ямполски: Никой не може да ви каже със сигурност какво ще се случи. Но ако не сте вие, който управлява, ако не го контролирате, няма да получите резултатите, които искате. Пространството от възможности е почти безкрайно. Пространството от резултати, които ще ни харесат, е миниатюрно.
Стивън Бартлет: Кой сте вие и откога работите по този въпрос?
Д-р Роман Ямполски: Аз съм компютърен учен по образование. Имам докторска степен по компютърни науки и инженерство. Вероятно съм започнал работа по безопасността на ИИ, дефинирана по-широко като контрол на ботове по онова време, преди 15 години.
Стивън Бартлет: Преди 15 години. Значи сте работили по безопасността на ИИ, преди да стане модерно.
Д-р Роман Ямполски: Преди терминът да съществува. Аз въведох термина "безопасност на ИИ".
Стивън Бартлет: Значи вие сте създателят на термина "безопасност на ИИ".
Д-р Роман Ямполски: На термина, да. Не на областта. Има други хора, които са свършили брилянтна работа, преди аз да се появя.
Стивън Бартлет: Защо сте мислили за това преди 15 години? Повечето хора говорят за термина "безопасност на ИИ" едва през последните две-три години.
Д-р Роман Ямполски: Започна много скромно, просто като проект за сигурност. Разглеждах покер ботове и осъзнах, че ботовете стават все по-добри. И ако просто проектирате това достатъчно напред, те ще станат по-добри от нас, по-умни, по-способни. И това се случи. Те играят покер много по-добре от средностатистическите играчи. Но в по-общ план, това ще се случи с всички други области, с всички други кибер ресурси. Исках да се уверя, че ИИ е технология, която е полезна за всички. Затова започнах да работя по това да направя ИИ по-безопасен.
Стивън Бартлет: Имаше ли конкретен момент в кариерата ви, в който си помислихте "о, Боже мой"?
Д-р Роман Ямполски: Поне през първите 5 години работех върху решаването на този проблем. Бях убеден, че можем да го постигнем. Можем да направим безопасен ИИ и това беше целта. Но колкото повече го разглеждах, толкова повече осъзнавах, че всеки един компонент от това уравнение не е нещо, което всъщност можем да направим. И колкото повече се вглеждате, е като фрактал. Влизате навътре и намирате още 10 проблема, а след това още 100 проблема. И всички те не са просто трудни. Те са невъзможни за решаване. Няма основополагаща работа в тази област, където да кажем "решихме това, не трябва да се притесняваме повече". Има кръпки. Има малки поправки, които поставяме, и бързо хората намират начини да ги заобиколят. Те пробиват всякакви механизми за безопасност, които имаме. Така че, докато напредъкът във възможностите на ИИ е експоненциален или може би дори хиперекспоненциален, напредъкът в безопасността на ИИ е линеен или постоянен. Пропастта се увеличава.
Стивън Бартлет: Пропастта между...
Д-р Роман Ямполски: ...колко способни са системите и колко добре можем да ги контролираме, да предвиждаме какво ще направят, да обясняваме вземането им на решения.
Стивън Бартлет: Мисля, че това е доста важен момент, защото казахте, че по същество закърпваме проблемите, които намираме. Тоест, разработваме тази основна интелигентност и след това, за да я спрем да прави неща или да показва своята непредсказуемост или заплахи, компаниите, които разработват този ИИ, програмират код отгоре, за да кажат: "Добре, не псувай, не казвай тази лоша дума, не прави онова лошо нещо."
Д-р Роман Ямполски: Точно така. И можете да погледнете други примери за това. Например, наръчниците за човешки ресурси, нали? Имаме тези хора. Те са общи интелекти, но искате те да се държат по определен начин в компанията. Така че имат политика - без сексуален тормоз, без това, без онова. Но ако сте достатъчно умен, винаги намирате заобиколен път. Така че просто избутвате поведението в различна, все още неограничена подобласт.
Стивън Бартлет: Вероятно трябва да дефинираме някои термини тук. Има тесен интелект, който може да играе шах или нещо подобно. Има изкуствен общ интелект (AGI), който може да работи в различни области, и след това супер интелект, който е по-умен от всички хора във всички области. Къде се намираме ние? Това е много размита граница, нали? Определено имаме много отлични тесни системи, без съмнение. И те са супер интелигентни в тази тясна област. Например, сгъването на протеини е проблем, който беше решен с помощта на тесен ИИ и той превъзхожда всички хора в тази област. По отношение на AGI, отново казах, ако покажем това, което имаме днес, на учен отпреди 20 години, той ще бъде убеден, че имаме пълноценен AGI. Имаме системи, които могат да учат. Те могат да се представят в стотици области и са по-добри от хората в много от тях. Така че можете да твърдите, че имаме слаба версия на AGI. Сега, все още нямаме супер интелект. Все още имаме брилянтни хора, които напълно доминират ИИ, особено в науката и инженерството. Но тази разлика се затваря толкова бързо. Можете да видите, особено в областта на математиката, преди 3 години големите езикови модели не можеха да правят основна алгебра, умножаването на трицифрени числа беше предизвикателство. Сега те помагат с математически доказателства, печелят математически олимпиади, състезания, работят върху решаването на хилядолетни проблеми - най-трудните проблеми в математиката. Така че за 3 години затворихме разликата от подчовешко представяне до по-добро от повечето математици. И виждаме същия процес да се случва в науката и инженерството.
Стивън Бартлет: Направили сте поредица от прогнози, които съответстват на различни дати. Имам тези дати пред себе си. Каква е вашата прогноза за 2027 г.?
Д-р Роман Ямполски: Вероятно ще имаме AGI, както се предвижда от пазарите за прогнози и ръководителите на водещите лаборатории.
Стивън Бартлет: Значи ще имаме изкуствен общ интелект до 2027 г. И как това ще направи света по-различен от сегашния?
Д-р Роман Ямполски: Ако имате тази концепция за "служител на повикване", имате безплатен труд, физически и когнитивен, на стойност трилиони долари. Няма смисъл да наемате хора за повечето работни места. Ако мога просто да получа, знаете, абонамент за 20 долара или безплатен модел, който да върши работата на служител. Първо, всичко на компютър ще бъде автоматизирано. След това, мисля, че хуманоидните роботи са може би 5 години назад. Така че след пет години целият физически труд също може да бъде автоматизиран. Очаква ни свят с нива на безработица, каквито никога не сме виждали. Не говоря за 10% безработица, което е страшно, а за 99%. Всичко, което ще остане, са работни места, където по някаква причина предпочитате друг човек да го направи за вас. Но всичко останало може да бъде напълно автоматизирано. Това не означава, че ще бъде автоматизирано на практика. Много пъти технологията съществува, но не се внедрява. Видеотелефоните са изобретени през 70-те години. Никой не ги е имал, докато не се появиха iPhone-ите. Така че може да имаме много повече време с работни места и със свят, който изглежда като този.
Стивън Бартлет: Но способността да се заменят повечето хора в повечето професии ще дойде много бързо.
Д-р Роман Ямполски: Да. Добре. Нека се опитаме да се задълбочим в това и да го подложим на стрес тест. Например, подкастър като мен. Ще имате ли нужда от подкастър като мен?
Стивън Бартлет: Нека да видим какво правите. Подготвяте се. Задавате въпроси. Задавате последващи въпроси. И изглеждате добре пред камера.
Д-р Роман Ямполски: Благодаря ви много. Нека видим какво можем да направим. Днешният голям езиков модел може лесно да прочете всичко, което съм написал. Да. И да има много солидно разбиране, по-добро. Предполагам, че не сте прочели всяка една от моите книги. Нали? Това нещо ще го направи. Може да се обучи на всеки подкаст, който някога сте правили. Така че знае точно вашия стил, видовете въпроси, които задавате. Може също да намери съответствия между това, което е работило наистина добре. Например, този тип въпрос наистина е увеличил гледанията. Тази тема е била много обещаваща. Така че можете да оптимизирате, мисля, по-добре от вас, защото нямате набор от данни. Разбира се, визуалната симулация е тривиална на този етап. Така че може да направите видео за секунди с мен, седнал тук. Можем да генерираме видеоклипове, в които интервюирате всеки по всяка тема много ефективно и просто трябва да получите одобрение за приликата.
Стивън Бартлет: Има ли много професии, които според вас ще останат в свят на AGI? Ако казвате, че AGI потенциално ще бъде тук, независимо дали е внедрен или не, до 2027 г., какви... и добре, нека изключим за момент всякакви професии, свързани с физически труд. Има ли професии, които според вас човек все още ще може да върши по-добре в свят на AGI?
Д-р Роман Ямполски: Това е въпросът, който често задавам на хората. В свят с AGI, мисля, че почти веднага ще получим супер интелект като страничен ефект. Така че въпросът всъщност е: в свят на супер интелект, който се определя като по-добър от всички хора във всички области, с какво можете да допринесете? И така, вие знаете по-добре от всеки друг какво е да си ти. Знаете какъв е вкусът на сладоледа за вас. Можете ли да получите пари за това знание? Някой интересува ли се от това? Може би не. Не е голям пазар. Има професии, където искате човек. Може би сте богат и искате човешки счетоводител по някакви исторически причини. Старите хора харесват традиционните начини на правене на нещата. Уорън Бъфет не би преминал към ИИ. Той би използвал своя човешки счетоводител. Но това е малка част от пазара. Днес имаме продукти, които са ръчно изработени в САЩ, за разлика от масово произведените в Китай, и някои хора плащат повече, за да ги имат, но това е малка част. Това е почти фетиш. Няма практическа причина за това и мисля, че всичко, което можете да направите на компютър, може да бъде автоматизирано с тази технология.
Стивън Бартлет: Сигурно чувате много опровержения, когато казвате това, защото хората изпитват огромен психически дискомфорт, когато чуят, че работата им, кариерата им, нещото, за което са получили диплома, нещото, в което са инвестирали 100 000 долара, ще им бъде отнето. Така че естествената им реакция за някои хора е този когнитивен дисонанс, че "не, грешите. ИИ не може да бъде креативен. Не е това. Не е онова. Никога няма да се интересува от моята работа. Аз ще се оправя". Чувате тези аргументи през цялото време, нали?
Д-р Роман Ямполски: Наистина е смешно. Питам хората и питам хора с различни професии. Питам моя шофьор на Uber: "Притеснявате ли се от самоуправляващите се коли?" И те отговарят: "Не, никой не може да прави това, което правя аз. Познавам улиците на Ню Йорк. Мога да се ориентирам като никой ИИ. В безопасност съм." И това е вярно за всяка работа. Професори ми казват това. "О, никой не може да изнася лекции като мен. Това е толкова специално." Но разбирате, че е нелепо. Вече имаме самоуправляващи се коли, които заменят шофьорите. Дори не е въпрос дали е възможно. Въпросът е колко скоро ще бъдете уволнен.
Стивън Бартлет: Да, тъкмо вчера бях в Лос Анджелис и колата ми се кара сама. Влизам в колата, задавам къде искам да отида и след това не докосвам волана или педалите на спирачките и тя ме отвежда от точка А до точка Б, дори ако пътуването е час, без никаква намеса. Всъщност все още я паркирам, но освен това изобщо не карам колата. И очевидно в Лос Анджелис вече имаме и Waymo, което означава, че го поръчвате на телефона си и се появява без шофьор и ви отвежда там, където искате да отидете.
Д-р Роман Ямполски: О, да.
Стивън Бартлет: Така че е съвсем ясно как това е потенциално въпрос на време за тези хора, защото имаме някои от тези хора, които слушат този разговор в момента, чиято професия е шофиране. И мисля, че шофирането е най-голямата професия в света, ако не греша. Почти съм сигурен, че е най-голямата професия в света.
Д-р Роман Ямполски: Една от водещите. Да. Какво бихте казали на тези хора? Какво трябва да правят с живота си? Трябва ли да се преквалифицират в нещо или в какъв срок?
Стивън Бартлет: Тук е промяната на парадигмата. Преди винаги казвахме, че тази работа ще бъде автоматизирана, преквалифицирайте се, за да вършите тази друга работа. Но ако ви казвам, че всички работни места ще бъдат автоматизирани, тогава няма план Б. Не можете да се преквалифицирате. Погледнете компютърните науки. Преди две години казвахме на хората да се научат да програмират. "Ти си художник, не можеш да изкарваш пари. Научи се да програмираш." След това осъзнахме, "о, ИИ някак си знае как да програмира и става все по-добър". "Стани prompt инженер. Можеш да създаваш промптове за ИИ. Ще бъде страхотна работа. Вземи четиригодишна диплома за това." Но след това си казахме, "ИИ е много по-добър в проектирането на промптове за други ИИ от всеки човек". Така че и това отпадна. Така че не мога наистина да ви кажа в момента. Най-трудното е да се проектират ИИ агенти за практически приложения. Гарантирам ви, че след година-две и това ще изчезне. Така че не мисля, че има такова нещо като "тази професия трябва да се научи да прави това вместо онова". Мисля, че е по-скоро като ние като човечество, когато всички загубим работата си. Какво правим? Какво правим финансово? Кой плаща за нас? И какво правим по отношение на смисъла? Какво правя с допълнителните си 60-80 часа седмично?
Стивън Бартлет: Вие сте мислили отвъд този ъгъл, нали? Малко.
Д-р Роман Ямполски: Какво има отвъд този ъгъл според вас?
Стивън Бартлет: Икономическата част изглежда лесна. Ако създадете много безплатен труд, имате много безплатно богатство, изобилие, неща, които в момента не са много достъпни, стават изключително евтини и така можете да осигурите на всички основни нужди. Някои хора казват, че можете да осигурите и отвъд основните нужди. Можете да осигурите много добро съществуване за всички. Трудният проблем е какво правите с цялото това свободно време? За много хора работата им е това, което им дава смисъл в живота. Така че те ще бъдат някак изгубени. Виждаме го при хора, които се пенсионират или се пенсионират по-рано. И за толкова много хора, които мразят работата си, те ще бъдат много щастливи да не работят. Но сега имате хора, които си почиват по цял ден. Какво се случва с обществото? Как това се отразява на престъпността, раждаемостта, всякакви проблеми? Никой не мисли за това. Правителствата нямат подготвени програми, за да се справят с 99% безработица.
Стивън Бартлет: Как според вас изглежда този свят?
Д-р Роман Ямполски: Отново, мисля, че е много важна част да се разбере непредсказуемостта му. Не можем да предвидим какво ще направи една по-умна от нас система. И моментът, в който стигнем до това, често се нарича сингулярност по аналогия с физическата сингулярност. Не можете да видите отвъд хоризонта на събитията. Мога да ви кажа какво мисля, че може да се случи, но това е моята прогноза. Не е това, което всъщност ще се случи, защото просто нямам когнитивната способност да предскажа много по-умен агент, който влияе на този свят. Когато четете научна фантастика, никога няма супер интелект, който всъщност да прави нещо, защото никой не може да напише правдоподобна научна фантастика на това ниво. Те или са забранили ИИ като в "Дюн", защото по този начин можете да избегнете писането за него, или е като "Междузвездни войни". Имате тези наистина глупави ботове, но нищо супер интелигентно никога, защото по дефиниция не можете да предскажете на това ниво.
Стивън Бартлет: Защото по дефиниция, бидейки супер интелигентен, той ще взема собствени решения.
Д-р Роман Ямполски: По дефиниция, ако беше нещо, което можете да предскажете, вие щяхте да оперирате на същото ниво на интелигентност, нарушавайки нашето предположение, че той е по-умен от вас. Ако играя шах със супер интелект и мога да предскажа всеки ход, аз играя на това ниво.
Стивън Бартлет: Това е като моят френски булдог да се опитва да предскаже точно какво мисля и какво ще направя.
Д-р Роман Ямполски: Това е добра когнитивна разлика. И не е само, че може да предскаже, че ще отидете на работа, че ще се върнете, но не може да разбере защо правите подкаст. Това е нещо напълно извън неговия модел на света.
Стивън Бартлет: Да. Той дори не знае, че ходя на работа. Просто вижда, че напускам къщата и не знае къде отивам.
Д-р Роман Ямполски: Да купувате храна за него. Кой е най-убедителният аргумент срещу вашата собствена гледна точка тук?
Стивън Бартлет: Че няма да имаме безработица поради напредналите технологии, че няма да има тази разлика в разбирането между френски булдог и човек, и предполагам, в силата и контрола.
Д-р Роман Ямполски: Някои хора смятат, че можем да подобрим човешкия ум или чрез комбинация с хардуер, нещо като Neuralink, или чрез генетично преинженерство, където правим по-умни хора.
Стивън Бартлет: Да.
Д-р Роман Ямполски: Може да ни даде малко повече интелигентност. Не мисля, че все още сме конкурентоспособни в биологична форма със силициевата форма. Силициевият субстрат е много по-способен за интелигентност. Той е по-бърз. По-устойчив е, по-енергийно ефективен в много отношения.
Стивън Бартлет: От който са направени компютрите, за разлика от мозъка. Да. Така че не мисля, че можем да се справим само с подобряването на нашата биология. Някои хора смятат, може би, и това е много спекулативно, че можем да качим умовете си в компютри. Да сканираме мозъка ви, връзките в мозъка ви и да имаме симулация, работеща на компютър, и можете да я ускорите, да ѝ дадете повече възможности. Но за мен това се усеща, сякаш вече не съществувате. Просто сме създали софтуер по различни начини и сега имате ИИ, базиран на биология, и ИИ, базиран на други форми на обучение. Можете да имате еволюционни алгоритми. Можете да имате много пътища за достигане на AGI, но в крайна сметка нито един от тях не е човек.
Стивън Бартлет: Имам друга дата тук, която е 2030 г. Каква е вашата прогноза за 2030 г.? Как ще изглежда светът?
Д-р Роман Ямполски: Вероятно ще имаме хуманоидни роботи с достатъчно гъвкавост и сръчност, за да се конкурират с хората във всички области, включително водопроводчици. Можем да направим изкуствени водопроводчици.
Стивън Бартлет: Не и водопроводчиците, това изглеждаше като последния бастион на човешката заетост. Значи 2030 г., след 5 години, хуманоидни роботи. Много от компаниите, водещите компании, включително Tesla, разработват хуманоидни роботи със светлинна скорост и те стават все по-ефективни. И тези хуманоидни роботи ще могат да се движат във физическото пространство, да направят омлет, да правят всичко, което хората могат, но очевидно ще бъдат свързани и с ИИ. Така че могат да мислят, да говорят.
Д-р Роман Ямполски: Точно така. Те се контролират от ИИ. Винаги са свързани с мрежата. Така че те вече доминират в много отношения.
Стивън Бартлет: Нашият свят ще изглежда забележително различен, когато хуманоидните роботи станат функционални и ефективни, защото тогава наистина започвам да си мисля, че комбинацията от интелигентност и физически способности наистина не оставя много за нас, човешките същества.
Д-р Роман Ямполски: Не много. Днес, ако имате интелигентност чрез интернет, можете да наемете хора да изпълняват вашите поръчки. Можете да им плащате в биткойни. Така че можете да имате тела, просто не ги контролирате директно. Така че не е огромна промяна да добавите директен контрол на физически тела. Интелигентността е важната. Важният компонент определено е по-високата способност за оптимизация, за решаване на проблеми, за намиране на модели, които хората не могат да видят. А до 2045 г., предполагам, светът ще изглежда още по-... което е след 20 години.
Стивън Бартлет: Ако все още съществува.
Д-р Роман Ямполски: Ако все още съществува. Рей Кърцвейл предвижда, че това е годината на сингулярността. Това е годината, в която напредъкът става толкова бърз. Този ИИ, който се занимава с наука и инженерство, прави подобрения толкова бързо, че вече не можем да го настигнем. Това е дефиницията на сингулярност. Точка, отвъд която не можем да видим, да разберем, да предскажем.
Стивън Бартлет: Да видим, да разберем, да предскажем самата интелигентност или...
Д-р Роман Ямполски: ...какво се случва в света, технологиите, които се разработват. В момента, ако имам iPhone, мога да очаквам нов да излезе следващата година и ще разбера, че има малко по-добра камера. Представете си сега, че този процес на изследване и разработване на този телефон е автоматизиран. Случва се на всеки 6 месеца, на всеки 3 месеца, всеки месец, седмица, ден, час, минута, секунда. Не можете да се справите с 30 итерации на iPhone за един ден. Не разбирате какви възможности има, какви са правилните контроли. Просто ви се изплъзва. В момента е трудно за всеки изследовател в областта на ИИ да бъде в крак с най-новото. Докато правех това интервю с вас, излезе нов модел и аз вече не знам кое е най-новото. Всеки ден, като процент от общото знание, ставам по-глупав. Може все още да знам повече, защото продължавам да чета. Но като процент от общото знание, всички ставаме по-глупави. И когато го доведете до крайни стойности, имате нулево знание, нулево разбиране за света около вас.
Стивън Бартлет: Някои от аргументите срещу тази евентуалност са, че когато погледнете други технологии като индустриалната революция, хората просто са намерили нови начини да работят и са се създали нови кариери, които никога не бихме могли да си представим по онова време. Как отговаряте на това в свят на супер интелект?
Д-р Роман Ямполски: Това е промяна на парадигмата. Винаги сме имали инструменти, нови инструменти, които са позволявали дадена работа да се върши по-ефективно. Така че вместо да имате 10 работници, можехте да имате двама работници, а осем работници трябваше да си намерят нова работа. И имаше друга работа. Сега можете да наблюдавате тези работници или да правите нещо готино. Ако създавате мета-изобретение, вие изобретявате интелигентност. Изобретявате работник, агент, тогава можете да приложите този агент към новата работа. Няма работа, която да не може да бъде автоматизирана. Това никога не се е случвало преди. Всички изобретения, които сме имали преди, са били вид инструмент за правене на нещо. Изобретихме огъня. Огромна промяна. Но това е всичко. Спира с огъня. Изобретяваме колелото. Същата идея. Огромни последици. Но самото колело не е изобретател. Тук ние изобретяваме заместител на човешкия ум. Нов изобретател, способен да прави нови изобретения. Това е последното изобретение, което някога ще трябва да направим. В този момент то поема контрола и процесът на правене на наука, изследвания, дори етични изследвания, морал, всичко това се автоматизира в този момент.
Стивън Бартлет: Спите ли добре през нощта?
Д-р Роман Ямполски: Много добре.
Стивън Бартлет: Въпреки че сте прекарали последните 15-20 години от живота си, работейки по безопасността на ИИ, и той изведнъж е сред нас по начин, който не мисля, че някой е можел да предвиди преди 5 години. Когато казвам "сред нас", наистина имам предвид, че количеството финансиране и талант, което сега е съсредоточено върху достигането на супер интелект по-бързо, го е направило да се чувства по-неизбежно и по-скорошно, отколкото някой от нас би могъл да си представи.
Д-р Роман Ямполски: Ние като хора имаме това вградено пристрастие да не мислим за наистина лоши резултати и неща, които не можем да предотвратим. Така че всички ние умираме. Децата ви умират, родителите ви умират, всички умират, но вие все още спите добре. Все още продължавате с деня си. Дори 95-годишните все още играят игри и голф и какво ли не, защото имаме тази способност да не мислим за най-лошите резултати, особено ако всъщност не можем да променим резултата. Така че това е същата инфраструктура, която се използва за това. Да, има събитие на ниво човечество, подобно на смърт. Вероятно сме близо до него, но освен ако не мога да направя нещо по въпроса, мога просто да продължа да се наслаждавам на живота си. Всъщност, може би знанието, че ви остава ограничено време, ви дава повече причина да имате по-добър живот. Не можете да губите нито миг.
Стивън Бартлет: И това е чертата за оцеляване на еволюцията, предполагам, защото тези мои предци, които са прекарвали цялото си време в притеснения, не биха прекарали достатъчно време в правене на бебета и лов, за да оцелеят.
Д-р Роман Ямполски: Суицидни мисли. Хората, които наистина започват да мислят колко ужасен е светът, обикновено си отиват доста скоро.
Стивън Бартлет: В една от статиите, на които сте съавтор, се анализират ключовите аргументи, които хората изтъкват срещу важността на безопасността на ИИ. И един от аргументите там е, че има други неща, които са от по-голямо значение в момента. Може да са световни войни. Може да е ядреното сдържане. Може да са други неща. Има други неща, за които правителствата и подкастъри като мен трябва да говорят, които са по-важни. Какъв е вашият отговор на този аргумент?
Д-р Роман Ямполски: Супер интелектът е мета-решение. Ако направим супер интелекта както трябва, той ще ни помогне с изменението на климата. Ще ни помогне с войните. Може да реши всички други екзистенциални рискове. Ако не го направим както трябва, той доминира. Ако изменението на климата ще отнеме сто години, за да ни свари живи, а супер интелектът убие всички за пет, не трябва да се притеснявам за изменението на климата. Така че и в двата случая, или го решава за мен, или не е проблем.
Стивън Бартлет: Значи смятате, че това е най-важното нещо, по което трябва да се работи?
Д-р Роман Ямполски: Без съмнение, няма нищо по-важно от това да го направим както трябва. И знам, че всички го казват. Вземете който и да е курс, вземете курс при професор по английски и той ви казва, че това е най-важният курс, който някога ще вземете, но можете да видите разликите на мета-ниво с този.
Стивън Бартлет: Друг аргумент в тази статия е, че ние ще имаме контрол и че опасността не е ИИ. Този конкретен аргумент твърди, че ИИ е просто инструмент, хората са истинските актьори, които представляват опасност, и винаги можем да поддържаме контрол, като просто го изключим. Не можем ли просто да извадим щепсела? Виждам това всеки път, когато водим разговор в предаването за ИИ, някой казва: "Не можем ли просто да го изключим?"
Д-р Роман Ямполски: Да, получавам тези коментари под всеки подкаст, който правя, и винаги искам да се свържа с човека и да кажа: "Това е брилянтно. Никога не съм се сещал за това. Ще напишем статия заедно и ще получим Нобелова награда за това. Нека го направим." Защото е толкова глупаво. Можете ли да изключите вирус? Имате компютърен вирус. Не ви харесва. Изключете го. Ами биткойн? Изключете биткойн мрежата. Давайте. Ще почакам. Това е глупаво. Това са разпределени системи. Не можете да ги изключите. И на всичкото отгоре, те са по-умни от вас. Направили са множество резервни копия. Предвидили са какво ще направите. Те ще ви изключат, преди вие да можете да ги изключите. Идеята, че ние ще имаме контрол, се отнася само за нивата преди супер интелекта. По същество това, което имаме днес. Днес хората с инструменти на ИИ са опасни. Те могат да бъдат хакери, злонамерени актьори. Абсолютно. Но в момента, в който супер интелектът стане по-умен, доминира, те вече не са важната част от това уравнение. Висшият интелект е това, което ме притеснява, а не човекът, който може да добави допълнителен злонамерен товар, но в крайна сметка все още не го контролира.
Стивън Бартлет: Изкушаващо е да се последва следващият аргумент, който видях в тази статия, който по същество казва: "Слушайте, това е неизбежно. Така че няма смисъл да се борим срещу него, защото наистина няма надежда тук. Така че вероятно трябва да се откажем дори да опитваме и да вярваме, че ще се нареди от само себе си", защото всичко, което казахте, звучи наистина неизбежно. И ако Китай работи по това, сигурен съм, че Путин има някакво тайно подразделение. Сигурен съм, че Иран прави някои неща. Всяка европейска страна се опитва да изпревари в ИИ. Съединените щати са водещи. Така че е неизбежно. Вероятно трябва просто да имаме вяра и да се молим.
Д-р Роман Ямполски: Е, молитвата винаги е добро нещо, но стимулите имат значение. Ако погледнете какво движи тези хора, да, парите са важни. Има много пари в тази сфера и затова всички се опитват да бъдат там и да развиват тази технология. Но ако те наистина разбират аргумента, те разбират, че ще бъдат мъртви. Никакво количество пари няма да им бъде от полза, тогава стимулите се променят. Те биха искали да не са мъртви. Много от тях са млади хора, богати хора. Имат целия си живот пред себе си. Мисля, че би било по-добре за тях да не изграждат напреднал супер интелект, а да се концентрират върху тесни инструменти на ИИ за решаване на конкретни проблеми. Добре, моята компания лекува рак на гърдата. Това е всичко. Правим милиарди долари. Всички са щастливи. Всички печелят. Това е победа. Днес все още имаме контрол. Не е свършило, докато не свърши. Можем да решим да не изграждаме общи супер интелекти. Искам да кажа, Съединените щати може да успеят да съберат достатъчно ентусиазъм за това, но ако Съединените щати не изградят общи супер интелекти, тогава Китай ще има голямото предимство, нали? В момента на тези нива, който има по-напреднал ИИ, има по-напреднала армия, без съмнение. Виждаме го със съществуващите конфликти. Но в момента, в който преминете към супер интелект, неконтролиран супер интелект, няма значение кой го изгражда - ние или те. И ако те разбират този аргумент, те също не биха го изградили. Това е взаимно гарантирано унищожение и за двете страни.
Стивън Бартлет: Тази технология различна ли е от, да речем, ядрените оръжия, които изискват огромни инвестиции и трябва да обогатявате уран и ви трябват потенциално милиарди долари, за да построите ядрено оръжие. Но имам чувството, че тази технология е много по-евтина за достигане до супер интелект, потенциално, или поне ще стане по-евтина. Чудя се дали е възможно някой, някой стартъп да успее да изгради супер интелект след няколко години без нуждата от милиарди долари за изчислителна мощ или електричество.
Д-р Роман Ямполски: Това е страхотен въпрос. Всяка година става все по-евтино да се обучи достатъчно голям модел. Ако днес би струвало трилион долара да се изгради супер интелект, следващата година може да е сто милиарда и така нататък. В един момент човек с лаптоп би могъл да го направи. Но не искате да чакате четири години, за да стане достъпно. Затова се наливат толкова много пари. Някой иска да стигне там тази година и да спечели всички награди. Така че в това отношение и двата са много скъпи проекти, на нивото на проекта "Манхатън".
Стивън Бартлет: Който беше проектът за ядрената бомба.
Д-р Роман Ямполски: Разликата между двете технологии е, че ядрените оръжия все още са инструменти. Някой диктатор, някоя държава, някой трябва да реши да ги използва, да ги разположи. Докато супер интелектът не е инструмент. Той е агент. Взема собствени решения и никой не го контролира. Не мога да премахна този диктатор и сега супер интелектът да е безопасен. Така че това е фундаментална разлика за мен.
Стивън Бартлет: Но ако казвате, че ще става все по-евтино, мисля, че е законът на Мур, нали? Технологията поевтинява.
Д-р Роман Ямполски: Тогава има бъдеще, в което някой с лаптопа си ще може да създаде супер интелект без надзор, регулация или служители и т.н.
Стивън Бартлет: Да, затова много хора предлагат да изградим нещо като планета за наблюдение, където следите кой какво прави и се опитвате да попречите на хората да го правят. Дали мисля, че е осъществимо? Не. В един момент става толкова достъпно и толкова тривиално, че просто ще се случи. Но в този момент се опитваме да спечелим повече време. Не искаме да се случи след пет години. Искаме да се случи след 50 години.
Това не е много обнадеждаващо.
Д-р Роман Ямполски: Зависи на колко години сте.
Стивън Бартлет: Зависи на колко години сте. Искам да кажа, ако казвате, че вярвате, че в бъдеще хората ще могат да създават супер интелект без ресурсите, които са необходими днес, тогава е просто въпрос на време.
Д-р Роман Ямполски: Да. Но това ще важи и за много други технологии. Ставаме много по-добри в синтетичната биология, където днес някой с бакалавърска степен по биология вероятно може да създаде нов вирус. Това също ще стане по-евтино, както и други подобни технологии. Така че наближаваме точка, в която е много трудно да се гарантира, че никой технологичен пробив няма да е последният. По същество в много посоки имаме този модел на улесняване по отношение на ресурси и интелигентност за унищожаване на света. Ако погледнете преди 500 години, най-лошият диктатор с всички ресурси можеше да убие няколко милиона души. Не можеше да унищожи света. Сега знаем за ядрените оръжия, можем да взривим цялата планета няколко пъти. Синтетична биология, видяхме с COVID, можете много лесно да създадете комбиниран вирус, който засяга милиарди хора, и всички тези неща стават по-лесни за правене.
Стивън Бартлет: В близко бъдеще. Говорите за изчезването като реален риск, изчезването на човечеството като реален риск. От всички пътища към изчезването на човечеството, които смятате за най-вероятни, кой е водещият път? Защото знам, че говорите за проблеми преди внедряването на тези инструменти на ИИ, като например някой да направи грешка при проектирането на модел, или други проблеми след внедряването, когато казвам след внедряването, имам предвид, след като чат или агент бъде пуснат в света и някой го хакне, промени го и го препрограмира да бъде злонамерен. От всички тези потенциални пътища към изчезването на човечеството, кой според вас е с най-висока вероятност?
Д-р Роман Ямполски: Мога да говоря само за тези, които мога да предскажа сам. Така че мога да предскажа, че дори преди да стигнем до супер интелект, някой ще създаде много напреднал биологичен инструмент, ще създаде нов вирус и този вирус ще зарази всички или почти всички. Мога да си го представя. Мога да разбера пътя. Мога да кажа това.
Стивън Бартлет: Само за да се съсредоточим върху това, това би било използване на ИИ за създаване на вирус и след това пускането му.
Д-р Роман Ямполски: Да. И дали това ще бъде умишлено или...
Стивън Бартлет: Има много психопати, много терористи, много култове към края на света. Виждали сме исторически, че те се опитват да убият колкото се може повече хора. Обикновено се провалят. Убиват стотици хиляди. Но ако получат технология да убият милиони или милиарди, те с удоволствие биха го направили. Това, което се опитвам да подчертая, е, че няма значение какво мога да измисля аз. Аз не съм злонамереният актьор, когото се опитвате да победите тук. Това е супер интелект, който може да измисли напълно нови начини да го направи. Отново, вие дадохте пример с вашето куче. Вашето куче не може да разбере всички начини, по които можете да го премахнете. Може би си мисли, че ще го захапете до смърт или нещо подобно, но това е всичко. Докато вие имате безкраен запас от ресурси. Така че, ако попитам вашето куче как точно ще го премахнете, то няма да ви даде смислен отговор. Може да говори за хапане. И това е, което знаем. Познаваме вирусите. Преживели сме вируси. Можем да говорим за тях. Но какво може да измисли една система с ИИ, способна на нови физически изследвания, е извън моите възможности.
Стивън Бартлет: Едно от нещата, които мисля, че повечето хора не разбират, е колко малко разбираме как всъщност работят тези ИИ. Защото човек би предположил, знаете, с компютрите, ние някак си разбираме как работи компютърът. Знаем, че прави това, след това това, и работи с код, но от четенето на вашата работа, вие го описвате като черна кутия. Всъщност, в контекста на нещо като ChatGPT или ИИ, вие ми казвате, че хората, които са създали този инструмент, всъщност не знаят какво се случва вътре.
Д-р Роман Ямполски: Точно така. Дори хората, които правят тези системи, трябва да провеждат експерименти с продукта си, за да научат на какво е способен. Така че те го обучават, като му дават всички данни. Да речем, целия текст в интернет. Пускат го на много компютри, за да научи моделите в този текст, и след това започват да експериментират с този модел. "О, говориш ли френски?", "О, можеш ли да решаваш математически задачи?", "О, лъжеш ли ме сега?". И така, може би отнема година, за да го обучат, и след това 6 месеца, за да получат някои основни познания за това на какво е способен, някаква предпазна мярка за безопасност. Но все още откриваме нови възможности и в старите модели. Ако зададете въпрос по различен начин, той става по-умен. Така че вече не е инженерство, както беше през първите 50 години, където някой беше инженерен специалист по знания, програмиращ експертна система с ИИ да прави конкретни неща. Това е наука. Ние създаваме този артефакт, отглеждаме го. Това е като извънземно растение и след това го изучаваме, за да видим какво прави. И точно както с растенията, нямаме 100% точно познание за биологията. Тук нямаме пълно познание. Някак си знаем някои модели. Знаем, че ако добавим повече изчислителна мощ, той става по-умен през повечето време, но никой не може да ви каже точно какъв ще бъде резултатът при даден набор от входове.
Стивън Бартлет: Какво мислите за OpenAI и Сам Алтман и това, което правят? И очевидно сте наясно, че един от съоснователите, Иля Суцкевер, напусна и основа нова компания, наречена "Безопасност на супер интелекта".
Д-р Роман Ямполски: Безопасността на ИИ не беше достатъчно предизвикателна. Той реши просто да скочи направо на трудния проблем. Като наблюдател, когато виждате, че хора напускат OpenAI, за да основат компании за безопасност на супер интелекта, каква беше вашата интерпретация на тази ситуация?
Стивън Бартлет: Много хора, които са работили със Сам, казаха, че може би той не е най-директният човек по отношение на честността с тях и те са имали притеснения относно възгледите му за безопасността. Това е част от нещата. Така че те искаха повече контрол. Искаха повече концентрация върху безопасността. Но също така изглежда, че всеки, който напусне тази компания и основе нова, получава оценка от 20 милиарда долара само за това, че я е основал. Нямате продукт, нямате клиенти, но ако искате да направите много милиарди долари, просто направете това. Така че изглежда много рационално нещо за всеки, който може. Така че не съм изненадан, че има голямо текучество. Срещайки го лично, той е супер мил, много умен, абсолютно перфектен публичен интерфейс. Виждате го да свидетелства в Сената, той казва правилните неща на сенаторите. Виждате го да говори с инвеститорите, те получават правилното послание. Но ако погледнете какво казват хората, които го познават лично, вероятно той не е правилният човек, който да контролира проект с такова въздействие.
Стивън Бартлет: Защо?
Д-р Роман Ямполски: Той поставя безопасността на второ място. Второ след спечелването на тази надпревара за супер интелект, да бъде човекът, който е създал Бог и контролира светлинния конус на Вселената. Той е по-лош.
Стивън Бартлет: Подозирате ли, че това е, което го движи - наследството да бъде влиятелен човек, който е направил нещо забележително, срещу последствията, които това може да има за обществото? Защото е интересно, че другият му стартъп е Worldcoin, който по същество е платформа за създаване на универсален базов доход, т.е. платформа, която да ни дава доход в свят, в който хората вече нямат работа. Така че от една страна създавате компания за ИИ, а от друга - компания, която се подготвя за това хората да нямат работа.
Д-р Роман Ямполски: Тя има и други свойства. Следи биометричните данни на всички. Държи ви отговорен за световната икономика, световното богатство. Те задържат голяма част от Worldcoin. Така че мисля, че е много разумна част за интегриране със световно господство. Ако имате система със супер интелект и контролирате парите, се справяте добре.
Стивън Бартлет: Защо някой би искал световно господство?
Д-р Роман Ямполски: Хората имат различни нива на амбиция. Когато си много млад човек с милиарди долари и слава, започваш да търсиш по-амбициозни проекти. Някои хора искат да отидат на Марс. Други искат да контролират светлинния конус на Вселената.
Стивън Бартлет: Какво казахте? Светлинния конус на Вселената.
Д-р Роман Ямполски: Да. Всяка част от Вселената, до която светлината може да достигне от тази точка. Тоест, всичко достъпно, което искате да грабнете и да поставите под свой контрол.
Стивън Бартлет: Мислите ли, че Сам Алтман иска да контролира всяка част от Вселената?
Д-р Роман Ямполски: Подозирам, че може би да.
Стивън Бартлет: Това не означава, че той не иска страничният ефект от това да бъде много полезна технология, която прави всички хора щастливи. Щастливите хора са добри за контрол. Ако трябваше да познаете как ще изглежда светът през 2100 г., ако трябваше да познаете, той или ще е лишен от човешко съществуване, или ще е напълно неразбираем за някой като нас. Една от тези крайности е. Значи или няма хора.
Д-р Роман Ямполски: По същество светът е унищожен или е толкова различен, че не мога да си представя тези прогнози.
Стивън Бартлет: Какво може да се направи, за да се обърне този кораб към по-сигурен положителен изход на този етап? Има ли все още неща, които можем да направим, или е твърде късно?
Д-р Роман Ямполски: Вярвам в личния интерес. Ако хората осъзнаят, че правенето на това нещо е наистина лошо за тях лично, те няма да го направят. Така че нашата работа е да убедим всички с някаква власт в тази сфера, които създават тази технология, които работят за тези компании, че правят нещо много лошо за себе си. Не просто да забравим за 8-те милиарда души, с които експериментирате без разрешение, без съгласие. Вие няма да сте доволни от резултата. Ако можем да накараме всички да разберат, че това е по подразбиране, и не го казвам само аз. Имахте Джеф Хинтън, носител на Нобелова награда, основател на цялата област на машинното обучение. Той казва същото. Бенджио, десетки други, водещи учени. Имахме изявление за опасностите от ИИ, подписано от хиляди учени, компютърни специалисти. Това е по същество това, което мислим в момента. И трябва да го направим универсално. Никой не трябва да не е съгласен с това. И тогава може би ще вземем добри решения за това каква технология да изградим. Това не гарантира дългосрочна безопасност за човечеството, но означава, че не се опитваме да стигнем възможно най-скоро до най-лошия възможен резултат. И надявате ли се, че това изобщо е възможно?
Стивън Бартлет: Искам да опитам. Нямаме друг избор, освен да опитаме.
Д-р Роман Ямполски: И какво трябва да се случи и кой трябва да действа? Правителствено законодателство ли е? Дали е...
Стивън Бартлет: За съжаление, не мисля, че правенето му незаконно е достатъчно. Има различни юрисдикции. Има, знаете, вратички. И какво ще направите, ако някой го направи? Ще го глобите за унищожаване на човечеството? Много високи глоби за това? Какво ще направите? Не е приложимо. Ако го създадат, сега супер интелектът е начело. Така че съдебната система, която имаме, не е въздействаща. И всички наказания, които имаме, са предназначени за наказване на хора. Затвори, смъртно наказание не се отнасят за ИИ. Знаете ли, проблемът, който имам, е, че когато водя тези разговори, никога не се чувствам, че си тръгвам с надежда, че нещо ще се получи добре. И това, което имам предвид, е, че никога не се чувствам, че си тръгвам с ясен набор от действия, които могат да коригират това, което може да се случи тук. Така че какво трябва да направя аз? Какво трябва да направи човекът, който седи вкъщи и слуша това?
Д-р Роман Ямполски: Вие говорите с много хора, които изграждат тази технология.
Стивън Бартлет: Мхм. Попитайте ги точно да обяснят някои от тези неща, които твърдят, че са невъзможни. Как са ги решили или ще ги решат, преди да стигнат там, където отиват.
Д-р Роман Ямполски: Знаете ли? Не мисля, че Сам Алтман иска да говори с мен.
Стивън Бартлет: Не знам. Изглежда, че ходи по много подкасти. Може би иска.
Д-р Роман Ямполски: Той иска да бъде онлайн. Чудя се защо е така. Чудя се защо е така. Бих се радвал да говоря с него, но не мисля, че иска, не мисля, че иска аз да го интервюирам.
Стивън Бартлет: Отправете открито предизвикателство. Може би парите не са стимул, но каквото и да привлича хора като него. Който може да ви убеди, че е възможно да се контролира и да се направи безопасен супер интелект, получава наградата. Те идват във вашето предаване и доказват тезата си. Всеки. Ако никой не поиска наградата или дори не приеме предизвикателството след няколко години, може би нямаме никой с решения. Имаме компании, оценени отново на милиарди и милиарди долари, които работят върху безопасен супер интелект. Все още не сме видели резултата им.
Д-р Роман Ямполски: Да, бих искал да говоря и с Иля, защото знам, че той работи върху безопасен супер интелект. Така че...
Стивън Бартлет: Забележете и един модел. Ако погледнете историята на организациите за безопасност на ИИ или отделите в компаниите, те обикновено започват добре, много амбициозно, а след това се провалят и изчезват. Например, OpenAI имаше екип за съгласуване на супер интелекта. В деня, в който го обявиха, мисля, че казаха, че ще го решат за 4 години. Половин година по-късно разпуснаха екипа. И има десетки подобни примери. Създаването на перфектна безопасност за супер интелект, вечна безопасност, докато той продължава да се подобрява, модифицира, взаимодейства с хората, никога няма да стигнете дотам. Невъзможно е. Има голяма разлика между трудни проблеми в компютърните науки, NP-пълни проблеми и невъзможни проблеми. И мисля, че контролът, безкрайният контрол на супер интелекта е такъв проблем.
Д-р Роман Ямполски: Тогава какъв е смисълът да се опитва, ако е невъзможно? Е, опитвам се да докажа, че е точно това. След като установим, че нещо е невъзможно, по-малко хора ще си губят времето, твърдейки, че могат да го направят и търсейки пари. Толкова много хора казват: "Дайте ми милиард долара за 2 години и ще го реша за вас." Е, не мисля, че ще го направите.
Стивън Бартлет: Но хората няма да спрат да се стремят към това. Така че, ако няма опити да се направи безопасно и все повече хора се стремят към това, тогава е неизбежно.
Д-р Роман Ямполски: Но това променя това, което правим. Ако знаем, че е невъзможно да го направим правилно, да го направим безопасно, тогава този директен път просто да го изградим възможно най-скоро се превръща в самоубийствена мисия и се надявам по-малко хора да я преследват. Те могат да тръгнат в други посоки. Отново, аз съм учен, инженер, обичам ИИ, обичам технологиите, използвам ги през цялото време. Изграждайте полезни инструменти. Спрете да изграждате агенти. Изграждайте тесен супер интелект, а не общ. Не казвам, че не трябва да правите милиарди долари. Обичам милиардите долари. Но не убивайте всички, включително и себе си.
Стивън Бартлет: Те не мислят, че ще го направят обаче.
Д-р Роман Ямполски: Тогава ни кажете защо. Чувам неща за интуиция. Чувам неща за "ще го решим по-късно". Кажете ми конкретно, с научни термини. Публикувайте рецензирана статия, обясняваща как ще контролирате супер интелекта.
Стивън Бартлет: Да, странно е. Странно е дори да се занимаваш, ако имаше дори 1% шанс за изчезване на човечеството. Странно е да правиш нещо, ако имаше 1% шанс... някой ми каза, че има 1% шанс, че ако се кача в кола, може да не съм жив. Не бих се качил в колата. Ако ми кажете, че има 1% шанс, че ако изпия каквато и да е течност в тази чаша в момента, може да умра. Не бих изпил течността. Дори ако имаше милиард долари, ако оцелея. Така че 99% шанс да получа милиард долари. 1% е да умра. Не бих го изпил. Не бих поел риска.
Д-р Роман Ямполски: По-лошо е от това. Не само вие умирате. Всички умират.
Стивън Бартлет: Да. Да. Сега, бихме ли ви позволили да го изпиете при каквито и да е шансове? Това е за нас да решим. Вие не можете да направите този избор за нас. За да получите съгласие от човешки субекти, трябва те да разбират за какво дават съгласие. Ако тези системи са необясними, непредсказуеми, как могат те да дадат съгласие? Те не знаят за какво дават съгласие. Така че е невъзможно да се получи съгласие по дефиниция. Така че този експеримент никога не може да бъде проведен етично. По дефиниция те провеждат неетични експерименти върху човешки субекти.
Стивън Бартлет: Мислите ли, че хората трябва да протестират?
Д-р Роман Ямполски: Има хора, които протестират. Има "Спрете ИИ", има "Пауза за ИИ". Те блокират офисите на OpenAI. Правят го седмично, месечно, доста акции и набират нови хора.
Стивън Бартлет: Мислите ли, че повече хора трябва да протестират? Мислите ли, че това е ефективно решение?
Д-р Роман Ямполски: Ако можете да го доведете до достатъчно голям мащаб, където мнозинството от населението участва, това би било въздействащо. Не знам дали могат да се разраснат от сегашните си бройки до това. Но подкрепям всеки, който опитва всичко мирно и законно.
Стивън Бартлет: А за човека, който слуша вкъщи, какво трябва да прави той? Какво, защото те не искат да се чувстват безсилни. Никой от нас не иска да се чувства безсилен.
Д-р Роман Ямполски: Зависи от какъв мащаб питаме, времеви мащаб. Казваме ли, че тази година детето ви отива в колеж, каква специалност да избере? Трябва ли изобщо да ходи в колеж?
Стивън Бартлет: Да.
Д-р Роман Ямполски: Трябва ли да смените работата си? Трябва ли да се насочите към определени индустрии? На тези въпроси можем да отговорим. Можем да говорим за непосредственото бъдеще. Какво трябва да направите след 5 години, когато това се създава за средностатистическия човек? Не много. Точно както те не могат да повлияят на Втората световна война, ядрените оръжия, Холокоста, нищо подобно. Това не е нещо, за което някой ще ги попита. Днес, ако искате да бъдете част от това движение, да, присъединете се към "Пауза за ИИ", присъединете се към "Спрете ИИ". Тези организации в момента се опитват да наберат инерция, за да привлекат демократичните сили да повлияят на тези индивиди. Така че в близко бъдеще, не много. Чудех се дали има някакви интересни стратегии в близко бъдеще. Например, трябва ли да мисля по различен начин за семейството си, за... имам предвид, вие имате деца, нали? Имате три деца.
Стивън Бартлет: За които знам. Да.
Д-р Роман Ямполски: Три деца. Как мислите за родителството в този свят, който виждате зад ъгъла? Как мислите какво да им кажете, какви съвети да им дадете, какво трябва да учат?
Стивън Бартлет: Има общ съвет извън тази област, че трябва да живеете всеки ден, сякаш е последен. Това е добър съвет, независимо от всичко. Ако ви остават три години или 30 години, сте живели най-добрия си живот. Така че се опитайте да не правите неща, които мразите, твърде дълго. Правете интересни неща. Правете въздействащи неща. Ако можете да правите всичко това, докато помагате на хората, правете го. Теорията на симулацията е интересна съседна тема тук, защото докато компютрите започват да се ускоряват и да стават по-интелигентни и ние сме в състояние да правим неща с ИИ, които никога не сме си представяли, по отношение на това, че можем да си представим света, който бихме могли да създадем с виртуална реалност. Мисля, че Google наскоро пусна нещо, което се наричаше... като световете на ИИ.
Д-р Роман Ямполски: Правите снимка и тя генерира цял свят.
Стивън Бартлет: Да. И можете да се движите из света. Ще го покажа на екрана, за да го видят хората. Google пусна тази технология, която ви позволява, мисля, че с прост промпт всъщност да направите триизмерен свят, през който след това можете да навигирате, и в този свят има памет. Така че в света, ако нарисувате нещо на стена и се обърнете, когато погледнете назад към стената...
Д-р Роман Ямполски: ...то е постоянно.
Стивън Бартлет: Да, постоянно е. И когато видях това, си казах, "Боже мой, това е... това е като подножието на възможността да се създаде симулация, която е неразличима от всичко, което виждам тук."
Д-р Роман Ямполски: Точно така. Затова мисля, че сме в такава. Точно това е причината. ИИ достига нивото на създаване на човешки агенти, агенти на човешко ниво, а виртуалната реалност достига нивото на неразличимост от нашата.
Стивън Бартлет: Значи мислите, че това е симулация?
Д-р Роман Ямполски: Почти съм сигурен, че сме в симулация. Да.
Стивън Бартлет: За някой, който не е запознат с аргументите за симулацията, кои са основните принципи тук, които ви убеждават, че в момента живеем в симулация?
Д-р Роман Ямполски: Нуждаете се от определени технологии, за да се случи това. Ако вярвате, че можем да създадем ИИ на човешко ниво...
Стивън Бартлет: Да.
Д-р Роман Ямполски: ...и вярвате, че можем да създадем виртуална реалност, толкова добра като тази по отношение на резолюция, хаптика, каквито и свойства да има, тогава се ангажирам точно сега, в момента, в който това стане достъпно, ще пусна милиарди симулации на точно този момент, уверявайки се, че статистически сте в една от тях.
Стивън Бартлет: Кажете последната част отново. Ще пуснете, ще пуснете...
Д-р Роман Ямполски: Ангажирам се точно сега и е много достъпно. Струва около 10 долара на месец да го пуснете. Ще пусна милиард симулации на това интервю.
Стивън Бартлет: Защо?
Д-р Роман Ямполски: Защото статистически това означава, че вие сте в една от тях в момента. Шансовете да сте в истинската е едно на милиард.
Стивън Бартлет: Добре. За да съм сигурен, че разбирам, това е ретроактивно поставяне.
Д-р Роман Ямполски: Да. Така че в момента, в който стане достъпно, тогава можете да пуснете милиарди от тях и те ще се усещат и ще изглеждат точно като това интервю в момента. Да. Така че, ако приемем, че ИИ има вътрешни състояния, преживявания, квалия, някои хора твърдят, че нямат. Някои казват, че вече имат. Това е отделен философски въпрос. Но ако можем да симулираме това, аз ще го направя.
Стивън Бартлет: Някои хора може да разберат погрешно. Вие не казвате, че вие ще го направите. Казвате, че някой ще го направи.
Д-р Роман Ямполски: Аз също мога да го направя. Нямам нищо против.
Стивън Бартлет: Добре.
Д-р Роман Ямполски: Разбира се, други ще го направят, преди аз да стигна дотам. Ако аз го получавам за 10 долара, някой го е получил за 1000. Това не е въпросът. Ако имате технологията, определено ще пускаме много симулации за изследвания, за забавление, игри, всякакви причини. И броят им значително надвишава броя на реалните светове, в които се намираме. Погледнете всички видеоигри, които децата играят. Всяко дете играе 10 различни игри. Има, знаете, милиард деца в света. Така че има 10 милиарда симулации в един реален свят. Мхм. Още повече, когато мислим за напреднали ИИ, супер интелигентни системи, тяхното мислене не е като нашето. Те мислят в много повече детайли. Провеждат експерименти. Така че провеждането на подробна симулация на някакъв проблем на ниво създаване на изкуствени хора и симулиране на цялата планета ще бъде нещо, което ще правят рутинно. Така че има голям шанс това да не го правя аз за 10 долара. Това е бъдеща симулация, която мисли за нещо в този свят. Хм. Така че може да се окаже, че вид хора или вид интелигентност в някаква форма са стигнали до този момент, в който са могли достъпно да провеждат симулации, които са неразличими от тази, и са решили да го направят, и това е то в момента. И би имало смисъл да провеждат симулации като експерименти или за игри, или за забавление. И също така, когато мислим за времето в света, в който се намирам, в тази симулация, в която може да се намирам в момента, времето се усеща дълго относително, знаете, имам 24 часа в денонощието, но в техния свят може да е...
Стивън Бартлет: Времето е относително.
Д-р Роман Ямполски: Относително, да, може да е секунда. Целият ми живот може да е милисекунда там.
Стивън Бартлет: Точно така. Можете да променяте скоростта на симулациите, които провеждате, със сигурност. Така че вашето убеждение е, че това вероятно е симулация.
Д-р Роман Ямполски: Най-вероятно и има голямо съгласие по този въпрос. Ако погледнете отново религиите, всяка религия по същество описва какво е супер интелигентно същество, инженер, програмист, който създава фалшив свят за тестови цели или за каквото и да е. Но ако вземете статията за хипотезата за симулацията, отидете в джунглата, говорите с примитивни хора, местно племе и на техния език им разкажете за това. Върнете се две поколения по-късно. Те имат религия. Това е по същество историята.
Стивън Бартлет: Религия. Да. Описва теорията на симулацията. По същество някой е създал.
Д-р Роман Ямполски: Така че по подразбиране това беше първата теория, която имахме. И сега с науката все повече хора казват, че ѝ дават нетривиална вероятност. Малко хора са толкова убедени, колкото мен, но много хора ѝ отдават известно доверие.
Стивън Бартлет: На какъв процент сте по отношение на вярата, че в момента живеем в симулация?
Д-р Роман Ямполски: Много близо до сигурност.
Стивън Бартлет: И какво означава това за естеството на вашия живот? Ако сте близо до 100% сигурен, че в момента живеем в симулация, променя ли това нещо в живота ви?
Д-р Роман Ямполски: Всички неща, за които ви е грижа, са все същите. Болката все още боли. Любовта все още е любов, нали? Тези неща не са различни. Така че няма значение. Те все още са важни. Това е, което има значение. Малката 1% разлика е, че ме е грижа какво има извън симулацията. Искам да науча за това. Пиша статии за това. Така че това е единственото въздействие.
Стивън Бартлет: И какво мислите, че има извън симулацията?
Д-р Роман Ямполски: Не знам. Но можем да погледнем този свят и да извлечем някои свойства на симулаторите. Ясно е, че е брилянтен инженер, брилянтен учен, брилянтен художник, не толкова добър с морала и етиката. Има място за подобрение.
Стивън Бартлет: Според нашия възглед за това какви трябва да бъдат моралът и етиката.
Д-р Роман Ямполски: Е, знаем, че има страдание в света. Така че, освен ако не мислите, че е етично да се измъчват деца, тогава поставям под въпрос вашия подход.
Стивън Бартлет: Но по отношение на стимулите за създаване на положителен стимул, вероятно трябва да създадете и отрицателни стимули. Страданието изглежда е един от отрицателните стимули, вградени в нашия дизайн, за да ме спре да правя неща, които не трябва. Например, да си сложа ръката в огъня, ще боли.
Д-р Роман Ямполски: Но всичко е въпрос на нива, нива на страдание, нали? Неприятни стимули, отрицателна обратна връзка не трябва да бъдат на нива като отрицателна безкрайност, адски нива. Не искате да горите жив и да го усещате. Искате да бъде като: "О, това е неудобно. Ще спра."
Стивън Бартлет: Интересно е, защото ние предполагаме, че те нямат страхотен морал и етика, но и ние бихме взели животни, сготвили ги и ги изяли за вечеря, а също така провеждаме експерименти с мишки и плъхове.
Д-р Роман Ямполски: Но за да получите университетско одобрение за провеждане на експеримент, подавате предложение и има комисия от етици, които ще кажат, че не можете да експериментирате с хора, не можете да горите бебета, не можете да ядете животни живи. Всички тези неща ще бъдат забранени.
Стивън Бартлет: В повечето части на света.
Д-р Роман Ямполски: Където имат етични комисии.
Стивън Бартлет: Да.
Д-р Роман Ямполски: Някои места не се занимават с това, така че имат по-лесен процес на одобрение.
Стивън Бартлет: Смешно е, когато говорите за теорията на симулацията, има елемент от разговора, който кара живота да се чувства по-малко смислен по странен начин. Сякаш... знам, че няма значение, но винаги, когато водя този разговор с хора извън подкаста за това дали живеем в симулация, почти виждате как малко смисъл излиза от живота им за секунда, а след това забравят и продължават, но мисълта, че това е симулация, почти предполага, че не е важно или че... мисля, че хората искат да вярват, че това е най-високото ниво и ние сме най-важните и всичко е за нас. Ние сме доста егоистични по дизайн. И просто интересно наблюдение, което винаги съм имал, когато водя тези разговори с хора, че изглежда, че това отнема нещо от живота им.
Д-р Роман Ямполски: Чувствате ли, че религиозните хора се чувстват така? Те знаят, че има друг свят и този, който има значение, не е този. Чувствате ли, че те не ценят живота си по същия начин? Предполагам, че в някои религии...
Стивън Бартлет: Мисля, че те смятат, че този свят е създаден за тях и че ще отидат в този рай или ад, и това все още ги поставя в самия център на всичко. Но ако е симулация, знаете, може просто да сме някаква компютърна игра, с която четиригодишно извънземно се занимава, докато има време за губене.
Д-р Роман Ямполски: Но може би има, знаете, тест и има по-добра симулация, в която отивате, и по-лоша. Може би има различни нива на трудност. Може би искате да я играете на по-трудна настройка следващия път.
Стивън Бартлет: Мислите ли много за дълголетието?
Д-р Роман Ямполски: Много. Да. Вероятно е вторият най-важен проблем, защото ако ИИ не ни довърши, това ще го направи.
Стивън Бартлет: Какво имате предвид?
Д-р Роман Ямполски: Ще умрете от старост.
Стивън Бартлет: Което е добре.
Д-р Роман Ямполски: Това не е добре. Искате ли да умрете?
Стивън Бартлет: Искам да кажа...
Д-р Роман Ямполски: Не е нужно. Това е просто болест. Можем да я излекуваме. Нищо не ви пречи да живеете вечно, докато съществува Вселената. Освен ако не избягаме от симулацията.
Стивън Бартлет: Но не бихме искали свят, в който всеки може да живее вечно, нали? Това би било...
Д-р Роман Ямполски: Разбира се, че искаме. Защо? Кой искате да умре?
Стивън Бартлет: Е, не знам. Искам да кажа, казвам това, защото това е всичко, което някога съм знаел - че хората умират. Но няма ли светът да стане доста пренаселен, ако...
Д-р Роман Ямполски: Не, спирате да се размножавате, ако живеете вечно. Имате деца, защото искате заместител за себе си. Ако живеете вечно, си казвате: "Ще имам деца след милион години. Това е готино. Първо ще отида да изследвам Вселената." Плюс това, ако погледнете реалната демографска динамика извън един континент, всички ние намаляваме. Не се увеличаваме.
Стивън Бартлет: Да. Това е лудост. Лудост е, че колкото по-богати стават хората, толкова по-малко деца имат, което съвпада с това, което казвате. И всъщност мисля, ако ще бъда напълно честен тук, мисля, че ако знаех, че ще живея до хиляда години, няма начин да имам деца на 30.
Д-р Роман Ямполски: Точно така. Биологичните часовници се основават на крайни точки. Докато ако вашият биологичен часовник е безкраен, ще си кажете "някой ден".
Стивън Бартлет: И мислите, че това е близо - възможността да удължим живота си?
Д-р Роман Ямполски: На един пробив разстояние е. Мисля, че някъде в нашия геном имаме тази верига за подмладяване и тя е настроена да ни даде най-много 120 години. Мисля, че можем да я нулираме на нещо по-голямо.
Стивън Бартлет: ИИ вероятно ще ускори това.
Д-р Роман Ямполски: Това е една много важна област на приложение. Да, абсолютно.
Стивън Бартлет: Така че може би Брайън Джонсън е прав, когато казва "не умирайте сега". Той непрекъснато ми повтаря: "Не умирайте сега."
Д-р Роман Ямполски: Не умирайте никога.
Стивън Бартлет: Но знаете, той казва "не умирайте, преди да стигнем до технологията".
Д-р Роман Ямполски: Точно така. Скорост на бягство от дълголетието. Искате да живеете достатъчно дълго, за да живеете вечно. Ако в един момент всяка година от вашето съществуване добавя 2 години към вашето съществуване чрез медицински пробиви, тогава живеете вечно. Просто трябва да стигнете до тази точка на скорост на бягство от дълголетието. И той смята, че скоростта на бягство от дълголетието, особено в свят на ИИ, е доста... на десетилетия разстояние минимум, което означава...
Стивън Бартлет: Щом разберем напълно човешкия геном, мисля, че ще направим невероятни пробиви много бързо, защото знаем, че някои хора имат гени за много по-дълъг живот. Имаме поколения от хора, които са столетници. Така че, ако можем да разберем това и да го копираме, или да го копираме от някои животни, които ще живеят вечно, ще стигнем дотам.
Д-р Роман Ямполски: Бихте ли искали да живеете вечно?
Стивън Бартлет: Разбира се. Обърнете въпроса. Да речем, че живеехме вечно и ме попитате: "Искаш ли да умреш след 40 години?" Защо бих казал "да"?
Д-р Роман Ямполски: Не знам. Може би просто сте свикнали с подразбирането.
Стивън Бартлет: Да, свикнал съм с подразбирането.
Д-р Роман Ямполски: И никой не иска да умре. Без значение на колко години сте, никой не казва: "Да, искам да умра тази година." Всички казват: "О, искам да продължа да живея."
Стивън Бартлет: Чудя се дали животът и всичко останало биха били по-малко специални, ако живеех 10 000 години. Чудя се дали отиването на Хаваите за първи път или, не знам, една връзка, всички тези неща биха били много по-малко специални за мен, ако бяха по-малко оскъдни и ако просто, знаете...
Д-р Роман Ямполски: Може би индивидуално по-малко специални, но има толкова много повече, което можете да направите. В момента можете да правите планове да правите нещо за десетилетие или две. Не можете да имате амбициозен план да работите по този проект 500 години. Представете си възможностите, които се отварят пред вас с безкрайно време в безкрайната Вселена. Боже.
Стивън Бартлет: Усеща се изтощително.
Д-р Роман Ямполски: Това е голямо количество време. Също така, не знам за вас, но аз не си спомням около 99% от живота си в детайли. Спомням си големите акценти. Така че, дори да съм се наслаждавал на Хаваите преди 10 години, ще им се насладя отново.
Стивън Бартлет: Мислите ли за това наистина практично, както Брайън Джонсън? Брайън Джонсън е убеден, че сме може би на две десетилетия от възможността да удължим живота. Мислите ли за това практично и правите ли нещо по въпроса?
Д-р Роман Ямполски: Диета, хранене. Опитвам се да мисля за инвестиционни стратегии, които се изплащат след милион години. Да.
Стивън Бартлет: Наистина?
Д-р Роман Ямполски: Да. Разбира се.
Стивън Бартлет: Какво имате предвид с "разбира се"? Разбира се.
Д-р Роман Ямполски: Защо не бихте? Ако мислите, че това ще се случи, трябва да опитате. Така че, ако получим ИИ сега, какво се случва с икономиката? Говорихме за Worldcoin. Говорихме за безплатен труд. Какво са парите? Сега биткойн ли е? Инвестирате ли в това? Има ли нещо друго, което става единственият ресурс, който не можем да фалшифицираме? Тези неща са много важни изследователски теми.
Стивън Бартлет: Значи инвестирате в биткойн, нали?
Д-р Роман Ямполски: Да.
Стивън Бартлет: Защото е...
Д-р Роман Ямполски: ...единственият оскъден ресурс. Нищо друго няма оскъдност. Всичко останало, ако цената се повиши, ще направим повече. Мога да направя толкова злато, колкото искате, при подходяща цена. Не можете да направите повече биткойни.
Стивън Бартлет: Някои хора казват, че биткойн е просто това нещо на компютър, за което всички сме се съгласили, че има стойност.
Д-р Роман Ямполски: Ние сме нещо на компютър, помните ли?
Стивън Бартлет: Добре. Искам да кажа, не е инвестиционен съвет, но е инвестиционен съвет.
Д-р Роман Ямполски: Смешно е как това е едно от онези неща, където ви казват, че не е, но веднага знаете, че е. Има "вашето обаждане е важно за нас". Това означава, че вашето обаждане е от нулева важност. И инвестициите са такива.
Стивън Бартлет: Да. Да. Когато казват "без инвестиционен съвет", определено е инвестиционен съвет. Но не е инвестиционен съвет. Добре. Значи сте оптимист за биткойн, защото не може да бъде манипулиран.
Д-р Роман Ямполски: Това е единственото нещо, за което знаем колко има във Вселената. Например, злато, може да има астероид от чисто злато, който се насочва към нас, обезценявайки го. Е, също така убивайки всички ни. Но за биткойн знам точно числата и дори 21-те милиона са горна граница. Колко са изгубени? Забравени пароли. Не знам какво прави Сатоши с неговия милион. Става все по-оскъден всеки ден, докато все повече хора се опитват да го натрупат.
Стивън Бартлет: Някои хора се притесняват, че може да бъде хакнат със суперкомпютър.
Д-р Роман Ямполски: Квантов компютър може да разбие този алгоритъм. Има стратегии за преминаване към квантово-устойчива криптография за това. И квантовите компютри все още са доста слаби.
Стивън Бартлет: Мислите ли, че има някакви промени в живота ми, които трябва да направя след този разговор? Има ли нещо, което трябва да направя по различен начин в момента, в който изляза от тази врата?
Д-р Роман Ямполски: Предполагам, че вече инвестирате сериозно в биткойн.
Стивън Бартлет: Да, аз съм инвеститор в биткойн.
Д-р Роман Ямполски: Бизнес финансов съвет. Не. Просто изглежда, че печелите. Може би това е вашата симулация. Богат сте, красив, известни хора се мотаят с вас. Това е доста добре. Продължавайте така. Робин Хансън има статия за това как да живеем в симулация, какво трябва да правите в нея. И вашата цел е да правите точно това. Искате да бъдете интересен. Искате да се мотаете с известни хора, за да не я изключат. Така че вие сте част от нещо, което някой всъщност гледа на pay-per-view или нещо подобно.
Стивън Бартлет: О, не знам дали искате да ви гледат на pay-per-view, защото тогава ще бъде същото.
Д-р Роман Ямполски: Тогава ще ви изключат. Ако никой не гледа, защо ще го пускат?
Стивън Бартлет: Казвам, не искате ли да летите под радара? Не искате ли да бъдете човекът, който просто живее нормален живот, който господарите...
Д-р Роман Ямполски: Това са NPC-та. Никой не иска да бъде NPC.
Стивън Бартлет: Религиозен ли сте?
Д-р Роман Ямполски: Не в традиционния смисъл, но вярвам в хипотезата за симулацията, която има супер интелигентно същество. Така че...
Стивън Бартлет: Но не вярвате в религиозните книги.
Д-р Роман Ямполски: Различни религии. Тази религия ще ви каже да не работите в събота. Тази - да не работите в неделя, да не ядете прасета, да не ядете крави. Те просто имат местни традиции върху тази теория. Това е всичко. Всички те са една и съща религия. Всички те се покланят на супер интелигентно същество. Всички те смятат, че този свят не е основният. И спорят кое животно да не ядат. Пропуснете местните вкусове. Концентрирайте се върху това, което е общо за всички религии. И това е интересната част. Всички те смятат, че има нещо по-велико от хората. Много способно, всезнаещо, всемогъщо. Когато пусна компютърна игра, четири от тези герои в играта. Аз съм това, мога да променя целия свят. Мога да го изключа. Знам всичко в света.
Стивън Бартлет: Смешно е. Мислех си по-рано, когато започнахме да говорим за теорията на симулацията, че може би има нещо вродено в нас, което е оставено от създателя, почти като улика, като интуиция, защото това е, което сме склонни да имаме през историята. Хората имат тази интуиция.
Д-р Роман Ямполски: Да.
Стивън Бартлет: Че всички неща, които казахте, са верни. Че има някой отгоре и...
Д-р Роман Ямполски: Имаме поколения от хора, които са били религиозни, които са вярвали, че Бог им е казал и е бил там и им е дал книги, и това се е предавало в продължение на много поколения. Това е може би едно от най-ранните поколения, които нямат универсална религиозна вяра.
Стивън Бартлет: Чудя се дали тези хора казват истината. Чудя се дали тези хора, които казват, че Бог е дошъл при тях и е казал нещо. Представете си това. Представете си, че това е част от това.
Д-р Роман Ямполски: Гледам новините днес. Нещо се е случило преди час и получавам различни противоречиви резултати. Дори не мога да разбера с камери, с дронове, с човек в Twitter. Все още не знам какво се е случило. А вие мислите, че преди 3000 години сме имали точен запис на преводи и не, разбира се, че не.
Стивън Бартлет: Тези разговори, които водите за безопасността на ИИ, мислите ли, че карат хората да се чувстват добре?
Д-р Роман Ямполски: Не знам дали се чувстват добре или зле, но хората го намират за интересно. Това е една от онези теми. Мога да водя разговор за различни лечения на рак със средностатистически човек, но всеки има мнение за ИИ. Всеки има мнение за симулацията. Интересно е, че не е нужно да сте високо образован или гений, за да разберете тези концепции.
Стивън Бартлет: Защото съм склонен да мисля, че това ме кара да не се чувствам позитивно. И разбирам това, но винаги съм бил на мнение, че не трябва да живеете в свят на заблуда, където просто се стремите да бъдете позитивни, да ви се казват позитивни неща и да избягвате неудобни разговори. Всъщност, напредъкът в живота ми често идва от воденето на неудобни разговори, осъзнаването на нещо и след това поне информирането за това как мога да направя нещо по въпроса. И затова мисля, че затова зададох въпроса, защото предполагам, че повечето хора би трябвало, ако са нормални човешки същества, да слушат тези разговори и да си кажат "Боже, това е страшно и това е притеснително", и след това продължавам да се връщам към този момент, който е "какво да правя с тази енергия?"
Д-р Роман Ямполски: Да. Но се опитвам да посоча, че това не е по-различно от толкова много разговори, за които можем да говорим. "О, има глад в този регион, геноцид в този регион, всички умирате, ракът се разпространява, аутизмът се увеличава." Винаги можете да намерите нещо, за което да бъдете много депресирани и нищо, което можете да направите по въпроса. И ние сме много добри в това да се концентрираме върху това, което можем да променим, в което сме добри, и по същество да не се опитваме да прегърнем целия свят като локална среда. Исторически, сте израснали с племе, имали сте дузина хора около вас. Ако нещо се е случило с един от тях, е било много рядко. Било е инцидент. Сега, ако вляза в интернет, някой бива убит навсякъде през цялото време. Някак си хиляди хора ми се съобщават всеки ден. Дори нямам време да забележа. Просто е твърде много. Така че трябва да поставя филтри. И мисля, че тази тема е нещо, което хората много добре филтрират като "това беше този забавен разговор, на който отидох, нещо като шоу, и в момента, в който изляза, свършва". Така че обикновено отивам да изнеса основна лекция на конференция и им казвам по същество: "Всички ще умрете, остават ви две години, някакви въпроси?" И хората казват: "Ще загубя ли работата си?", "Как да смажа секс робота си?", всякакви глупости, ясно неразбиращи какво се опитвам да кажа. И това са добри въпроси, интересни въпроси, но не прегръщат напълно резултата. Те все още са в своя балон на локалното срещу глобалното.
Стивън Бартлет: А хората, които не са съгласни с вас най-много по отношение на безопасността на ИИ, какво казват те? Какви са техните контрааргументи обикновено?
Д-р Роман Ямполски: Много от тях изобщо не се ангажират. Те нямат никакви познания по темата. Никога не са чели нито една книга, нито една статия, не само от мен, от никого. Може дори да работят в областта. Правят някаква работа с машинно обучение за някоя компания, максимизирайки кликванията върху реклами, и за тях тези системи са много тесни, и след това чуват, че "о, този човек ще превземе света". "Той няма ръце. Как ще го направи? Това е глупост. Този човек е луд. Има брада. Защо да го слушам?" Нали? Това е... след това започват да четат малко. Казват: "О, добре. Може би ИИ може да бъде опасен. Да, виждам това. Но винаги сме решавали проблеми в миналото. Ще ги решим отново. Искам да кажа, в един момент поправихме компютърен вирус или нещо подобно. Така че е същото." И по същество, колкото повече са изложени, толкова по-малко вероятно е да запазят тази позиция. Познавам много хора, които са преминали от супер небрежен разработчик до изследовател по безопасност. Не познавам никой, който е преминал от "притеснявам се за безопасността на ИИ" до "няма за какво да се притесняваме".
Стивън Бартлет: Какви са вашите заключителни думи?
Д-р Роман Ямполски: Нека се уверим, че няма нужда да даваме заключителни думи за човечеството. Нека се уверим, че оставаме начело, под контрол. Нека се уверим, че изграждаме само неща, които са полезни за нас. Нека се уверим, че хората, които вземат тези решения, са поне малко квалифицирани да го правят. Че са добри не само в науката, инженерството и бизнеса, но също така имат морални и етични стандарти. И ако правите нещо, което засяга други хора, трябва да поискате тяхното разрешение, преди да го направите.
Стивън Бартлет: Ако имаше един бутон пред вас и той щеше да затвори всяка компания за ИИ в света в момента, за постоянно, с невъзможност някой да основе нова, бихте ли натиснали бутона?
Д-р Роман Ямполски: Губим ли тесния ИИ или само частта със супер интелигентния AGI?
Стивън Бартлет: Губите целия ИИ.
Д-р Роман Ямполски: Това е труден въпрос, защото ИИ е изключително важен. Той контролира фондовия пазар, електроцентралите. Контролира болниците. Би било опустошителна катастрофа. Милиони хора биха загубили живота си.
Стивън Бартлет: Добре, можем да запазим тесния ИИ.
Д-р Роман Ямполски: О, да, това е, което искаме. Искаме тесният ИИ да прави всичко това за нас, но не и Бог, когото не контролираме, да прави неща на нас.
Стивън Бартлет: Значи бихте го спрели. Бихте спрели AGI и супер интелекта.
Д-р Роман Ямполски: Имаме AGI. Това, което имаме днес, е страхотно за почти всичко. Можем да направим секретарки от него. 99% от икономическия потенциал на настоящата технология не е внедрен. Правим ИИ толкова бързо, че той няма време да се разпространи в индустрията, в технологиите. Нещо като половината от всички работни места се считат за безсмислени. Те не е необходимо да се вършат. Така че те могат дори да не бъдат автоматизирани. Могат просто да изчезнат. Но казвам, че можем да заменим 60% от работните места днес със съществуващите модели. Не сме го направили. Така че, ако целта е да се развива икономиката, можем да го правим десетилетия, без да се налага да създаваме супер интелект възможно най-скоро.
Стивън Бартлет: Мислите ли, че в световен мащаб, особено в западния свят, безработицата само ще се увеличава оттук нататък? Мислите ли, че относително това е най-ниското ниво на безработица?
Д-р Роман Ямполски: Искам да кажа, тя се колебае много с други фактори. Има войни, има икономически цикли, но като цяло, колкото повече работни места автоматизирате и колкото по-висока е интелектуалната необходимост за започване на работа, толкова по-малко хора се квалифицират. Така че, ако го начертаем на графика през следващите 20 години, вие предполагате, че безработицата постепенно ще се увеличава през това време.
Стивън Бартлет: Мисля, че да. Все по-малко хора ще могат да допринасят. Вече някак си го разбираме, защото създадохме минимална работна заплата. Разбрахме, че някои хора не допринасят с достатъчно икономическа стойност, за да получават каквото и да е заплащане. Така че трябваше да принудим работодателите да им плащат повече, отколкото струват.
Д-р Роман Ямполски: Мхм.
Стивън Бартлет: И не сме я актуализирали. Какво е, 7,25 долара на федерално ниво в САЩ. Ако се съобразявате с икономиката, сега трябва да е около 25 долара на час, което означава, че всички тези хора, които печелят по-малко, не допринасят с достатъчно икономическа продукция, за да оправдаят това, което получават.
Д-р Роман Ямполски: Имаме традиция за закриване на този подкаст, където последният гост оставя въпрос за следващия гост, без да знае за кого го оставя. И въпросът, оставен за вас, е: кои са най-важните характеристики за приятел, колега или партньор?
Стивън Бартлет: Това са много различни типове хора.
Д-р Роман Ямполски: Но за всички тях лоялността е номер едно.
Стивън Бартлет: И какво означава лоялността за вас?
Д-р Роман Ямполски: Да не те предават, да не те прецакват, да не ти изневеряват. Въпреки изкушението, въпреки света такъв, какъвто е, ситуацията, средата.
Стивън Бартлет: Д-р Роман, благодаря ви много. Благодаря ви много, че правите това, което правите, защото започвате разговор и тласкате напред разговор и правите изследвания, които са изключително важни, и го правите пред лицето на много скептици. Бих казал, че има много хора, които имат много стимули да дискредитират това, което казвате и правите, защото имат свои собствени стимули и имат милиарди долари на карта, а потенциално и работата си. Така че е наистина важно да има хора, които са готови, предполагам, да си покажат главата над парапета и да идват в предавания като това и да отиват на големи платформи и да говорят за необяснимото, непредсказуемото, неконтролируемото бъдеще, към което се насочваме. Така че, благодаря ви, че го правите. Тази книга, която мисля, че всеки трябва да провери, ако иска продължение на този разговор, мисля, че е публикувана през 2024 г., дава цялостен поглед върху много от нещата, за които говорихме днес. Предотвратяване на провали на ИИ и много, много повече, и ще я свържа по-долу за всеки, който иска да я прочете. Ако хората искат да научат повече от вас, ако искат да се задълбочат в работата ви, кое е най-доброто нещо, което да направят? Къде да отидат?
Д-р Роман Ямполски: Могат да ме последват. Последвайте ме във Facebook. Последвайте ме в X. Просто не ме следвайте до вкъщи. Много важно.
Стивън Бартлет: Да ви следват до вкъщи. Добре. Добре, ще сложа вашия Twitter, вашия X акаунт, също по-долу, за да могат хората да ви последват там и да, благодаря ви много, че правите това, което правите. Забележително просветляващо и ми даде толкова много храна за размисъл и всъщност ме убеди повече, че живеем в симулация, но също така ме накара да мисля доста по-различно за религията, трябва да кажа, защото сте прав, всички религии, когато се отдалечите от местните традиции, всички сочат към едно и също нещо и всъщност, ако всички сочат към едно и също нещо, тогава може би фундаменталните истини, които съществуват във всички тях, трябва да бъдат нещо, на което обръщам повече внимание. Неща като "обичай ближния си", неща като факта, че всички сме едно, че има божествен създател и може би също така всички те изглежда имат последствия отвъд този живот. Така че може би трябва да мисля повече за това как се държа в този живот и къде може да се озова след това. Роман, благодаря ви.