Експерти предупреждават, че AI поема контрол над ядрените оръжия
От Пентагона вече се хвалят, че удвояват усилията си в интегрирането на изкуствен интелект
Миналия месец носители на Нобелова награда се срещнаха с ядрени експерти, за да обсъдят изкуствения интелект и края на света — и ако това ви звучи като началото на научнофантастичен филм за апокалипсиса, не сте единствени.
Както съобщава Wired, събралите се експерти изглежда широко споделят мнението, че е само въпрос на време преди AI да получи достъп до ядрени кодове. Трудно е да се обясни защо това трябва непременно да се случи, но усещането за неизбежност — и тревога — е осезаемо в доклада.
"То е като електричеството", казва пред Wired пенсионираният генерал-майор от Военновъздушните сили на САЩ и член на Съвета за наука и сигурност към Бюлетина на атомните учени, Боб Латиф. "Ще намери пътя си до всичко."
Ситуацията е странна. AI вече е показал множество тъмни страни, като в някои случаи дори е прибягвал до изнудване на потребители, когато е бил заплашен от изключване.
Страхът от това AI да поеме реален контрол и да може да осъществи (или да откаже) изстрелване на ядрени оръжия по свое усмотрение е само едната страна на монетата.
В настоящата си форма рисковете вероятно са по-прозаични, тъй като дори най-добрите модели на AI днес страдат от чести "халюцинации", които значително подкопават полезността на техните резултати.
Съществува и заплахата от дефектна AI технология, която може да отвори пропуски в киберсигурността и да позволи на противници — или дори враждебни AI — да получат достъп до системи, контролиращи ядрени оръжия.
Постигането на консенсус по толкова деликатна тема като AI се оказало трудно дори за участниците в необичайната среща миналия месец. Директорът на Федерацията на американските учени по глобален риск, Джон Уолфстал, признава пред изданието, че "никой всъщност не знае какво е изкуствения интелект."
"В тази област почти всички казват, че искат ефективен човешки контрол върху вземането на решения относно ядрените оръжия", добавя Уолфстал. Латиф също се съгласява, казвайки: "Трябва да можеш да увериш хората, за които работиш, че има някой, който носи отговорност."
За да покаже сериозността на заплахата, създателят на ChatGPT — OpenAI — също подписа споразумение с Националните лаборатории на САЩ по-рано тази година за използване на AI с цел сигурност на ядрените оръжия.
Миналата година генералът от Военновъздушните сили Антъни Котън, който на практика отговаря за ядрения арсенал на САЩ, се похвали на отбранителна конференция, че Пентагонът удвоява усилията си в използването на AI, твърдейки, че той ще "подобри способностите ни за вземане на решения".
За щастие, Котън не стигна дотам да каже, че трябва да дадем пълен контрол на технологията.
"Но никога не трябва да позволим на изкуствения интелект да взема тези решения вместо нас", добави той тогава.