Изкуственият интелект вече може да измисля работещи биологични вируси. В реални експерименти екип изследователи от Станфорд демонстрираха, че вирус с ДНК, написана от AI, може да атакува и убива конкретни бактерии. Това отваря свят на възможности, където изкуствени вируси биха могли да се използват за лечение на болести и борба с инфекции.

Но експерти предупреждават, че това също е отваряне на "кутията на Пандора". Злонамерени организации биха могли също толкова лесно да използват AI, за да произвеждат нови биологични оръжия, поставяйки лекари и правителства в постоянно изоставане заради скоростта, с която могат да се проектират тези вируси, предупреждават Тал Фелдман, студент по право в Йейл и бивш разработчик на AI модели за федералното правителство, и Джонатан Фелдман, изследовател по компютърни науки и биология в Georgia Tech (няма информация дали двамата са свързани).

"Няма как да омаловажим рисковете," пишат двамата във Washington Post. "Не сме готови за свят, в който AI може да създаде работещ вирус, но трябва да бъдем — защото това е светът, в който вече живеем."

В проучването изследователите от Станфорд използвали AI модел, наречен Evo, за да създаде ДНК на бактериофаг — вирус, който заразява бактерии. За разлика от езикови модели като ChatGPT, които са обучени върху писмен текст, Evo е бил обучен изключително върху милиони геноми на бактериофаги.

Те се съсредоточили върху добре проучения фаг phiX174, който заразява щамове на бактерията E. coli. С помощта на Evo екипът създал 302 кандидат-генома, базирани на phiX174, и ги тествал, като химически сглобил нови вируси.

Шестнадесет от тях били успешни — заразили и унищожили щамовете на E. coli. Някои дори се оказали по-смъртоносни от естествената форма на вируса.

Но "докато екипът на Станфорд действаше внимателно, какво би попречило на други да използват отворени данни за човешки патогени, за да изградят свои модели?" предупреждават двамата Фелдман. "Ако AI съкращава времето за проектиране на биологични оръжия, САЩ ще трябва да съкрати времето за реакция. Не можем да спрем новите заплахи, генерирани от AI. Истинското предизвикателство е да ги изпреварим."

Това означава използване на същата AI технология за създаване на антитела, антивирусни лекарства и ваксини. Някаква работа в тази посока вече се извършва, но огромните обеми данни, нужни за ускоряване на тези изследвания, "са заключени в частни лаборатории, в собственически бази данни или изобщо липсват".

"Федералното правителство трябва да направи изграждането на такива висококачествени бази данни приоритет," казват те.

След това правителството ще трябва да създаде необходимата инфраструктура за производство на лекарства, създадени от AI, тъй като "частният сектор не може да оправдае разходите за капацитет, който може никога да не се наложи", аргументират се те.

Накрая, бавната и тромава регулаторна рамка на Агенцията за храните и лекарствата (FDA) също ще има нужда от реформа. (Иронично, самата FDA вече заяви, че използва AI, за да ускори одобряването на медикаменти.)

"Необходими са нови механизми за бързо разрешаване, които да позволят временно прилагане на лекарства, създадени от AI, и провеждане на клинични изпитания, съчетани със строг контрол и мерки за безопасност," казват те.

Сериозните рискове, свързани със създаването на вируси чрез AI, не трябва да се подценяват.

Но трябва да се отбележи, че въпросното проучване все още не е преминало през независима научна проверка и все още нямаме пълна представа колко лесно някой би могъл да повтори резултатите на учените.

Притесненията на експертите от и статията им във Washington Post също могат да "отворят" кутията на пандора. За САЩ или друго правителство би било лесно да оправдае създаването на вируси с AI. Това би било необходимо за разработването на методи за справянето с тези вируси и изпреварване на потенциалния враг. Но създаването или модифицирането на вируси крие риск само по себе си.