Президентът на САЩ Джо Байдън разкри серия от мерки, с които ще регулира изкуствения интелект. Списъкът е пълен и с опасения относно вредоносния потенциал на AI и предложения за намаляване на риска. Страховете на Вашингтон са разграфени в 8 категории.

Разбира се, всички очертани рискове - кибер измами, заплахи от дезинформация, по-успешни хакерски атаки и други - са сериозни. Документът обаче говори и за голям риск от използването на изкуствен интелект за "проектиране на биологични оръжия".

За да се противопостави на заплахата от опасни биологични оръжия, проектирани от AI, Белият дом обясни в заповедта, че ще разработи "строги нови стандарти за скрининг на биологичен синтез", добавяйки, че "агенциите, които финансират проекти в областта на науката за живота, ще установят тези стандарти като условие за федерално финансиране, създавайки мощни стимули за осигуряване на подходящ скрининг и управление на рисковете, потенциално влошени от AI."

Въпреки че нито една от тези тактики за смекчаване не е лоша идея, сама по себе си, те все още са доста неясни и вероятно не потискат безпокойството.

AI е широко рекламиран като мощен агент за откриване на лекарства, като първото лекарство, създадено от изкуствен интелект, вече е подложено на клинични изпитвания върху хора.

Но докато някои хора може да използват AI, за да намерят пропуски в нашите биологични познания, които биха могли да допринесат за производството на полезни лекарства и терапии, е възможно други лица да използват подобни практики за по-бързо и ефикасно разработване на сложни и опасни вируси, патогени и други вредни вещества.

Байдън не е първият човек, който привлича вниманието към проблема. Още през юли главният изпълнителен директор на Anthropic Дарио Амодей предупреди членовете на съдебната комисия на Сената, че днешните AI инструменти вече имат силата да премахнат необходимостта от получаване на високото ниво на експертен опит, изискван исторически за производството на био оръжия.