В нов доклад, публикуван от политическа група в Калифорния, съвместно ръководена от Фей-Фей Ли, изследователите предлагат законодателите да вземат предвид рискове от изкуствения интелект, които все още не са наблюдавани в реалния свят, когато създават регулаторни политики за AI.

41-страничният междинен доклад беше публикуван във вторник от Съвместната калифорнийска работна група, създадена от губернатора Гавин Нюсъм след като наложи вето на спорния законопроект за AI безопасност SB 1047.

Макар че Нюсъм отхвърли SB 1047 като неефективен, той призна необходимостта от по-задълбочена оценка на AI рисковете, за да помогне на законодателите.

По-голяма прозрачност за работата на AI лабораториите

В доклада Ли, заедно с Дженифър Чейс (декан на Колежа по компютърни науки в UC Berkeley) и Мариано-Флорентино Куеляр (президент на Carnegie Endowment for International Peace), защитават повишаване на прозрачността в работата на лаборатории като OpenAI.

Докладът е бил разгледан от представители на различни позиции в AI индустрията преди публикуването му, включително известни AI защитници като Йошуа Бенджио (носител на наградата Тюринг) и критиците на SB 1047, като съоснователя на Databricks Йон Стоика.

Според доклада новите рискове, които AI системите създават, могат да наложат приемането на закони, които да задължат AI разработчиците да публикуват данни за тестовете за безопасност, методите за събиране на данни и мерките за сигурност. Документът също така подкрепя:

  • Повишаване на стандартите за външни оценки на AI моделите
  • Разширени защити за служителите и подизпълнителите на AI компании, които подават сигнали за злоупотреби

Предвиждане на бъдещи рискове

Авторите признават, че няма достатъчно доказателства, че AI може да се използва за кибератаки, биологични оръжия или други "екстремни" заплахи. Те обаче предупреждават, че политиките за AI не трябва да разглеждат само настоящите рискове, но и да предвиждат бъдещи последици.

"Например, не е нужно да наблюдаваме ядрен взрив, за да предвидим, че той би причинил огромни щети", се казва в доклада. "Ако хората, които спекулират за най-екстремните AI рискове, се окажат прави - дори и да не сме сигурни - цената на бездействието би била изключително висока."

Докладът предлага двустранна стратегия за прозрачност в AI:

  • Доверие, но проверка - AI разработчиците трябва да имат възможност доброволно да докладват за проблеми с безопасността
  • Задължителна независима проверка - резултатите от тестовете за безопасност трябва да бъдат проверявани от трети страни

Докладът не препоръчва конкретно законодателство, но вече е получил положителни отзиви от експерти и политици.

Дийн Бол, изследовател в George Mason University, който беше критик на SB 1047, заяви в X (бившия Twitter), че докладът е обещаваща стъпка за AI регулациите в Калифорния.

От друга страна, сенатор Скот Уайнър, който предложи SB 1047 миналата година, заяви, че докладът подкрепя важните дебати за AI управлението, започнати в законодателния орган през 2024 г.

ИЗБРАНО