OpenAI изоставя сигурността, ако конкурент пусне "високорисков" модел
Надпреварата между компаниите може да роди нещо наистина страшно
OpenAI обнови своята вътрешната система, чрез която оценява безопасността на AI моделите си и определя нужните предпазни мерки по време на разработка и внедряване. В новата версия OpenAI заявява, че може да "коригира" своите изисквания за безопасност, ако конкурентна лаборатория пусне "високорискова" система без подобни защити.
С други думи OpenAI може бързо да пусне високорисков модел, ако конкурент направи подобно нещо.
Тази промяна отразява нарастващото състезание между комерсиалните разработчици на изкуствен интелект, които се стремят да внедряват нови модели възможно най-бързо.
OpenAI вече беше обвинена, че занижава стандартите си за безопасност в името на по-бързите пускания и че не публикува навреме доклади за безопасност. Миналата седмица 12 бивши служители на компанията подадоха становище по делото на Илон Мъск срещу OpenAI, твърдейки, че планираната корпоративна реорганизация може да доведе до още по-сериозни компромиси с безопасността.
Вероятно предвиждайки критики, OpenAI подчертава, че няма да прави тези корекции лекомислено, и че ще поддържа предпазните си мерки на "по-високо защитно ниво".
"Ако друг водещ разработчик на ИИ пусне високорискова система без съответните защити, ние можем да коригираме изискванията си", пише OpenAI в блог публикация от вторник следобед.
"Преди това обаче ще направим задълбочена оценка дали рисковият пейзаж наистина се е променил, ще обявим публично, че правим промяна, ще оценим дали тя не увеличава значително риска от сериозни щети и ще запазим нивото на предпазни мерки по-високо."
Обновената рамка също така показва, че OpenAI започва все по-силно да разчита на автоматизирани проверки, за да ускори разработката на продукти. Компанията твърди, че не е изоставила напълно тестовете, водени от хора, но вече разполага с "нарастващ набор от автоматизирани оценки", които могат да "поддържат по-бързия ритъм на пускане".
Някои репортажи обаче противоречат на това. Според Financial Times, OpenAI е предоставила на своите тестери по-малко от седмица за извършване на проверки по сигурността на нов предстоящ голям модел — много по-сбит срок от предишни случаи.
Източници на изданието твърдят също, че много от тестовете по сигурността се правят върху по-ранни версии на моделите, а не върху тези, които стигат до широката публика.
OpenAI официално отрича обвиненията, че прави компромиси с безопасността.
Други промени в рамката се отнасят до начина, по който компанията класифицира AI моделите според риска. Това включва модели, които могат да:
- прикриват способностите си,
- избягват системите за сигурност,
- предотвратяват изключването си,
- или дори да се самовъзпроизвеждат.
Отсега нататък OpenAI ще фокусира оценките си върху това дали един модел достига до:
- "висока способност" (high capability) - модел, който може да усили съществуващи пътища към сериозна вреда;
- "критична способност" (critical capability) - модел, който създава нови, безпрецедентни пътища към сериозна вреда.
"Системите, които достигат висока способност, трябва да имат защити, които адекватно минимизират съответния риск преди пускане", казва OpenAI.
"А тези, които достигат критична способност, се нуждаят от защити още по време на разработката."
Това е първото обновяване на рамката за безопасност на OpenAI от 2023 г. насам.