Meta може да спре разработката на "твърде рисков" изкуствен интелект
Компанията се притеснява, че изкуственият интелект може да разработи високоефективни биологични оръжия
Главният изпълнителен директор на Meta, Марк Зукърбърг, обеща един ден да направи изкуствения всеобщ интелект (AGI) - който се дефинира като AI, способен да изпълнява всяка задача, която човек може - достъпен за всички.
Въпреки това, в нов програмен документ Meta посочва, че е възможно да не пусне определени мощни AI системи, разработени вътрешно, ако ги сметне за твърде опасни.
Документът, наречен Frontier AI Framework, оценя два типа AI системи, които компанията счита за твърде опасни: тези с "висок риск" и с "критичен риск".
Според Meta, и двата вида системи могат да се използват за кибератаки, химически и биологични атаки, но разликата е, че "критично-рисковите" системи могат да доведат до "катастрофални последици", които не могат да бъдат предотвратени в контекста на тяхното внедряване.
От друга страна, "високорисковите" системи единствено биха улеснили подобни атаки.
Meta дава някои примери за опасни AI сценарии:
- Автоматизирано проникване в защитена корпоративна среда
- Разпространение на високоефективни биологични оръжия
Компанията признава, че списъкът далеч не е изчерпателен, но обхваща "най-спешните" и реалистични заплахи, които могат да възникнат при пускането на мощна AI система.
Как Meta оценява риска?
Изненадващо е, че Meta не разчита на конкретни емпирични тестове, за да класифицира риска на AI системите. Вместо това компанията се уповава на мненията на вътрешни и външни изследователи.
Защо? Според Meta, науката за оценка на риска все още не е достатъчно развита, за да предостави надеждни показатели.
Ако една AI система бъде определена като "висок риск", Meta ще ограничи достъпа до нея вътрешно и няма да я пусне, докато не намали риска до "умерени нива".
Ако дадена система бъде класифицирана като "критичен риск", Meta ще предприеме неуточнени мерки за сигурност, за да предотврати кражбата ѝ или ще спре развитието ѝ, докато не бъде направена по-безопасна.
Критика
Документът Frontier AI Framework е част от ангажимента на Meta да предостави повече прозрачност за разработките си, особено преди предстоящата France AI Action Summit този месец. Вероятно това е и отговор на критиките, че Meta твърде свободно споделя AI технологиите си.
Компанията следва стратегията на "отворено пускане" на AI модели - за разлика от компании като OpenAI, които ограничават достъпа чрез API.
Този подход има както плюсове, така и минуси:
- AI моделите на Meta, наречени Llama, са свалени стотици милиони пъти.
- Llama е бил използван от поне един противник на САЩ за създаване на чатбот за военна защита.
"Вярваме, че като вземаме предвид както ползите, така и рисковете при разработването и внедряването на усъвършенстван AI," пише Meta, "можем да предоставим тази технология на обществото, запазвайки нейните предимства, като същевременно поддържаме приемливо ниво на риск."