САЩ притискат Anthropic да се съгласи за военна употреба на AI
В противен случай Пентагонът ще обяви компанията като "рискова"
Вашингтон постави изключително сериозен ултиматум на американската AI фирма Anthropic, производител на чатбота Claude, в спор за това какво могат да правят военните с нейната технология.
Пийт Хегсет, министър на отбраната на САЩ, се срещна в Пентагона с главния изпълнителен директор на Anthropic Дарио Амодей и постави краен срок до петък вечерта. Според него компанията да премахне определени ограничения (safeguards) върху използването на AI за военни цели.
Пентагонът заплашва, че ако Anthropic откаже, то фирмата може да бъде официално определена като "риск за веригата на доставки" (supply chain risk) — което би могло да я изключи от много правителствени договори.
Министерството на отбраната може да приложи и Defense Production Act (DPA) — закон от ерата на Студената война, който позволява принудително използване на частни ресурси при национална сигурност.
Anthropic поддържа позиция, че неговият модел Claude не трябва да бъде използван за масово вътрешно наблюдение на граждани и автономни оръжия, които могат да вземат решения за военни удари без човешки контрол.
Тези ограничения са част от етичните принципи на компанията, която се представя като по-фокусирана върху безопасността на AI в сравнение с много конкуренти.
Любопитно, но без да споменава позициите на компанията, Илон Мъск ѝ отправи атака в социалната си мрежа, наричайки я "мизантропска".
Пентагонът твърди, че когато прави технологии достъпни за военните -включително в классифицирани мрежи и задачи - той трябва да може да ги използва за всички "законни приложения", без ограничения, които неговите юристи смятат за неприемливи.
Anthropic е една от четирите големи AI компании (заедно с OpenAI, Google и xAI), които през миналата година получиха договори от Пентагона на стойност до по 200 млн долара всеки.
Ройтерс съобщава, че спора ескалира именно защото Anthropic отказва да отстъпи от принципите си - особено по отношение на автономията на оръжията и масовото наблюдение - въпреки натиска на администрацията.
Важно е да се отбележим, че OpenAI, Google и xAI не са се сблъскали с подобни проблеми с Пентагона, което е показателно.
Ако Anthropic не отговори положително до петък вечерта, Пентагонът би могъл да прекрати договорите ѝ, да използва DPA, за да я задължи да позволи пълно използване на Claude от армията и да ограничи способността ѝ да работи с други държавни партньори.
Според съобщения, американски военни са използвали AI моделa Claude на Anthropic при подготовката и изпълнението на специална операция в началото на януари, която доведе до залавянето на бившия венецуелски президент Николас Мадуро.
Claude е бил внедрен чрез партньорството на Anthropic с Palantir Technologies като част от анализ на разузнавателни данни и подпомагане на планирането на операцията - включително обработка на големи обеми информация и подпомагане на вземането на решения.
След като стана ясно, че Claude е участвал в операцията, се подразбра, че Anthropic може би не е била напълно информирана за специфичното му използване.
Главният изпълнителен директор на Anthropic Дарио Амодей е известен с позициите си за строги етични ограничения върху използването на AI — включително забрани срещу автономни оръжия без човешки надзор и масово вътрешно наблюдение. Компанията е подкрепяла и политически инициативи за регулиране на AI и има връзки с бивши служители на администрацията на Джо Байдън.
Дарио Амодей твърди, че създаването на AI оръжия и системи за дълбоко наблюдение над гражданите крият непосредствен риск от злоупотреби.