Пентагонът в конфликт с Anthropic за използването на изкуствен интелект във военни операции
Според Дарио Амодей има риск демократичните общества да се превърнат в подобие на авторитарните им противници
Министерството на отбраната на САЩ е в остър спор с разработчика на изкуствен интелект Anthropic относно ограниченията за използване на неговите технологии във военната сфера. Според източници, запознати с разговорите и цитирани от Ройтерс, разногласията са свързани с предпазни механизми, които биха попречили на правителството да използва AI за автономно насочване на оръжия или за наблюдение на американски граждани.
Случаят се разглежда като първи сериозен тест за това доколко технологичните компании от Силициевата долина могат да влияят върху начина, по който американските военни и разузнавателни структури прилагат все по-мощни AI системи. След продължителни преговори по договор с потенциална стойност до 200 млн. долара, двете страни са достигнали до застой, твърдят шестима души, запознати с процеса.
Позицията на Anthropic относно допустимата употреба на нейните модели е изострила напрежението с администрацията на президента Доналд Тръмп, като детайлите около конфликта не са били публично известни досега. Говорител на Министерството на отбраната, което по-рано тази година бе преименувано от администрацията на "Министерство на войната", не е отговорил на запитванията за коментар.
От Anthropic заявяват, че техният изкуствен интелект вече се използва широко за мисии, свързани с националната сигурност, и че компанията води конструктивни разговори с ведомството за продължаване на сътрудничеството. Въпреки това спорът може да застраши бизнеса на компанията с Пентагона в особено чувствителен момент, тъй като стартъпът от Сан Франциско се подготвя за бъдещо първично публично предлагане и активно търси по-широко присъствие в сектора на националната сигурност.
Anthropic е сред малкото големи AI компании, които миналата година получиха договори от Пентагона, заедно с Google, xAI на Илон Мъск и OpenAI.
По време на разговорите с представители на правителството Anthropic е изразила опасения, че нейните технологии могат да бъдат използвани за шпиониране на американски граждани или за подпомагане на насочването на оръжия без достатъчен човешки контрол.
От своя страна, представители на Пентагона се позовават на меморандум от 9 януари относно стратегията за AI, според който ведомството трябва да може да използва комерсиални AI технологии независимо от вътрешните политики на компаниите, стига това да е в рамките на американското законодателство.
Въпреки това военните вероятно ще се нуждаят от съдействието на Anthropic, тъй като нейните модели са обучени да избягват действия, които могат да доведат до вреда, а именно служители на компанията биха трябвало да адаптират технологията за нуждите на Пентагона.
Изпълнителният директор на Anthropic Дарио Амодей коментира по-рано тази седмица, че изкуственият интелект трябва да подпомага националната отбрана, но без да превръща демократичните общества в подобие на авторитарните им противници.
Той също така изрази остри критики към използването на сила срещу граждани по време на протести, което допълнително засили опасенията сред част от технологичната общност относно потенциалната употреба на AI за насилие и вътрешно наблюдение.