Продължаващите атаки срещу Иран, извършвани от съвместни сили на САЩ и Израел, са отнели стотици човешки животи. Според информация на "Уолстрийт Джърнъл" американските военни са използвали чатбота Claude на компанията Anthropic при подбора на цели.

Изданието твърди, че големият езиков модел Claude е ключов AI инструмент за Централното командване на американската армия в Близкия изток. Сред задачите му са анализ на разузнавателна информация, симулации на военни сценарии и идентифициране на военни цели. Изкуственият интелект участва във всички дейности, свързани с планирането на операции. 

Новината предизвика изненада, тъй като Дарио Амодей, главен изпълнителен директор на Anthropic, публично поддържа т.нар. "етични червени линии". Той влезе в спор с Пентагона, защото се противопостави на използването на технологиите на компанията за масово наблюдение на американски граждани и за напълно автономни смъртоносни оръжия.

Използването на Claude за подпомагане на избора на цели обаче изглежда не попада формално в тези ограничения, пише Futurism.

Ситуацията се развива на фона на напрежение между Anthropic и Пентагона. Според публикации Министерството на отбраната, което използва Claude в класифицирани системи, е поставило краен срок компанията да се откаже от ограниченията, свързани с наблюдението и автономните оръжия. Anthropic не е отстъпила от позицията си.

Награденият с Пулицър журналист, специализирал се в темата за националната сигурност на САЩ Спенсър Акерман коментира, че е показателно кои етични граници не са били поставени още при сключването на договора с военните. Според него моралният дебат е трябвало да се проведе преди подписването на подобно споразумение.

Няма данни технологиите на Anthropic да се ползват при напълно автономни бойни дронове с AI. Но изкуственият интелект вече маркира цели за унищожаване. В продължаващата вече пети ден война срещу Иран има над 500 загинали иранци, включително 165 души при удар срещу училище в южната част на страната.