Докато дебатът за рисковете от изкуствения интелект става все по-нажежен, се появяват и все по-радикални идеи за това как развитието му може да бъде ограничено. Ако призивите за физическо унищожаване на центрове за данни звучат твърде крайно, нов проект предлага различен подход - удар не по инфраструктурата, а по самата "храна" на AI системите - данните, пише Futurism.

Проектът носи името Poison Fountain ("Отровен фонтан") и има за цел умишлено да замърсява обучаващите масиви от данни, които компаниите използват за трениране на своите модели.

Идеята е проста, но потенциално ефективна. Ако AI системите бъдат обучавани с дефектни, подвеждащи или логически грешни данни в достатъчно голям мащаб, резултатът може да бъдат нестабилни, ненадеждни или направо нефункциониращи модели.

Проектът стартира публично през изминалата седмица и бързо привлече внимание, след като изданието The Register съобщи, че част от участниците работят в големи американски AI компании. Източник на медията твърди, че напрежението около темата ескалира по начин, който остава почти незабелязан от широката общественост.

"Ние сме съгласни с Джефри Хинтън - машинният интелект е заплаха за човешкия вид", гласи позиция на сайта на Poison Fountain. Хинтън, често наричан "кръстникът на изкуствения интелект", през последните години се превърна в един от най-острите критици на технологията, за чието развитие сам е допринесъл.

Съвременният бум на изкуствения интелект не се дължи само на архитектурата на невронните мрежи, а и на осъзнаването, че те могат да бъдат обучавани с огромни количества данни, извлечени от интернет. Това доведе до масово "изстъргване" (scraping) на онлайн съдържание - практика, която според мнозина е неетична и дори незаконна, и вече е обект на множество дела за нарушени авторски права.

Основният принцип е добре известен. AI моделът е толкова добър, колкото са добри данните, с които е обучен. Ако данните са объркани или дефектни, резултатът също ще бъде компрометиран. Вече съществуват инструменти, които например добавят незабележими смущения в изображения, за да попречат на AI да копира художествени стилове.

Poison Fountain цели да приложи подобна стратегия, но в масов и координиран мащаб. Проектът предоставя връзки към специално подготвени "отровни" набори от данни, които собственици на сайтове могат да скрият в уебстраниците си. Те са създадени така, че да бъдат индексирани от автоматичните уеб роботи на технологичните компании.

По думите на участник в проекта, цитиран от The Register, тези данни съдържат код с логически грешки и дефекти, които могат да навредят сериозно на големи езикови модели, ако бъдат включени в обучението им. Според авторите това представлява "практически неизчерпаем поток от отровни тренировъчни данни".

Остава открит въпросът дали този подход ще бъде възприет масово и дали AI компаниите няма да успеят сравнително лесно да филтрират подобно съдържание. Със сигурност обаче той е част от по-широк фронт срещу неконтролираното развитие на изкуствения интелект - наред с призивите за строга регулация и съдебните битки за авторски права.

Според създателите на Poison Fountain регулациите вече не са достатъчни. "Няма как да се спре напредъкът на тази технология, след като вече е разпространена по целия свят", твърди източникът. "Това, което остава, са оръжия. Poison Fountain е пример за такова оръжие."