Отровни данни срещу изкуствения интелект. Нов проект цели да саботира AI моделите отвътре
Целта на "Отровен фонтан" е захранването на технологията с подвеждащи или логически грешни данни
Докато дебатът за рисковете от изкуствения интелект става все по-нажежен, се появяват и все по-радикални идеи за това как развитието му може да бъде ограничено. Ако призивите за физическо унищожаване на центрове за данни звучат твърде крайно, нов проект предлага различен подход - удар не по инфраструктурата, а по самата "храна" на AI системите - данните, пише Futurism.
Проектът носи името Poison Fountain ("Отровен фонтан") и има за цел умишлено да замърсява обучаващите масиви от данни, които компаниите използват за трениране на своите модели.
Идеята е проста, но потенциално ефективна. Ако AI системите бъдат обучавани с дефектни, подвеждащи или логически грешни данни в достатъчно голям мащаб, резултатът може да бъдат нестабилни, ненадеждни или направо нефункциониращи модели.
Проектът стартира публично през изминалата седмица и бързо привлече внимание, след като изданието The Register съобщи, че част от участниците работят в големи американски AI компании. Източник на медията твърди, че напрежението около темата ескалира по начин, който остава почти незабелязан от широката общественост.
"Ние сме съгласни с Джефри Хинтън - машинният интелект е заплаха за човешкия вид", гласи позиция на сайта на Poison Fountain. Хинтън, често наричан "кръстникът на изкуствения интелект", през последните години се превърна в един от най-острите критици на технологията, за чието развитие сам е допринесъл.
Съвременният бум на изкуствения интелект не се дължи само на архитектурата на невронните мрежи, а и на осъзнаването, че те могат да бъдат обучавани с огромни количества данни, извлечени от интернет. Това доведе до масово "изстъргване" (scraping) на онлайн съдържание - практика, която според мнозина е неетична и дори незаконна, и вече е обект на множество дела за нарушени авторски права.
Основният принцип е добре известен. AI моделът е толкова добър, колкото са добри данните, с които е обучен. Ако данните са объркани или дефектни, резултатът също ще бъде компрометиран. Вече съществуват инструменти, които например добавят незабележими смущения в изображения, за да попречат на AI да копира художествени стилове.
Poison Fountain цели да приложи подобна стратегия, но в масов и координиран мащаб. Проектът предоставя връзки към специално подготвени "отровни" набори от данни, които собственици на сайтове могат да скрият в уебстраниците си. Те са създадени така, че да бъдат индексирани от автоматичните уеб роботи на технологичните компании.
По думите на участник в проекта, цитиран от The Register, тези данни съдържат код с логически грешки и дефекти, които могат да навредят сериозно на големи езикови модели, ако бъдат включени в обучението им. Според авторите това представлява "практически неизчерпаем поток от отровни тренировъчни данни".
Остава открит въпросът дали този подход ще бъде възприет масово и дали AI компаниите няма да успеят сравнително лесно да филтрират подобно съдържание. Със сигурност обаче той е част от по-широк фронт срещу неконтролираното развитие на изкуствения интелект - наред с призивите за строга регулация и съдебните битки за авторски права.
Според създателите на Poison Fountain регулациите вече не са достатъчни. "Няма как да се спре напредъкът на тази технология, след като вече е разпространена по целия свят", твърди източникът. "Това, което остава, са оръжия. Poison Fountain е пример за такова оръжие."