"Ню Йорк Таймс" обмисля съдебно дело срещу създателите на ChatGPT
OpenAI Са нарушали интелектуалната собственост на вестника
"Ню Йорк Таймс" и създателите на ChatGPT, OpenAI, са пред знаково съдено дело относно използването на съдържание от вестника. Според вътрешна информация преговорите за предоставянето на лицензиран достъп до огромната библиотека с материали на изданието са пред провал и последствията от това може да са огромни, пише NPR.
Според източниците на NPR, "Ню Йорк Таймс" не разглежда чатбота ChatGPT единствено като инструмент. Основното притеснение на влиятелния вестник е, че изкуствения интелект се явява негов пряк конкурент, ползващ наготово материалите му.
Някои стигат до там, да нарекат алгоритъма машина за плагиатство, обучена и компилираща данни, извлечени от цялото онлайн пространство.
Ако съдът установи, че OpenAI е обучил ChatGPT с неправомерно взети материали от вестника, то санкциите за нарушени авторски права могат да са огромни. Потенциално дело би имало огромни последствия за изживяващата бум AI-индустрия.
"Законът за авторското право е меч, който ще виси над главите на AI компаниите години, освен ако те не измислят как да договорят решение", казва Даниел Жерве, съдиректор на програмата за интелектуална собственост в университета Вандербилт, пред NPR.
Експертът разкрива, че глобата за един неправомерно изкопиран материал може да е 150 000 долара.
Информацията все още не е потвърдена от "Ню Йорк Таймс". Въпреки това делата срещу разработчиците на генеративни AI започват да се трупат и скоро може да се стигне до прецедент.
През два месеца главният изпълнителен директор на "Ню Йорк Таймс", Мередит Левиен, заяви, че е време технологичните компании да платят справедливия си дял за това, че са използвали огромните архиви на вестника.
Факт е, че изкуственият интелект се обучава с огромно количество бази от данни, като не за всяка информация е взето съгласие. Алгоритмите наподобяват статистически машини, а впечатляващо точните им резултати са възможни именно заради заредените в тях бази от данни.